Ez a topik a Logikai feladványok offtopik szálából jött létre, melyben Dulifuli kifejtheti, hogy miért nem *lehet* az, hogy az idő és a tömeg relatív, a többiek meg megpróbálhatják megértetni vele, ill. kérdésekkel tesztelni a Dulifuli-jelenséget.
Mert a Lorentz-elv a Newton-féle mechanikára épül, mégis matematikai átjárás van a Lorentz-elv és a specrel között. A két elv között filozófiai, ha úgy tetszik szemléleti különbség van. Ha valaki gondosan átnézi ezt, egy kicsit lehűtheti magát a téridős spekulatív lózungoktól. Ezzel nem azt mondom, hogy el kell vetni a téridővel történő manipulációkat, hanem azt mondom, hogy ne fogjunk rá a téridőre anyagi tulajdonságokat.
Ez filozófiai szagú kérdésnek tűnik. A matematika arról szól (első megközelítésben), hogy kellően precíz formális állításokból újabb állításokat generál a formállogika szabályai szerint. Ha a fizika ezt nem tudja hasznosítani a jövőben, akkor megáll a fizika fejlődése. Ezt gondolni persze mosolyogtató lenne. Tehát a fizika a jövőben is hasznosítani fogja a matematikát, vagyis a természet egyes jelenségeit továbbra is formális axiómákba (alapfeltevésekbe) önti majd és a dedukció eszközeivel azokból próbálja majd megmagyarázni a természet egyéb jelenségeit (amik a modellben formális állítások). Ez ilyen egyszerű. A fizikusok dolga persze nehéz, az élet nem habostorta.
Alighanem ez a kérdés ekvivalens azzal, hogy fel lehet-e írni a bolygók/csillagok Földhöz viszonyított látszólagos* pályáját a kepleri, newtoni (sőt + einsteini) tv-ek alapján [nyilván]; illetve, hogy ezeket a képleteket nem ezen alaptörvényekből levezetve, pusztán tapasztalati úton ki lehetne-e okumulálni [ez jobb kérdés; igazolni az elméletek helyességét tudtuk tapasztalati úton, az a gyanúm, hogy inkrementálisan igen, el lehetne jutni ezekhez a képletekhez az úgynevezett okok ismerete nélkül]
*nem szeretem ezt a szót éppen ebben a kontextusban, de így jobban értjük amit mondok
A legizgalmasabb persze az, hogy akadhatnak-e geocentrikus alapú más egyszerűbb gravitációs hipotézisek (ha jól látom pl. olyanokat kellene feltenni, hogy a Föld hogyan rángatja az egyenlítője síkjára merőlegesen az égitesteket, egyfajta rugómozgást létrehozva), amiknek a dinamikája és következménye ekvivalens lenne a kepleri/newtoni törvényekkel. (mint ahogy specrelben lehet Dulifulinak kedve modellt is csinálni, amiben kitüntetjük a Földet mint kijelölt inerciarendszert, fix pontot, és kijelentjük a tapasztalatok alapján, hogy más inerciarendszerekben egyenletesen mozgó (de nem álló) rendszerekben torzan mérjük az "igazi" időt, és távolságot, és rájövünk, hogy ez a torzulást épp a Lorentz trafóval kell számolni. A kettő kombinációja aztán egy igazi hipergeocentrikus világkép)
A Heliocentrikus világkép létrejeöttében igen csekély szerepet játszott az a mai, dinamikai felfogás, amiről írsz.
(1) Kopi "De Revolucionibus..."-ában a bevezetéseben (igaz, hogy azt nem Kopi írta, hanem Osiander) világosan kifejtetetik:
"[A szerző] kigondol ugyan okokat, de ezeket az okokat nem azért gondolja ki, hogy ezek igazságáról bárkit is meggyőzzön, hanem azért, hogy a számítások elvégzéséhez korrekt alapot teremtsen. Minthogy ugyanannak a mozgásnak a leírására időről-időre a legkülönbözőbb hiptéziseket ajánlották már ... a csillagász leginkább a legkönnyebben megragadhatót választja." [iia oldal]
(2) Abban az időben a római teológusok éppen ingadoztak, nem döntöttékel, hogy mi a fontosabb: (a) Ókori mintára a "központi tüzet", a Napot tekinteni Isten képmásának és szimbólumának, vagy (b) az embernek a teremtésben elfoglalt centrális helyzetét sulykolni. Nyilvánvaló a két különböző teológiai vonal csillagászati vetülete. A (b) változat győzedelmeskedvén a heliocentrista ideológusokat kizárták a pártból, vagy önkritikát gyakoroltattak velük. Később a makacsabbak már bíróság elé kerültek és jaj volt nekik.
(3) Még Galilei számára is a platoni egyenletes körmozgásokkal való magyarázat volt a legfontosabb. Kopi is ebből indult ki és abszolute tévesen azt hitte, hogy a heliocentrikus nézet egyszerűbb alapot teremt az egyenletes körmozgásokkal való leírásra. A kiindulópont mai fejjel felfoghatatlan: nem dinamikai; nem a liírás pontossága a lényeg; hanem egy esztétikai-teológiai szempontrendszer minél frappánsabb érvényesítése a cél.
Javaslom térjünk vissza az eredeti témára, mert talán ez egy fizikus topik. Legalább is ahogy Dulifuli gondolatmenetét érzékelem. Ezt írtad:
Nem értek egyet. A fizika azért van gondban, mert a világ bonyolult és a kísérleti megismerés lehetőségei nagyon korlátozottak. Ezért egyre indirektebb következtetéseket tudunk csak képesek levonni, a hipotézisektől a következményekig egyre hosszabb és bonyolultabb a dedukciós lánc. A hipotéziseket (axiómákat) egyre nehezebb jól felállítani.
Bárcsak igazad lenne, és a probléma gyökere ez lenne. Kolmogorovi axiómákat említettem és sajnálom, hogy nem vetted fel a lapot, pedig ez már szélesebb körben is érdeklődésre számíthat, mint Neumann farendszere .
Szerintem (is) nagyobb problémák előtt állunk: felborult-e a kauzalitás a mikrovilágban? Az utolsó kauzális elméletként a relativitáselméletet emlegetik. A kolmogorovi axiómák a kauzalitásra épülnek. Számíthatunk-e arra, hogy úgy alakulnak az ismereteink, amely lehetővé teszi az oksági viszonyok visszatérését?
Nekem pl. szimpatikus az a nézet, hogy tulajdonképp alkalmazni lehetne a kolmogorovi valószínűségeket, és ennek csak az az akadálya, hogy a méréseinkből sohasem merítünk ugyanabból a halmazból (most a kvantummechanika 'no go tételeire gondolok). Viszont azt hisszük, hogy ugyanabból a halmazból merítünk, és csak rosszul alkalmazzuk a valószínűségszámítást. Vagyis szimpatikus nekem Einstein álláspontja, miszerint nem ismerünk minden körülményt. (Most ne jöjjön valaki a kvantumlogikával, mert ugye mindenre lehet matematikai eljárást kidolgozni, és a kvantumlogika léte még nem bizonyítja, hogy más logika nem lehetséges)
A tételt Csebotarejev sűrűségi tételének hívják, talán 75 éves. Arról van szó, hogy minden p-re (ami a K/Q testbővítés diszkriminánsát nem osztja) ki lehet jelölni a G=Gal(K/Q) csoportban egy Frobp konjugáltosztályt (a p feletti helyek ún. Frobenius-automorfizmusainak halmazát), a p feletti helyek száma nem más, mint ebben a konjugáltosztályban az elemek rendje (tehát ahányadik hatványuk az identitás). A tétel egész pontosan azt mondja ki, hogy a G minden C konjugáltosztája előáll végtelen sokszor mint Frobp, méghozzá pontosan az esetek |C|/|G|-ed részében. Tehát egy konkrét d-re meg kell számolni, hogy mely C konjugáltosztályok állnak d-edrendű elemekből, és a megfelelő |C|/|G| törtek összege a d-hez tartozó sűrűség, amiről beszéltem.
A tétel jelentősége az, hogy bármely véges (vagy nullasűrűségű) prímhalmazon kívül is a megfelelő Frobenius-automorfizmusok (tehát a Frobp osztályba eső elemek) generálják a G-t. Tehát a G egy véges dimenziós tau reprezentációja esetén elegendő tudni ezen Frobenius-automorfizmusok képét. Egész pontosan csoportelméleti megfontolásokkal az is látható, hogy a Frobenius-automorfizmusok karakterisztikus polinomja meghatározza izomorfia erejéig a tau-t, bármilyen véges (vagy nullasűrűségű) prímhalmazon kívül. Ebben az a nagyon szép, hogy bár egy p-hez tartozó Frobenius-automorfizmusok csupán egy konjugáltosztályt alkotnak, a karakterisztikus polinomjuk már egyetlen jóldefiniált polinom, hiszen konjugált mátrixoknak ugyanaz a karakterisztikus polinomja. Tehát: minden tau Galois-reprezentációt elkódolnak a különböző p-khez tartozó karakterisztikus polinomok, már egy nullasűrűségű részen kívül is. Ezeket a karakterisztikus polinomokat össze lehet rakni egy félsíkon értelmezett komplex analitikus függvénnyé, az ún. Artin L-függvénnyé. A matematika egyik legmélyebb és legnagyszerűbb megoldatlan problémája, hogy ez az Artin L-függvény kiterjed holomorfan az egész komplex számsíkra. Pontosabban, ha tau a triviális reprezentáció (minden G-beli elem képe az identitás), akkor a Riemann-zetát kapjuk, tehát ettől tekintsünk el (mert van egy pólusa). Egydimenziós (nemtriviális) reprezentációkra a sejtés igaz, ekkor az Artin L-függvény mindig egy Dirichlet L-függvény (véges sok Euler-faktortól eltekintve). Kétdimenziós reprezentációkra már megoldatlan a sejtés, de egyes speciális esetekben ismert, ezek a Fermat-sejtés bizonyításában alapvető szerepet játszottak.
Az alapműveleteket a számosságos definícióval érdemes kifejezni. De én nem a definíciókról beszélek itt, hanem hogy milyen sokféleképpen lehet és érdemes a természetes számokra (vagy általánosabban a racionális számokra vagy még általánosabban egy algebrai számtest elemeire) tekinteni. A távolságfogalom definiálja az előbbi üzeneteimbeli beágyazásokat lokálisan kompakt testekbe (ezeken aztán lehet analízist csinálni, ugyanúgy, mint a valós számokon, ami ennek speciális esete).
Igen, csak amiről én beszéltem, az sokkal érdekesebb, izgalmasabb. Az algebrai számtesteket lokálisan kompakt testekbe beágyazni izgalmas dolog, ami által rengeteg érdekes dolog kiderül róluk. Lényegében ezekkel a beágyazásokkal kezdődik a modern algebrai számelmélet és az automorf formák elmélete. A véges számosságok definíciója kézenfekvő, de unalmas.
Pl. ha veszed a Q egy véges n-ed fokú K bővítését, akkor a K minden helye a Q egy helyét határozza meg: hiszen ha a K-t beágyazod sűrűn egy M lokálisan kompakt testbe, akkor a Q a K részeként szintén beágyazódik az M-be és a beágyazott Q-nak az M-beli lezártja egy L lokálisan kompakt test (az M/L bővítés foka legfeljebb n). Ilyenkor azt mondjuk, hogy a K-nak a szóban forgó helye a Q szóban forgó helye fölött fekszik. A Q minden p helye fölött valamilyen d(p) számú helye van a K-nak (a p lényegében egy prímszám itt, a d(p) pedig egy egész szám 1 és n között). És meg lehet kérdezni, hogy a p prímszámok mekkora sűrűségű részére lesz d(p) egy adott d-vel egyenlő. Pl. ha K/Q egy Galois-bővítés, akkor ez a sűrűség minden d esetén létezik és mindig az 1/n egész számú többszöröse! Ráadásul a Galois-csoport konjugált-osztályokra való felbontásából pontosan ki lehet olvasni, hogy az egyes sűrűségek mekkorák (sok közöttük 0, az összegük pedig 1). Hát nem csodálatos?
De a természetes számokat (a véges számosságokat) a halmazelméletben azelőtt definiáljuk, mielőtt ezt tennénk a racionálisokkal, nem beszélve a valósakról. A legegyszerűbb definíció az, hogy egy természetes szám legyen a kapcsos zárójelpárok összessége pl. a Simply Red által megadott Neumann-féle kifejtésben.
A számelmélet nyelvében maradva az S(n) szukcesszor művelet alkalmazása adja meg a diszkrét topológiát: két elem távolsága az a minimális alkalmazás-száma az S-nek, amelyből elérünk az egyikből a másikba. A zártnyílt halmazok távolsága: egyik minimumának, és a másik maximumának távolsága, amely lehet nulla is..
A > reláció definiálható a PA-ban, míg az Ostrowski-tételhez szükséges matematikai apparátus nem teljes egészében (pl. lokális kompaktság).
Ez szép, és egyszerűbb, mint gondoltam volna. De hogy lehet ezzel kifejezni a kisebb/nagyobb relációt, vagy az alapműveleteket? És mire jó ez a távolság-fogalom? (ha jól értem, két szám távolsága 2-n, ha kettes számrendszerbn leírt alakjukban az utolsó n számjegy megegyezik, de az utolsó n+1 már nem.)
Tekintettel arra, hogy a számfogalom definiálásakor lényegében egy távolság-relációt, vagyis topológiát adsz meg a diszkrét rendezéssel.
Nem. Az egészek fogalmába nincs beleértve semmilyen távolságreláció. Csak a négy alapművelet van (meg a 0 és az 1), a műveleti azonosságok meg teljes indukció. A többi már járulékos definíció. Távolságot többféleképpen lehet megadni (vö. előző üzenetem). Igazából a kérdés így tehető fel szépen. A racionális számok halmazát hányféleképpen lehet normával teljessé tenni, pontosabban hányféleképpen lehet művelettartó módon beágyazni egy lokálisan kompakt teljes testbe (amin a topológia nem diszkrét, hogy a trivialitásokat elkerüljük), ahol az f:Q->K és g:Q->L beágyazásokat ekvivalensnek tekintjük, ha van olyan művelettartó i:K->L bijekció, hogy g(q)=i(f(q)) minden Q-beli q-ra. Az ilyen teljessé tételeket (pontosabban azok ekvivalenciaosztályait) a Q "helyeinek" nevezik. Ostrowski egy klasszikus tétele alapján ismerjük a Q (vagy bármely algebrai számtest) helyeit: az egyik hely a szokásos Q->R beágyazás (szavakkal: "a racionális számok ott vannak a valósok között"), de minden p-re van egy Q->Qp beágyazás is, ahol a Qp a p-adikus számok teste (a p-adikus egészek hányadosteste). Ez a Q összes helye. Magyarán van a racionális számokon a szokásos abszolút-érték norma, de minden p-re van egy p-adikus norma is, és ezek definiálják az összes lehetséges teljessé tételt (ekvivalencia erejéig). Pl. a -36/5 szokásos normája 36/5, 2-adikus normája 1/4, 3-adikus normája 1/3, 5-adikus normája 5, a többi p-adikus normája pedig 1. A különböző normák szorzata 1, ez minden algebrai számtestben igaz minden elemre.
Bocsánat, nem a fa csúcsai a számok. Minden csúcsból megy egy ág balra és egy jobbra, ezek felelnek meg a 0 és 1 számjegyeknek az adott helyiértéken (szinten). A természetes számok a fának azon végtelen útjai, amik csak véges sokszor mennek jobbra. Az összes utak halmaza a 2-adikus egészek halmaza, két út távolsága 2-n, ha az n. szinten válnak szét. Tehát a természetes számok sűrűn helyezkednek el a 2-adikus egészek között, így is lehet rájuk gondolni.
Szellemes, bár szerintem amikor a heliocentrikus világképre rábukkantak, azt egy nagy igazságként kezelték és érezték, ami különbözik a geocentrikustól. Úgy találták, hogy a mozgás (a valóság) egy új tulajdonságát fedezték fel, amely által lehetővé válnak a pályák pontosabb kiszámolásai.
szvsz a fizikának jó minden axiómarendszer, amely konzisztensnek tűnik, és alkalmazható a gyakorlatban. A matematika viszont lehetőség szerint törekszik az axiómák halmazának szűkítésére.
A fizika is.
különben a bolygók pályája teljesen jól leírható cikloisokkal geocentrikusan-- az axiómánk az lehetne (volt is), hogy az égitestek mindenféle ciklois-pályákon mozognak, oszt jónapot. A heliocentrikus világkép (főleg a Kepler-törvényekkel) nem azért jobb, mert az az igazság, hanem mert kevesebb elemibb axióma magyarázza a dolgokat.
>>mit hívjunk segítségül a matematikából? szvsz az ortomoduláris hálókat.
szvsz a fizikának jó minden axiómarendszer, amely konzisztensnek tűnik, és alkalmazható a gyakorlatban. A matematika viszont lehetőség szerint törekszik az axiómák halmazának szűkítésére.
Bár nagyon úgy tűnik hogy igazad van, mégis vetnék egy ellenérvet. A "természetes szám" fogalma definiálható a halmazelméletben, bár igaz, hogy nem egyértelműen. Ez a számfogalom generál egy topológiát, amely természetesnek tekinthető. Ha más T' topológiát adsz meg, valaki azt mondhatja, hogy nem számokkal dolgozol, hanem valami mással. Tekintettel arra, hogy a számfogalom definiálásakor lényegében egy távolság-relációt, vagyis topológiát adsz meg a diszkrét rendezéssel.
Úgy látszik rendre ehhez hasonló problémákba ütközik manapság a fizika, és ezért jelennek meg szinte hetente új modellek.
Nem értek egyet. A fizika azért van gondban, mert a világ bonyolult és a kísérleti megismerés lehetőségei nagyon korlátozottak. Ezért egyre indirektebb következtetéseket tudunk csak képesek levonni, a hipotézisektől a következményekig egyre hosszabb és bonyolultabb a dedukciós lánc. A hipotéziseket (axiómákat) egyre nehezebb jól felállítani, mert:
1. A hipotézisek egyre bonyolultabb matematikai problémákat vetnek fel, azaz a következményeiket egyre nehezebb kiszámolni, bizonyítani.
2. A kiszámolt következmények egyre nehezebben ellenőrizhetők kísérleti módon (pl. a modell jósol egy új elemi részecskét egy olyan energiaszinten, ami a mai részecskegyorsítókban nem hozható létre).
Ettől függetlenül a fizika mindig is egyszerű hipotézisekből (axiómákból) próbálja megmagyarázni (levezetni) az összetett természeti törvényeket. Ez a cél, hiszen csak így lehet áttekinteni a bonyolult valóságot és csak így van reményünk az egyre pontosabb alkalmazásokra (jóslatokra). Azért, mert a befogadóképességünk és a logikai képességeink egyaránt korlátozottak. Az egyes modellek nem azért vallanak csődöt, mert ellentmondásosak lennének, hanem mert a valóságot nehéz modellezni. Ennek oka az is, hogy egyes modellek egymásnak (de nem önmaguknak) ellentmondanak. Az axiomatikus módszer a dedukció módszere. Egyszerűen nincs más út a megismerésre. Csak nem kell azt gondolni, hogy valaha is megtaláljuk a "végső" elméletet, azaz a végső axiómákat. A cél egyre jobb modelleket kell találni, tehát egyre jobb hipotéziseket (axiómákat), amiknek a következményei egyre jobban hasonlítanak a kísérleti tapasztalatra.
A szám az alapvetően "csak" szám, nem több. Ha vizualizálni akarom, akkor mondjuk egy halom kaviccsal vizualizálom őket: 5 = *****, de itt a kavicsok (csillagok) térbeli elhelyezkedése lényegtelen. Ha a természetes számokat a valós számok részhalmazaként képzelem el, akkor persze pontok lesznek a számegyenesen egymástól egységnyi távolságra. De nagyon sok más módon is elképzelhetők az egész számok (pl. bináris fába rendezve, ahol egész mást jelent két számnak egymáshoz közel lenni, mint a számegyenesen).
Hát igen, ahogy kivettem a szavaidból, ha a matematika is csak korlátosan tudja alkalmazni az axiomatizálás módszerét, akkor a fizika méginkább nem tudja, vagy sehogy sem tudja.
Nézzük pl. a kvantummechanika alapkérdését: alkalmazhatók-e a kolmogorovi axiómák? Minden jel arra mutat, hogy nem alkalmazhatók. Ha viszont nem alkalmazhatók, mit hívjunk segítségül a matematikából? Úgy látszik rendre ehhez hasonló problémákba ütközik manapság a fizika, és ezért jelennek meg szinte hetente új modellek. (Most zárjuk ki a crackpotokat)
Még hozzátenném, hogy én a természetes számokat nem pontként fogom fel, hanem kis önálló élőlényekként, mindegyik saját kis lelkivilággal: 0,1,2,3,stb. Kb. úgy, ahogy egy kémikus a kémiai elemeket felfoghatja (szén, oxigén, ólom stb.)