Ráadásul ez a "98%" le is buktatott: úgy hivatkozol "a cikk"-re, hogy igazából a Vega Csillagászati Egyesület honlapján lévő magyar ismertető pontatlan adatát idézed. Szóval: a 3szigma az 99.7%
Nem gondolnám, hogy "lebuktatott". Engem, mint laikus amatőrt ezek a tized %-ok, ilyen csetelő fórumokon nem buktathatnak le. Természetesen nem vagyok tévedhetetlen, de néhány dolgon azért elgondolkodom, utánanézek ennek-annak, s néha észreveszem azt is, ha "kilóg a lóláb".
Egyébként ezeknek a tized százalékoknak nincs is gyakorlati jelentősége, mert a gyorsuló tágulás esetében ennél sokkal jobban kilóg a lóláb, mint ahogy az általam idézett grafikon is mutatja. Ezt a dolgot nem én mint laikus vettem észre, hanem már tíz évvel ezelőtt Vinkó József is megjelentette hivatalos szaklapban, s ő nem amatőr. Persze, van aki odafigyel ilyenekre, van aki nem...
az egy pillanatra sem fordul meg a fejedben, hogy ha ez így van, akkor mi a fészkes fenéért nem hagyták abba itt a munkát, és kürtölték tele az internetet, hogy nem is igaz a gyorsulva tágulás?
Elárulom neked: azért, mert ők pontosan tudják, hogy miért nem szabad ezt tenni.
a távolabbi szupernóvák mértékadóbbak,
A Perlmutter-féle esetben éppen azt sérelmezted, hogy hogyan merészelnek néhény távoli adatból levonni következtetést, most pedig egyből mértékadók lettek az ilyenek, kissé következetlennek tetszel lenni...
ilyen szórású és bizonytalanságú adatsor alapján nem szabad(ott volna) olyan erős állítást megfogalmazni, hogy a világegyetem tágulása gyorsul.
mint ahogyan ugye olyat sem, hogy nem gyorsul...
Vannak persze, akik nem szabad szemmel méricskélnek nyers adatokat, hanem tisztában vannak az adatelemzés statisztikai módszereivel, és vannak, akiknek elég annyi, hogy igenis látszik az, amit látni akarnak...
Miért a feldolgozatlan adatokat akarod szemmértékre kiértékelni? Te fejben is el tudod végezni az 1szigma, 2szigma, 3szigma (68%, 95%, 99%) szignifikanciájú konfidencia intervallumok kiszámítását.
Én nem arra a koncentrikus ellipsziseket tartalmazó ábrára mondtam, hogy 50%-ot sem adnék rá, hanem arra az ábrára, amit én bemutattam, s ami szintén az eredeti cikknek a része.
Az általam idézett ábrán igenis szabad szemmel megállapítható, hogy mely modellhez közelítenek jobban az adatok. Ahogy pk1-nek is írtam, a távolabbi szupernóvák mértékadóbbak, mert a közelebbieknél a két modell szinte teljesen összesimul. A z=1 fölötti mérési adatoknál egyértelmű, hogy a Milne-modellre, vagy is a lineáris tágulásnak megfelelőre illeszkednek inkább az adatok.
Az is látszik az ábrából, hogy mind az adatok szórása, mind az egyes mérések bizonytalansága (tűrési értéke), ami vonaldarabkákkal van jelölve, nagyobb, mint a két modell közti eltérés. Ez pedig arra int minket, hogy ilyen szórású és bizonytalanságú adatsor alapján nem szabad(ott volna) olyan erős állítást megfogalmazni, hogy a világegyetem tágulása gyorsul.
Amikor Riess és Perlmutter nyilvánosságra hozta a gyorsuló tágulásra vonatkozó eredményeit, az meglepő és erős állításnak minősült, hiszen az addigi álláspont az volt, hogy a tágulás lassul, hiszen a gravitáció mindenképpen lassítani igyekszik ezt a folyamatot. A kérdés abban az időben inkább az volt, hogy a lassulás képes-e megállítani (s visszafordítani) a tágulást, vagy aszimptotikusan közelít egy skálaparaméter értékhez, vagy esetleg megállíthatatlanul folyik a tágulás. Ezért számított nagy eredménynek és erős állításnak az, hogy az Univerzum tágulása az utóbbi 5-6 milliárd évben a lassulásból átváltott gyorsulásba, s ennek megfelelően nagy hírű lapok az első oldalukon hozták ezt a hírt.
Riess és Perlmutter két különböző kutatói csoportban dolgozott, de mindkettő elsősorban a nagy vöröseltolódású szupernóvákat vizsgálta, ezek közül is az Ia-típusúakat, amiket standard gyertyaként is szoktak emlegetni. A részleteket most mellőzve a lényeg az, hogy mind a két csoport elsősorban a szupernóva mérésekre alapozva jelentette ki, hogy a tágulás üteme gyorsulásba ment át. A mikrohullámú háttérsugárzásból valamint a galaxisok eloszlásból levont következtetések csak mintegy kiegészítették a fő bizonyítékot, a szupernóva méréseket.
Úgy tűnik, hogy ez a fő bizonyíték mégsem áll annyira stabilan a lábán, mint sokan gondolják. Bár a Nature-ben megjelent cikk szerzői óvatosan fogalmaznak, de az biztos, hogy vizsgálataik – a legújabb adatok, ill. szupernóva mérések tekintetében – nem erősítik, hanem inkább gyengítik ezeket a bizonyítékokat.
Egy pillanat alatt utánanézhettél volna, én már háromszor is leírtam itt, hogy mennyi a 3szigma. De nem is ez a lényeg. Az amatőröknek szóló magyar cikk ebbéli pontatlanságát nem is tartottam érdemesnek helyreigazítani. Azt az ismertetőt nem is neked szántam, gondolva, téged érdekel a dolog annyira, hogy elolvasod, és főleg megérted valamennyire az eredetit, ha már többször hivatkoztál rá itt. Még az eredményt legszemléletesebben mutató ábra linkjét is megadtam. Ehelyett te a nyers mérési adatokat akarod statisztikailag kiértékelni itt puszta ránézésre, sőt a cikkben kiszámolthoz képest brutálisan másképp értékelni (50% szignifikanciára).
Ráadásul ez a "98%" le is buktatott: úgy hivatkozol "a cikk"-re, hogy igazából a Vega Csillagászati Egyesület honlapján lévő magyar ismertető pontatlan adatát idézed. Szóval: a 3szigma az 99.7%
Ezt te magyar összefoglalóból veszed? Ugyan már! Azt csak azok számára tettem be, akiket nem érdekel annyira, hogy elolvassák a Nature cikket. Az eredetiben elő se fordul semmi 98%.
Igaz vagy nem igaz, hogy a 3szigma érték 98%-os megbízhatóságnak felel meg?
Ha igaz, akkor nem írtam hülyeséget.
Ha meg nem igaz, akkor miért ajánlasz olyan cikket, ami hamis állításokat tartalmaz.
Azért valld be: csupán a három legnagyobb vöröseltolódású SN miatt tűnik így számodra. Amit simán leszavazhat a többi.
A távoli szupernóvák mértékadóbbak, mert ott jobban eltér egymástól a két modell. A közelebbi (kis vöröseltolódású) szupernóvák esetén a két görbe szinte teljesen összesimul, tehát az ottani egyezés nem mond semmit, ill. nem szavazhatja le a távolabbi értékeket.
"Egyértelműen látható, hogy egyáltalán nem illeszkedik jobban a λCDM-modell az adatokra, sőt inkább a Milne-modell közelít jobban. Ezen ábra alapján én nemhogy 97%-ot, de 50%-ot sem adnék a gyorsuló tágulás bizonyítékaként."
Miért a feldolgozatlan adatokat akarod szemmértékre kiértékelni? Te fejben is el tudod végezni az 1szigma, 2szigma, 3szigma (68%, 95%, 99%) szignifikanciájú konfidencia intervallumok kiszámítását. (ez esetben ellipszisek az OMEGAlambda, OMEGAm diagrammon) Segítségül megadtam az ábra linkjét, ha nem találtad, most itt van:
Jól látszik, hogy csak a legkülső (a 99,7% megbízhatóságú) ellipszis metsz bele egy picit a "no acceleration" határvonalba.
Ne járasd le magad azzal, hogy ránézésből osztogatsz szignifikancia százalékokat.
Tuarego:
"A cikkben óvatosan fogalmaznak: 98%-nál kisebb az esélye annak, . . ."
Ezt te magyar összefoglalóból veszed? Ugyan már! Azt csak azok számára tettem be, akiket nem érdekel annyira, hogy elolvassák a Nature cikket. Az eredetiben elő se fordul semmi 98%.
Ha valamit nem értesz benne, inkább nézz utána, vagy kérdezd meg.
"Egyértelműen látható, hogy egyáltalán nem illeszkedik jobban a λCDM-modell az adatokra, sőt inkább a Milne-modell közelít jobban. Ezen ábra alapján én nemhogy 97%-ot, de 50%-ot sem adnék a gyorsuló tágulás bizonyítékaként."
Miért a feldolgozatlan adatokat akarod szemmértékre kiértékelni? Te fejben is el tudod végezni az 1szigma, 2szigma, 3szigma (68%, 95%, 99%) szignifikanciájú konfidencia intervallumok kiszámítását. (ez esetben ellipszisek az OMEGAlambda, OMEGAm diagrammon) Segítségül megadtam az ábra linkjét, ha nem találtad, most itt van:
Jól látszik, hogy csak a legkülső (a 99,7% megbízhatóságú) ellipszis metsz bele egy picit a "no acceleration" határvonalba.
Ne járasd le magad azzal, hogy ránézésből osztogatsz szignifikancia százalékokat.
Tuarego:
"A cikkben óvatosan fogalmaznak: 98%-nál kisebb az esélye annak, . . ."
Ezt te magyar összefoglalóból veszed? Ugyan már! Azt csak azok számára tettem be, akiket nem érdekel annyira, hogy elolvassák a Nature cikket. Az eredetiben elő se fordul semmi 98%.
Ha valamit nem értesz benne, inkább nézz utána, vagy kérdezd meg.
A cikkben óvatosan fogalmaznak: 98%-nál kisebb az esélye annak, hogy az Univerzum gyorsulva tágul. Ebbe persze belefér a 97% is, de belefér az 50% is, tehát vagy igen vagy nem.
De inkább nézzük a lenti ábrát, szintén a cikkből.
Itt már jóval több mérési adat van, mint amikor Perlmutter és Riess telekürtölték a világot a gyorsuló tágulás hírével. A gyorsuló tágulás modell (λCDM) folyamatos vonallal, míg a lineárisan táguló modell (Milne) szaggatott vonallal van ábrázolva. Egyértelműen látható, hogy egyáltalán nem illeszkedik jobban a λCDM-modell az adatokra, sőt inkább a Milne-modell közelít jobban. Ezen ábra alapján én nemhogy 97%-ot, de 50%-ot sem adnék a gyorsuló tágulás bizonyítékaként.
De lényegében ugyanezt vette észre Vinkó József is 2006-os cikkében:
Ő nem százalékos valószínűségekkel adta meg véleménye összefoglalását, hanem finoman megjegyezte, hogy nem érvényesül az ERŐS ÁLLÍTÁS ERŐS BIZONYÍTÉKOT KÖVETEL ELVE.
Akárhogy is nézzük, az Ia-szupernóvák adatai alapján (amit az egyik fő bizonyítéknak tekintettek) nem jelenthető ki, hogy az Univerzum gyorsulva tágul.
Ami azt mutatja, hogy az eddigi adatok alapján a "gyorsulva tágulás" kijelentése egy picit még belelóg a 3szigás (99,7%-os) megbízhatósági tartományba (az OMEGAlambda - OMEGAm diagrammon értelmezett legnagyobb ellipszoidba). Vagyis a szaggatott határvonal belemetsz a bal alsó sarokba.
A tanulmány állításának egyszerű magyar nyelvű összefoglalása:
vagyis a hagyományos anyag az Univerzum összes anyagának 4,63%-a.
Igen, ezt hallottuk az utóbbi években mindenhonnan, meg hogy a sötét anyag 21% körüli részarányú, a többi pedig a sötét energia.
Csakhogy éppen mostanában jelent meg egy cikk a Nature-ben, ami legalábbis megkérdőjelezi a gyorsuló tágulásra vonatkozó korábbi megállapításokat.
Márpedig, ha nincs gyorsuló tágulás, akkor nincs sötét energia sem, s persze így nullává válik az a 70 % fölötti részaránya is. Minden borul, s újra kell gombolni a kabátot...
Úgy néz ki, új modellt kell alkotni a kozmológiában, sötét energia, s valószínűleg sötét anyag nélkül.
Én azt gondolom, hogy létezhet ilyen modell, vagyis ahol a világ felépítéséhez nem kell feltételezni rejtelmes és ismeretlen tulajdonságú anyagokat, főleg nem ekkora arányban.
Nem találhatnak elegendő közönséges anyagot a fekete lyukakba zuhanva se! Mert, mint írtam, a He4 megfigyelt gyakoriságából és a CMB megfigyelt hőmérsékletéből egyértelműen kijön, mennyi a térfogategységre jutó átlagos barionszám (és tömeg), ami egyáltalán létrejött a primordiális nukleonszintézisben. A számolásban szereplő összefüggést a He4 gyakoriság és a barion/foton gyakoriságarány között, a magfúziós folyamatok reakcióegyenleteinek nagy-pontosságú numerikus integrálásával kapták:
Például a 2012-ben közölt relatív barionsűrűség: OMEGAb=0,0463+-0,0024, vagyis a hagyományos anyag az Univerzum összes anyagának 4,63%-a. Amit nem pusztán a He4-re vonatkozó görbe alapján számoltak ki, hanem a sokkal érzékenyebb He3, H2, és Li7 görbék (és természetesen a rájuk vonatkozó mérések) segítségével.
"Elég nagy tévedés azt gondolni, hogy a gravitáció összehúzza a dolgokat. Nem húzza össze. Csak akkor tud a rendszer összébb húzódni, ha valami el tudja vinni az energiát."
Ezt lényegében már évekkel ezelőtt megírtam. Ez egyszerűen ellent mond annak, hogy az univerzum csak tágulhat vagy magába roskadhat.
Nyugodtan lehet statikus is.
Tudom természetesen mindjárt visszaszívód minden szavad, amit kimertél ejteni.
Színképelemzéssel csinálják, ugyanúgy, mint a földi anyagvizsgálatoknál. A spektrométer akár fényforrásokra (csillagokra), akár fénynyelőkre (diffúz gázfelhőkre) alkalmazható a bennük előforduló kémiai elemek felismerésére (jellegzetes gerjesztési ill. elnyelési vonalaik hullámhosszai alapján), és a mennyiségi arányok megmérésére (a vonalak intenzitásviszonyai alapján).
Te pedig egy egy fekete lyukakat milliárdszámra termelő ismeretlen mechanizmusra szeretnél ráhúzni mindent...
Nem ismeretlen mechanizmus, hiszen a csillagfejlődési modellek szerint 3-4 naptömegnél nagyobb csillagokból fekete lyuk képződik. Ilyen objektumok pedig nem számítanak ritkaságnak, s ez a régmúltban még inkább így volt. Ha elfogadjuk (mert hiszen tény), hogy milliárdszámra keletkeztek Napunknál kisebb csillagok (vörös törpék), akkor azt is el kell fogadnunk, hogy milliárdszámra jöttek létre a Napnál nagyobb csillagok is, amikből aztán fekete lyuk lett. Ezeknek szükségszerűen keletkezniük kellett, s a mai napig is itt vannak a galaxisunkban, még ha nem is látjuk őket.
Legyen meg a te akaratod. Akkor nem kell ezermilliárd, csak tíz-száz milliárd. Az nagyságrendben évente tíz szupernovarobbanás galaxisonként. Ezek nincsenek sehol.
A folyamat nem lineáris, nem lehet csak egyszerűen elosztani a szükséges fekete lyukak számát az eltelt idővel. Nyilvánvaló, hogy a korábbi időkben, amikor az anyag sűrűbben helyezkedett el az Univerzumban, akkor sokkal gyakoribb volt a csillagok és a fekete lyukak keletkezése, s nagyobb tömegű fekete lyukak jöttek létre a régmúltban, továbbá nagyobb volt a fekete lyukak "elnyelési aktivitása" is. Ezt mutatja, hogy kvazárokat inkább csak nagy távolságban, tehát a régmúltba visszatekintve találunk, s jelenleg úgy tartják, hogy ezek az objektumok fekete lyukakba bezuhanó nagy anyagtömegek kísérő jelenségei.
Az időben előre haladva kevesebb és kisebb fekete lyuk képződésére van alkalom, hiszen az anyag egy jelentős része már a korábban keletkezett fekete lyukakban van, s onnan nem távozik. Bár a galaxisok az Univerzum tágulásával együtt nem tágulnak, de a bennük lévő csillagképzésre alkalmas anyag egyre fogy, s ezzel együtt a fekete lyukak össztömegének aránya egyre nő.
Elég nagy tévedés azt gondolni, hogy a gravitáció összehúzza a dolgokat. Nem húzza össze. Csak akkor tud a rendszer összébb húzódni, ha valami el tudja vinni az energiát. Ez általában elektromágneses sugárzással történik: az összehúzódó anyag felhevül, és energiát ad le a környezetének. Na éppen ez az a kölcsönhatás, amitől a sötét anyag el van tiltva. (De amúgy a fekete lyukak is.)
Ez azonban helytelen következtetés, hiszen a fekete lyukak ennél minden bizonnyal jóval nagyobb tömegűek.
Legyen meg a te akaratod. Akkor nem kell ezermilliárd, csak tíz-száz milliárd. Az nagyságrendben évente tíz szupernovarobbanás galaxisonként. Ezek nincsenek sehol. Itt máris megbukott a nagyívű elképzelésed, hacsak nem tudsz számot adni arról, hogy került a galaxisba tízmilliárd fekete lyuk. Márpedig ilyet nem tudsz.
kisebb nagyobb anyagfelhők áramlanak, vándorolnak, s ha ezek egy fekete lyuk közelébe kerülnek, az bekebelezi
Annak viszont azonnal lenne látható jele, hogy néhány milliárd fekete lyuk éppen hízik a galaxisban. De ilyen jel nincs, tehát megint megbukott az elméleted.
Ez és számos egyéb különböző mérés ma már egyaránt arra mutat, hogy közönséges hadronikus anyagsűrűség nem elég az Univerzum tapasztalt tágulási pályájához. Így aztán nem lehet elég például a nem világító, láthatatlan kompakt objektumok (MACHO-k) tömege se, ha azok közönséges anyagból állnak (bolygók, vagy a korábban izzó, de később barna, ill. fehér törpévé, neutroncsillaggá vagy fekete lyukká zsugorodó égitestek). Ugyan több száz ilyet találtak a Tejútrendszerben gravitációs lencsehatásuk megfigyelése alapján, de messze nem elegendőt a hiányzó tömeg magyarázatához.
S mi van akkor, ha találnak elegendő fekete lyukakban rejtőző tömeget? Akkor is fel kell tételezni a rejtelmes sötét anyagot?
Volt egy kérdésem: ki mondta, hogy a sötét anyag tökéletesen egyenletes eloszlású?
Mmormota írta korábban, hogy egyszerű a magyarázat arra, hogy miért nem lehet kimutatni a sötét anyagot a Naprendszerünkön belül gravitációs anomáliákkal: merthogy kicsi a sötét anyag sűrűsége. Továbbá a galaxisban lévő anyag átlagos sűrűségéről is beszélt, ami – egyenletes eloszlásban – elég kicsi, s ezzel állította szembe a sötét anyag eloszlását is.
Mármost, ha elfogadjuk azt a magyarázatot, hogy a sötét anyagot azért nem tudjuk kimutatni az égitestek közelében, mert nagyon kicsi a sűrűsége, akkor ehhez azt tartozik, hogy egyenletes eloszlású legyen a sötét anyag a galaxison belül, mert ekkor tud a legritkábbnak mutatkozni.
Viszont, ha meg nem egyenletes az eloszlás, akkor törvényszerű, hogy a normál anyag sűrűsödéseihez, vagyis az égitestekhez igazodva sűrűsödik a sötét anyag, hiszen azt feltételezzük róla, hogy a normál anyaggal gravitációsan lép kölcsönhatásba. Ebből viszont az következik, hogy az égitestek közelében, például a Naprendszerben vagy a Földön már nem is annyira kis sűrűségű a sötét anyag, tehát itt már ki kellene tudni mutatni az égitestek pályáiban az általa okozott anomáliákat. Ilyent azonban nem tapasztaltak.