Keresés

Részletes keresés

DcsabaS_ Creative Commons License 1999.10.28 0 0 552
Kedves SSE!

Ha eltekintunk a hamarosan szinten megvasarolhato dual Rage128 Pro kartyaktol es a Savage 2000-tol, akkor tenyleg a GeForce 256 a leggyorsabb. Ha amazok megjelennek, altalanossagban (ha nem is mindig) valoszinuleg akkor is a GeForce lesz a leggyorsabb, ha pedig egy jatek kihasznalja a specialis geometriai gyorsitasat, akkor kulonosen. Ezt senki sem vitatja. Azt is mondhatnam, hogy lenyegeben csak penz kerdese a dolog. Ha valakinek boven van penze, az nyugodtan vegye meg, hiszen akkor csak nyerhet rajta.

Ha valakinek nincs annyi penze, amde jatszani azt megis nagyon szeret, annak szigorubban celszeru merlegelnie, hogy mit kap mondjuk 60-80 eFt-ert - amiert jopar cigirol, cocacolarol, sorrol, hamburgerrol, mozirol, diszkorol, stb. le kell mondania.

Ha mar most is van egy normalis gepe (megfelelo 3D kartyaval), akkor mondjuk csak annyit nyer rajta, hogy az fps folmegy 30-rol 60-ra, vagy 60-rol 120-ra. Hacsak nem 3D szemuvegezik az illeto, a jatekban olyan borzaszto nagy minosegi kulonbseget nem fog eszlelni.

Ha megjelennek az uj, es valoban klasszissal reszletesebb geometriaju jatekok (a Quake 3 Arena meg nem ilyen!), _akkor szukseges lehet_ beruhazni egy GeForce 256-ra.

Ha viszont megjelenik nehany olyan jatek, ami paratlanul szep texturakkal manoverezik, akkor egy Savage 2000 bizonyulhat "letkerdesnek" az erdekeltek szamara.

A 3dfx kovetkezo kartyaja allitolag szinten remekul fog majd texturazni, es az elethuseg szempontjabol fontos olyan effektusokat kiszamolni, amelyeket eddig (erohiany miatt) mindenki elhanyagolt. Elofordulhat, hogy ehhez a jatekokat nem is kell modositani. Tegyuk fel, hogy 32 bites szinkezeles lesz benne, de geometriai gyorsitas az nem (bar ez nem biztos). Ekkor az tortenne, hogy:
1.) az a nagyon sok es szep jatek, amelyek a VooDoo-kat eddig is tamogattak, nemcsak gyorsabbak, de egyuttal szebbek is lesznek,
2.) az ujabb jatekok kozul a textura-orientaltak pazarul szepek lesznek,
3.) az ujabb jatekok kozul a geometriara erosen kihegyezettek eros proci mellett (P3-1100 MHz, Athlon-900 MHz) gyorsak es gyonyoruek, gyenge proci mellett (K6-2 350, Celeron-300) pedig gyonyoruek de lassuak, vagy gyorsak de csunyak.

A Ge Force 256 oldalarol nezve a dolgot:
1.) a regi jatekok gyorsabbak lesznek (de minek), viszon nem lesznek szebbek (ami kar),
2.) az ujabb jatekok kozul a texturakra kihegyezettek elfogadhatoan mennek,
3.) az ujabb jatekok kozul a geometriara kihegyezettek gyengebb procik mellett is gyonyoruen mennek, de nagyon gyors alaplapi procinal mar nem sokkal gyorsabban, mint a konkurencia.

Szerintem nem igazan varhato kiuteses eredmeny.

Előzmény: SSE (551)
SSE Creative Commons License 1999.10.28 0 0 551
Ezeket a "nagy okosságokat" kihagyhattad volna. Aki a világ jelenlegi leggyorsabb fogyasztói piacra szánt grafikus hw-ét a kukába dobja, az vagy bolond, vagy 3dfx (vagy egyéb kétségbeesett konkurrens) ügynök. Minden a GeForce-al megy a leggyorsabban jelenleg, akinek ez nem elég az nagyon rosszul érezheti magát.
Igen sajátos a 3dfx-esek gondolkodása: ha van valami amivel összemérhető az általuk favorizált termék akkor természetesen a 3dfx termék a legjobb, még akkor is ha lassabb mint más meg fele annyit sem tud. A jövőbeli mendemonda-termékek meg bizti hogy a legjobbak (ha a 3dfx gyártja) mint a jelenlegiek, ugyan még nem léteznek, de tuti-állatok lesznek, ha kijönnek. :) Egyszóval akármi van, mindíg a 3dfx cucc a legjobb a TÉNYEKTŐL teljesen függetlenül. :)
"És ami még negatívum: Iszonyatos proci kell mellé." no, ez a legnagyobb sületlenség amit valaha hallottam. A valóságban ugyanis éppen fordított a helyzet!
Előzmény: Celeron (550)
Celeron Creative Commons License 1999.10.28 0 0 550
Hell !

Ismét bölcselkednék egy kicsit. Megfogalmazódott bennem egy nagy-nagy okosság. Tény hogy jó chip-ek jelenek meg mostanában (Geforce, S3 2k, GP-1). Ezekkel csak egy gond van. Semmi nem támogatja az effektjeit. Legalább is baromi kevés progi. Az odáig rendben van, hogy majd fogja. De arra várni kell. Ha most van egy Geforce256-od, akkor akár a kukába is dobhatod, mert alig jobb egy TNT2 Ultránál a mostani gamek-ban (Az én kukámba dobd). És effektek sehol. Ellenben a Napalm visszamenőleg is alkamazni fogja az effektjeit, a régi game-knél is. És ha tényleg 60 fps az általános sebesség nála és 32-bit is jáccik, akkor bizony megint a Voodoo lesz a legnépszerűbb kártya. Ugyanis sokak még a régi game-kkal is játszanak. És szerintem az a legfontosabb, hogy minden game ismerje a cuccot, ami a gépedbe van, nem csak a legújabbak. És különben is büdös, hogy a 3Dfx nem jön ki az idén semmi újjal. Lehet, hogy komoly mellbeverésre készül.
Szóval, hiába villog a Geforce256. A régi játékokban, sőt, szinte még a mostaniakban is, nem tud többet produkálni, mint egy 3G-s kártya.
Persze ami kihasználja a speckóit, abban egyelőre verhetetlen.
És ami még negatívum: Iszonyatos proci kell mellé. A mai átlagos felhasználónak nem nagyon tellik PIII-ra és Athlon-ra.


amigatya Creative Commons License 1999.10.24 0 0 549
DcsabaS_: Nos, tesztprogramokkal már el tudsz bíbelődni, semmi öldöklés... rajta, már mehetsz is venni egy GeForce-t! :) Ízelítő: http://www.nvnews.net/reviews/geforce_256/preface.shtml

SSE: Irigyellek, hogy úgy tudod kipumpálni magadból az ezreseket, mint a GeForce a 'frémeket' Quake alatt! :)

DcsabaS_ Creative Commons License 1999.10.23 0 0 548
Ha emlekezetem nem csal, alig nehany eve meg Intel 486DX2-66-os procit lehetett vasarolni potom 60-70 ezerert, es akkor meg a forint legalabb a duplajat erte... Ha tehat nem a szamitastechnikai cuccok, hanem mondjuk az elelmiszerek arahoz viszonyitunk, akkor a 70-80 eFt-os 3D kartya is kisebb beruhazas, mint volt anno a DX2-66-os.

Ami az uj cucc kihasznalhatosagat illeti, ott azert szerintem van egy kis problema. A generaciovaltas lassan fel evenkent esedekes, szoval nemigen varhatunk ennel tobbet, ha a kartyat mar birtokoljuk, hogy vegre valami dogos jatek megjelenjen hozza. Mert akkor egy kisse potyara vettuk meg.

Ha rapillantok a jelenlegi jobb jatekok derekhadara, akkor azt kell mondjam, hogy pl. a Quake 1-2-3, Unreal, Hexen 2, Heretic 2, Tomb Raider 2-3-4, Drakan, NFS 3-4, Dark Project, Mortyr, Descent 2-3, stb. egeszen tisztessegesen el tudnak menni egy VooDoo2, TNT, Savage3, stb. jellegu kartyan. Persze, ha VooDoo3, TNT2, Savage4, vagy G400 van a gepunkben, akkor nagyobb felbontasban, sebesseggel es szinmelysegben is elvezhetjuk oket, de olyan ertelemben nem nagy a kulonbseg, hogy aki csak most ismerkedik a PC-s jatekokkal, annak altalaban tobbszor is oda-vissza meg kell mutatni a kulonbseget, hogy vilagosan erzekelni tudja.

Vannak azutan olyan jatekok is, amelyek nem a sebessegukrol hiresek. Peldaul a Delta Force 1-2, vagy a Prince of Persia 3D. Nagyobb felbontasban szinte jatszhatatlanok, ezert itt _nagyon_ jol jonne egy sokkal gyorsabb 3D kartya. Csakhogy ezek a jatekok eppen azert lassuak, mert nem hasznaljak ki (megfeleloen) a 3D kartya adottsagait(!), ezert pl. a GeForce256-tal sem lennenek gyorsabbak.

Igy mondjuk a GeForce256-ot szamomra csak az indokolna, ha igen hamar szuletne ra legalabb 1 db nekem nagyon tetszo jatek, ami gyengebb 3D kartyaval mar elfogadhatatlanul lassu lenne (kb. 25 fps alatt). Csinaltak ugye hozza egy "fa tesztet". De csinalhatnanak ennek mintajara egy fara maszo jatekot is, ahol egy csodalatos elethuseggel megalkotott fan kellene maszkalnunk, esetleg gyumolcsot szedve, meg ugralhatnank a hajladozo agak kozott, esetleg versenyszeruen, es esetleg lerazhatnank (ha a ritmust eltalaljuk!) versenytarsunkat, stb. Biz'isten erdekelne a dolog. (Nemcsak mindig az az oldokoles ugye...)

SSE Creative Commons License 1999.10.23 0 0 547
Laa-Yosh: én úgy tudom, hogy a Glaze3D-ben semmilyen hw T&L támogatás sincs. Van egy tervezett, de még nem bejelentett Thor nevű társprocesszor, ami nem speciális T&L egység, hanem valamilyen programozható FPU szerű kütyü, ami többek között T&L műveletekre is használható, de ezt külön meg kell majd venni.

Hogy a GeForce 256 alapú kártyák drágák lennének, az teljesen relatív. Én pl. könnyedén meg tudom venni bármelyiket. ;) Azonkívül a TNT2U-s kártyák kezdeti áránál olcsóbban indulnak, ígyhát aztán végképp nem értem ezt a kifogást ( hiszen jóval gyorsabb is, sokkal többet is tud ).

Nincs ami kihaszálná? Ott egy csomó "normálisan" megírt OpenGL-es program, azok részben vagy egészben kihasználják. Ráadásul a karácsony az gyakorlatilag itt van a nyakunkon. No meg minden régi anyag is evvel megy a leggyorsabban. Ez nem elég? Mi kell még? :)

Igen, tavasszal jön az NV15, ami jobb lesz. De azt sem szabad majd megvenni, hiszen ősszel meg itt lesz az NV20, ami minden eddigi dolgot ki fog nyírni olyan állat lesz! ( nyárra meg minek új kártyát venni, hiszen myáron nyaralni meg csajozni kell, nem a hülye monitor előtt vakoskodni ;). De az NV20-at sem szabad majd megvenni, hiszen a rákövetkező tavasszal valami kegyetlen hogy milyen állat cucc fog kijönni! ...stb. ;)

Ezt már többször leírtam, de úgy tűnik nem elégszer. A számítástechnikai cuccokon mindíg csak veszíteni lehet. Ha valaki nagyon görcsöl, akkor lehet valamelyest csökkenteni a bukás mértékét, de nem sokkal. DcsabaS_-el teljesen egyetértek, a 3.) verzió a legjobb. Ilyen gyors fejlődés mellett - aki teheti - vegye mindíg a legújabbat. Ha fél évvel ezelőtti cuccot veszi az ember, akkor ugyan meglehet az a jó érzése, hogy igen, 10-15 ronggyal olcsóbban jutott hozzá, de viszont nem élvezheti a lejújabb technikákat-teljesítményt ...stb. Döntse el mindeni saját maga, hogy neki mi a fontosabb, és ennek megfelelően vásároljon! De hogy nem lenne szabad ezt vagy azt venni, az butaság.

A G400Max-ról jut eszembe, fél év óta hallom a Matrox rajongókat, hogy "de mijen állat, és majd a MAX megmutatja! meg minden...", no hát jól megmutatta! ;) Kb 1-2 hete lehet kapni Magyarországon ( fél éves csúszás ), a FeFo-nál pl. 69950 Ft + ÁFA. Gyakorlatilag egy TNT2U szintű cucc, ( általában lassabb nála, de néha tud picit gyorsabb lenni elsősorban nagy ( > 1280x1024 ) felbontásban 32 biten ). Aki MOST még ilyet akar venni, hát vegye, sok sikert hozzá! :)

DcsabaS_ Creative Commons License 1999.10.23 0 0 546
En nem bosszankodnek azon, hogy a frissen vasarolt 3D cuccok arai ilyen gyorsan esnek. Hiszen vegul is a kovetkezo lehetosegek johetnek szoba:
1.) A konkret 3D cuccok arai allandoak, ami annak a jele, hogy nincs szamottevo fejlodes.
2.) Ugyanazon dolgok arai egyre folfele mennek, ami annak a jele, hogy hiany allt elo.
3.) Ugyanazon dolgok arai lefele mennek, mert pl. boseges a kinalat, vagy mert a technologiai fejlodes reven mar nagyobb teljesitmenyu dolgot is vehetunk a korabbi penzbol.

Hat nem a 3.) verzio a legjobb (:-))) ?!?

Amennyiben nem szakadt a nyakunkba a whisky-s rablo legutobbi zsakmanya (vagy egy azzal kompatibilis osszeg), akkor az uj (es dragabb) dolgok kozul csak azokra erdemes beruhaznunk, amelyekhez _mar most is_ van szamunkra fontos, az eszkozt kihasznalo alkalmazas. Mondjuk, ha van legalabb 1 db mertekado jatek. Sajnos a 3D kartya gyartok ezt mintha nem igazan akarnak figyelembe venni. Peldaul az S3 miert nem finanszirozta meg (idoben!) legalabb 1 olyan kivalo jatek (avagy mas hasznos program) tovabbfejleszteset, amelyik hatalmas es gyonyoru texturakkal dolgozik? Miert bizta az ilyenek keletkezeset a piac veletlen szeszelyeire? Vagy miert nem hatott oda az NVIDIA, hogy pl. a Tomb Raider IV-ben Lara Croft vonalai teszem azt 10-szer finomabbak legyenek? Ki akarja varni az V.-os verziot? (Mert akkor esetleg a potencialis GeForce256 vevok is kivarjak...)

(DcsabaS, víziológus (:-))) )

KrinyO Creative Commons License 1999.10.23 0 0 545
Altalaban nagyon sok ujsagot olvasok (meg a Gurut is..:) ), s szolhat barki barmit, a Chip szerintem eleg jo. Termeszetesen minden ujsag minden cikkjet fenntartassal fogadom, s bar a Chip is irt mar parszor (sokszor) kapitalis baromsagokat, meg mindig tartalmasabb a tobbinel.
Ezzel termeszetesen nem kotelezo egyeterteni...

BYe: Krinyo

amigatya Creative Commons License 1999.10.23 0 0 544
Laa-Yosh: Igazán nem szeretném ha egy Laa-Yosh vs. Fórum helyzet alakulna ki... :) DE, az árak... nem értem miből gondolod, hogy a Glaze olcsóbb lesz a GeForce-nál??? Egy nagyságrenddel nagyobb 'fillrate', 9MB beágyazott memória... stb. és gondolod mindez kevesebbe fog nekünk kerülni? Márpedig ha drágább lesz, akkor ugye azt sem érdemes megvenni... szóval tényleg az a helyzet fog előállni, hogy semmit sem érdemes megvenni. :) No és az a Diamond Edge és S3 Virge is egy kicsit erős hasonlat... ott azért nem teljesen az volt a helyzet mint most itt!
Az általad írt cikkekkel semmi bajom, szeretem őket, de azért abból előadást tartani, az egy kicsit erős... bár attól függ kiknek! :) Azért mindenképpen fogadd elismerésem! :) Csak vigyázz arra a bizonyos lóra... el ne szaladjon! Ahogy egy Jedi mester mondaná: 'Mindig van egy nagyobb hal!' :)

Úgy tűnik DcsabaS_ személyében a biológust (víziológust?) is kaptunk segítségül. :)

SSE: Hajrá GeForce! :)

KirnyO: Melyik újságra gondoltál?

Laa-Yosh Creative Commons License 1999.10.23 0 0 543
Nemnem. A Thor egy különálló geometriai (tehát FPU-s) koprocesszor, de a Glaze chipen belül is van valami spec. egység, csak nem egy full T&L engine.

A Ge256-ot pl. ezekért nem szabad megvenni:
- nagyon drága (56 a normál, a DDR-es ezek alapján 75-80 körül lesz, és csak az az értelmes);
- nincs még ami igazán kihasználná a T&L-t, tehát ami extra benne, pont az a felesleges, mondjuk minimum karácsony magasságáig még;
- április/március magasságában jön az NV15, ami garantáltan jobb lesz, és akkorra lesz pont szükség a T&L-re;
- sokan (így én is) most vették csak meg a TNT2/V3/G400 cuccosukat, amit - mivel már nem vadiúj - minimum 5-10 rugó azonnali elbukásával tudnánk csak eladni, és a fentiek miatt értelmetlen cselekedet lenne.

Előzmény: SSE (542)
SSE Creative Commons License 1999.10.23 0 0 542
"A Glaze pontos belső felépítése egyelőre nem ismert, és _valamilyen_ programozható geometriai egység lesz benne." igen, ennek a neve Thor, de ez egy külön chip és csak opcionális.

A teszteredményekről még annyit, hogy minden DDR-es tesztben ( van vagy 10-15 ) 60 fps felett ment a GeForce Q3-al a kérdéses demóban és módban.

Ha az első cuccot nem szabad megvenni, akkor a Glaze-t tutira nem szabad! :) De a TNT-t sem lett volna szabad, ...stb. ;)

Előzmény: Laa-Yosh (541)
Laa-Yosh Creative Commons License 1999.10.22 0 0 541
A Glaze pontos belső felépítése egyelőre nem ismert, és _valamilyen_ programozható geometriai egység lesz benne.
Nagy poligonszámú alkalmazások ügyében nem olvastad elég alaposan azt a cikket. A fejlesztők jó része parázik, és nem akar dupla melót végezni a felhasználók 10%-a kedévéért.

Úgy tűnik Threshék meg update-elték a teszteket :) megvan tehát az első kártya ami áttörte a jelenlegi "álomhatárt". Mindenesetre nem kizárt hogy az NVidia is "odahatott" kicsit.

Ja, nehogy azt hidd hogy a T&L ellen vagyok. Jó dolog, kell is, de nem ez a Szent Grál amit keresünk. Nagyra becsülöm NVidiáékat, hogy megtették ezt az első "nemszeretlek" lépést amire a többiek gyávák voltak. De az első cuccost nem szabad megvenni szerintem. Emlékezz a Diamond Edge-re és az S3 Virge-re...

Előzmény: SSE (540)
SSE Creative Commons License 1999.10.22 0 0 540
Kétségtelenül nagyon szépek a Glaze számai - bár a Thor egység nélkül a mostani GeForce-ok hülyére fogják verni nagy poligonszámú alkalmazásokban -, azonban majd akkor érdemes bármilyen teljesítményről beszélni, ha már itt lesz a kártya a kezünkben, be lehet dugni egy gépbe, ki lehet próbálni és össze lehet hasonlítani mással.

Nem tudom Te mit néztél a Firingsquad-on, de ott 64.6 fps-t ment a Demo1-el high-quality-ban 1024x768 32biten a GeForce DDR-es változata PIII 600-al, míg túlhajtva 71.8-at. Íme, ha nem hiszed:

http://www.firingsquad.com/guides/geforcetests/page7.asp

Tom-nál pedig 72.1 fps-t ment a nem túlhajtott GeForce PIII 550-el!

http://www5.tomshardware.com/graphic/99q4/991011/geforce-13.html

Igaz, ő kikapcsolta a hangot a teszt alatt (de végülis ez jogos).
Szóval mégegyszer mondom, már most is kő keményen megvan a mérce!!!

Nem kell aggódnod, majdnem minden a témába vágó dolgot elolvasok, szinte ahogy megjelenik. A Sharky-s cikket is olvastam, és semmi új nincs benne. Valóban, a tavalyi stuffok 300 poligonos kockafejű figuráival nem szűk keresztmetszet a CPU geometriai teljesítménye, de ki a fenét érdekel ez? A hw lighting-ot már nem is említem, mivel ennek szoftveres megvalósítása eddig csak slideshow-t eredményezett volna. De egyébként ez már egy igencsak lerágott csont. Úgyhogy hw T&L 4ever! :)

Előzmény: Laa-Yosh (538)
DcsabaS_ Creative Commons License 1999.10.22 0 0 539
A 30 fps megjelenitesi sebesseg mar kivalo mozgaselmenyt ad. De ha valamilyen igazi 3D megjelenitesben gondolkodunk (pl. LCD szemuveg), akkor mindjart megszorozhatjuk az igenyunket egy 2-es faktorral (60 fps). Tovabba, ha teljesen villodzasmentes megjelenitest szeretnek (tavlatilag), akkor az _egy szemre juto_ frekivel vagy 2,5-szer magasabbra celszeru mennunk, ami osszesen 150 fps. Tehat ennel gyorsabb megjelenitesre az ember vonatkozasaban nincs szukseg, a kartyaknak is felesleges produkalniuk.

Az ember szemei egyenkent vagy 100 millio fenyerzekeny elemet tartalmaznak, tehat megfelelo illesztes mellett 200 millional tobb megjelenitett pixelre biztosan nincs szukseg. Tovabba az is igaz, hogy az emberi szemek a latottakat elofeldolgozzak, es az agyba mar csak egy nagyon erosen tomoritett informaciot kuldenek tovabb, mintegy 1-1 millio idegszalon. Ez azt jelenti, hogy ha megfeleloen alakitjuk ki a megjelenitett informaciot, akkor szemenkent 1-2 millional tobb pixelre nincs szukseg. Vagyis pl. az 1600x1200-as felbontas durvan 2 millio pixele mar elegendo lenne, ha a pixelek surusege es eloszlasa igazodna a retinaehoz. Termeszetesen egy monitor eseten ezt ertelmetlen lenne eroltetni, de egy specialis kontaktlencse-szeru megjelenito eseten nem.

Az emberi szem igen sok szinarnyalatot tud megkulonboztetni, de nem abszolut ertelemben, hanem lokalisan, egymashoz viszonyitva. Ha tehat a kepek szintartalmat lokalis palettakhoz viszonyitva adnank meg, a 32 bit-es megjelenites tobb mint elegendo lenne.

Az emberi szem nem kepes a gyors mozgasokat huen kovetni (ezert is lathatjuk allokepek sorozatat folytonos mozgasnak). Ez azert nem tul nagy baj, mert a valosagos dolgok mozgasarol szemunk (es agyunk) eleve tudja, hogy feltehetoen folyamatos, es a hianyokat ilyen ertelemben kepes kipotolni.
De a mozgas sikeres megjelenitesehez meg csak a masodpercenkenti 30 egesz allokepre sincs feltetlenul szukseg, hiszen elegendo lenne csak idonkent megjeleniteni egy teljes kepet, majd pedig egy darabig csak az egyes fazisok kozotti kulonbseget. (Ezt az elvet az MPEG tomoritesnel es atvitelnel folhasznaljak, a megjelenitesnel meg nem.)

Ha osszehasonlitunk egy TV kepet a szamitogepes 3D jatekok kepeivel, akkor lathatjuk, hogy a TV kep kisebb felbontas, szinmelyseg es magasabb zajszint mellett is _sokkkkalta_ elethubb lehet. A kulonbseg elsosorban abbol fakad, hogy a mai jatekokban keves szamu "elnagyolt" vonallal vannak megrajzolva az objektumok. Hogy ez ember egyszerre hany ilyen-olyan vonalrol kepes globalisan latni, hogy nem gorbek (hanem poligonok), azt nem tudom, de a szam bizonyosan millios nagysagrendu lehet.

Tovabbi gond, hogy a folytonos valosag barmilyen digitalis (mondjuk pixel szeru) lekepezesenel elojon a mintavetelezesi tetel, vagyis hogy a bejovo analog jelnek felulrol savhatoroltnak kell lennie a mintavetelezesi frekvencia felenel, mert ha nem, akkor utolag eltavolithatatlan, a valosagnak nem megfelelo dolgokat fogunk eszlelni. Az emberi szem pixeleire vonatkozo ezen szuro eleve a szemunkbe van epitve, de a monitorunkkal, vagy video kartyankkal kapcsolatban eddig elhanyagoltak. (Bar a 3Dfx mozgolodni latszik az ugyben.)

Osszefoglaloan azt mondhatom, hogy mig a szinmelyseg, a felbontas es a megjelenitesi sebessege teren manapsag mar nincs tul sok tennivalo, addig a poligonok szamat _nagysagrendekkel_ kell megnovelni es szuksegesek az anti-aliasing szuresek is, tovabba vegre ideje lenne a monitorokrol elobb a monitor nelkuli 3D szemuvegekre, majd pedig a kontakt megjelenitokre atterni.

Laa-Yosh Creative Commons License 1999.10.22 0 0 538
SSE, a Glaze már igencsak benne van a próbagyártásban, nem csak papíron van. Eddig sem ott volt, hanem CAD programokban, vhdl-ben vagyis áramköri struktúrában.
Én egyébként úgy láttam, a Firingsquad-on például, hogy a Q3 csak 50-55 fps-t ért el, azt is csak a DDR-es Ge256-on (demo1).
T&L é proci ügyben olvasd már el, amit a fejlesztők a Sharky-n írtak! Szerintük pl. nem a T&L a bottleneck a mai alkalmazásokban...
Előzmény: SSE (537)
SSE Creative Commons License 1999.10.22 0 0 537
Látom ez az "unbalanced" dolog nagyon mélyen beette magát Nálad ;), így az sem zavar, hogy a többi még ilyenebb.
A Glaze az tényleg állat, papíron az én MegaSSEgpu-m ;) is 1000+ fps-t megy Q4-el! :D

Nincs meg a 60-80 fps Q3-ban??? És a 72 fps high-quality-ben 1024x768 32 bit-el, PIII-550-el az mi a túró??? Úgyhogy megvan a mérce, kő keményen!

Ez a Willamette dolog meg a T&L "tojása" :) viszont nagyon csúnya melléfogás ám! Sosem tudja a CPU még megközelíteni sem a GPU geometriai teljesítményét, mert már jelenleg is óriási a teljesítménykülönbség a GPU javára, ráadásul a grafikus hardverek jóval gyorsabban fejlődnek, mint a CPU-k.

Előzmény: Laa-Yosh (536)
Laa-Yosh Creative Commons License 1999.10.22 0 0 536
Az egymást átfedő poligonok mennyisége adja a depth complexity-t.
Nem a 3dfx szövegét ettem be (majd pont én :), és igenis kiegyensúlyozatlan a cucc.
Nekem a Glaze teccik, abból is a Monster :), meg kíváncsi vagyok a 3dfx nagy újítására, ami nem a T-buffer.
NV15 én is aszondom hogy várjuk meg. Ge256 ide vagy oda, nincs meg a 60-80 fps Q3ban 1024*768-ban, nekem most az az egyik mérce.
Mellesleg ha télleg lesz februárban Willamette, akkor tojni lehet a T&L-re. Ja és nézd meg a Sharkyextreme-en a fejlesztők véleményét a dologról...
Előzmény: SSE (535)
SSE Creative Commons License 1999.10.21 0 0 535
Úgy tűnik, szépen benyelted ezt az eredetileg 3dfx féle "savanyúszőlő" marketing-blablát az "unbalanced GeForce"-ról! :)
Ha azért nem szabad megvenni a GeForce 256 alapú kártyákat, mert a chip "kiegyensúlyozatlan", akkor mit vegyen az egyszeri jóember? Ugyanis ha a GeForce 256 ilyen, akkor az összes többi, a fogyasztói piacon levő kártya viszont KIBASZOTTUL kiegyensúlyozatlan, hiszen pontosan 0 geometriai teljesítmény párosul valamilyen ( > 0 ) fillrate teljesítménnyel ( a profi kártyák meg szintén mindjárt felborulnak ;) ugyanis nagyon gyengék fillrate-ben a geom. teljesítményükhez képest ).
A 480Mpix/s több mint elég legalább fél évig. A probléma egészen máshol van. Nem a GeForce-al van a baj (vagy a fillrate teljesítményével), hanem a jelenlegi memóriákkal elérhető sávszélességgel. Még az a nyavajás 150Mhz-es DDR-SGRAM is visszafogja a GeForce teljesítményét nagyobb felbontásokban. Ha lesz gyorsabb DDR RAM ( pl. 200+ Mhz az kb. 400+ MHz SDR RAM-nak felel meg = 6.4GB/s max. sávszélesség 128 biten ) az segíthet valamelyest, ill. előbb utóbb várható a beágyazott RAM széles körű elterjedése, csak győzze az ember bukszája majd a dolgot.
Persze azt is lehetne mondani, hogy mégis a GeForce-al van baj, hiszen miért nem 256 bites a memóriabuszának a szélessége. A választ pontosan nem tudom, de feltehetőleg nagyon megdrágította volna ez a dolgot, a technikai nehézségekről nem is beszélve. De talán majd az NV15! ;)

A fillrate -> fps számolásból pedig kihagytátok ( pontosabban KrinyO kihagyta ) a "depth of complexity" paramétert, hiszen a GeForce nem tud tile-based rendering-et.

Előzmény: Laa-Yosh (534)
Laa-Yosh Creative Commons License 1999.10.21 0 0 534
A poénodra - talán nem lep meg - nem vagyok vevő.

A következtetésed első fele több tévedést tartalmaz. A kiszámítandó pixelek száma nem csak a felbontás, hanem a kirajzolandó poligonok által elfoglalt terület függvénye is, márpedig utóbbi több szokott lenni mint maga a kép (egymást átfedő poligonok ugye).

Nem értem ezt az engine dolgot. Ha arra gondolsz, hogy a kártya raszterizáló egysége az, ami limitálva van, hát pont erről beszélek x ideje... ezért fill-rate limitált a Q3, a kártya nem képes annyi pixelt kiszámítani, amennyihez a CPU & geometriai egység elegendő triangle adatot tudna küldeni.

És én is pont azt mondom, hogy a Ge256 egy kiegyensúlyozatlan chip, és ezért nem szabad megvenni. De tegyük hozzá, vannak a Q3-nál kisebb fillrate igényű játékok is, és ott azért szakíthat a kártya, emellett mégiscsak a ma kapható leggyorsab cucc.

Pont azt magyarázom, hogy mivel a hw geometria lehetősége szinte kizárt volt, ezért az engine-eket inkább szoftveres végrehajtásra optimalizálták. Emellett a Quake tipikusan nem használja a vertex megvilágítást, tehát nem is lehet benne ezen gyorsítani.

Én futtattam FireGL-en Q1/2/3-at, és siralmas volt... nem használt belőle semmit se. Külön változata lesz majd optimalizálva a Ge-re.

Előzmény: KrinyO (532)
KrinyO Creative Commons License 1999.10.21 0 0 533
http://www.3dhardware.net/reviews/annihilator/benchmarks.x

Itt van egy-ket eredmeny...
Nem lettem meggyozve..:(((

Bye: Krinyo

KrinyO Creative Commons License 1999.10.21 0 0 532
Laa-Yosh: Gurut elvbol sem, van annal szinvonalasabb lap is hardver temaban..:) Bocs, nem hagyhattam ki..:))))

Szoval en ezt tokeletesen ertem amit irtal, es tudom, amire en gondoltam az az, hogy ugye elvileg (maradjunk az elvi dolgoknal) a kartya fill-rate-je, az engine-je 480MPixel-t, azaz 480.000.000 pixelt kepes kiszamolni masodpercenkent. Egy 1024x768-as kep 786.432 keppontbol all. Igaz? Ez ilyen elmeleti filrate-tel es keppontszammal elvileg (!!!) 610,35 frame/secundumnak felel meg.

Namost hiaba tud az en T/L-em 100000 frame/secundumnak elegendo geometriai adatot szolgaltatni, ha az engine csak 610,35-nek megfelelo adatot kepes feldolgozni. Tehat egy bizonyos fps szam fole nem fog a kartya teljesitmenye a T/L-lel sem menni. Erted mire gondolok? Tehat lehet, hogy a T/L lehetoseget ad a poligonszam olyan mervu novelesere, amivel "lebutitva" az fps-t 610,35-re rohadt jol fog kinezni, de nem lesz gyorsabb ennel soha, mivel az Engine csak ennyit kepes lekezelni, e felett a T/L csak var. Vili?

Itt jon a kepbe az orajel kerdese, ez ugyanis nagyban befolyasolja a fill-rate (elmeleti) erteket, s ami (nekem) meglepoen alacsony erteket kepvisel a GeForce eseteben. Erdekes, hogy eddig az NVidia a magasabb orajelre hajtott, ezzel a fillrate-re, viszont most nem tartja olyan fontosnak, s valljuk be, a 480MPixel nem tul magas ertek. Persze boven elegendo lehet, de csak egy ideig. Tudom, ennek technikai okai is vannak...
Ugyanis mihelyst elkezdunk ilyen-olyan effekteket ratenni a kepre, a 610,35 fps-em (adott felbontason, most 1024x768-on) rohamosan csokkenni fog. Es Ezen a T/L sem tud segiteni! Erted?

Lehet, hogy rosszul gondolom, de nekem ez igy tunik logikusnak, ha valamit rosszul szamolnek, szoljatok, persze itt teljesen elmeleti sikon, a szamok pedig kicsit el vannak tulozva, az elmeleti 610,35 fps termeszetesen sohasem lesz meg. Nagyon jol tudom.

Bocs, ha kicsit zuros volt, de en igy ertettem, hogy a T/L nem fogja feltetlenul a teljesitmenyt novelni...

Az OpenGL alapu jatekok pedig ha jol tudom kapasbol lekerdezik az ICD-t, MiniGL-t, melyek azok a fukciok, amiket a hardver gyorsit, s azt termeszetesen a hardverrel szamoltatjak. Probalt mar valaki FireGL-en Q3A-t futtatni? Akkor ugyanis kiderulne kezeli-e a game engine-je a T/L-t.
Egyebkent biztosan kezeli, ugyanis maskepp nem mutogatnanak olyan kepeket, amiben a poligonszam noveleset dicsergetik...

BYe: Krinyo

Arty Creative Commons License 1999.10.21 0 0 531
Laayosh: de nem opengl api tudja h. soft vagy hardware csinálja az effektet ? nem az v. a kártya drivere közli az opengl-el h. mit tud a kártya és mit nem ? ezexerint ezek a gamék nem opengl esek, hanem csak csökevények...
Laa-Yosh Creative Commons License 1999.10.21 0 0 530
Mondom, amikor a gamékat írták, szó nem volt T&L kártyákról, a legolcsóbb olyan cucc is fél milla volt... így a CPU-ra optimalizálták őket.
Előzmény: Arty (529)
Arty Creative Commons License 1999.10.21 0 0 529
Freeman: ne kezd!

SSE: te se :) (álá wolf3d... stb)

LaaYosh: és pl. az opengl-s gamékat nem ugy irták meg h. ha a hardware tudja azokat a bizonyos funkciókat, akkor azt ne a soft engine csinálja? nem voltak előrelátóak ennyire? vagy csak nem volt miért?

SSE még1x: az a velocity-s kép elég durva :))) ue.-t kérdezem: idáig süllyedtek volna? nVidia chipet rakni egy kártyára ? ;)

Laa-Yosh Creative Commons License 1999.10.21 0 0 528
Speciel most kaptam forwardolva egy mailt, hogy valaki kiselőadást gyártott a cikkeim alapján :) szóval a fill rate dolgokat azért igyekeztem alaposan leírni.

FireGL 1: 200 pénz az ára plusz fa. Ellenben az csak raszterizáló kártya (no T&L!), mindezek ellenére az eddigi legjobb teljesítményt ezen nyomta a Max a gépemen. A Ge256-ot még nem kaptam meg...
Nem mindegy, milyen körülmények között teszteltek. A GL 1 ugyanis kétprocesszoros PIII-asokhoz van kitalálva, képes a 3D pipeline geometriai feladatait elosztani a két proci között. Franciául nem tudok, szóval az oldalt nem néztem meg... de a Ge256 attól még lehet jobb 3D melóra, azért is vagyok rá kíváncsi.

Előzmény: amigatya (526)
amigatya Creative Commons License 1999.10.21 0 0 527
Az előbb nem voltam egyértelmű: szóval természetesen a GeForce jobb mindenben!
Ehh, így jár aki kritizál... :)
amigatya Creative Commons License 1999.10.21 0 0 526
Laa-Yosh: Vigyázz azzal a PC Guru ajánlgatással! Régebben valamelyik fórumon a T&L vitával kapcsolatban ajánlottad, és azt a bizonyos cikket elolvasván... hát bizony nem lettem okosabb. Azért persze a cikk jó. :) S ha már a PC Guru szóba került... nem tudnál hatni a srácokra, hogy kevesebb angol szó (nem a szakszavakra gondolok!) és főleg teljes angol mondat kerüljön a cikkekbe? Fel kéne Őket világosítani, hogy ettől senki sem lesz vagányabb! Ráadásul valószínűleg innen ered az általad említett (Gale) cikkíró szilikon-szilícium keverése... így jár aki össze-vissza használja az angol és magyar szavakat... eheheh! :)
Na, hogy ne legyek teljesen 'off topic', mennyibe kerül egy FireGL1? Csak azért mert egy francia honlapon láttam egy összehasonlító tesztet a GeForce256-al és hát szinte mindenben 'legyakta'.(CAD, 3D MAX...stb.) Link: http://www.hardware-fr.com/2d3d/geforce256_firegl1/index.htm
Előzmény: Laa-Yosh (525)
Laa-Yosh Creative Commons License 1999.10.20 0 0 525
Fill rate: az egy másodperc alatt kiszámítható textúrázott pixeleket értjük alatta. Teljesítménymutató, miként a motoroknál a lóerő.
Létezik elméleti maximális fill rate, meg lehet gyakorlatban mérni, ez nyilván mindig kisebb.

A felbontással úgy függ össze, hogy pl. 1024*768-nál több pixelből áll egy frame, tehát kevesebbet tud a kártya kiszámolni.

A Q3 fill-rate limitáltsága azt jelenti, hogy több pixelt kellene kirakni. A 32bit és a multitetúrázás eszi meg főleg. Tehát 1024 és a felett már a proci vár a kártyára, és nem fordítva mint 640*480-ban.

Soha nem is állítottam, hogy a 480-at átlépné. Ellenben neked nem volt egészen tiszta ez a fill rate dolog, nem? Olvass több PC Gurut :))), abban van sok cikk róla :)))))))))

Előzmény: KrinyO (523)
SSE Creative Commons License 1999.10.20 0 0 524
Idáig "süllyedtek" volna? ;)

http://www.riva3d.com/graphics/3dfx.html

KrinyO Creative Commons License 1999.10.20 0 0 523
Miert Freeman? Mi a gond? En csak azt mondtam, hogy nem erre szamitottam....

Persze ennek is lehet orulni, es nagy lehetosegek vannak a kartya elott...
Vagy nem???

Laa-Yosh: sajnos 3DStudio renderelesi osszehasonlitasokat meg nem lattam, ez alatamasztana amit mondtal a T/L-rol...bar ugy lenne.
A Q3 meg miert fill-rate limitalt? hogy erted ezt pontosan? a fill-rate egy elmeleti szam, es tokeletesen fuggetlen a felbontasbol tudtommal. Ezaltal mindegy, hogy 640x480 vagy 800x600 a felbontas....

A 480MPixelt nem kepes a kartya atlepni, ha 2GHz-es procit is raksz ala...

BYe: krinyo

Ha kedveled azért, ha nem azért nyomj egy lájkot a Fórumért!