Valójában csak a hatalmas számítási kapacitás miatt sok lehetőséget feldob, amely az újszerűség látszatát kelti, mivel legtöbb ember képtelen lekövetni.
Illúzió jelenleg. Persze parametrizálhatod úgy, hogy a számítási kapacitást kihasználva olyat is figyelembe vegyen, melyet a lényegesen kisebb számítási kapacitással rendelkező ember nem vett figyelembe, de ez sem intuíció, hanem a brute force számítási kapacitás kihasználása.
Most beszélünk egy olyan számítási kapacitásról, mely egy komplett erőmű teljesítményét leköti.
A modell GPU-n és tenzor chipeken fut alapvetően VRAM-ban. Persze sok százezer task fut egymás mellett, de minden válasz előtt bődületes gigabyte-ok vannak átfésülve.
Ezek nem egyszerű pdf olvasások, hanem ezeket előre fel kell dolgozni a hatékonyság miatt és hónapokig tart egy betanítás és sok billió paraméteres model adatbázis megalkotása, attól függően, hogy 8 billió vagy 700 billió paraméteres modell fut. Most akartam összerakni egy mérnöki AI-t, de H100-as chip. Vagy egy bődületes 48GB-os VRAM-os GPU belépőnek kell hozzá és a saját egyszemélyes problémámat tudja csak kezelni, erre is több napot kellene várni. Még nem tartok ott, hogy erre szükség legyen.
De az AI pl. nem tud neked FEA-t vagy CFD-t futtatni, max a kódot legenerálja hozzá, amit solveren kell futtatnod.