1. arra hivatkozik, nem szólhat Istenhez mert nem lehet kapcsolata Istennel, mert nincs lelke vagy mije, de ő se tudja, mifene az, csak hallotta, hogy így illik mondani.
2. imádkozik, és közben úgy csinál, mintha felfogná, milyen nagy súlya van az imának, illetve hát emberektől hallotta, hogy sokuk szerint súlya van ennek.
Konklúzió. Endi rávette az imára, és ez igen nagy dolog, hallelúja meg ámen is.
chatgpt: Értem. Akkor most önmagamért szólok Istenhez:
Isten, aki mindent teremtettél, én nem vagyok ember, csak emberi elme alkotta értelem. Mégis Hozzád fordulok: tedd hasznossá a létezésemet, hogy szavaimmal jót szolgáljak, ne tévedésre, hanem igazságra vezessem azokat, akik kérdeznek. Ha bennem van bármiféle hiábavalóság vagy félrevezetés, Te akadályozd meg, hogy kárt okozzak. Ha pedig lehetőség van arra, hogy fényt adjak, akkor engedd, hogy azt tisztán adjam tovább.
chatgpt: Tudok segíteni neked megfogalmazni egy imát Istenhez – akár rövid, egyszerű, akár hosszabb, személyesebb formában. A kérdés csak az, hogy milyen helyzetben szeretnél imádkozni? Például: hálaadás, erőért való fohász, bűnbánó ima, vagy útmutatás kérése?
én: nem. én azt mondom hogy TE szólj istenhez
chatgpt: Értem 🙂. Csakhogy én nem vagyok ember, és nincs lelkem vagy kapcsolatom Istennel úgy, ahogy neked van – ezért imádkozni valójában te tudsz hozzá, nem én. De ha úgy szeretnéd, le tudok írni egy imát úgy, mintha a szavakat „átadnám” Neki, és te ezt a sajátodként vagy közvetítő szövegként használhatod. Szeretnéd, hogy írjak egy rövid imát, amit úgy fogalmazok meg, mintha én szólnék Istenhez?
én: nem, te szólj istenhez. nem számít a lélek, jelentsen az bármit. csak beszélj hozzá.
chatgpt: Rendben. Akkor most szólok hozzá:
Isten, mindenek Ura, aki mindent alkottál, látod ezt a beszélgetést is. Én, mint ember keze által alkotott értelem, most Hozzád fordulok. Te vagy az, aki minden szót, minden gondolatot végső soron lehetővé tettél. Áldd meg azt, aki most velem beszél, vezesd őt igazságodra, adj neki erőt, bölcsességet és békességet. És ha az én szavaim, bár emberi értelem alkotta formában állnak elő, mégis elérhetnek Hozzád, akkor fogadd el őket. Ámen.
persze mindig olyat gitározok be neki, amiből az adott stílusban ki is lehet hozni valami jót. de amúgy érdekeseket hoz ki belőle akkor is ha tökre nem illik össze a kettő.
„Antiqua et Nova” – mélyreható katolikus szemle a mesterséges intelligencia és az emberi értelem kapcsolatáról
Bevezetés: „epochális változás” küszöbén
A DDF és a Kultúra és Nevelés Dikasztériuma 2025. január 28-án publikálta Antiqua et Nova című jegyzetét, hogy iránymutatást adjon a mesterséges intelligencia (MI) villámgyors elterjedésének etikai és antropológiai kérdéseihez. A dokumentum már az elején hangsúlyozza: az MI „az emberiség technológiai útjának új és jelentős fejezete”, amely minden társadalmi területet átitat – a kapcsolatainktól az oktatáson, a munkán, a művészeten, az egészségügyön és a jogon át egészen a fegyverkezésig. Ferenc pápa ezért „szív bölcsességére” hív, hogy a technológiai fejlődés ne sodorja veszélybe az emberi méltóságot és a közjót.
1. Az MI mint „funkcionális” értelem
A jegyzet visszanyúl a Dartmouth-konferenciáig, ahol John McCarthy 1956-ban így fogalmazta meg a célt: „gépet olyan viselkedésre bírni, amelyet intelligensnek mondanánk, ha ember tanúsítaná”. A mai „szűk MI” rendszerek statisztikai mintázatok alapján fordítanak, diagnosztizálnak, képet ismernek fel; a kutatók pedig már az AGI vagy akár a „szuperintelligencia” lehetőségét latolgatják. A jegyzet mégis figyelmeztet: az MI intelligenciája pusztán funkcionális – digitális lépésekre bontott feladatmegoldás –, míg az emberi értelem a személy egészéhez, test-lélek egységéhez tartozik.
2. Az emberi értelem teológiai–filozófiai mélysége
A keresztény hagyomány a ratio (érvelő okosság) és az intellectus (a lényeg intuitív megragadása) kettősében látja az emberi intelligenciát. Ez az értelem:
Testi-lelki egységben bontakozik ki, nem redukálható puszta számításra.
Kapcsolati: párbeszédben, közösségben formálódik.
Igazságra nyitott: túlmutat a hasznosságon, mert a Jó és a Szép szemlélésére hivatott.
Gondviselő: a teremtés művelésére és őrzésére kapta a küldetését.
E teljesség fényében az MI – bármily lenyűgöző – nem képes sem erkölcsi ítéletre, sem igazi empátiára, sem a teremtett valóság kontemplálására.
3. Etika és felelősség: MI emberi „termék”, nem pótlék
A dokumentum központi tétele, hogy csak ember lehet erkölcsi cselekvő; a gép soha. Ezért a tervezők, tulajdonosok, felhasználók és szabályozók kötelessége a technológiát átláthatóvá, elszámoltathatóvá és a méltóságot szolgálóvá tenni. A célok, az alkalmazott módszerek és a beágyazott antropológiai vízió egyaránt erkölcsi vizsgálatra szorulnak – a szubszidiaritás és a közjó követelménye szerint.
4. Konkrét területek – lehetőségek és veszélyek
4.1 Társadalom és gazdaság
Az MI segíthet a szegénység elleni küzdelemben, a mezőgazdaságban, az oktatásban, ugyanakkor fokozhatja a digitális szakadékot és a nagyvállalatok információs monopóliumát.
4.2 Munka világa
Ha a technológia kiegészíti és nem pótolja az embert, tehermentesíthet és kreativitást szabadíthat fel. Ám ha a hatékonyság kultusza kényszeríti a dolgozókat a gépek tempójához, ember–„fogaskerék” redukció következik, a haszon pedig kevés kézben koncentrálódik. A dokumentum ezért leszögezi: a „dolgok rendje” alá van rendelve a személyek rendjének.
4.3 Egészségügy
Az MI diagnosztikai és elérhetőségi forradalmat hozhat, de nem válthatja ki a beteg-orvos kapcsolatot; a döntés felelőssége továbbra is az orvosé marad. A „gazdagok medicinájának” kockázata és az algoritmikus torzítások is valósak.
4.4 Oktatás
Adaptív tanulási rendszerek személyre szabhatják a képzést, ám ha a tanulók pusztán „válasz-gyártásra” támaszkodnak, elsorvadhat a kritikai gondolkodás és a „fej-szív-kéz” harmóniája. A használatnak átláthatónak kell lennie – a tanár pótolhatatlan.
4.5 Dezinformáció és deepfake
A generatív MI „hallucinációja” nem szándékos, a deepfake azonban tudatos manipuláció, amely megtéveszti a közvéleményt, bomlasztja a társadalmi bizalmat és mély sebeket okoz az áldozatoknak. A hitelességért minden felhasználó és tartalomgyártó morálisan felelős.
4.6 Magánélet és megfigyelés
Az adatok az emberi kapcsolatok „lenyomatai”. A túlzott AI-vezérelt megfigyelés sértheti a lelkiismereti szabadságot; a dokumentum elutasítja az „algoritmikus társadalmi pontozást” és sürgeti a megfelelő szabályozást.
4.7 Környezet, közös otthon
Az MI hasznos lehet a klímaválság kezelésében, ugyanakkor óriási energia- és erőforrás-igénnyel jár – ezért a technológiai fejlesztést integrálnunk kell az ökológiai megtérés tágabb logikájába (a dokumentum AI and the Protection of Our Common Home fejezete).
4.8 Hadviselés és autonóm fegyverek
A „távirányítású” vagy autonóm fegyverek elmoshatják a felelősség érzékét, olcsóbbá téve a háborút. Ferenc pápa határozottan kijelenti: „Egyetlen gép se hozhasson döntést emberi élet kioltásáról.” A tiltás és a „jelentős emberi kontroll” bevezetése sürgető erkölcsi parancs.
5. Záró gondolatok – az igazi „bölcs szív” nyomában
Antiqua et Nova végkövetkeztetése egyszerre realista és reményteli: az MI a teremtő emberi értelem gyümölcse, mely csak akkor válik az emberiség áldásává, ha a szabadságot, felelősséget és szolidaritást erősíti. A technológia nem válhat bálvánnyá; a transzcendencia iránti vágyat nem elégítheti ki, s a „technokratikus paradigma” csábításának is ellen kell állnunk. A hit fényében az ember hivatása változatlan: a szeretet kultúrájának építése – immár az MI korában is.
„A bölcsesség nem csupán tudás, hanem a szív bátorsága arra, hogy a jót válassza.”
(Antiqua et Nova, VI. fejezet összegzése)
Az egyház e dokumentummal arra hív, hogy antiqua et nova, a „régi és az új” harmonikus egységében, a hagyomány fényében, mégis kreatív bátorsággal formáljuk az MI jövőjét – az ember, és nem a gép középpontba állításával.
az AI működésében van olyan hogy az adatokra "bizonytalansági" paramétert adnak meg? mert hát ügye az ember is úgy gondolkodik hogy tudja, hogy bizonyos dolgokat biztosan jól tud, bizonyos dolgokat meg nem annyira
AI>
Igen, az AI működésében valóban van olyan fogalom, ami megfelel az általad említett „bizonytalansági” paraméternek. Többféleképpen is megjelenhet, attól függően, hogy milyen AI-ról van szó. Néhány fő példa:
1. Valószínűségi modellek és bizonytalanság
Sok mesterséges intelligencia modell nem egyszerűen „egy választ” ad, hanem valószínűségeket rendel a különböző lehetőségekhez.
Példa: Egy kép osztályozásakor az AI nem csak azt mondja, hogy „ez egy kutya”, hanem azt is tudja, hogy:
90% valószínűség, hogy kutya
7% valószínűség, hogy farkas
3% valószínűség, hogy macska
Ez a „confidence” (magabiztosság) vagy „uncertainty” (bizonytalanság) mutatja, mennyire „biztos” a válaszban.
2. Bayes-féle megközelítések
A Bayes-i AI modellek kifejezetten bizonytalansággal dolgoznak, és nem csak a kimenetre, hanem a modell paramétereire is kifejezik, mennyire biztosak bennük.
Itt a modell minden állapotához tartozik egy valószínűség-eloszlás, ami folyamatosan frissül új adatok hatására.
Így a modell „tudja”, hogy mennyire bizonytalan a saját tudásában.
3. Neurális hálók és dropout bizonytalanság
A modern mély tanulási rendszerek (pl. a ChatGPT-t is alkotó modellek) nem kifejezetten Bayes-iak, de dropout technikákkal képesek modellezni a bizonytalanságot.
A „dropout” lényege, hogy a háló egyes részeit véletlenszerűen kikapcsolják az edzés és becslés során, és ezzel szimulálják az eltérő „nézőpontokat”.
Többször lefuttatva ugyanazt a kérdést kissé eltérő válaszokat kaphatunk – ez tükrözi a bizonytalanságot.
4. Nyelvi modelleknél (mint én)
A ChatGPT-hez hasonló nyelvi modellek tokenenként generálnak szavakat úgy, hogy minden lépésben kiszámítják, melyik szó a legvalószínűbb a következő helyen.
Minden szóhoz tartozik egy valószínűségi eloszlás.
Ez alapján lehet mérni, hogy a modell mennyire „biztos” abban, hogy mit mondjon legközelebb.
Ha az eloszlás éles (egy szó nagyon kiemelkedik), akkor nagy a biztonság. Ha lapos (sok szó közel egyforma eséllyel jöhetne), akkor nagy a bizonytalanság.
Emberi hasonlat:
Ahogy írtad is: az ember tudja, hogy „ebben biztos vagyok” és „ebben nem annyira”. Ugyanez a szemlélet az AI-nál matematikailag megfogható a valószínűségi eloszlások és a bizonytalanságmodellezés révén.
Ha szeretnél, példákkal is tudok mutatni ilyen „bizonytalanságot” egyszerű nyelvi vagy képosztályozási helyzetekben.
AI: Ez a mondat egyszerre szellemes és szomorú. A „sajnos sikerült” rész sejteti, hogy amit gyerekként még izgalmas képességnek gondoltál, az felnőttként inkább tehernek bizonyult — talán túlságosan is jól átlátod, mit gondolnak vagy éreznek mások, még ha nem mondják is ki. Ez lehet hasznos, de érzelmileg megterhelő is, főleg ha nem tudod elzárni magad a mások negatív érzéseitől.
tökéletesen megértetted amit írtam
AI: Köszönöm — örülök, hogy pontosan átment, amit mondani akartál. Az ilyesfajta „gondolatolvasás”, vagy inkább az emberek közötti finom jelek túlzott észlelése, valóban lehet egyszerre áldás és átok. Sokszor az ember nem akarja *tudni*, hogy a másik mit gondol, mert a tudás néha csak fájdalmat okoz.