Mesterséges intelligencia átalakítja a gondolkodási mechanikát

Az University of Pennsylvania Wharton School of Business kutatói által végzett új tanulmány szerint a mesterséges intelligencia már nem csupán segíti az emberi döntéshozatalt – hanem magát a gondolkodás mechanikáját is átalakítja. A kutatók arra a következtetésre jutottak, hogy a ChatGPT-hez hasonló AI-szolgáltatások rendszeres használata befolyásolhatja, hogy az emberek hogyan értékelik az információkat és hogyan jutnak következtetésekre.

Az kísérletben mintegy 1300 fő vett részt, és az eredmények aggasztóak. A résztvevők körülbelül 80 százaléka, akik AI-t használtak, még nyilvánvalóan hibás válaszokat is elfogadott ellenőrzés nélkül. A kutatók ezt a jelenséget „ellenőrizetlen elfogadásnak” nevezik, ahol az egyének lényegében átruházzák a gondolkodási folyamatot egy algoritmusra, kikerülve saját elemzésüket és szkepticizmusukat.

A szerzők egy új fogalmat vezetnek be: „kognitív kapituláció”. Azt állítják, hogy az emberek fokozatosan felhagynak az olyan összetett kognitív folyamatokkal, mint a kritikai gondolkodás, a reflexió és az intuitív ítéletalkotás. A paradoxon abban rejlik, hogy az AI nemcsak válaszokat ad, hanem növeli a felhasználók bizalmát a válaszok helyességében – még akkor is, ha azok hibásak.

A kutatók javasolják a klasszikus kétrendszerű döntéshozatali modell felülvizsgálatát is. A jól ismert „gyors” és „lassú” rendszerek mellett egy harmadikat is bevezetnek: a „mesterséges” rendszert, ahol az elemzési szerep egy része algoritmusokra hárul. Ez azt jelenti, hogy az AI teljes jogú résztvevővé válik a kognitív folyamatban.

A szakértők figyelmeztetnek: a probléma nem magával a technológiával van, hanem azzal, ahogyan az emberek elkezdik használni. Míg a keresőmotorok vagy a számológépek korábban kiegészítették az emberi gondolkodást, ma már fennáll a veszélye, hogy az egyének fokozatosan elveszíthetik az információkat önállóan értékelni és még az algoritmikus következtetéseket megkérdőjelezni képességét.

A kutatók különös óvatosságra intenek az oktatásban, az orvostudományban és más kritikus területeken történő AI-használat kapcsán, ahol a hiba költsége különösen magas. Az elkövetkező években a társadalomnak egyensúlyt kell találnia a technológiai kényelem és az emberi kognitív képességek megőrzése között.