AI kan føre til kognitiv kapitulasjon og uverifisert aksept
En ny studie viser at AI som ChatGPT påvirker tenkning og beslutningstaking, med risiko for uverifisert aksept av feil svar. Les om konsekvenser og advarsler.
En ny studie viser at AI som ChatGPT påvirker tenkning og beslutningstaking, med risiko for uverifisert aksept av feil svar. Les om konsekvenser og advarsler.
© RusPhotoBank
En ny studie fra Wharton School of Business ved University of Pennsylvania viser at kunstig intelligens ikke lenger bare assisterer menneskelig beslutningstaking – den begynner å forme selve tenkningens mekanismer. Forskere konkluderer med at regelmessig bruk av AI-tjenester som ChatGPT kan påvirke hvordan folk vurderer informasjon og trekker konklusjoner.
Omtrent 1300 personer deltok i eksperimentet, og resultatene var bekymringsfulle. Rundt 80 prosent av deltakerne som brukte AI aksepterte til og med tydelig feilaktige svar uten å verifisere dem. Forskere kaller dette fenomenet for "uverifisert aksept", der enkeltpersoner i praksis delegerer tenkeprosessen til en algoritme og omgår egen analyse og skepsis.
Forfatterne introduserer et nytt konsept: "kognitiv kapitulasjon". De argumenterer for at folk gradvis oppgir komplekse kognitive prosesser som kritisk tenkning, refleksjon og intuitiv vurdering. Paradokset ligger i at AI ikke bare gir svar, men også øker brukernes tillit til at svarene er riktige – selv når de er feil.
Forskere foreslår også en revisjon av den klassiske tosystemmodellen for beslutningstaking. I tillegg til de velkjente "raske" og "langsomme" systemene, legger de til et tredje: det "kunstige" systemet, der deler av den analytiske rollen overlates til algoritmer. Dette betyr at AI blir en fullverdig deltaker i den kognitive prosessen.
Eksperter advarer om at problemet ikke ligger i teknologien i seg selv, men i hvordan folk begynner å bruke den. Mens verktøy som søkemotorer eller kalkulatorer tidligere komplementerte menneskelig tenkning, er det nå en risiko for at enkeltpersoner gradvis kan miste evnen til å uavhengig vurdere informasjon og til og med sette spørsmålstegn ved algoritmiske konklusjoner.
Forskerne oppfordrer til spesielt forsiktighet med AI-bruk i utdanning, medisin og andre kritiske felt der feilkostnadene er spesielt høye. I de kommende årene vil samfunnet måtte finne en balanse mellom teknologisk bekvemmelighet og bevaring av menneskelige kognitive evner.