AIが思考メカニズムに及ぼす影響:未検証受容と認知的降伏
ウォートン・スクールの研究によると、AIの日常利用は情報評価や結論形成に影響し、未検証受容や認知的降伏を引き起こす可能性があります。教育や医療分野での注意点も解説。
ウォートン・スクールの研究によると、AIの日常利用は情報評価や結論形成に影響し、未検証受容や認知的降伏を引き起こす可能性があります。教育や医療分野での注意点も解説。
© RusPhotoBank
ペンシルベニア大学ウォートン・スクールの最新研究によると、人工知能(AI)はもはや人間の意思決定を支援するだけの存在ではなく、思考のメカニズムそのものを変えつつある。研究者らは、ChatGPTのようなAIサービスを日常的に利用することで、人々の情報評価や結論形成の仕方に影響が及ぶと結論づけた。
実験には約1300人が参加し、その結果は懸念すべきものだった。AIを使用した参加者の約80%が、明らかに誤った回答であっても検証せずに受け入れた。研究者らはこの現象を「未検証受容」と呼び、個人が自らの分析や懐疑心を飛び越えて、思考プロセスをアルゴリズムに委ねる状態を指す。
研究チームは新たな概念として「認知的降伏」を提唱している。人々が批判的思考、内省、直感的判断といった複雑な認知プロセスを徐々に放棄しつつあると主張する。パラドックスは、AIが答えを提供するだけでなく、たとえその答えが間違っていても、ユーザーの正しさに対する自信を高めてしまう点にある。
科学者らはまた、意思決定の古典的な二重システムモデルの見直しを提案している。従来の「速い」システムと「遅い」システムに加えて、分析の役割の一部をアルゴリズムに委ねる「人工的」システムを第三の要素として追加。これは、AIが認知プロセスに完全な参加者として組み込まれつつあることを意味する。
専門家が警告するのは、問題は技術そのものではなく、人々の使い方にある点だ。検索エンジンや電卓のようなツールはかつて人間の思考を補完してきたが、今では個人が情報を独立して評価する能力、さらにはアルゴリズムの結論に疑問を抱く能力さえ徐々に失うリスクがある。
研究者らは特に、教育や医療など誤りのコストが特に高い分野でのAI利用には細心の注意を呼びかけている。今後数年間、社会は技術的利便性と人間の認知能力の維持とのバランスを見いだす必要に迫られるだろう。