L'intelligence artificielle influence la pensée humaine et la prise de décision

Une étude récente de la Wharton School of Business à l'Université de Pennsylvanie révèle que l'intelligence artificielle ne se contente plus d'aider à la prise de décision humaine : elle commence à remodeler les mécanismes mêmes de la pensée. Selon les chercheurs, l'utilisation régulière de services d'IA comme ChatGPT peut influencer la façon dont les gens évaluent l'information et forment leurs conclusions.

Environ 1 300 personnes ont participé à l'expérience, et les résultats sont préoccupants. Près de 80 % des participants ayant utilisé l'IA ont accepté des réponses clairement incorrectes sans vérification. Les chercheurs qualifient ce phénomène d'« acceptation non vérifiée », où les individus délèguent en quelque sorte le processus de réflexion à un algorithme, contournant leur propre analyse et leur scepticisme.

Les auteurs introduisent un nouveau concept : la « capitulation cognitive ». Ils affirment que les gens abandonnent progressivement des processus cognitifs complexes comme la pensée critique, la réflexion et le jugement intuitif. Le paradoxe réside dans le fait que l'IA fournit non seulement des réponses, mais renforce aussi la confiance des utilisateurs dans leur exactitude, même lorsque ces réponses sont erronées.

Les scientifiques proposent également de réviser le modèle classique à deux systèmes de prise de décision. En plus des systèmes « rapide » et « lent » bien connus, ils en ajoutent un troisième : le système « artificiel », où une partie du rôle analytique est confiée à des algorithmes. Cela signifie que l'IA devient un participant à part entière du processus cognitif.

Les experts avertissent que le problème ne réside pas dans la technologie elle-même, mais dans la façon dont les gens commencent à l'utiliser. Alors que des outils comme les moteurs de recherche ou les calculatrices complétaient autrefois la pensée humaine, il existe désormais un risque que les individus perdent progressivement la capacité d'évaluer l'information de manière indépendante, voire de remettre en question les conclusions algorithmiques.

Les chercheurs appellent à une vigilance particulière concernant l'utilisation de l'IA dans l'éducation, la médecine et d'autres domaines critiques où le coût de l'erreur est particulièrement élevé. Dans les années à venir, la société devra trouver un équilibre entre la commodité technologique et la préservation des capacités cognitives humaines.