Google DeepMind CEOが語るAGIの現状と課題

Danny Weber

12:57 19-02-2026

© B. Naumkin

Google DeepMindのCEO、デミス・ハサビス氏が、人工知能(AGI)の進歩と人間レベルの思考とのギャップを指摘。継続的学習、長期的計画、知的一貫性の欠如が主要な弱点と説明しています。

Google DeepMindのCEO、デミス・ハサビス氏は、人工知能(AGI)が人間の思考レベルにはまだ達していないと見ている。最近のインタビューで、急速な進歩にもかかわらず、現在のAIシステムと人間の認知能力との間には明らかなギャップが存在すると指摘した。

ハサビス氏によれば、現在のAGI的なモデルには3つの主要な弱点がある。1つ目は、継続的な学習能力の欠如だ。ほとんどのシステムは配備前に訓練され、その後は基本的に変化しない。理想的には、AIは現実世界の環境から自らの経験を学び、追加の再訓練なしに新しい条件やタスクに適応するべきだとしている。

2つ目の問題は、長期的な計画に関わる。現代のモデルは短期的な戦略を立てられるが、人間のように何年も先を見据えた計画を構築することはまだできない。ハサビス氏は、この能力が複雑な意思決定や戦略的思考において重要な役割を果たすと強調している。

3つ目の弱点は、知的な一貫性の欠如だ。ある分野では卓越した結果を示しながら、別の分野では初歩的なタスクで誤りを犯す可能性がある。

ハサビス氏は、現在のシステムは国際数学オリンピックで金メダルを獲得したり、極めて複雑な問題を解決したりできるが、質問の表現が変わると、単純な数学問題でミスをすることがあると述べた。真に普遍的な知能システムには、そのような能力のギャップがあってはならない。もし人間が数学の専門家であれば、単純な問題で誤りを犯すことはないと指摘している。

ハサビス氏は以前、本格的なAGIが5~10年以内に出現する可能性があると発言している。彼は2010年にDeepMindを共同設立し、2014年にGoogleが同社を買収した後、Google Geminiプロジェクトを支える重要な研究部門となった。2024年には、タンパク質構造予測技術への貢献により、ノーベル化学賞を受賞している。