Danny Weber
07:58 24-12-2025
© A. Krivonosov
清華大学AIRがNeurIPS 2025で発表。脳波EEGとカメラ映像を組み合わせたdrive‑thinkにより、自動運転の意思決定を人間らしく強化。対照学習で学習し、nuScenesやBench2Driveで衝突を18~26%減、追加ハード不要で安全性向上を実証。エンドツーエンド設計で実運用はカメラのみ。
清華大学 Institute for Intelligent Industry(AIR)の研究チームが、自動運転における注目すべき科学的前進を明らかにした。発表の場はNeurIPS 2025。オートパイロットが人間の脳の認知能力を“借りる”手法に焦点が当たっている。
研究チームは「cognitive‑enhanced autonomous driving」と呼ぶアプローチを提示した。人間ドライバーから記録した脳波(EEG)信号を用いてオートパイロットを学習させ、より人間らしい意思決定を促すというものだ。重要なのは、市販車にEEGセンサーを積む必要がなく、システムコストを現状水準に保てる点である。
学習アーキテクチャ「drive‑think」は、準備段階で車載カメラの映像とEEGを組み合わせ、道路状況に対する潜在的な認知反応を抽出する。対照学習を用いることで、走行ネットワークはシーンを評価するときにその反応を再現するよう訓練される。
学習は二段構えだ。まず人間の脳データから認知スキルを形成し、その後の実運用ではカメラの通常映像だけに依存する。要するに、人の運転経験を暗黙的なかたちでマシンビジョンのモデルへ移植する設計で、筋が通っている。
nuScenesデータセットとBench2Driveシミュレーションでの評価では、成果は明快だった。軌跡計画の誤差が縮まり、衝突は約18~26%減少。急な割り込みといった複雑でリスクの高い場面でも、より慎重で予測可能なふるまいを示し、人間の運転に近づいた。総じて、実感できる安全性の向上が示されている。
研究チームは、人の認知スキルを直接取り入れてエンドツーエンドの自動運転を高めた研究はこれが初だと述べる。神経科学と機械知覚をつなぐ興味深い橋渡しであり、追加ハードを求めずに安全性の高いオートパイロットや物理知能の前進に道を拓く、と言えそうだ。