ホワイトハウスは人工知能(AI)開発への監督を強化する方策を探っている。ニューヨーク・タイムズ紙によれば、当局は新たなAIモデルを監視する専門タスクフォースの設置を検討中だ。
主な提案は、AIシステムを一般公開する前に連邦政府による審査を義務付けるというもの。これにより、企業は安全性やリスク評価を先にクリアしなければ新モデルを自由にリリースできなくなる。
最終決定は下っていないが、検討中の規制枠組みは、既に多層的なAI監視体制を導入している英国の手法を一部参考にしている。英国ではシステムの安全基準適合が確認されるが、その枠組み自体は批判や内部対立に直面している。
もしこうした仕組みが確立されれば、これまでの米国戦略からの大幅な転換点となる。従来のAI開発計画は政府介入を最小限に抑え、企業に大きな裁量を与えてきたからだ。
技術の急速な進歩と高まるリスクを背景に、政権が方針を変える可能性がある。現ホワイトハウスが、イノベーションを阻害せずに潜在的脅威を抑える実効性ある規制制度を設計できるかは、依然として不透明だ。