AIシステムは、感知、理解、推論能力において大きな進歩を遂げている。しかし、その発展において大きなハードルに直面している。それは、人間の信念、欲求、そして意図といった複雑な世界を理解し、それを乗り越える能力だ。O'Reilly(オライリー)はブログ記事で、この課題について次のように解説している。
AIシステムは請求書処理や在庫管理といった構造化されたタスクには優れているが、人間のコミュニケーションのニュアンスや日常的な状況における暗黙の社会的ダイナミクスを解釈することには苦労する。この限界は、AIが判断を下し、交渉し、信頼関係を構築する必要があるときに、さらに顕著になる。
AI研究界で注目を集めているアプローチである信念・欲求・意図(BDI)フレームワークは、この問題の解決策となる可能性がある。BDIフレームワークにより、AIエージェントは人間と同様に、自分が何を知っているか、何を望み、何を実行することにコミットしているかを推論できる。この認知アーキテクチャーにより、AIエージェントは時間の経過とともに変化する信念のシーケンスを処理し、新しい情報に基づいて意図を調整できる。例えば、BDIフレームワークを使う自動運転車は、リアルタイムの交通データと通勤者の行動に関する信念、そして目的地に安全かつ効率的に到着したいという欲求に基づいて、予測される渋滞を回避するために脇道を通るルートを変更するかもしれない。
しかし、課題は正確な信念を構築し維持することだ。優先順位、制約、意図など、人間の文脈において重要なことの多くは、明示されたりデータとして捉えられたりすることは稀です。むしろ、これらは時間と状況に応じて変化する行動パターンに埋め込まれている。ここで観察学習が重要になる。AIAIは、環境における行動パターンを観察し解釈することで、優先順位と制約を推測することを学習する必要がある。現代の信念認識システムは、行動テレメトリー、確率的信念ネットワーク、強化学習といった高度な技術を用いて、こうした暗黙のダイナミクスを解読する。
AIシステムがより高度化し、自律的になるにつれ、透明性と説明可能性の課題は極めて重要になる。エージェントの意図、特に複雑な確率的信念状態モデルから生じる意図の背後にある推論を監査するためには、AIの説明責任に対する新たなアプローチが必要だ。EUのAI法は現在、高リスクシステムに対する基本的人権影響評価を義務付けており、組織は信念状態が意思決定にどのように影響するかを文書化する必要があるといえるだろう。この規制枠組みは、AIの意思決定プロセスを理解し、検証するための堅牢なメカニズムの必要性を認識している。
信念に基づくAIの導入は、技術実装をはるかに超える影響を及ぼす。既存のワークフローに信念に基づく意思決定をマッピングし、AIの意図を検証・ストレステストするための部門横断的なチームを編成し、これらのシステムを低リスク領域に導入してから、ミッションクリティカルなアプリケーションに拡張することが必要になる。信念に基づくBDIベースのアーキテクチャーへの進化は、AIの役割に大きな変化をもたらし、感覚・理解・推論のパイプラインから、人間の行動を定義する暗黙の信念、欲求、意図を内面化し、それに基づいて行動できるシステムへと進化させる。この変化は、AIをより高度化するだけでなく、人間の行動との適合性を高め、最も重要な意思決定が行われる曖昧で社会的に複雑な環境において動作できるようにするだろう。
出典:O'Reilly
この製品の詳細については、O'Reilly製品ページをご覧ください。