image: インナースピーチとワーキングメモリを用いたアーキテクチャが、マルチタスク処理や複雑なパターン生成課題の遂行時にAIの性能を向上させる。 view more
Credit: 瀬良垣香織(OIST)
「独り言」は本質的に人間特有の特性のように感じられます。私たちの内で行われている会話は、思考の整理、意思決定、感情の理解に役立ちます。しかし、このような自己対話の効果を活用できるのは人間だけではありません。沖縄科学技術大学院大学(OIST)の研究チームが『Neural Computation』誌に発表した研究では、AIも内なる言葉、「インナースピーチ」を持つことで学習が向上する可能性が示されました。インナースピーチと短期記憶の両方によって支えられることで、AIモデルは異なるタスク間でより容易に汎化(機械学習モデルが、学習時に使用したデータだけでなく、未知のデータに対しても、適切に高い精度で予測や判断を行う)できることが明らかになりました。
「本研究は、学習プロセスにおいて自己対話が重要であることを示しています。システムが自己対話を行えるように、トレーニングデータを工夫して構成することで、学習はモデルの構造だけでなく、トレーニング手続きに組み込まれた相互作用のダイナミクスによっても形づくられることが分かりました」と、本研究論文の筆頭著者でOIST認知脳ロボティクス研究ユニットのスタッフサイエンティストであるジェフリー・クワイセア博士は述べています。
自己主導的な「つぶやき」と独自に設計したワーキングメモリアーキテクチャを組み合わせることで、研究チームはAIモデルの学習能力、新しい状況への適応力、そしてマルチタスク処理能力を向上させました。
脳をヒントにしたAI学習モデル
研究チームはこれまで、具体的内容に強く依存しない情報処理──つまり、一般的な手法や操作を学習することで、過去に経験した具体的状況を超えてタスクを遂行できる能力──に関心を持ってきました。
「私たち人間は、タスクの切り替えや未知の課題の解決を、日常的にごく自然にこなしています。しかし、AIにとってこれは決して容易ではありません」とクワイセア博士は指摘します。「そこで私たちは、発達神経科学、心理学、機械学習、ロボティクスといった分野を横断する学際的アプローチを取り入れ、学習に関する新たな枠組みを探ることで、未来のAIに示唆を与えようとしているのです。」
研究チームはまず、AIモデルの記憶構造に着目し、タスクの汎化におけるワーキングメモリの重要性を検証しました。ワーキングメモリとは、指示の保持から素早い暗算まで、システムが情報を短期間保持しながら活用する能力を指します。難易度の異なる課題をシミュレートし、さまざまな記憶構造の有効性を比較した結果、複数の「ワーキングメモリスロット」(情報を一時的に保持する小さな容器)を備えたシステムは、順序の逆転やパターン再構築といった複雑な課題でも高い汎化能力を発揮することが示されました。
さらに、システムに一定回数の自己対話を行わせる「自己対話目標」を追加したところ、特にマルチタスクやステップ数の多い課題で性能が向上しました。
「本システムの大きな利点は、汎化学習に通常求められる膨大なデータではなく、少量のデータで動作する点です。軽量で、既存手法を補完する新たな選択肢を提供します」とクワイセア博士は述べています。
よりよく学習するために学習する
今後の展望として、研究チームはより複雑な環境での再現に取り組む予定です。クワイセア博士は次のように述べています。「現実世界では、複雑でノイズが多く、絶えず変化する環境下で意思決定や問題解決が行われています。人間の発達的学習をより忠実に再現するためには、こうした外的要因を学習プロセスに取り入れる必要があります。」
これは、人間の学習の神経基盤を理解するという、研究チームの大きな目標とも深く結びついています。クワイセア博士は次のように結論づけています。「インナースピーチのような現象を探求し、そのメカニズムを解明することで、人間の生物学や行動に関する、より根本的な新たな知見が得られます。こうして得られた知識は、家庭用ロボットや農業用ロボットのような応用分野で活かすことができ、複雑で変化に富む現実世界での機能向上につながるのです。」
Journal
Neural Computation
Method of Research
Computational simulation/modeling
Article Title
Working Memory and Self-Directed Inner Speech Enhance Multitask Generalization in Active Inference
Article Publication Date
22-Dec-2025