大規模言語モデルには非言語推論能力がありますか?

ソース: Quantum

Ars Technicaの最新の記事では、大規模な言語モデルが非言語的な推論能力を持っているかどうかについて議論されており、研究者の発見が引用されています。彼らによると、「潜在空間」での処理は、人工知能が困難な論理的な問題を解決するのに役立つとされています。では、詳細を見ていきましょう。

現時点で、大規模言語モデルは大きな成功を収めており、変換器アーキテクチャを使用して、クエリに対する次の単語(言語タグ)を予測することが効果的に行われています。しかし、複雑な推論タスクで抽象的なロジックが必要な場合、このように「言語空間」ですべてを説明することが問題を引き起こすことがあります。これは、現代の「推論」モデルにとっても当てはまります。

現在、研究者は、これらの問題を解決するためにモデルを設計することを試みています。これらのモデルは、「潜在空間」と呼ばれる、変換器が言語を生成する前の隠れた計算層で完全に潜在的な論理的解決策を計算することができます。この手法は、大規模な言語モデルの推論能力に大きな変化をもたらすわけではありませんが、特定のタイプの論理問題の正確性を明らかに向上させ、新たな研究の興味深い方向を示しています。

ちょっと待って、どの空間?

現代の推論モデル(例:ChatGPTのo1)は、通常、「思考チェーン」を生成して動作する傾向があります。これらのモデルでは、論理プロセスの各ステップが自然言語トークンのシーケンスとして表現され、モデルにフィードバックされます。

新しい論文では、Metaの基礎人工知能研究チームとカリフォルニア大学サンディエゴ校の研究者は、自然言語と「単語のタグ付け」への依存をこれらの推論モデルの「基本的な制約要因」と見なしています。なぜなら、推論タスクを成功させるには、しばしば特定の重要なタグを複雑に計画する必要があり、多くの選択肢の中から正しい論理パスを見つけることが求められるからです。

!

上図では、標準モデルでは各ステップで変換器を経由する必要があることが説明されており、COCONUTモデルでは隠れた「潜在的な」状態が使用されていることとの違いが示されています。(図の出典:Training Large Language Models to Reason in a Continuous Latent Space)

研究者は、現在の意味チェーンモデルでは、単語タグが通常「テキストの一貫性」と「流暢さ」のために生成されるが、「実際の推論過程にはほとんど貢献しない」と述べています。 その代わりに、彼らは、「理想的な状況は、大規模な言語モデルが言語に限定されることなく自由に推論し、必要に応じてその発見を言語に変換するだけである」と提案しています。

この「理想」を達成するために、研究者は「大規模な言語モデルを連続的な潜在空間で推論するためのトレーニング方法」を説明しました。この「潜在空間」は、本質的には一連の「隠れた」中間トークンウェイトセットで構成されており、これらの中間トークンウェイトセットは、モデルがその内部状態を生成する前に含まれる人間に読みやすい自然言語バージョンです。

研究者は、COCONUTモデル(Continuous Cognitive Chain)では、これらの隠れた状態を「潜在的な思考」としてエンコードし、トレーニングやクエリ処理で単一の文章ステップの代わりに論理的な順序で取り扱われると述べています。研究者は、これにより、各ステップを自然言語に変換する必要がなくなり、「言語空間から推論を解放する」ための最適化された推論パスが生まれると説明しています。これを「連続的な思考」と呼んでいます。

視野が広がる

潜在的な空間での論理処理はモデルの効率を向上させる一方で、より重要な発見は、このモデルが「複数の潜在的な後続手順を同時にエンコードすることができる」ということです。潜在的な空間での論理処理により、即時のバックトラックが実現され、研究者はこれをグラフ内での幅優先探索にたとえています。個々の論理オプションを完全かつ一つ一つ探索する「貪欲な」プロセスではなく、

研究者は、モデルが明示的にトレーニングされていなくても、この突発的で同期した処理特性がテストで示されるだろうと述べています。彼らは、「モデルは最初は正しい決定を下すことができないかもしれませんが、いくつかの潜在的な価値関数に導かれ、連続的な考えの中で多くの可能な選択肢を維持し、推論を通じて間違った経路を段階的に排除することができる」と述べています。

!

この図は、さまざまなモデルが特定の種類の論理的推論で失敗する可能性のあるいくつかの方法を示しています。 (出典:Training Large Language Models to Reason in a Continuous Latent Space)

相対的に簡単な数学的推論テスト(GSM8K)や一般的な推論(ProntoQA)テストにおいて、従来の思考リンクモデルと比較して、この多経路推論はCOCONUTの精度を実際に向上させていません。しかし、研究者は、このモデルがランダムに生成されたProntoQAスタイルのクエリのグループで比較的良いパフォーマンスを発揮することを発見しました。これらのクエリには複雑で曲がりくねった論理条件集が関連しています(例:「すべてのリンゴは果物であり、すべての果物は食べ物であり、など」)。

これらのタスクにおいて、標準的な思考チェーン推論モデルは、論理的なチェーンの問題を解決しようとする際に、しばしば行き詰まり、完全に架空の規則を生み出してしまうことがあります。以前の研究では、これらの思考チェーンモデルが出力する「口頭化された」論理ステップは、「共有された推論プロセスとは異なる潜在的な推論プロセスを利用している可能性がある」と示しています。

この新しい研究は、ますます多くの研究が取り組んでおり、大規模言語モデルの基本的なニューラルネットワークレベルでの動作を理解し活用することを目指しています。 このような研究はまだ大きな突破口を開いていませんが、研究者は、このような「連続的な思考」を用いてモデルを事前トレーニングすることで、「モデルがより広範な推論シナリオでより効果的に一般化できるようにする」ことができると考えています。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGate.ioアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)