MIT の研究者らは、大規模言語モデルの推論能力を強化する技術である自然言語組み込みプログラム (NLEP) を発表しました。この画期的な技術は、プログラミングと自然言語を組み合わせ、さまざまなタスクで 90% を超える精度を達成し、AI システムの透明性と信頼性を高めます。
ChatGPT を動かすような大規模な言語モデルは、法的要約の作成、顧客の感情の分析、文書の翻訳など、優れた機能を発揮してきました。しかし、これらのモデルは、複雑な数値的または記号的推論を必要とするタスクに取り組む際に、しばしばつまずいてしまいます。
そこで登場するのが、MIT やその他の機関の研究者が提案した革新的な技術、自然言語組み込みプログラム (NLEP) です。この方法では、言語モデルが Python プログラムを生成して実行し、複雑なクエリを解決してから、その解決策を平易な言語で表現します。このアプローチにより、さまざまな推論タスクにおけるモデルの精度が大幅に向上し、プロセスの透明性と汎用性が高まります。
「私たちはAIが複雑な推論を透明かつ信頼できる方法で実行することを望んでいます。まだ道のりは長いですが、大規模な言語モデルでプログラミングと自然言語の能力を組み合わせることは、人々がAIモデル内で何が起こっているかを完全に理解し、信頼できる未来への非常に良い第一歩となる可能性があることを示しました」とMITコンピュータサイエンスおよび人工知能研究所(CSAIL)のポスドク研究員であり、この研究論文の共同主執筆者であるホンイン・ルオ氏は述べている。 研究、で言った ステートメント.
NLEP は、モデルが構造化されたプロセスに従うことで動作します。モデルはまず必要な関数を呼び出し、関連する自然言語データ (米国大統領の誕生日のリストなど) をインポートし、関数を通じて計算を実行し、最後に結果を自然言語で表示します。この構造化された 4 段階のアプローチにより、信頼性が高まり、エラーが発生した場合にユーザーが Python コードを直接検査して修正できるため、トラブルシューティングが簡単になります。
「プログラムが正しければ常に正しい計算結果を出すデジタル計算機のようなものだ」と羅氏は付け加えた。
研究チームは、記号推論、指示の遵守、テキスト分類など、さまざまなタスクで NLEP をテストし、90% を超える精度を達成しました。驚くべきことに、NLEP は、それほど洗練されていないオープンソース モデルを使用した場合でも、他のタスク固有のプロンプト方法よりも 30% 優れたパフォーマンスを発揮しました。
NLEP は、精度の向上に加え、データのプライバシーと効率の面でもメリットがあります。プログラムはローカルで実行されるため、ユーザー データを処理のために OpenAI や Google などの外部組織に送信する必要がありません。さらに、類似の質問に対して 1 つのコア プログラムを生成することで、ユーザーはモデルを再実行せずに変数を置き換えることができ、計算リソースを大幅に節約できます。
「言語モデルがコードで推論することで、ツールの使用、出力の検証、モデルの機能や考え方に対するより構造化された理解など、多くの機会が開かれます」と、MIT-IBM Watson AI Labの主任科学者であるレオニード・カーリンスキー氏は語った。
しかし、制限の 1 つは、小規模なモデルはトレーニング データが限られているため、NLEP で十分なパフォーマンスを発揮できない可能性があることです。そのため、研究者は小規模な言語モデルの機能を強化し、プロンプトのバリエーションの堅牢性を向上させる方法を熱心に研究しています。
「ここには魔法はありません。より高価で手の込んだ言語モデルはありません。私たちがしているのは、自然言語生成の代わりにプログラム生成を使用するだけで、パフォーマンスを大幅に向上させることができます」と Luo 氏は言います。
この研究は、AI の透明かつ効率的な未来を約束するもので、計算言語学会北米支部の年次会議で発表される予定です。これは、強力でありながら人間が理解しやすい AI システムの構築に向けた重要な一歩を示しています。