画期的な研究により、AIの偏見に対処するには社会言語学が重要だと判明

バーミンガム大学の新しい研究では、社会言語学の洞察を活用して大規模な言語モデルを改善し、社会的偏見や誤報などの重大な問題に対処することを提案しています。研究者は、より公平で倫理的な AI システムを作成するには、多様な言語データが緊急に必要であると強調しています。

バーミンガム大学の新しい研究は、社会言語学の原理を統合することで大規模言語モデル (LLM) を改善するための重要な道筋を明らかにしています。この革新的なアプローチは、ChatGPT のような人工知能システムの公平性と信頼性を大幅に向上させ、誤情報や社会的偏見といった蔓延する問題に対処する可能性があります。

研究、 公表 Frontiers in Artificial Intelligence 誌の著者である彼は、人気の AI システムが、トレーニングに使用されている言語データベースの不備により失敗することが多いことを強調しています。これらのデータベースは、あらゆる言語に固有の多様な方言、使用域、時間的変化を正確に表現できず、AI の出力が有害な固定観念や不正確さを永続させる可能性があります。

「ChatGPTのような生成AIは、促されると、特定の民族や性別について否定的な描写を生み出す可能性が高くなりますが、私たちの研究は、社会的な偏見を軽減するために、より原則的な方法でLLMを訓練する方法の解決策を提供します」とバーミンガム大学言語コミュニケーション学部の教授で筆頭著者のジャック・グリーブ氏は述べた。 ニュースリリース.

この研究は、言語の多様性の全範囲を反映するデータセットで LLM を微調整すれば、これらの AI システムの社会的価値を大幅に向上できることを示唆しています。このアプローチにより、さまざまな社会集団や文脈の表現のバランスをとることができ、AI システムの精度が向上するだけでなく、倫理性も向上します。

「私たちは、トレーニング データの社会言語学的多様性を高めることが、その規模を単に拡大することよりもはるかに重要であると提案します」とグリーブ氏は付け加えました。「これらすべての理由から、LLM の設計と評価において社会言語学的洞察が明らかに緊急に必要であると考えています。」

この研究の影響は広範囲に及びます。社会構造とそれが言語使用に与える影響についてのより深い理解を法学修士課程の設計に組み込むことで、この研究は人類にさらに役立つ AI システムへの道を開きます。AI は顧客サービスからパーソナライズされた推奨まで、社会のさまざまな分野に浸透し続けているため、これらのシステムが偏りなく機能することを保証することが非常に重要です。