人工知能は人間の助けをいつ求めるべきかを知っておく必要がある

出版社:

更新しました:

人工知能システムは、企業や政府がデータを処理し、状況の変化に対応するための強力なツールです。 株式市場で or 戦場で。 しかし、AI が対応できていないことがまだいくつかあります。

永遠 の学者 コンピュータサイエンス 理解するために働く そしてアルゴリズムが社会と相互作用する方法を改善します。 AI システムは、目標が明確で高品質のデータがある場合に最高のパフォーマンスを発揮します。たとえば、正確に識別された人物の多くの写真から学習した後、さまざまな顔を区別するように求められた場合です。

AI システムは、ユーザーや観察者が驚くほどうまく機能することがあります。 なんて敏感なんだろう 技術はです。 しかし、時には成功も 測定が難しい or 正しく定義されていない、またはトレーニング データ 目の前のタスクと一致しない。 このような場合、AI アルゴリズムは失敗する傾向があります。 予測不可能で素晴らしい方法だけど 必ずしもすぐに明らかになるわけではありません 何かが間違っていることさえある。 そのため、AI ができることについての誇大宣伝や興奮に注意し、AI が見つけた解決策が常に正しいと想定しないことが重要です。

アルゴリズムが機能しているときは、人々に危害を加えるのを防ぐ人間のセーフティネットが必要です。 私たちの調査では、状況によってはアルゴリズムがその動作方法の問題を認識できることが実証されました。 人間の助けを求める。 具体的には、人間の助けを求めることが、状況によってはアルゴリズムのバイアスを軽減するのに役立つことを示しています。

アルゴリズムはどの程度確実ですか?

人工知能システムは以下の分野で使用されています。 刑事判決, 顔ベースの性格プロファイリング, 履歴書審査, ヘルスケア登録 人々の生命と幸福が危険にさらされるその他の困難な任務。 米国政府機関は、最近の事態に対応して、AI システムの調査と使用を強化し始めています。 ドナルド・トランプ大統領からの大統領令.

ただし、AI はタスクの対処方法について誤解を定着させたり、既存の不平等を拡大したりする可能性があることを覚えておくことが重要です。 これは、誰も別の扱いをするようにアルゴリズムに明示的に指示していない場合でも発生する可能性があります。

たとえば、多くの企業は、顔からその人の特徴を判断しようとするアルゴリズムを持っています。 彼らの性別を推測する。 米国企業が開発したシステムは、優れたパフォーマンスを発揮する傾向があります。 白人男性の分類が上手い 女性や肌の色が濃い人よりも。 彼らは肌の色が濃い女性に対して最も苦手です。 ただし、中国で開発されたシステムは次のような傾向があります。 白い顔だとさらに悪くなる.

この違いは、あるグループの顔が他のグループよりも分類しやすいためではありません。 むしろ、両方のアルゴリズムは通常、人類全体ほど多様ではない大規模なデータのコレクションに基づいてトレーニングされます。 データセットが特定の種類の顔(米国では白人男性、中国では中国人の顔)によって占められている場合、アルゴリズムはおそらく他の顔よりもそれらの顔をよりうまく分析できるでしょう。

違いがどのように生じたとしても、結果として、あるグループの方が別のグループよりも正確であるため、アルゴリズムに偏りが生じる可能性があります。

AI を人間が監視する

一か八かの状況では、アルゴリズム自身の結果に対するアルゴリズムの信頼性、つまりシステムが正しい答えを導き出す可能性の推定値が、結果自体と同じくらい重要になります。 アルゴリズムからの出力を受け取る人は、コンピューターが関与しているからその結果が正しいと考えるのではなく、その結果をどの程度真剣に受け止めるべきかを知る必要があります。

研究者たちが、修正する試みどころか、特定する方法を開発し始めたのはつい最近のことです。 アルゴリズムとデータの不平等。 アルゴリズムは、自身の欠点を認識するようにプログラムすることができ、その認識に基づいて、 その仕事を手伝ってくれる人を頼む.

多くの種類の AI アルゴリズムがすでに内部アルゴリズムを計算しています。 信頼度 – 特定の入力部分の分析がどの程度うまくいったかの予測。 顔分析では、多くの AI アルゴリズムが 自信が低い 白人の男性の顔よりも濃い色の顔や女性の顔に適しています。 信じられないほどシンプル 不明 これらのアルゴリズムの一か八かの使用について、法執行機関がこれをどの程度考慮しているか。

目標は、AI 自体が、異なるグループで同じ精度に達していない領域を特定することです。 これらの入力に関して、AI は人間のモデレータに決定を委ねることができます。 この手法は、次のようなコンテキストの多いタスクに特に適しています。 コンテンツ管理.

ヒューマンコンテンツモデレーター 追いつけない ソーシャルメディアサイトに投稿される画像の洪水。 しかし、AI によるコンテンツ モデレーションは、投稿の背後にある文脈を考慮に入れていないことで有名で、性的指向に関する議論を誤って認識してしまいます。 明示的なコンテンツ、または独立宣言を次のように特定します。 ヘイト·スピーチ。 これにより、不正確な検閲が行われる可能性があります 人口動態 or 政治的 他のグループよりもグループ化します。

両方の長所を活かすには、 私たちの研究 は、現在すでに一般的になっているのと同じ AI 手法を使用して、すべてのコンテンツを自動化された方法でスコアリングすることを提案しています。 次に、私たちのアプローチは、新しく提案された技術を使用して、保護されたさまざまな人々のグループにおけるアルゴリズムの精度における潜在的な不平等を自動的に特定し、特定の個人に関する決定を人間に引き渡します。 その結果、アルゴリズムは、実際に決定する人々について完全に偏りなくすることができます。 そして、アルゴリズムによる決定では必然的にバイアスが生じてしまうような個人を人間が決定します。

このアプローチはバイアスを排除するものではありません。バイアスの可能性をより小さな一連の決定に「集中」させ、その後、人々が人間の常識を使用してそれらの決定を処理するだけです。 AI は依然として意思決定作業の大部分を実行できます。

これは、人間と協働する AI アルゴリズムが、AI の悪い決定に囚われることなく、AI の良い決定の利点と効率性を享受できる状況を実証するものです。 そうすれば、人間は、公平性と公平性を確保するために重要な、曖昧で難しい決定に取り組むためのより多くの時間を得ることができます。会話

著者: サラ・シェフラー、博士号コンピューターサイエンスの学生、 ボストン大学, アダム・D・スミスコンピュータサイエンス教授 ボストン大学, ランカネッティコンピュータサイエンス教授 ボストン大学

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

6か月の無料トライアル

次に、Amazon プライムを半額 – 50% オフでお楽しみください!

トゥンアイ – あなたの教育アシスタント

トゥンアイ

奨学金、大学検索、オンライン授業、経済援助、専攻の選択、大学入学、勉強のヒントなど、私がお手伝いいたします。

大学ネットワーク