AIは共感力において人間の危機対応者を上回る:新たな研究

トロント大学スカボロー校の研究者らは、AIが一般人や専門の危機対応者と比較してより思いやりのある対応を生み出すことを発見し、メンタルヘルスケアにおけるAIの役割についての議論が始まった。

トロント大学スカーバラ校の研究者らが行った新たな研究によると、人工知能は人間よりも共感を示す能力に優れている可能性があるという。

リサーチ、 公表 コミュニケーション心理学の研究者は、ChatGPTのようなAIツールは、一般の人々や訓練を受けた危機対応者よりも思いやりがあると評価される共感的な応答を提供できると示唆しています。

「AIは疲れない」とマイケル・インズリヒト研究室のマネージャーで筆頭著者のダリヤ・オブシヤンニコワ氏は述べた。 ニュースリリース「人間が経験するような感情的なストレスを感じることなく、一貫性のある質の高い共感的な反応を提供することができます。」

この研究には、参加者が AI、一般人、専門の危機対応者からの書面による回答を評価する 4 つの個別の実験が含まれていました。

調査結果では一貫して、AI が生成した応答はより思いやりがあり、細部にまで気を配ったものとして認識され、気遣い、承認、理解の感覚が生まれることが示されました。

共感はさまざまな場面で非常に重要であり、特にメンタルヘルスの分野では、個人が認められ、つながりを感じるのに役立ちます。しかし、共感を継続的に表現することは、人間の介護者にとって感情的に消耗することになり、共感疲労などの状態につながる可能性があります。

危機ライン対応者としてボランティア活動を行っているオブシヤンニコワさんは、この分野の専門家が直面する精神的負担を強調している。

心理学教授であり、この研究の共著者でもあるインズリヒト氏は、AIは表面的な思いやりを伝えるのに効果的だが、根本的な精神衛生上の問題を解決するために必要な、より深く意味のあるケアを提供する能力が欠けていると指摘している。

「AIは人間の共感力を補う貴重なツールになり得るが、それ自体に危険も伴う」と彼はニュースリリースで述べた。

大きな懸念の 1 つは、感情的なサポートのために AI に過度に依存することの倫理的な影響であり、これにより個人が人間との交流から遠ざかり、孤独や社会的孤立が悪化する可能性があります。

さらに、AI が生成した共感に対する最初の反応は肯定的だったものの、「AI 嫌悪」と呼ばれる現象により、共感的な反応が AI から来たものであると知った参加者の一部の好みが変化することが示されました。

この懐疑論は、AI が人間の感情を理解するということに対する社会全体の不安を浮き彫りにしている。

しかし、AIとのやりとりに慣れている若い世代は、時間の経過とともにこれらのテクノロジーに対する信頼を高める可能性があります。

インズリヒト氏は、AI を人間の共感に代わるものではなく、強化するために使用するというバランスの取れたアプローチの必要性を強調しています。

「AIはギャップを埋めることはできるが、人間の感覚を完全に置き換えるべきではない」と彼は付け加えた。

この研究がさらなる議論を呼ぶ中、AI はメンタルヘルスケアにおける共感力の不足に対処する上で有望である一方で、支援を必要とする人々に真に利益をもたらすためには、慎重かつ倫理的に AI を導入する必要があることは明らかです。