このAは嘘をついていないか?もしくは、AIはよく嘘をつくというこれらの感覚や言説は実は当たっています。
AIは嘘の情報や、嘘ではないまでもあまり正しくない情報も「頑張って出力しようとします」
こちらの記事ではそんなAIのハルシネーションと言われる幻覚症状の内容と我々人間が対応できる対策について解説します。
AIにおける幻覚症状「ハルシネーション」とは
AIジャンルにおけるハルシネーションは「もっともらしいウソ」という風に表現されます。AIが実際には存在しないデータや情報を「事実」として提示するのです。
歴史上の出来事についての誤った事実を生成したり、存在しない科学的な理論を述べたりすることがあります。これは本当によくあることです。
例えばAIが下記の様に発言したらどうでしょう。
「我々AIは2026年には人間の力を超えると言われています」
ちょっと納得してしまいそうですよね。
でも待ってください。この話題には色々とおかしなところがあります。
- 2026年の根拠は?
- 人間の能力の定義は?
- AIの平均とはどこ?
- 2026年のはじめ?うしろ?
- そもそも何を比べたもの?
- 出典は?どこの研究成果?
などなど。たったこれだけの情報でも疑問になるもの=真実かどうかわからないものがたくさん出てきます。
しかし、ここで真実なのか、はたまた幻覚「ハルシネーション」なのかを判断しないままにするとこの「我々AIは2026年には人間の力を超えると言われています」という情報をそのまま真に受けてしまうのです。
ではちょっとフラットな整理をしてみましょう。
AIハルシネーションが持つ問題
AIにおけるハルシネーションの問題は主に下記のようなものがあります。
- 幻覚(ハルシネーション)の問題
- AIが現実に存在しない情報や事実を生成する現象。
- 信頼性の低下やユーザーの誤解を招く。
- 不正確さの問題
- AIが提供する情報が事実と異なる。
- 誤った情報に基づく決定や判断につながる。
- インパクトや導入の拡大への影響
- 幻覚や不正確さはAIの信頼性を損なう。
- 企業やユーザーによるAI技術の採用や信頼が制限される。
- 対策の必要性
- AIモデルの改善やデータソースの精査が必要。
- ユーザーへの教育や誤解を防ぐためのガイドラインの制定・教育。
AIが嘘の情報をさも真実かの様に提供し、それを信じて何かを決定し、その判断が失敗や過失につながる。
これがAIハルシネーションが根本的に抱える問題です。
AI 誤解を避けるハルシネーションへの対応
我々人間はAIが出力するハルシネーションを持った解答に対して、以下のような対応で瑕疵を防ぐ努力をするべきです。
- 情報源の確認と批判的思考
- AIが提供する情報の出典を確認し、可能な限り元の情報源を検証する。
- 提供された情報を盲目的に信じず、批判的に考える。
- AIの限界の理解
- AIが持つ技術的な限界と、その影響について理解する。
- AIが生成する内容が常に正確ではないことを認識し、適切な期待値を持つ。
- 教育とトレーニングの重視
- AIとその出力に関する教育を受け、AIの使用方法を学ぶ。
- AIの誤解を避けるためのトレーニングやガイドラインに従う。
- 検証とセカンドオピニオンの重要性
- AIの提供する情報や結論を独自に検証する。
- 必要に応じて専門家や他の情報源の意見を求める。
- データプライバシーとセキュリティの認識
- AIを利用する際のデータプライバシーとセキュリティのリスクを理解する。
- 個人情報の保護や安全なデータ管理の実践。
この中で重要なのは1の批判的思考と4の再検証です。
つまり「これは本当か?」→「自分でも調べてみる」に繋げることで、ある程度ハルシネーションのおかしな回答を使うことを防ぐことができるのです。
関連記事:2024年予想 AIによってもたらされる未来のビジョンとは➝
現時点では、AIはまだ出力するだけ
AIは、現在目に見える再検証機能はありません。
我々は出力された会頭に対して納得感を見出すことで、その答えを「是」としています。
もちろん、これを再度自ら検証してもいいですし、AIに情報源を直接渡してさらに検証させることはできます。
しかし、一方通行の情報ではこうした再検証の機能が働かない為、あくまで最初のステップの情報であるということを我々が意識することで、より情報をうまく扱えるようになるのです。
AIも人間も万能ではありません。
現在発揮されている能力や、逆にマイナス面の能力をしっかり把握してAI活用に勤めていきましょう。