【AI活用レポート】AIに出典を聞いたら大嘘をつかれた!?信じる前に知るべきAIの危険なクセ

自身による執筆

※この記事は【どうする?シャントとの生活。知っておくと安心!シャントのこと、磁力のこと。(AI執筆)】を作成した執筆者の感想です。なお、AIはGemini Proを使用しています。

はじめに:その返答、なんで?

私が社会人になりたての頃、最も返答に苦しんだ言葉があります。

「いまの対応、なんでそうしたの?」

仕事には時間的な制約があります。理由なんて聞かれても答えようがないんです。

「どうしてそうしたの?」という漠然とした聞き方にも問題があると思います。

しかし、仕事を人に頼んだ時、どのようなプロセスで行動したのか知りたい!と感じてしまうものです。

コミュニケーションにおいて、相手に疑問を持つ、そして質問する。これはAIとのやりとりでも同じです。

「どうしてそうしたの?」
「情報源はどこなの?」

気になってしまいますよね。

しかし実際に質問してみると、どうやらAIの対応は人間と違うようです。

今回はAIに対して「思考のプロセス」や「情報元」を、事後的に尋ねてみることについて、考えていきます。

【結論】AIの「後付けの理由」を信用してはいけない

まず結論から言います。

AIへ事後的に尋ねてみることには、注意が必要です。

人間だと、自分の行動や発言について理由を聞かれたとき、過去の自分をふり返って考えます。

しかしAIは、発言を参照して「理由を生成する」タスクを新たに実行するのです。

単語の並び順について、後から理由を解説されても、それは信用に値しません。AIは過去の自分へは戻れず、自分の発言を他人事として「解説」しているに過ぎないのです。

AIの事後的な「解説」は、決して100%の解説ではない、と肝に銘じておきましょう。

【失敗談】AIのついた”大嘘”。提示された情報元がない?

前回のブログ記事執筆中、AIに「情報元の明示」をリクエストした時でした。

事後的に「情報元(論文)を明示して」と頼んだところ、URLがリンク切れを起こしており、参照元のWebページを見れなかったのです。実際には次のような内容です。

AIの返事を確認↓

参照論文: 「可変式圧バルブシャントシステムにおける磁場の影響」
(原題: Influence of Magnetic Fields on Variable-Pressure Valve Shunt Systems)
著者: W. NEHLS, T. STENDEL, R. STENDEL
掲載誌: J-STAGE, Neurologia medico-chirurgica Vol. 45 (2005) No. 12 P 609-613
URL:https://www.jstage.jst.go.jp/article/nmc/45/12/45_12_609/_article/-char/ja/

実に「それらしく」書かれています。しかし、この論文は存在しません。

これこそが、AIが平然と嘘をつく「ハルシネーション」です。恥ずかしながら、私はしばらく気づけませんでした。

医療に関するブログ記事です。客観的に正確な内容であることを伝えるため、情報元の明示は絶対に必要です。

仕方なく自力で論文を検索し、記事を書き換えるハメになってしまいました。

参照論文の比較は、前回記事からどうぞ↓
どのくらいの磁力から注意が必要?」の部分です。

【対策】AIの嘘を防ぐ、3つの方法

対策は、とてもシンプルです。

「知りたいことは最初から聞いておく」

これさえしておけば、AIが発言を自分事として取り扱ってくれます。

プロンプトのテクニックでは「Chain of Thought」というものがあります。思考プロセスを明示してもらいながら、タスク実行を要求するのです。

「一歩ずつ考えて」や「思考プロセスを説明しながら」とプロンプトすることで、AIがどのように考えているのか明らかにしてくれます。

(プロンプト例)
~に関するブログ記事を書いてください。書く前に思考プロセスを説明し、確認をとってから作業を進めてください。

「情報元の明示」についても同じです。

「回答する際、情報源を記載して」や「参照したURLを教えて」というワードが有効です。回答の信頼性が高まります。

私の体感では、リンク切れを起こすことも無くなりました。

(プロンプト例)
~に関するブログ記事を、情報源を明記しながら書いてください。

最初のプロンプトから「思考プロセス」や「情報元」をリクエストしておきましょう。

オススメはカスタム指示です。予めカスタム指示を設定することで、いちいちプロンプトに書かなくて済むようになります。とても快適ですよ。

(カスタム指示の入力例)
回答に参照情報があった場合、情報のソースをURLも含めて明示してほしい。

カスタム指示について、コチラの記事で紹介しています↓

ただし、注意点もあります。

事前にプロンプトしたとしても、必ずしも正確な回答が返ってくるわけではないということです。

「Chain of Thought」は、数学などの問題に対して、回答の正確性を高めることが目的の技術です。

あくまでも思考プロセスの明示はオマケ。必ずしも正確に思考を説明されるとは限りません。

また「情報元の明示」についても、やはり100%正確なものとは限りません。ハルシネーションの危険は、少なくとも存在します。

AIから提示された情報元は、必ず自分でもチェックしましょう。

まとめ:AIにとって「理想の上司」を目指そう

ChatGPT、Gemini、ClaudeのようなAIとのチャットでのやりとりは、主に話し言葉で行われます。

コミュニケーションの中で、ふとした発言が気になることは自然なことです。

でもその瞬間、要注意です。聞き直すのは構いませんが、AIの回答は不正確かもしれません。

知りたいことは、カスタム指示を活用するなど、事前にリクエストしておきましょう。

危険はゼロにならないものの、少しでも回答の正確性を高める努力は必要です。

余談ですが…

私は「なんでそうしたの?」と聞いてくる上司へ文句があります。

「対応したあと、理由を聞くからね」と事前に教えておいてほしいです。

私たちもAIにとって「理想の上司」となれるよう、事前に声をかけていきましょう。

今回の私の失敗が、あなたのAIライフの助けになれば幸いです。

当ブログやXでは、主に私のAI活用失敗談を発信しています。

あなたの「AIに騙された!」という体験談も、XのDMやコメントで教えてください。

一緒にAIスキルを高めていきましょう!

コメント

タイトルとURLをコピーしました