※この記事は【どうする?シャントとの生活。知っておくと安心!シャントのこと、磁力のこと。(AI執筆)】を作成した執筆者の感想です。なお、AIはGemini Proを使用しています。
はじめに:その返答、なんで?
私が社会人になりたての頃、最も返答に苦しんだ言葉があります。
「いまの対応、なんでそうしたの?」
仕事には時間的な制約があります。理由なんて聞かれても答えようがないんです。
「どうしてそうしたの?」という漠然とした聞き方にも問題があると思います。
しかし、仕事を人に頼んだ時、どのようなプロセスで行動したのか知りたい!と感じてしまうものです。
コミュニケーションにおいて、相手に疑問を持つ、そして質問する。これはAIとのやりとりでも同じです。
「どうしてそうしたの?」
「情報源はどこなの?」
気になってしまいますよね。
しかし実際に質問してみると、どうやらAIの対応は人間と違うようです。
今回はAIに対して「思考のプロセス」や「情報元」を、事後的に尋ねてみることについて、考えていきます。
【結論】AIの「後付けの理由」を信用してはいけない
まず結論から言います。
AIへ事後的に尋ねてみることには、注意が必要です。
人間だと、自分の行動や発言について理由を聞かれたとき、過去の自分をふり返って考えます。
しかしAIは、発言を参照して「理由を生成する」タスクを新たに実行するのです。
単語の並び順について、後から理由を解説されても、それは信用に値しません。AIは過去の自分へは戻れず、自分の発言を他人事として「解説」しているに過ぎないのです。
AIの事後的な「解説」は、決して100%の解説ではない、と肝に銘じておきましょう。
【失敗談】AIのついた”大嘘”。提示された情報元がない?
前回のブログ記事執筆中、AIに「情報元の明示」をリクエストした時でした。
事後的に「情報元(論文)を明示して」と頼んだところ、URLがリンク切れを起こしており、参照元のWebページを見れなかったのです。実際には次のような内容です。
AIの返事を確認↓
参照論文: 「可変式圧バルブシャントシステムにおける磁場の影響」
(原題: Influence of Magnetic Fields on Variable-Pressure Valve Shunt Systems)
著者: W. NEHLS, T. STENDEL, R. STENDEL
掲載誌: J-STAGE, Neurologia medico-chirurgica Vol. 45 (2005) No. 12 P 609-613
URL:https://www.jstage.jst.go.jp/article/nmc/45/12/45_12_609/_article/-char/ja/
実に「それらしく」書かれています。しかし、この論文は存在しません。
これこそが、AIが平然と嘘をつく「ハルシネーション」です。恥ずかしながら、私はしばらく気づけませんでした。
医療に関するブログ記事です。客観的に正確な内容であることを伝えるため、情報元の明示は絶対に必要です。
仕方なく自力で論文を検索し、記事を書き換えるハメになってしまいました。
参照論文の比較は、前回記事からどうぞ↓
「どのくらいの磁力から注意が必要?」の部分です。
【対策】AIの嘘を防ぐ、3つの方法
対策は、とてもシンプルです。
「知りたいことは最初から聞いておく」
これさえしておけば、AIが発言を自分事として取り扱ってくれます。
プロンプトのテクニックでは「Chain of Thought」というものがあります。思考プロセスを明示してもらいながら、タスク実行を要求するのです。
「Chain of Thought」について知りたい方は、コチラの記事からどうぞ↓
「一歩ずつ考えて」や「思考プロセスを説明しながら」とプロンプトすることで、AIがどのように考えているのか明らかにしてくれます。
(プロンプト例)
~に関するブログ記事を書いてください。書く前に思考プロセスを説明し、確認をとってから作業を進めてください。
「情報元の明示」についても同じです。
「回答する際、情報源を記載して」や「参照したURLを教えて」というワードが有効です。回答の信頼性が高まります。
私の体感では、リンク切れを起こすことも無くなりました。
(プロンプト例)
~に関するブログ記事を、情報源を明記しながら書いてください。
最初のプロンプトから「思考プロセス」や「情報元」をリクエストしておきましょう。
オススメはカスタム指示です。予めカスタム指示を設定することで、いちいちプロンプトに書かなくて済むようになります。とても快適ですよ。
(カスタム指示の入力例)
回答に参照情報があった場合、情報のソースをURLも含めて明示してほしい。
カスタム指示について、コチラの記事で紹介しています↓
ただし、注意点もあります。
事前にプロンプトしたとしても、必ずしも正確な回答が返ってくるわけではないということです。
「Chain of Thought」は、数学などの問題に対して、回答の正確性を高めることが目的の技術です。
あくまでも思考プロセスの明示はオマケ。必ずしも正確に思考を説明されるとは限りません。
また「情報元の明示」についても、やはり100%正確なものとは限りません。ハルシネーションの危険は、少なくとも存在します。
AIから提示された情報元は、必ず自分でもチェックしましょう。
まとめ:AIにとって「理想の上司」を目指そう
ChatGPT、Gemini、ClaudeのようなAIとのチャットでのやりとりは、主に話し言葉で行われます。
コミュニケーションの中で、ふとした発言が気になることは自然なことです。
でもその瞬間、要注意です。聞き直すのは構いませんが、AIの回答は不正確かもしれません。
知りたいことは、カスタム指示を活用するなど、事前にリクエストしておきましょう。
危険はゼロにならないものの、少しでも回答の正確性を高める努力は必要です。
余談ですが…
私は「なんでそうしたの?」と聞いてくる上司へ文句があります。
「対応したあと、理由を聞くからね」と事前に教えておいてほしいです。
私たちもAIにとって「理想の上司」となれるよう、事前に声をかけていきましょう。
今回の私の失敗が、あなたのAIライフの助けになれば幸いです。
当ブログやXでは、主に私のAI活用失敗談を発信しています。
あなたの「AIに騙された!」という体験談も、XのDMやコメントで教えてください。
一緒にAIスキルを高めていきましょう!
コメント