【ChatGPT活用】ハルシネーション対策に「確度」を教えてもらう方法
最近話題のAIチャットツールChatGPT。調べもの、文章作成、ちょっとした相談など、活用している方もいらっしゃるかと思います。
そんな生成AIを使っていて怖いのが、「もっともらしく聞こえるけど、実際は間違っている」情報を伝えられること。いわゆる「ハルシネーション」です。ChatGPTに質問するのは大抵の場合「自分がよく分かっていないこと」だと思うので、
伝えられた情報の真偽を判断するのが非常に難しいともいます。
そこで今回はそんなときの対策としておすすめの「確度を聞く」というテクニックをご紹介したいと思います。
実際のアウトプット例
まずは具体的なアウトプット例として、ChatGPTに「最近『ChatGPTはユーザーに迎合し過ぎている』って批判をちらほら見かけるけど、実際のところどうなの?」と質問した結果をご紹介します。
項目ごとに「確度:高」「確度:中~高」「確度:意見・参考程度」と添えられている様子が確認できるかと思います。
「確度を聞く」ことのメリット
どうやらChatGPTは、情報を下記のように分類することが出来ているようです。
(この情報自体ChatGPTに確認したものなので、誤っている可能性が十分にありますが、暫く使用してみた感じですと、そこまで大きくは違っていない印象です)
- 高(信頼性が高い)
学術的に確立されている情報、公式ドキュメントに基づく内容、有名な辞書やソフトウェア仕様などがベース。ハルシネーションの可能性はかなり低いです。 - 中(信頼性はあるが状況による)
一般的な知識や、複数の情報源に基づくが一部曖昧な要素がある内容。文脈や時期、前提条件によって正確性が変わることも。ハルシネーションの可能性はあり。 - 低(あまり信頼できない)
明確な出典が不明だったり、ChatGPTの推論ベースで語られている内容。創作や例示、仮定の話が多い場合もあります。このレベルの情報は、ハルシネーションの可能性が高いと考えておいた方が安全です。
つまり、確度が「高」場合はハルシネーションの可能性が低く、逆に「中」以下の場合はハルシネーションの可能性を念頭に入れておいた方が良いということになります。
ChatGPTの情報に確度を添えてもらうことで、その情報がハルシネーションを起こしているかがある程度判断できます。また、確度を常に表示しておくことで「もしかしたらこの情報は誤った情報かもしれない」と身構えることもできます。
「確度を聞く」方法
では、具体的にどうすれば確度を聞くことができるかというと、とても簡単で、
「アドバイスをくれるときは、確度(高・中・低)も一緒に教えて」
のように伝えるだけです。
こうすることで、実際のアウトプット例のように、確度を一緒に出力してくれるようになります。
もしアウトプットが気に入ったら、
「今後アドバイスをくれるときは同じように確度も伝えて」
と伝えることで、その情報がメモリに保存され、以降は同様の出力を返してくれるようになるかと思います。
おわりに
今回は、ChatGPTをもっと安心して使うためのちょっとしたコツ「確度を聞く」方法をご紹介しました。AIも万能ではないからこそ、ユーザー側が工夫することで、より良い活用ができると感じています。
もし「ちょっと信頼できる情報か気になるな…」と思ったときは、ぜひこの方法を試してみてください!