AIが出した情報のハルシネーション(嘘)を防ぐには?
まず前提を整理すると、ハルシネーションとはAIが学習データに基づいて「もっともらしい嘘」を生成してしまう現象であり、プロンプトの工夫だけでは完全に排除できません。対策として有効なのは、AIに「検索して裏付けを取りながら答えさせる」仕組みを導入することです。
ChatGPTやGeminiのWeb検索機能を有効にしたうえで、「最新のWeb検索結果を参照し、根拠となるURLも一緒に示してください」という指示を加えると、AI自身が情報を検索したうえで回答を組み立てるため、精度が上がります。たとえば競合他社の最新キャンペーン事例を調べさせる場合、Web検索なしで聞くと存在しない事例が生成されることがありますが、Web検索を有効にすると実際のURLとともに回答されます。
ただし、Web検索機能を使っても100%正確ではありません。特に数値データや固有名詞が含まれる場合は、引用URLを実際に開いて確認する習慣を持つことをおすすめします。まず「Web検索機能をオンにしているか」を確認してみてください。