ハルシネーション
AIが事実と違う内容や確認できない情報を、自然な文章で出してしまう現象です。
意味
ハルシネーションは、AIが根拠のない内容、古い情報、存在しない引用、誤った数字を、もっともらしい文章として出す現象です。日本語では「幻覚」と訳されることがありますが、業務では「AIの未確認回答」と考える方が扱いやすいです。
中小企業で気にする理由
中小企業では、担当者が少ないため、AIの出力をそのまま顧客メール、社内通知、求人票、月次コメントへ使ってしまうリスクがあります。特に価格、法律、補助金、契約条件、仕様、日付、引用は確認が必要です。
業務で起きやすい場面
問い合わせ返信で存在しない規約を案内する、経理コメントで未確認の原因を断定する、採用文で法的に危うい表現を混ぜる、営業資料で競合比較を言い切る、といった形で起きます。文章が自然なほど見落としやすい点がやっかいです。
避け方
プロンプトには「根拠がない場合は不明と書く」「確認が必要な項目を最後に分ける」「元資料にないことは推測として扱う」と入れます。社内では、AIが作る文章と、担当者が確認する情報を分ける運用にします。