人の確認(Human in the loop)
人の確認は、AIの出力や操作をそのまま使わず、担当者や責任者が確認してから次へ進める運用です。
意味
人の確認、またはHuman in the loopは、AIが作った文章、分類、提案、操作案を、人が確認してから利用する考え方です。AIを完全に止めるものではなく、影響が大きい判断や送信の前に、人の責任ある確認を置く運用です。
中小企業で気にする理由
中小企業では、少人数でスピードを重視するあまり、AIの出力をそのまま送ってしまうリスクがあります。人の確認を仕組みに入れると、誤った金額、古い情報、強すぎる約束、個人情報の混入を見つけやすくなります。
確認が必要な場面
顧客への返信、採用文面、提案書、見積前の説明、経理コメント、社内規程、医療・法律・労務に関わる文章では、人の確認が必要です。AIが自然な文章を作っても、事実、権限、責任範囲、相手への配慮は別問題です。
逆に、社内の下書き、アイデア出し、分類、要約、確認リストづくりは、比較的試しやすい領域です。それでも、外部へ出す前、記録として残す前、金額や期限を含む前には人が確認します。
逆に、社内の下書き、アイデア出し、分類、要約、確認リストづくりは、比較的試しやすい領域です。それでも、外部へ出す前、記録として残す前、金額や期限を含む前には人が確認します。
確認者を決める
「誰かが見る」では運用されません。営業メールは担当者、価格は見積責任者、採用文は人事責任者、経理コメントは会計担当、社外公開文は責任者というように、確認者を具体的に決めます。
確認の観点も固定します。日付、金額、固有名詞、契約条件、個人情報、断定表現、相手への配慮、社内ルールとの整合をチェック項目にします。AIの出力を読む人が毎回考えなくてよい状態にします。
確認の観点も固定します。日付、金額、固有名詞、契約条件、個人情報、断定表現、相手への配慮、社内ルールとの整合をチェック項目にします。AIの出力を読む人が毎回考えなくてよい状態にします。
確認した情報
参照先は、Microsoft Responsible AI Principles and Approach、Microsoft Support: Responsible AI、Microsoft Responsible AI Standard Reference Guideです。