2022年から急速に普及した生成AIは、人間の知的活動に大きな影響を与えました。
従来のAIでは実現が難しかった業務領域においても活用が進み、広告やマーケティング分野でのコンテンツ生成、カスタマーサポートなどのさまざまなビジネスに変革をもたらしています。
一方で、機械学習モデルや生成AIを活用したAIシステムの運用では、データの正確性や無意識のバイアスなどによる信頼性の懸念、知的財産権の侵害リスクなども存在しています。
このような問題への対応策として注目されているのが、AIと人間が協働する“ヒューマン・イン・ザ・ループ(HITL)”という仕組みです。
この記事では、ヒューマン・イン・ザ・ループの概要やAIシステムの運用で求められる理由や効果、具体的な取り入れ方、事例などについて解説します。

AIと人間が協働する“ヒューマン・イン・ザ・ループ(HITL)”とは
ヒューマン・イン・ザ・ループ(HITL:Human-in-the-loop)とは、AIシステムの構築・運用における一連のライフサイクルに人間による対応を組み込むことです。
AIシステムの基本的なライフサイクルは、以下のように構成されています。
▼AIシステムのライフサイクル
- 学習用データの収集・前処理
- AIモデルの学習・作成
- 作成したAIモデルの検証
- AIシステムの運用・監視
ヒューマン・イン・ザ・ループを採用したAIシステムでは、人間に代わって作業を完全に自動化するのではなく、データの収集から運用監視までのライフサイクルにおいて人間による意思決定・判断・制御を取り入れることが特徴です。
AIにヒューマン・イン・ザ・ループが求められる理由
ヒューマン・イン・ザ・ループは、人間らしい考え方を守りつつ、より安全性・公平性を持つAIシステムを構築するために必要と考えられています。
-
AIシステムの透明性を確保するため
AIシステムの透明性を確保するために、人間による品質管理が必要です。
膨大なデータ学習を基に情報を出力する生成AIには、偽情報・誤情報の生成や意図しない判断が行われる可能性があります。
出力結果の正確性を担保できないほか「なぜその判断をしたのか」といった理由を検証することが困難になります。
AI単独で判断させるのではなく、AIモデルの学習過程から意思決定のプロセスに人間の判断・修正を加えることで、出力結果の公平性や確実性を確保でき、透明性の向上につながります。 -
重大なエラーを防ぐため
AIシステムの判断・処理における重大なエラーを防ぐためにも、人間による介入が必要といえます。
不完全や偏りのあるデータを学習した生成AIは、意図しない動作、著しく誤った判断をすることが懸念されます。これにより、AIシステムによる事故や知的財産権の侵害などのトラブルを引き起こすリスクがあります。
安心安全な利用につなげるには、人間が学習データの管理や出力結果の検証、動作のモニタリングなどを実施して、AIシステムを適切にコントロールすることが求められます。 -
人間の倫理的・道徳的な価値観を守るため
ヒューマン・イン・ザ・ループは、AIの活用にあたって人間の倫理的・道徳的な価値観を守るために必要とされています。
AIシステムの運用では、学習データに含まれるバイアスによって倫理的・道徳的に不適切な内容が出力される可能性があります。
このような問題を防ぐために、人間がAIシステムの学習や意思決定に介入して、公平性を確保した出力が行われるように導くことが重要です。
なお、生成AIの活用についてはこちらの記事も併せてご確認ください。
生成AIが広がりつつある今企業がやるべきことは何か?(前編)
生成AIが広がりつつある今企業がやるべきことは何か?(後編)
AIの開発・運用にヒューマン・イン・ザ・ループを取り入れる効果
ヒューマン・イン・ザ・ループを取り入れることで、AIが持つ不確実性やバイアスなどのリスクを軽減して、便益を最大限に享受できるようになります。
-
処理精度の向上
人間が学習データの精査やAIモデルの検証・修正を行うことにより、処理精度を向上させることができます。
AIモデルへのフィードバックを通じてパフォーマンスをブラッシュアップできるため、出力結果の正確度を高められます。
また、AIシステムの意思決定プロセスに人間の監視・修正が加わることは、ユーザー側の信頼にもつながり、業務での活用領域も広がると考えられます。 -
バイアスの軽減
AIの無意識・潜在的なバイアスを軽減することも、ヒューマン・イン・ザ・ループによって得られる効果の一つです。
学習用のデータセットやアルゴリズムを人間が評価して、バイアスの検出・修正を行うことにより、公平性のあるAIモデルを構築・運用できるようになります。
また、人間の価値観や解釈をAIモデルに組み込むことで、倫理や道徳に配慮した出力結果を得られるようになり、AIシステムの品質向上につながります。 -
信頼性の向上
AIの学習過程や検証、監視といったプロセスのなかに人間が介入することにより、AIシステムの透明性が担保されて信頼性が向上します。
また、AIシステムの透明性を確保すると、意図しない判断や誤情報・偽情報の出力が行われた際に、人間による原因解明とフィードバックを実施できるようになり、説明可能性の向上につながります。
AIライフサイクルへのヒューマン・イン・ザ・ループの取り入れ方
ここからは、AIライフサイクルにおける具体的なヒューマン・イン・ザ・ループの取り入れ方を紹介します。
-
学習用データのアノテーション作業
AIの訓練に必要な学習用データのアノテーション作業を人間が対応する方法です。
AIシステムの開発におけるアノテーションとは、AIの学習用データに正しい情報を認識するためのタグをつける作業を指します。
▼人間が対応するアノテーション作業の内容- アノテーションの対象データや分類を明確にした定義の策定
- 不確実性・多様性サンプリングによる能動学習 など
人間がこれらのアノテーション作業に対応することで、不確実または偏ったデータの排除や出力結果に影響するバイアスの修正が可能になり、学習精度の向上につながります。 -
AIモデルの検証と評価
AIモデルの訓練において人間による検証・評価を実施する方法です。
人間によってAIモデルの検証・評価を行うことで、意思決定や判断に影響を与えるバイアスを特定して改善を図れます。
また、重大な影響を及ぼすエラーや倫理的・道徳的な問題を把握して、AIモデルを修正することにより、安全性・公平性の確保につながります。 -
定期的なレビューと再学習
AIシステムの運用開始後は、人間によって出力情報の定期的なレビューと再学習を行い、継続的にフィードバックループを回します。
▼人間を介入させたフィードバックループの例
- AIモデルの予測結果を検証して性能を客観的に評価する
- AIが回答を誤った際にAIモデルに修正を加える
- 定期的にデータの精査・更新を行い、AIモデルの再学習を行う など
-
AIによる処理の監視
AIシステムの監視役として人間が介入する方法も考えられます。
人間がAIシステムの運用を監視する仕組みを構築すると、予期せぬエラーやパフォーマンスの低下、倫理的な問題を未然に防ぐことが可能です。
▼人間が対応する監視項目- AIモデルの予測精度
- データの整合性
- AIシステムのパフォーマンス
- 出力結果の妥当性・整合性 など
-
エッジケースの有人対応
AIシステムを利用してワークフロー全体を自動化しつつ、特殊なケースや異常が発生した際に人間が対応する方法です。
▼エッジケースの例- 重大な処理につながる判断をする場合
- 処理のエラーが発生した場合
- 倫理的・道徳的な配慮に欠ける出力結果を検知した場合 など
ヒューマン・イン・ザ・ループの事例
AIの活用が広がるなか、ヒューマン・イン・ザ・ループはさまざまな業界や分野のAIシステム開発・運用に取り入れられています。
-
フリーマーケットサービスでの出品物の管理
国内大手フリーマーケットサービスでは、機械学習モデルによって検知したガイドラインに反する出品物を、人間が目視チェックするプロセスを構築しています。
▼ヒューマン・イン・ザ・ループの運用体制- AIがガイドラインに違反する出品物を検知する
- AIが検知した出品物を人間が確認して、判断に誤りがないか精査する
- 判断に誤りがあった場合、正しい判断のラベルをデータに付与する
- 新たなデータを用いて学習済みモデルの再学習を行う
-
生命保険契約における査定業務
某生命保険会社では、新規契約の引受可否について人間によるチェックを介して最終判断を下すプロセスを構築しています。
▼ヒューマン・イン・ザ・ループの運用体制- 機械学習モデルが健康診断書データに基づいて引受可否の自動査定を行う
- AI判定の確信度が低いケースのみ、人間がチェックをして最終判断を行う
- モデルの判定が誤りだった場合にデータのラベル付けを行い再学習させる
コンタクトセンターでの効率的なAI運用にはヒューマン・イン・ザ・ループがカギ
コンタクトセンターでは、音声対話による自動応答やチャットボット、オペレーターの業務支援などにおいてAIが取り入れられています。
AIシステムの精度を向上して業務効率やCX(カスタマーエクスペリエンス)を高めるには、ヒューマン・イン・ザ・ループを取り入れることがカギです。
コンタクトセンターにおけるヒューマン・イン・ザ・ループの取り入れ方には、以下の例が挙げられます。
▼オペレーター対応のサポート
オペレーターが主体的に顧客対応を行いながら、AIが必要な情報の検索・参照を行ったり、対応履歴を自動作成・登録したりする
▼自動応答から有人対応への切り替え
顧客の音声やチャットボットの入力情報を認識して、人間による意思決定が求められる内容や温度感が高いと判断した場合にオペレーター対応に自動で切り替える
▼学習データの基盤となるナレッジの整備
応対データやVOCデータからナレッジデータベースを自動で作成して、人間が内容のチェックと修正を行い学習データの品質を高める
AIと人間が相互連携する運用体制を構築することで、高精度かつ柔軟性のある回答が可能になり、応対品質の向上につながります。
なお、コンタクトセンターのAI戦略についてはこちらの記事をご確認ください。
コンタクトセンターのAI戦略 攻めと守りの両立とは?
まとめ
AIは、膨大なデータの学習によって複雑かつ創造的なタスクを遂行する能力を持ちます。しかし、AIシステムが持つバイアスによって予期・意図しない判断や誤情報がアウトプットされる可能性があり、過度な依存は信頼性の低下につながります。
AIシステムの信頼性を高めるには、人間による意思決定・監視・制御などを介入させるヒューマン・イン・ザ・ループに基づいた開発・運用が必要です。
コンタクトセンターにおいては、AIができなかった回答・判断をオペレーターが対応したり、AIの処理内容を管理者がチェックしたりして、AIと人間が相互連携する運用体制を構築することがポイントです。
ベルシステム24では、音声アシスタントやチャットボットなどのコンタクトセンターでの運用自動化を支援するAIソリューションを提供しております。高精度な問い合わせ対応による業務の効率化とCXの向上をサポートいたします。
コンタクトセンターにおけるAI活用については、こちらの資料をご確認ください。
生成AI活用でコンタクトセンターの定番業務の自動化はできるのか?
コンタクトセンターにおける生成AIチャットボットの活用効果とは?
- TOPIC:
- コールセンター AI
- 関連キーワード:
- AIエージェント