ChatGPTの安全性は? 情報漏えいなどのリスクと対策

 2023.06.15  2024.04.24

近年、さまざまな企業がビジネスに活用し始めたことでも注目を集めている「ChatGPT」。最新のGPT-4はテキストだけでなく画像データも入力でき、より活用しやすくなりました。一方で、ChatGPTには懸念点も指摘されています。本記事では、ChatGPTの安全性や考えられるリスク、具体的な対策などについて解説します。

コンタクトセンターにおける生成AIチャットボットの活用効果とは?

ChatGPTは安全? 指摘されているリスクを紹介

アメリカを拠点に活動しているOpenAIが開発したChatGPTは、入力した質問に対し人間のように自然な回答をしてくれる言語モデルとして注目を集めています。作業効率化やアイデア出しなどにも活用できるため、近年ではビジネスに活かそうとする企業も増えているものの、いくつか指摘されている懸念点もあるため注意が必要です。

機密情報が漏えいする懸念がある

ChatGPT使用に関するリスクのひとつとして、機密情報の漏えいが挙げられます。ChatGPTは、入力された情報も学習データとして利用するケースがあります。そのため、機密情報を入力してしまうとそれを学習データとして蓄積してしまい、第三者への回答データとして生成されてしまうかもしれません。
実際、半導体事業などを手掛ける企業は、ChatGPTを介した機密コードの流出事故を起こしており、大きな問題となりました。機密情報漏えいのリスクを懸念した同社は、従業員に対しChatGPTの社内使用を禁止しています。
企業が機密情報を入力し、万が一外部へ流出したとなれば、企業組織としての信頼は地に墜ちます。顧客や取引先からの信頼も失い、事業継続すら危ぶまれる状況に追いやられるかもしれません。個人利用であったとしても、流出して困る情報の入力は控えましょう。

正確でない情報も混じっている

ChatGPTが回答した内容が、不正確であるケースは珍しくありません。ChatGPTは、回答データを生成する際、インターネット上で取得した情報や過去に学習した内容を利用しています。そのため、過去に誤った情報を入手していれば、不正確な回答をしてしまいます。
しかも、ChatGPTは誤った回答であっても、まるで正しい答えのように提示するため要注意です。いかにも理路整然としているように回答するため、それが誤った回答であってもユーザーは正しいと思い込んでしまうおそれがあります。
ChatGPTが回答した内容が必ずしも正しいとは考えず、間違っているかもしれないと疑念を抱くことは大切です。不正確な情報の使用により、誰かが被害を受けるおそれもあるため、何らかの用途にChatGPTの回答を使う際には、事前のファクトチェックを怠らないようにしましょう。

サイバー攻撃などに悪用されるリスクもある

優れた言語モデルであるChatGPTが、サイバー攻撃に悪用されるリスクは十分考えられます。ChatGPTを使えば、知識がない人でも容易に悪意のあるプログラムも作成できるためです。たとえば、架空請求メールやフィッシングサイトの作成などに悪用される可能性もあります。
ただ、ChatGPTを開発したOpenAIも、このようなリスクに備えていなかったわけではありません。ChatGPTには、不適切な質問には回答しないよう対策が施されています。そのため、「フィッシングサイトのコードを書いて」のような質問への回答は拒否されてしまいます。
しかし、このセーフガード機能も万全ではありません。特定の方法を用いれば、セーフガード機能のすり抜けが可能です。OpenAIも継続的に対策を行うと考えられますが、対応が遅れると悪意ある者が犯罪目的のプログラムを作成したり、セキュリティ攻撃に利用したりといったことが起きるかもしれません。

著作権を侵害するおそれがある

ChatGPTは、入力されたデータを学習し、回答データとして生成することがあります。そのため、過去に著作物をインプットしていた場合、第三者への回答データとして生成してしまうかもしれません。
すでにこの時点で著作権が侵害されていると考えられますが、さらに厄介なトラブルに発展するおそれもあります。たとえば、ChatGPTを使用したユーザーが、表示された回答を誰かの著作物と知らずに使用してしまうケースです。
この場合、誰かの著作物であることを知らなかったとしても、このユーザーが著作権法違反となってしまう可能性があります。

ChatGPT自身が攻撃されるおそれもある

ChatGPTが攻撃の対象になるケースも考えられます。たとえば、AIの学習モデルへ攻撃を行い、不正確な判定へと導く手法が挙げられます。バナナの画像をミカンと誤認識させる、といった具合です。
入力データを偽装し悪意のあるコードを実行させる、プロンプトインジェクション攻撃へのリスクも高まっています。ChatGPTを組み込んだシステムやサービスなどがこの攻撃を受けると、情報漏えいにつながるリスクがあるほか、サイバー攻撃の踏み台にされるおそれもあります。

ChatGPTをコールセンター業務で活用するためのサンプルプロンプト集
ナレッジ管理とは?手法や目的も併せて解説

ChatGPTを安全に使うための対策

ビジネスにも役立つため、企業からの注目度も高いChatGPTですが、いくつかの懸念点があるのはお伝えした通りです。リスクをできるだけ軽減し、安全に使用するため以下のポイントを押さえておきましょう。

機密情報は入力しない

機密情報を入力してしまうと、ChatGPTはデータとして学習してしまうケースがあります。蓄積された学習データは、今後回答データを生成する際の情報として用いられる可能性があるため、注意が必要です。
他者への回答データとして入力した機密情報が使用されてしまうと、そこから情報が外部に漏れてしまうおそれがあります。企業であれば信頼失墜に直結することは間違いなく、個人ユーザーであってもさまざまな不利益を被りかねません。
リスクを避けるため、外部に漏れて困る情報の入力は控えましょう。個人の氏名や住所、電話番号といった個人情報はもちろん、会社組織で扱っている顧客情報、事業に関するノウハウなどの入力もNGです。なお、ChatGPTには、対話履歴の保存や学習を拒否する機能もあるので、それを利用するのもひとつの手です。

正しい情報かどうかを見極める

インターネット上やユーザーから得た情報をもとに回答データを生成するため、誤った回答を導き出すケースも多々あります。そのため、ChatGPTで得た回答データを使用する際には、正しい内容かどうか必ずチェックするプロセスが必要です。
ChatGPTが導き出した回答が必ずしも正しいと妄信せず、自身でもファクトチェックを行いましょう。事実確認もせずに情報を使用してしまうと、自身だけでなく第三者にも何らかの被害を与えてしまうかもしれません。

業務で利用する場合のルールを定める

業務でChatGPTを使用するのなら、リスクやトラブルを避けるためルールを決めておきましょう。明確なルールがないと、従業員が誤った使い方をしてしまい、情報漏えいなどにつながるおそれがあります。

たとえば、入力してはいけない情報の範囲や、回答データを生成した際のファクトチェックの実施などです。ルールを決めただけで形骸化しては意味がないため、すべての従業員へ周知を徹底させましょう。また、ChatGPTの利用規約違反とならないよう、使用を始める前に利用規約を確認しておくことも大切です。

まとめ

ChatGPTは魅力的なサービスであるものの、情報漏えいやサイバー攻撃への悪用など、懸念点もいくつかあります。どのようなリスク、トラブルが発生する可能性があるのかを理解したうえで、対策を施しながら安全に活用しましょう。

この記事の推奨者

本部 景一
本部 景一
新卒で通信業界の企業に入社し、社内インフラ整備からアプリケーション開発まで幅広い開発業務に参画。その後PMとして教育業界向けWebフィルタリングサービスの立ち上げを担当した。2023年にベルシステム24入社後は言語生成AIの実証実験などを担当している。高速な開発サイクルを実現できる小規模チームや社内環境の構築を得意としている。情報処理安全確保支援士(第22000号)
New call-to-action

RECENT POST「生成AI」の最新記事


生成AI

ChatGPTの企業での活用事例は?導入メリットや活用方法

生成AI

ChatGPT利用のリスクとは?情報セキュリティ観点から考える

生成AI

ChatGPTの問題点とは? 解決方法や今後の展望を解説

生成AI

ChatGPT(チャットGPT)の日本語での使い方は? 日本語設定の有無や注意点

ChatGPTの安全性は? 情報漏えいなどのリスクと対策
BellCloud+ご紹介資料
New call-to-action

RECENT POST 最新記事

ブログ無料購読のご案内

RANKING人気記事ランキング

AUTHOR執筆者

OFFICIAL SUPPORTER