ChatGPTは、OpenAIが開発したチャットボットAIです。NLPにおいて非常に優れた性能があり、人間の質問に対して自然な言葉で回答してくれます。テキストの生成や質疑応答など、さまざまなシーンで活用されており、現在注目を集めているサービスです。ChatGPTの詳しい概要については、『ChatGPTとは?便利な使い方や使用上の注意点も解説』を参照してください。
ChatGPTは非常に利便性が高いサービスですが、完全ではないため、使用するにあたりいくつか注意点を把握しておく必要があります。注意点を知っておくと使用後に後悔したり、トラブルが発生したりする心配が少ないです。
今回は、ChatGPTの注意点や現状のセキュリティ、情報漏洩を回避するための具体的な方法について解説します。
目次
ChatGPTを使用する前に確認したい7つの注意点
ChatGPTを使用する前に確認しておきたい注意点は大まかにわけて7つです。具体的にどのようなことに注意したらいいのか解説しますので、ぜひ参考にしてください。
すべて正確な情報とは限らない
1つ目の注意点は、ChatGPTが生成するテキストがすべて正しいとは限らないという点です。
ChatGPTは、あくまでも蓄積された大規模なデータに基づいてテキストを生成しています。そのため、情報源が間違っていると自然に生成されるテキストも不正確になってしまうのです。また、ChatGPTはあくまでも人間らしいテキストの生成を追求しており、情報の正確性を保証していません。質問によっては、真実に基づかない内容が返ってきたり、リソースがわからない情報を発信したりします。
ChatGPTは、不正確の場合でもまるで真実であるかのように回答するため、利用者が間違いに気づかないことも多いです。そのため、HPやブログ記事にChatGPTが生成したテキストを使用するときやカスタマーサポートに活用する際は、情報の正確性をしっかりと確認する必要があるでしょう。
2021年までの情報をもとに回答している
2つ目の注意点は、ChatGPTが保有する情報の鮮度が低いという点です。
ChatGPTの学習モデルは2021年9月までとなっており、その時点からの情報をもとに回答しています。そのため、最新情報に関する質問に対して回答を得ることができません。
例えば、ニュースに関する内容を聞いても間違った答えが返ってきます。スポーツや事件、事故などの情報を聞いても情報源がそれに追いついていないため、正確な回答を得ることができません。
また、トレンドワードに関しても情報が新しい傾向にあるため、ChatGPTに回答を求めても正しい情報を得られない可能性が高いです。
ChatGPTは2021年9月までの情報をもとにテキストを生成しています。そのため、鮮度が求められるニュースなどには使用しづらいといえるでしょう。
言語の種類によって情報量が異なる
3つ目の注意点は、言語の種類によって情報量が異なるという点です。
例えば、日本語と英語では情報量が異なるといわれています。ChatGPT側のアップデートは、日本語と英語でその差は縮まっていますが、日本語では回答が得られない内容を英語で再度聞くと、正確な答えが得られるケースもあります。
ChatGPTは日本語に対応した精度の高いAIチャットボットです。しかし、言語の種類のよって情報量に差があるため、日本語で回答が得られない場合、英語で聞くなど、うまく使い分けると利便性がさらに向上します。
発展途上のサービス
4つ目の注意点は、発展途上のサービスであるという点です。
ChatGPTの正確なリリース日は公表されていませんが、2020年6月に発表されたGPT-3のアップグレード版、gpt-3.5アーキテクチャーに基づいて訓練されているAIチャットボットになります。非常に新しいサービスであり、短い期間で次々と新しい機能や制度の改善などが行われているサービスです。
変化の過程で今現在利用できるサービスが使えなくなったり、有料になったりする可能性もあります。そのため、今後の動向に注目する必要があるでしょう。
統計データの根拠を示してくれないときがある
5つ目の注意点は、統計データの根拠を示してくれないときがあるという点です。
ChatGPTに回答の根拠を聞くと、リソースを教えてくれますが、URLまで提示してくれないため、結局対象のリソースを自分で探さなければなりません。例えば、ChatGPTから生成された統計データをブログ等で使用する場合、出典としてURLを掲載したいときもありますが、URLを把握できないため、具体的に記載することができません。また、HPやブログの運営者からリソース元のURLを求められた場合、回答することができないため、ChatGPTの統計データを使用することができないこともあります。
統計データに基づいた情報を利用するときは、質問によって根拠をURL形式で示してくれないことがあるため、その点には注意する必要があります。
質問した情報が引き継がれない
6つ目の注意点は、質問した情報が引き継がれないことです。
新しい会話を開始すると以前の会話はリセットされます。そのため、以前の会話をもう一度開始したいときは、再度質問を入力してChatGPTとやり取りをしなければなりません。
ChatGPTは、以前の会話を引き継がないため、人によってはやり取りに不便さが生じる場合があります。
ガイドラインを遵守する必要がある
7つ目の注意点は、ガイドラインを遵守する必要があるという点です。
ChatGPTは下記のような行為をガイドラインで禁止しています。
- 不法行為や暴力的行為の促進
- 偽情報の拡散
- プライバシーの侵害
- ハラスメントやいじめ
- スパム行為
- セクシャルなコンテンツ
ガイドラインで禁止している行為を行った人に対しては、アカウント停止処分措置が実施されるケースもあります。そのため、ChatGPTを利用する際は、ガイドラインを守って正しく使用することが求められます。
ChatGPTの現状のセキュリティリスクについて
ChatGPTは、優秀なAIチャットボットですが、近年セキュリティリスクが懸念されています。そのため、利用者はしっかりとセキュリティリスクを把握した上でうまく活用する必要があります。
ChatGPTの利用で懸念される現状のセキュリティリスクは4つです。それぞれのリスクについて詳しく解説します。
情報漏洩のリスク
ChatGPTを利用することで情報漏洩リスクが懸念されます。
ChatGPTの利用規約によると、ChatGPTに入力した質問などは学習データに活用されると明記されています。そのため、質問内容がそのままデータベースに記録される可能性があるでしょう。
個人情報など外部に知られてしまうと危険性のある情報を入力してしまうと情報漏洩の危険性があります。そのため、Amazon社などは従業員に機密性の高い文章の入力はしないように社内で通知しています。
もし、誤って機密性の高い文章を入力してしまった場合、モデル改善には使用しないようにメールからOpenAI側へ依頼可能です。しかし、できる限り個人情報など外部に漏洩していけない情報は入力を控えるようにしましょう。
フィッシングへの悪用
ChatGPTは、フィッシングへの悪用が懸念されています。
ChatGPTに直接『フィッシング詐欺の手口を教えてください』と質問しても回答を得られません。しかし、サイバー犯罪者がユーザーから情報をだまし取るためにChatGPTが使われる可能性が指摘されているのです。その一例としてスピアフィッシングが挙げられます。
スピアフィッシングは、フィッシング詐欺のターゲットのプロフィール情報などを探索し、そのターゲットにフィッシング詐欺を仕掛ける攻撃手法です。ターゲットの情報をもとにChatGPTで作られたフィッシングメールが送信される事例がいくつか報告されています。
悪性コードの生成
ChatGPTは悪性コードを生成できてしまいます。
悪性コードとは、システムやネットワークに侵入し、悪意のある目的で動作するプログラムのことです。代表的な例としては、トロイの木馬やランサムウェア、コンピューターウイルスなどが挙げられます。
ChatGPTに対して『トロイの木馬の作り方を教えてください』という質問をしても当然回答を得ることはできません。しかし、聞き方によっては悪性コードを生成してしまう可能性があるのです。そのため、ChatGPTのセキュリティリスクのひとつとして懸念されています。
風評被害を引き起こす可能性がある
ChatGPTのセキュリティリスクとして風評被害が挙げられます。
ChatGPTは、質問対して回答が事前に用意されているわけではありません。AIチャットボットになるため、質問に対して膨大な情報の中から適切な回答を見つけ、自身で文章を作成しています。そのため、場合によっては不適切な発言や間違った情報を拡散してしまう恐れがあるのです。
ChatGPTはあくまでも自動応答ができるシステムであり、人間ではありません。そのため、人間と同等の論理的思考力や判断能力を備えていないのが現実です。例えば、言ってはいけないことをテキストで生成してしまったり、間違った情報を教えてしまったりするケースは珍しくありません。もし、ChatGPTが差別用語を拡散してしまったら、社会的な風評被害を引き起こします。このような危険性も十分にあるため、利用者には慎重に活用することが求められます。
ChatGPTを使用し、情報漏洩を防ぐためには?
ChatGPTには、さまざまなセキュリティリスクがありますが、その中で企業がもっとも懸念するのは“情報漏洩”ではないでしょうか?情報漏洩が発生すると企業としての信頼が失墜し、経営状況にも大きな影響を与えることがあります。
企業の中でChatGPTを使用する場合、従業員の作業を細かく監視することは難しいです。しかし、ChatGPTを業務の中で活用したい場合、可能な限り情報漏洩のリスクを抑えておきたいと考える方が多いのではないでしょうか?
ChatGPTを使用して情報漏洩を防ぐ方法は大まかにわけて2つあります。それぞれの方法について詳しく解説しますので、リスクを抑えたいという方は、ぜひ参考にしてください。
API経由でChatGPTを使用する
1つ目の方法は、API経由で使用する方法です。
ChatGPTをAPI経由で利用することで、さまざまなアプリケーションに組み込むことができます。また、学習データに利用されませんので、情報漏洩リスクを大幅に下げることが可能です。
無料トライアルは提供されていますが、ChatGPTをAPIで利用する場合、利用料金がかかります。OpenAIの公式ページによると1,000トークンあたり、0.002ドルです。ひらがな1文字で1トークン、漢字は2~3トークンに換算されます。料金はかかりますが、格安となっているため、多くの企業が利用しやすいです。
ChatGPTのAPIを利用するためには、OpenAIにサインアップし、APIキーを取得する必要があります。また、モジュールをインストールして、Pythonならopenai.ChatCompletion.createメソッドを呼び出すことで使用可能です。コードはとてもシンプルなので、自社システム等に簡単に実装できます。
オプトアウト申請を行う
2つ目の方法は、オプトアウト申請を行うことです。
OpenAIは、ChatGPTのWeb版でオプトアウト申請を受け付けています。オプトアウト申請をすることで、ユーザーが入力した内容をAIに学習させないようにすることが可能です。
オプトアウトの申請方法は、Googleフォームから可能です。Googleアカウントでログインしている場合、Googleフォームから申請してオプトアウトすることができます。また、Googleアカウントを使用していない場合、OpenAIの下記のページからオプトアウト申請が可能です。
メールアドレスと組織ID、組織名を入力し、送信ボタンをクリックするだけでオプトアウト申請することができます。
システムに組み込まずにWeb版の利用に留める企業は、オプトアウトで情報漏洩のリスクを下げるようにしましょう。
まとめ
今回は、ChatGPTの注意点や現状のセキュリティリスクについて詳しく解説しました。ChatGPTを企業が使用する場合、特に情報漏洩リスクが懸念されます。
しかし、OpenAIはオプトアウト申請を受け付けています。また、APIを経由すればモデルのトレーニングや改善に使用されることがないため、情報漏洩リスクを回避してChatGPTを使用したいという方は、API経由やオプトアウト申請後に使用するのがおすすめです。
ホームページ制作・システム開発を依頼したい企業様がいたら
株式会社クラウドシードでは、各種ホームページ制作やシステム開発のご相談を承っています。
ご検討の方は以下よりお気軽にご相談ください。