ChatGPTは危険?AI資格を持つプロが安全に使う方法などについて解説
Author Icon
この記事の監修者
べるどら
     

ChatGPTがリリースされた当初からChatGPTを利用しています。
小学生からパソコン・ネットに住み着いているITオタクです。

AI Getの監修者・責任者として誰にでもわかりやすい、正確な記事の発信に努めています。

IT系国家資格の情報セキュリティマネジメントや基本情報技術者、AI系資格の生成AIパスポートやG検定などを保有しています。

運営者情報はこちら

今や生活に欠かせないと言っても過言ではないChatGPT。

そんなChatGPTは危険と言われることもあります。

しかし、こんなに便利なChatGPTがなぜ危険なのでしょうか。


この記事ではAI関連の資格を2つ持つ筆者が、ChatGPTの危険性や安全に使う方法について解説します。

ChatGPTとは?基本的な概要と機能

ChatGPTとは?

まずはChatGPTについておさらいします。


ChatGPTはOpenAIが提供しているテキスト生成AIサービスです。

最近では声で対話ができるようになったり、画像の生成ができるようになったりしています。


生成AIブームの火付け役となったサービスです。

ChatGPTの安全性:設計と運用原則

続いてChatGPTの安全性について解説します。


ChatGPTではユーザーに対し、安全に利用してもらうために以下のような対策を行っているようです。

  1. バイアスの軽減
  2. ハルシネーション(嘘)の軽減
  3. 有害な出力の防止

1つずつ解説していきます。

1. バイアスの軽減

1つ目は「バイアスの軽減」です。

バイアスとは「偏り」や「偏見」などを指します。


ChatGPTなどのテキスト生成AIはインターネット上の情報を元に回答を生成するため、学習内容にバイアスがあれば回答内容にもバイアスが発生します。

例えば性別や学歴などです。


ChatGPTではリリース後にこのようなバイアスがあることが専門家などにより指摘され、議論されていました。

そこで、ChatGPTはチューニングを行うことで、バイアスの解消に向けて対策しているということです。


しかし、現時点ではチューニングは完璧ではないことから、一定のバイアスがかかっていると認識して使う必要があります。

そもそもバイアスは明らかに偏りがあるというものと、人によって感じ方が異なるような小さな偏りの2種類があります。

そのため、誰もがバイアスを感じないような完璧な調整は難しいと考えられます。

2. ハルシネーション(嘘)の軽減

2つ目は「ハルシネーション(嘘)の軽減」という点です。


ハルシネーションはAIの文脈でよく使われるワードで、主にAIがつく「嘘」を指します。

ChatGPTでもハルシネーションは存在し、学習していない内容を聞かれたときなどに、それっぽい回答を行うなど、稀に嘘をつきます。


筆者が経験した例では発売されて間もないスマホの機種について質問してみるとそれっぽい答えが返ってきたことがあります。

これはChatGPTが学習していないものの、なんとかして回答を出そうとして生成するハルシネーションによるものです。


ChatGPTがリリースされた間もない2023年後半はハルシネーションが非常に多く、「嘘だらけで使えない」という人も多かったかと思います。

しかし、最近ではハルシネーションは軽減されており、わからないことに対しては素直にわからないと返すようになってきています。

まだ完璧ではありませんが、比較的改善されてきている印象です。

3. 有害な出力の防止

3つ目は「有害な出力の防止」という点です。


ChatGPTなどのAIはネット上のあらゆるデータから学習し、その学習内容を元にユーザーに回答を出力しています。

また、ネット上のデータには有害な情報が非常に多く含まれています。

そのため、有害な情報から学習したAIは有害な情報を出力してしまうということがあります。


一方でChatGPTでは有害な情報が出力されないようにチューニングがされています。

これにより、不適切な内容の回答をリクエストしても、ChatGPTは「回答できない」と返すようになっています。


有害な情報に対する対策も完璧ではないものの、ほとんどの場合、返答しないように設計されています。

ChatGPTは本当に危険なのか?リスクについて解説

ではChatGPTは危険なのでしょうか。


現時点ではChatGPTは「危険」とは言えないものの、完璧に安全とも言えません

先ほども書いたように、バイアスや嘘が混ざった回答をしたり、有害な情報を提供することがあるためです。


それ以外にもChatGPTを使うことで「個人情報や機密情報が漏えいする」というリスクがあります。

というのも、ChatGPTはユーザーが入力した質問内容を学習に使用していると思われるからです。


ChatGPTの設定画面を開くと、「モデルの改善」という項目があります。

ここには「あなたのコンテンツをモデルの学習のために使用することを許可して下さい。」との記述があります。

出典:ChatGPT

これがオンになっている場合、入力内容や回答内容が学習に活用されている可能性があります。

「プライバシーを保護する措置を講じている」とはあるものの、個人情報や機密情報が使われる可能性は否定できません。


そのため、この設定をオンにしたままなのであれば、入力内容には十分に注意する必要があります。

ユーザーが知っておくべきChatGPTの安全な使い方

続いてChatGPTを安全に使うために、ユーザーが知っておくべきChatGPTの安全な使い方について解説します。


ChatGPTを使う上では以下のような点に注意することが重要です。

  1. 個人情報を入力しない
  2. 自分でソースに当たる
  3. 回答内容を鵜呑みにしない

それぞれ詳しく解説します。

1. 個人情報を入力しない

1つ目は「個人情報を入力しない」という点です。


先ほども書いたように、ChatGPTはユーザーの入力内容からモデルを学習している可能性があります。

プライバシーには配慮するとの記述はあるものの、学習に利用される可能性は否定できません。

そもそも個人情報などを正当な理由なく記載するのはセキュリティ上問題があるとも言えます。

そのため、ChatGPTで個人情報を入力しないようにしましょう


また、会社の情報などはなおさら入力するのは控える必要があります。

仕事で扱うデータにはその会社が独自に権利を保有する情報や、顧客の重要なデータなど、外部に漏れることで不利益を被るようなデータがたくさんあります。

そのようなデータをChatGPTに送信すると大きな問題となる可能性があります。


ChatGPTは人間ではないため、気軽に相談ができることから、個人情報や機密情報の送信に抵抗がなくなってしまうことがあります。

しかし、もしその情報が学習に利用されてしまうと、取り返しのつかないことになる可能性があることから、入力は行わないようにしましょう。


ちなみに安全に使うために、先ほどあった「モデルの改善」の「すべての人のためにモデルを改善する」をオフにしておくのがおすすめです。

出典:ChatGPT

パソコン版はChatGPTを開き、ログインしたあとに右上のアイコンをクリックします。

次に「設定」をクリックし、メニューの「データコントロール」から「すべての人のためにモデルを改善する」をクリックします。

すると先ほどの画像のような項目が表示されるため、右側のスイッチをオフにしておきましょう。


スマホアプリ版の場合はChatGPTのログイン後に左上のメニューボタンを押し、一番下の自分の名前をタップします。

次に「データ コントロール」をタップし、「すべてのユーザー向けにモデルを改善する」からオフにできます。


なお、どうしても個人情報などを含めて質問せざるを得ないこともあると思います。

例えばメールの文章をChatGPTに校正してもらう場合です。

このような、やむを得ず個人情報を入力する必要のある場合は個人情報の部分を誰かに見られてもいいようなフェイクに置き換えて質問するようにしましょう。

こうすることで、個人情報の漏えいを防ぐことができます。


ただし、この場合回答内容もフェイクを含んでいるため、送信前にしっかりと見直す必要があります。

手間はかかるものの、個人情報の漏えいリスクと比べればそれほど大きな問題ではないため、このような対策を行うようにしましょう。

2. 自分でソースに当たる

2つ目は「自分でソースに当たる」という点です。


ChatGPTはどのような情報でも比較的正確に回答してくれることから、ついつい本当の情報なのか確かめることを忘れてしまいます。

しかし、先ほども書いたようにChatGPTはハルシネーション(嘘)を含む回答を行うことがあります。


例えば先の例のように存在しないスマホの機種についてわざと質問をしてそれっぽい回答が返ってきた場合、明らかに嘘だと認識することができます。

しかし、全く嘘だとは思わずに普通にした質問に対する回答が嘘であった場合、信じてしまうこともあるでしょう。


友だちとの会話の話題など、ちょっとした間違いでも許されるようなものであればほとんどの場合大きな問題にはならないです。

しかし、レポートや会社の資料を作る際にChatGPTの回答を信じてしまうと問題になる可能性があります。

そのため本当に正しい情報なのかGoogle検索をするなど、自分で内容を確認するようにしましょう。

3. 回答内容を鵜呑みにしない

3つ目は「回答内容を鵜呑みにしない」という点です。


2つ目と少し被る部分にはなりますが、これに加えて「バイアス」に注意する必要があります。


バイアスは先ほども書いたように「偏り」を表し、ChatGPTが偏った内容を回答してしまうという点です。

ChatGPTの回答を鵜呑みにしてしまうと、回答内容がバイアスがかかったものであってもそれを信じてしまうことになります。

内容がどうでもいいものであればいいですが、何度もバイアスのかかった回答内容を見ていると次第に自分の考えにも反映されてしまう可能性があります。


バイアスも場合によっては人権などに関わるような問題になりかねません。

人間の性質上、完璧にバイアスのかからない見方をすることはできませんが、ChatGPTの回答内容を鵜呑みにせず、できる限り中立な立場から読むようにしましょう。

ChatGPTは危険なのかについての1問1答

ChatGPTは危険ですか?

現在は昔と比べると危険性は減っています。
しかし、利用方法によっては危険な使い方もあるため、注意が必要です。

どのような点に気をつけるべきですか?

特に重要なのは個人情報を入力しないことです。
また、回答のバイアス(偏り)やハルシネーション(嘘)にも注意が必要です。

まとめ

今回はChatGPTの危険性や安全な使い方について解説しました。

ChatGPTは正しく利用すれば非常に便利なツールです。

何でもそうですが、使い方を間違えれば危険なツールになってしまいます。

今回解説したような点に注意してより便利に使ってみてください!

関連記事今さら聞けない、ChatGPTってなに?歴史やできること、注意点を解説!

おすすめの記事