PKI (公開鍵基盤) 03-29-2023

ChatGPT はどこまで信頼できるか ― AI を利用してアイデンティティとセキュリティを確立する

Timothy Hollebeek
ChatGPT and Digital Trust Hero Image

ここ数か月というもの、ChatGPT に代表される AI ツールの普及に伴って、AI や機械学習の利用が増えていることが実感されます。こうしたツールは、コンセプトも刺激的ですし、時間を節約しながらリサーチを簡略できるうえ、24 時間 365 日いつでも、依頼したとおりのことを実行すると考えられています。

しかし、この新しい AI ツールには新たな問題があります。何が正しいかをどう識別すればよいのでしょうか。その出力に対する信頼はどう確立できるでしょうか。

デジタルトラストとは、個人や企業がデジタルの世界に残す自身のフットプリントの安全性を確保しながらオンラインでやり取りできるようにすることです。そのデジタルトラストのリーディングプロバイダーとして、デジサートは ChatGPT に対する懸念を認識し、AI 業界が信頼とセキュリティの向上を目指せるよう前向きに検討しています。この記事では、そうした懸念のいくつかを取り上げ、AI に対する信頼をどう確立できるかを詳しく検証していきます。

ChatGPT は万能ではないことを自覚している

ChatGPT はユーザーに正確な情報を提供するよう設計されていますが、どんな技術もそうであるように無謬ではありません。ChatGPT が誤ることもあります。バイアスがかかりやすく、2021 年以降の情報は限定されているうえに、セキュリティやプライバシーに懸念があって、情報を捏造することさえあるのですが、一部の問題についてはその限界を自ら認識しています。

使用する際の課題や懸念の上位は何かを尋ねたところ、ChatGPT は次のように回答してきました。

ChatGPT には数多くの利点がありますが、以下のように AI 言語モデルの使用に伴う課題もあります。

  1. 共感の欠如: ChatGPT は機械なので、ユーザーに共感する能力は持っていません。つまり、感情面で人を支援したり、人間の複雑な感情を理解したりすることはできない可能性があるということです。
  2. 理解に限界がある: ChatGPT の回答は訓練データに基づくものであり、現実的な状況のニュアンスや複雑さは必ずしも正確に反映されない可能性があります。そのため、ChatGPT の回答は不完全なこともあり、不正確なこともあるのです。
  3. セキュリティおよびプライバシーに関する懸念: ChatGPT は、正確に回答するためにユーザーデータにアクセスする必要があるので、データのプライバシーとセキュリティに関する懸念が生じます。使用する際には、ChatGPT と共有する情報に注意し、AI 言語モデルとの対話には必ず安全なプラットフォームを使用するようにしてください。

ChatGPT は、もっともらしく聞こえる情報をでっち上げたり、誤情報を拡散したりするということも知られています。しかし、ChatGPT が誤りを犯すのは、それ以前にインターネット上の情報が誤っていたためである場合もあります。

問題の原因は ChatGPT とインターネットのどちらにあるのか

原因はどちらにもあります。ChatGPT は、訓練に使われた情報を利用していますが、その情報が不正確だったり古かったりする場合があります。そして、インターネットそのものが未検証の情報であふれており、それが誤解や完全な誤りの原因になっていることもあるのです。

最近、私は妻と一緒に車である美術館を訪れようとしました。スマートフォンの情報では開いているということでしたが、シーズンオフで閉まっていました。このように誤った情報があると、時間と費用、労力の無駄になることもあって、困らされますし、危険が伴うことさえあるかもしれません。そのうえ、悪意をもった者にそれを悪用されることもあります。

ChatGPT はソーシャルエンジニアリングやフィッシングに利用される恐れがある

どんな技術が発達するときでも同じように、AI は私たちの暮らしや仕事を楽にしてくれる反面、攻撃者の仕事も楽にするものです。当然ながら、詐欺やフィッシングメッセージの作成に AI が使われるケースも出てきています。なかには、詐欺師が AI を使い、家族が困っているように思わせた最近の例のように、かなりの説得力を持つものもあります。ChatGPT の利用規約では、詐欺に直接こそ言及していませんが、「人の権利を侵害、濫用する、または権利に違反する」いかなる目的に使用することも制限されています。それでも、悪意をもった者が ChatGPT などの AI ツールを使って詐欺的な、さらには攻撃的な内容を書き込むことまでは止められません。したがって、オンラインでやり取りするときには慎重になり、フィッシングを発見、回避、報告する方法を学ぶことをお勧めします。

ChatGPT にすべての情報を共有しない

ChatGPT には、プライバシーの問題もあります。ChatGPT と共有した情報は、すべて保存されます。機密性の高い自社独自のデータやコードをオンラインで共有しないのと同じように、AI とも共有すべきではありません。AI はそれも保存し、次の学習に使用するからです。機密情報を AI と共有してしまい、別のユーザーがその情報について質問したとき、自分が共有したばかりにその情報にアクセスできるようになっていたと想像してみてください。公開できない情報は、ChatGPT とも共有するべきではありません。一方、事業主のほうでも、ChatGPT をプライバシーを保って安全に使う方法についてのトレーニングやガイダンスを実施する必要があります。

独立の第三者による検証で信頼を確立する

AI に対する信頼を確立する方法が、独立の第三者による検証です。独立の第三者による情報の検証によって信頼を確立するうえでは、認証局(CA)が重要な役割を果たします。CA は、他の組織とその情報の真正性を検証する組織であり、その真正性がオンラインの取引や通信の保護に利用されています。特に知られている例はドメイン所有権や法的アイデンティティの検証ですが、そのような情報に関して独立の第三者による検証を制限する技術的理由はありません。

電子証明書がその主張どおりのエンティティに属していることを検証するものなので、CA は機密情報が保護されていること、ユーザーが使用するウェブサイトやサービスを信頼できることを保証できます。しかし、CA はそれ以外の情報、たとえば事業の登録情報、ドメイン所有権、法的地位なども検証できます。新しい公開鍵基盤(PKI)の取り組みの多くでは、職業上の肩書き、デジタル鍵の生成場所と生成方法、商標による画像の保護の有無など、検証可能な他の属性にまでデジタルトラストを拡大しようとしています。

したがって、有益であるためには情報が正確でなければなりません。最も良いのは、CA などの組織によって独立して検証された情報です。確かに ChatGPT やインターネットは、情報を探すときに便利なツールですが、それだけに頼るべきではありません。テクノロジーと独立の第三者による検証を組み合わせれば、私たちが利用する情報の信頼性を確認することができます。

AI はまだ発展途上だが、やがて成熟すれば信頼は後からついてくる

目下のところ、AI はどちらかというと発展途上です。しかし、AI 産業が成熟していけば、悪意のある目的での AI の使用に対する規制も強化されるだろうと予測されます。現在 IoT やソフトウェア開発などの分野で規制強化が進んでいるのと同じ状況です。将来的には、AI が出力する内容が真実であることを証明するために、電子証明書などの検証ソリューションが使われるようになっても不思議ではありません。PKI は、デバイス、ユーザー、サーバー、ソフトウェア、コンテンツなど、数多くのユースケースに適用され、デジタルトラストを確立してきた実証済みの技術です。AI もそうなっていくはずです。

UP NEXT
CA/B フォーラム

ルート CA ポリシーに向けた Google の「Moving Forward, Together」提案: ICA のローテーション頻度を短縮

5 Min