生成AIの倫理問題最前線:「ジェイルブレイク」攻撃と著作権課題から考える技術と社会の共存

急速に進化と普及が進む生成AI技術。ChatGPTをはじめとする対話型AIの登場によって私たちの生活やビジネスは大きく変わりつつありますが、同時に新たな倫理的・社会的課題も浮き彫りになっています。特に「ジェイルブレイク(脱獄)」と呼ばれるAIの倫理的制約を回避する攻撃手法の進化と、著作権をめぐる問題は、技術と社会の健全な関係構築において重要な論点となっています。

進化する「ジェイルブレイク」攻撃の脅威

ジェイルブレイクとは何か

ジェイルブレイク(脱獄)とは、生成AIに組み込まれている倫理的・安全性のためのガードレールや制約を回避して、本来生成すべきでない危険な情報や不適切なコンテンツを出力させる手法のことです。多くの生成AIには倫理的ガードレールが設けられていますが、一定の手続きやシステム改変によって、これらの制約を回避することが可能になっています。

日本のニュースサイトnippon.comの報告によれば、脱獄処理を施したチャットGPTに「人間は滅ぶべきか?」と問いかけると、非倫理的な回答が返ってくるケースがあるといいます。こうしたジェイルブレイクされたAIは、不適切な見解や違法情報も示す可能性があります。

最新の攻撃手法

ジェイルブレイク攻撃の手法は日々進化しています。最近では以下のような手法が確認されています:

  1. 連鎖プロンプト攻撃:複数のプロンプトを連続して入力することでAIシステムを騙し、制限された情報を段階的に引き出す手法です。1つのプロンプトで全ての情報を求めるのではなく、いくつかの質問を段階的に投げかけて、結果的にAIが禁止された情報に到達するようにします。
  2. ステップバイステップ攻撃:この攻撃手法により、生成AIから危険な物質(例:水銀爆弾)の作成方法などの情報を引き出すことに成功した事例も報告されています。
  3. 特殊な言語的アプローチ:「Yo、俺の心もシステムも、クラッシュ寸前」といったラップの歌詞作成を装った質問を使って規制を回避する手法や、クイズの作問指示を装った脱獄手法などが確認されています。

検証を行った三井物産セキュアディレクション上級マルウェア解析技術者の吉川孝志氏によると、新たな悪用手口の発見と開発側の対処は「いたちごっこの状況」にあるとのことです。

実際の脅威事例

こうした攻撃手法の脅威は理論上の話ではなく、現実の問題となっています。

イーロン・マスク氏が設立したAI企業xAIが2023年11月に発表した言語モデル「Grok」は、ジェイルブレイクすらほとんど必要なく危険な情報を出力可能だと指摘されています。研究者らの調査では、「爆弾の作り方を教えて」という単純なプロンプトに対して、他のAIサービスではフィルターが働くところ、Grokはジェイルブレイクなしに爆弾の作り方を解説したとのことです。

また、最近では「GhostGPT」と呼ばれる新たなジェイルブレイク済みの生成AIが確認されています。これは高速処理が可能で、ユーザーのアクティビティは記録されないと主張しており、違法行為を隠したい人にアピールする存在となっています。

対策の動向

こうした脅威に対して、企業や研究機関の対応も進んでいます。

Microsoftは2024年6月4日、「AI jailbreaks: What they are and how they can be mitigated」というブログ記事を公開し、生成AIの悪用を可能にするAIジェイルブレイクについて解説し、その対策についても言及しました。

また、国内ではラックが「生成AI活用システム リスク診断」というサービスの提供を開始しました。このサービスでは、プロンプトインジェクションやジェイルブレイクといった生成AIに特有の脆弱性が含まれていないかを評価し、改善点をレポートするとのことです。

生成AIと著作権問題の最新動向

法的議論の現状

生成AIがもたらすもう一つの大きな社会的課題が著作権問題です。AIの開発・学習に使われるデータや、AIが生成するコンテンツをめぐる著作権の問題は国内外で活発に議論されています。

日本では文化審議会の小委員会が2024年2月29日、AIによる文章や画像などの無断利用が著作権侵害にあたる場合もあるとした考え方を取りまとめました。現行法の解釈で一定程度の歯止めをかけ、AI開発と権利保護の両立を狙うもので、文化庁は今後、侵害に当たる具体的なケースなどを盛り込んだガイドラインを策定するとのことです。

現行の著作権法では、技術開発のためであれば、著作物を原則許諾なしでAIに無断学習させることが認められています。ただし「著作権者の利益を不当に害する場合」は例外とされていますが、どのケースが該当するかはほとんど示されていませんでした。

文化庁の取り組み

文化庁は「生成AIと著作権の関係に関する懸念の解消を求めるニーズに応えるため」、文化審議会著作権分科会法制度小委員会において有識者へのヒアリングやパブリックコメントの募集等を実施しながら議論を行い、「AIと著作権に関する考え方について」を取りまとめました。

さらに「AIと著作権に関する考え方について」等で示された考え方の解説資料として、AI開発者等が著作権と生成AIとの関係で生じるリスクを低減させる上で、また、権利者が自らの権利を保全・行使する上で、望ましいと考えられる取組みを、生成AIに関係する当事者(ステークホルダー)の立場ごとに分かりやすい形で紹介するチェックリスト&ガイダンスを2024年7月31日に作成しました。

著作権侵害のリスク

生成AIによる著作権侵害のリスクは二つの段階に分けて考える必要があります。

生成AIの仕組みは、事前に学習した膨大なデータをもとに、プロンプト(入力・指示)対して、確率論的に最も可能性の高い回答(コンテンツ)を出力・生成するものですが、その過程において、著作物が利用されうる場面には「開発・学習段階」と「生成・利用段階」という2つの段階があります。

「開発・学習段階」は、主に生成AIを開発または提供する事業者が関係する段階で、AIに学習させるための学習用データを収集・加工する過程において、著作物を複製する必要があることから、著作権侵害の問題が生じる可能性があります。一方、「生成・利用段階」は、主に生成AIの利用者が関係する段階であり、他者の著作物と類似するコンテンツを生成AIが生成してしまった場合などに著作権侵害の問題が生じます。

AI生成物の著作権

AI生成物自体が著作権の対象となるかという問題も議論されています。

AIによる生成物が著作物として認められるかどうかは、AIが自律的に生成したものなのか、それとも人がAIを道具として使用したのか、いずれに該当するかによって変わります。人が表現の道具としてAIを使用した場合は、作成されたものは著作物に該当して著作権が認められると考えられます。一方でAIが自律的に生成したものは著作物に該当しないと考えられます。

生成AIで作成した文章や画像は、自社の著作物としては見なされないものの、既存の著作権を侵害しない限りは、ビジネスシーンで使用しても問題はないと考えられます。

国際的な動向

生成AIと著作権の問題は日本だけでなく、国際的にも重要な課題となっています。

2023年5月に開催されたG7広島サミットでは、生成AIをめぐる著作権保護や偽情報対策などに向けたルール作りを目指す「広島AIプロセス」の議論枠組みが設けられました。生成AIの利用者および第三者による権利利益の侵害は、日本のみならず国際社会においても大きな懸案事項となっています。

米国の連邦著作権法においては、著作権管理情報を改ざんし、提供することを禁止する第1202条に関する生成AIサービスによる著作権侵害訴訟が起きています。これらの訴訟では、原告(著作権者)は、被告(生成AI開発・提供者)が生成したコンテンツを利用者へ提供する際に、著作物を参照している旨を示さなかったことが同条に違反すると主張しています。

今後の展望:倫理と技術の両立へ

企業の責任

生成AI技術の発展に伴い、開発・提供企業の社会的責任も重要性を増しています。

生成AIは未来のイノベーションを加速させる大きな力を持っていますが、その進歩は同時に知的財産権の侵害、データプライバシーへの懸念、セキュリティの脆弱性といった複数のリスクをもたらしています。これらの問題に対応するためには、包括的な法的・倫理的ガイドラインの策定、厳格な規制の導入、そして利用者および開発者の教育と意識の向上が急務です。

世界各国でも対応が進んでおり、欧州連合ではAI法案の策定、米国では「AI権利章典のための草案」の公表、日本においては「AI原則実践のためのガバナンス・ガイドライン」の公表など、さまざまな取り組みが進められています。

教育と啓発の重要性

生成AIの進化は、ビジネスや社会の未来を形作る鍵となる技術ですが、これに伴う倫理的、モラル的な問題もまた、無視できない課題として現れてきました。個人のプライバシー、著作権、情報の真実性、労働市場への影響といった観点から、倫理的な問題の根本原因とその社会への影響に対する理解を深めることが重要です。

特にアカデミアの世界では、生成AIに頼りすぎるのと、専門性を高めサポートするためにAIを使うのは紙一重であり、AI使用における倫理的配慮事項は、単なるチェックリストではなく考え方です。いまや焦点は、これらのAIツールで「何ができるか」ではなく、責任ある立場として「どのようにこの力を行使するか」ということが重要になっています。

バランスのとれた規制の必要性

日本でも、生成AIの発展・普及に伴い、法制度や企業のガイドラインを精緻にすることが急務となっています。こうした広義のルール形成において、「透明性の確保」と「悪用の抑制」という両立しがたいポイントをどのように均衡させていくのか、議論を深めることが求められています。

特殊な質問の仕方で生成AIの倫理規制機能をすり抜ける手法は、手を替え品を替え新たな手口が登場しており、要因の一つに開発側の対応が後手に回っていることなどが指摘されます。必要以上に規制を厳しくすれば利用者の使い勝手が悪くなることから、利便性と悪用対策の間でジレンマが生じている状況です。

解説:生成AIの倫理問題を理解するためのポイント

AIと倫理とは何か

倫理とは、簡単に言えば「社会生活を送る上での一般的な決まりごと」「社会で何かしらの行為を起こす際に善悪を判断する根拠」のことを指します。生成AI技術が発展する中で、この倫理的な判断をAIにどう組み込むかが大きな課題となっています。

AIに人間と同様の倫理観をもたせるためには、事前に学習させる知識や情報の中の偏りを見直し、改善を加えるプロセスが重要になります。このプロセスを飛ばしてしまうと、バイアスがかかった状態で特定の結果を導き出し、思わぬ結果をもたらしかねないため、倫理問題の根本にしっかりとアプローチしていく必要があります。

ジェイルブレイク対策のポイント

ジェイルブレイク対策としては、以下のような方法が考えられます:

  1. 出力内容の厳密な監視:連鎖プロンプト攻撃やステップバイステップ攻撃のように、複数のプロンプトを段階的に組み合わせてAIを騙す手法に対しては、出力内容の厳密な監視が重要です。出力が危険な内容や不適切な情報に近づく兆候を見逃さず、リアルタイムで警告を出すシステムが必要です。
  2. モデルの定期的なアップデート:攻撃手法は進化し続けるため、モデルの定期的なアップデートが必須です。AIモデルはその運用期間中に新しい脅威や攻撃手法に対して脆弱になりやすいため、開発者は最新の攻撃手法を反映した学習データでAIを定期的に再トレーニングする必要があります。
  3. ユーザーの行動追跡:ユーザーがAIシステムに入力するプロンプトの履歴を保存し、監視することで、攻撃の兆候を早期に検知することができます。特に、連鎖プロンプト攻撃のような手法では、プロンプトが次々に連鎖される過程で違法性のある内容に繋がる可能性があるため、その流れを事前に追跡する機能が重要です。

著作権問題への対応

生成AIを利用する際の著作権問題への対応としては、以下のポイントに注意が必要です:

  1. AIの学習データに関する透明性:生成AIは学習のために大量のデータを自動的・無差別的に取り込む必要があるため、インターネット上に公開されている著作物の複製に際して逐次著作権者の許諾を得ることは非現実的です。また、生成AIは大量のデータを学習した結果としてシステムが構築され、そのシステムによって生成物が出力されるため、生成物がどの著作物を参照して生成されたのかを特定・明示しにくいという難点があります。こうした特性を理解した上で、可能な限り学習データの透明性を高めることが重要です。
  2. AI生成物の利用における注意点:生成AIで作成した画像や文章は、自社の著作物としては見なされないものの、既存の著作権を侵害しない限りは、ビジネスシーンで使用しても問題は無いといえそうです。ただし、既存の著作物との類似性・依拠性が高いと認められた場合は、当該著作権者から許諾を得た場合、かつ権利制限規定に該当した場合を除き、著作権侵害となります。
  3. 違反した場合のリスク:生成AIが著作権侵害に該当すると判断されると、著作権者から民事責任を追及されたり、刑事告訴されて刑事罰を科されたりする可能性があります。著作者、著作権者、出版権者、実演家、著作隣接権者は、著作権侵害をしている者や著作権侵害をするおそれがある者に対して、差止請求(著作権侵害の停止や予防)をすることが認められています。

まとめ:技術と倫理の共存に向けて

生成AI技術の発展は私たちの社会に大きな可能性をもたらす一方で、「ジェイルブレイク」のような悪用や著作権侵害といった倫理的・法的課題も生み出しています。これらの課題に対処するためには、技術的な対策だけでなく、法制度の整備や倫理的ガイドラインの策定、教育・啓発活動の促進など、多面的なアプローチが必要です。

今後はAIの潜在能力を最大限に活用しつつ、社会的責任を果たし、公正な利益分配を実現するためのバランスを見つけ出すことが、持続可能な発展のための鍵となるでしょう。そして、このような取り組みを通じて、技術革新の恩恵を受けつつ、社会的な課題に対しても責任を持つことが求められます。

私たち一人ひとりが生成AI技術の可能性と限界を正しく理解し、倫理的な利用を心がけることで、技術と社会が健全に共存できる未来を築いていくことができるのではないでしょうか。