Anthropic、ユーザーのチャット内容をAI訓練に活用へ。オプトアウトの手順を解説

Anthropicは10月8日にプライバシーポリシーを改定し、ユーザーのClaudeとのチャット内容を大規模言語モデルの訓練データとして利用する方針に転換する。自分の会話を学習に使われたくない場合は、以下の手順でオプトアウトできる。
Anthropic、ユーザーのチャット内容をAI訓練に活用へ。オプトアウトの手順を解説
Photo-Illustration: Wired Staff; Getty Images

Anthropicは、ユーザーがClaudeチャットボットと交わした会話を大規模言語モデル(LLM)の訓練データとして使用する方針を打ち出した。ただし、ユーザーがオプトアウトした場合は対象外となる。

これまで同社は、ユーザーがチャットボットと交わした内容を生成AIモデルの訓練に使用してこなかった。しかし、10月8日に実施するプライバシーポリシーの改定により、この方針は変更される。改定後は、ユーザーがオプトアウトしない限り、新しいチャットやコーディング作業の内容は今後開発されるAnthropicのモデルの訓練データとして利用されることになる。

なぜこのような方針転換を実施するのか。「ClaudeのようなLLMは、膨大なデータによって訓練されています」とAnthropicはブログで今回の方針転換について説明している。「実際のやりとりから得られるデータは、どの回答がユーザーにとって有用で正確なのかについて、貴重な洞察をもたらします」。同社の開発者たちは、より多くのユーザーデータをLLMの訓練に取り込むことでチャットボットを継続的に改善していきたいと考えているのだ。

当初、この方針転換は9月28日に実施される予定だったが延期された。その理由についてAnthropicの広報担当ギャビー・カーティスは『WIRED』へのメールで、「ユーザーがこれにどう対応するか考える時間をもう少し設け、技術的な移行を円滑に進めたいと考えました」と説明している。

オプトアウトの方法

新規のユーザーは、サービスへの登録時に自分のチャットデータの取り扱いについて選択できるようになる。既存のClaudeユーザーは、すでにAnthropicの利用規約の変更を知らせるポップアップを目にしているかもしれない。

そこには「チャットやコーディングセッションのデータをAnthropic AIモデルの訓練と改善に使用することを許可します」と表示されている。これに付随するスイッチは初期設定で「有効」になっており、変更せずに更新を承諾すると、訓練に関する新しい規約に同意した扱いになる。

すべてのユーザーは「プライバシー」の設定から、チャット内容をAIの訓練に利用することを許可するかどうかを切り替えられる。ClaudeとのやりとりをAnthropicの新しいモデルの訓練に使われたくない場合は、「Claudeの改善にご協力ください」という項目のスイッチが左側(無効)になっていることを確認しよう。

ユーザーがオプトアウトしない場合、訓練に関する新しい方針は、新しいチャットだけでなく、再開した過去のチャットにも適用される。これはつまり、過去のチャットを開き直さない限り、以前のやりとりが訓練に使われることはないということだ。ただし、一度でも再開したチャットは新しい会話として扱われ、AIモデルの訓練データとして使用される。

また、新しいプライバシーポリシーでは、オプトアウトしないユーザーのチャットのデータ保持期間が延長される。チャットの内容を訓練に利用することを許可したユーザーのデータをAnthropicが保持する期間は、これまでの30日間から5年間へと大幅に延びる。一方、オプトアウトしたユーザーのデータは従来どおり30日間のままである。

データの扱いと対象ユーザー

今回の変更は、無料プラン、有料プランを問わず、すべての一般ユーザーに適用される。ただし、商用ライセンス契約を結んだ政府機関や教育機関を通じて利用しているユーザーは対象外であり、その会話データがモデルの訓練に使われることはない。

一部の開発者はClaudeのコーディング支援機能を高く評価し、日々の開発作業に活用している。今回のプライバシーポリシーの改定は、チャットのやりとりだけでなくコーディングの内容も含むことから、今回の変更によりAnthropicは相当量のコーディング関連データを訓練用に収集できる可能性がある。

プライバシーポリシーの改訂前までClaudeは主要なチャットボットのなかで、ユーザーの会話を訓練データとして最初から利用しない数少ないサービスのひとつだった。OpenAIChatGPTグーグルのGeminiは個人アカウントの場合、ユーザーがオプトアウトしない限り、ユーザーのチャットボットとの会話内容をモデルの訓練に使う可能性があるとしている。

ほかのサービスでも自分のデータが生成AIの訓練に使われないよう設定する方法を知りたい人は、『WIRED』の「あなたのデータがAIの学習に使われないようにする方法」を参照してほしい。チャットボットとのやりとりやその他の会話のデータを訓練に使われないようにオプトアウトすることは、プライバシー保護の面で大きな意味がある。ただし、SNS上での投稿から飲食店の口コミまで、インターネット上で公開したあらゆる情報は、どこかの企業が次世代AIモデルの訓練用データとして収集する可能性があることを忘れないでほしい。

(Originally published on wired.com, translated by Nozomi Okuma, edited by Mamiko Nakano)

※『WIRED』による人工知能(AI)の関連記事はこちら


Related Articles
Shadow of a person operating a smartphone
一部のアプリでは、あなたのコンテンツが生成AIの学習に使われないように設定することができる。ChatGPTやグーグルのGeminiなどから(少なくとも多少は)主導権を取り戻す方法を紹介しよう。
Many Books
「世界中のすべての本」をデジタル化することは、決して消えないアーカイブをつくることになるのか、それとも出版文化の衰退を招くのか。
Anthropic CEO Dario Amodei gestures as he addresses the audience as part of a session on AI during the World Economic Forum (WEF) annual meeting in Davos on January 23, 2025. (Photo by FABRICE COFFRINI / AFP) (Photo by FABRICE COFFRINI/AFP via Getty Images)
Anthropic初の開発者会議で、CEOのダリオ・アモデイは、2026年には従業員がわずかひとりの10億ドル企業が登場するだろうと予測した。同社の開発現場ではすでに、コードの大部分をAIが生成しているという。

Anthropic、ユーザーのチャット内容をAI訓練に活用へ。オプトアウトの手順を解説

雑誌『WIRED』日本版 VOL.57
「The Big Interview 未来を実装する者たち」発売中!

気鋭のAI研究者たちやユヴァル・ノア・ハラリが語る「人類とAGIの未来」。伝説のゲームクリエイター・小島秀夫や小説家・川上未映子の「創作にかける思い」。大阪・関西万博で壮大なビジョンを実現した建築家・藤本壮介やアーティストの落合陽一。ビル・ゲイツの回顧録。さらには不老不死を追い求める富豪のブライアン・ジョンソン、パリ五輪金メダリストのBガール・AMIまで──。未来をつくるヴォイスが、ここに。グローバルメディア『WIRED』が総力を結集し、世界を動かす“本音”を届ける人気シリーズ「The Big Interview」の決定版!!詳細はこちら