元記事

OpenAIのChatGPTの「プライベート」とされていた会話がGoogle検索結果に流出し、メンタルヘルスの悩みや虐待の告白などセンシティブな話題が公にさらされる事態となった。「発見可能(discoverable)」機能という、現在は無効化された実験的なオプションによるものである。
この機能は、選択制でユーザーがチャットを公開することを可能にしていた。しかし警告表示が不十分で、多くのユーザーが自覚のないまま会話をウェブ検索上で公開してしまった。実際には数千に及ぶ個人的な相談や、虐待・依存症・職場問題といったデリケートな内容が検索可能となり、AIを機密保持できる助言者として利用することのリスクが浮き彫りになった。
運営元のOpenAIは機能を即座に削除し、検索エンジン上からこれらの会話を消去すべく対応しているが、Googleのキャッシュ(アーカイブ)等により情報が完全に消える保証はなく、批判の声も出ている。そもそも「発見可能」設定の警告文が「このチャットはウェブ検索に表示される」と明瞭でなかった、プライバシー保護仕様が不十分だったなどの指摘もある。
この事件は、AIとの対話に絶対的な秘密保持が約束されていない現実を示している。利用者は、AIチャットボットを公共空間の一部と見なし、規制されていないデジタル空間ではプライバシーが守られない可能性を前提に使うべきだ、との警鐘が鳴らされている。
—突然のプライバシー侵害で露呈した現実—
プライバシー擁護活動家であるルイザ・ジャロフスキー氏が最初にこの流出を明らかにした。彼女によると、精神的な悩みから虐待の自白まで、極めてプライベートな会話が簡単なGoogle検索で誰でも閲覧できる状態だったという。この状況は、「発見可能」という選択肢をユーザーが知らず知らずオンにし、結果的に私的なやりとりが世界へ公開されたことによる。
チャットの共有リンクを発行する際、「このチャットを発見可能にする(make this chat discoverable)」というチェックボックスが表示される仕様だったが、実質的には「友人とリンクを共有する」ために必須のように見え、ウェブ検索に表示されるリスクを意識せずに選択するユーザーが多かった。
OpenAIはリスクを認めてこの機能を削除し、漏洩チャットから個人を特定する情報は除去したものの、実際の会話内容はそのままで公開されていた。そのため、個人の弱みや悩みが生公開されるという事態が発生した。
—AIを相談相手とした被害と今後への警鐘—
多くの人がAIを心理カウンセラー的に利用し、職場やプライベートの相談まで委ねている現実がある。ある利用者は暴力的なパートナーへの対処を相談し、別の利用者は過去の過ちを告白する内容を含んでいた。これらは空想の話ではなく、実在の人間の心の叫びがウェブ上を彷徨う結果となった。
OpenAIの経営陣も「AIにおけるやりとりを保護する法的枠組みは存在しない」とし、「秘密を企業に預けることでリスクを負っている」という警告を出していた。情報セキュリティ責任者のデイン・スタッキー氏はこの機能を「短期間の実験だった」とし、過剰なリスクが発覚したため撤廃したと説明している。
だがGoogle等のキャッシュやアーカイブ、第三者スクリーンショットなどにより、情報は流出後も長く残り続ける恐れがある。
—設計と説明不足への批判、AI業界の教訓—
今回の設計ミスについては、「URLを知る人がチャットを見られます」としか書かれていなかったことも問題視されている。多くの利用者がこの意味を十分理解できず、検索エンジンで世界中から見られるとは気づかなかった。
こうした情報流出例はAI業界では初めてではなく、2023年にはAmazon Alexaが録音ミス、2024年にはOpenAI認証情報の大規模流出、同年Google Bardにも入力データ保持期間の不備が指摘されている。
利便性と引き換えにコントロールを失うという現実、規制も枠組みもない現状を踏まえ、OpenAIは今後も利用者に対し共有リンクの見直しと不要な公開済みデータの削除を推奨している。ルールなきデジタル空間では、プライバシーが保証されないことを常に意識する必要がある。





コメント