ファクトシート
| 発表時期 | 2026-05-07 |
|---|---|
| 関連企業 | OpenAI |
| 種別 | 製品アップデート(安全機能) |
articleニュース
OpenAIが2026年5月7日、ChatGPTに「Trusted Contact(信頼できる連絡先)」機能を追加した。AIが深刻な自傷リスクを検知した際に、ユーザーが事前に指定した信頼できる人物に通知する仕組みで、18歳以上が対象。訴訟対応と安全配慮の両面から注目される。
| 発表時期 | 2026-05-07 |
|---|---|
| 関連企業 | OpenAI |
| 種別 | 製品アップデート(安全機能) |
OpenAIは2026年5月7日、ChatGPTに「Trusted Contact(信頼できる連絡先)」機能を追加した。ユーザーが友人・家族・介護者などを事前に登録しておくと、AIシステムと人間のレビュアーが深刻な自傷リスクを検知した際に、その連絡先へ通知が届く仕組み。会話の詳細は共有されず、プライバシーに配慮した設計となっている。
※本記事は公開情報をもとに編集部が再構成したサマリです。一次情報は出典欄をご参照ください。
「感情サポートとしてのAI利用」は、孤独感・悩み・メンタルヘルス問題を抱えるユーザーが、人間のカウンセラーや友人の代わりにAIに相談するという使い方。特に若年層でこの傾向が強まっているとされる。
ChagPTを含む大規模言語モデルは、感情サポートのために訓練されているわけではないが、傾聴と応答の能力から自然にこの用途に使われてきた。一部の事例では、AIとの対話が自傷行為を助長したという主張が訴訟に発展している。
「Trusted Contact」の設計は、Facebook・Instagram等のソーシャルメディアが持つ「誰かが自傷を示唆する投稿をした場合の通知機能」と概念的に近いが、チャット形式の対話AIに適用された点が新しい。
AIチャットを感情サポートに利用するユーザーが増加する中、OpenAIが法的義務ではなく先行的な安全機能として「Trusted Contact」を導入した意義は大きい。
課題の一つは「誤検知と適切な判断の難しさ」だ。自傷リスクの検知は文脈依存であり、創作・研究・医療専門家の会話など、危険に見えるが危険でない会話も多数存在する。1時間以内の人間レビューを組み込んだ設計は、純粋なAI自動判断ではなくヒューマンインザループを維持する判断として注目に値する。
会話の詳細を連絡先と共有しないという設計は、プライバシーとの兼ね合いを示す。連絡先に「何か心配な会話があった」という通知だけを送り、詳細は明かさないことで、ユーザーの信頼と透明性を保つ設計になっている。
(追記予定)
info 公開情報をもとに編集部が再構成したサマリです。一次情報・追加情報は出典欄をご参照ください。
目的に合った入口からお気軽にどうぞ。すべてカジュアル相談OKです。