articleニュース

OpenAIがChatGPTに「信頼できる連絡先」機能を追加——自傷リスク検知時に通知

が2026年5月7日、に「Trusted Contact(信頼できる連絡先)」機能を追加した。AIが深刻な自傷リスクを検知した際に、ユーザーが事前に指定した信頼できる人物に通知する仕組みで、18歳以上が対象。訴訟対応と安全配慮の両面から注目される。

format_list_bulleted発表内容

  • 2026年5月7日に全世界の18歳以上ユーザー向けに「Trusted Contact」機能をリリース
  • ユーザーが設定した信頼できる連絡先1名に、深刻な自傷リスク検知時にEメール・テキスト・アプリ通知で連絡
  • チャット内容・会話ログは連絡先には共有しない(プライバシー保護)
  • AIが自動検知後、訓練されたレビュアーが1時間以内に審査して通知可否を判断
  • が感情サポートの場として利用されるユーザーが増加する中、複数の訴訟を受けた対応策でもある

ファクトシート

発表時期 2026-05-07
関連企業
種別 製品アップデート(安全機能)

概要

は2026年5月7日、に「Trusted Contact(信頼できる連絡先)」機能を追加した。ユーザーが友人・家族・介護者などを事前に登録しておくと、AIシステムと人間のレビュアーが深刻な自傷リスクを検知した際に、その連絡先へ通知が届く仕組み。会話の詳細は共有されず、プライバシーに配慮した設計となっている。

※本記事は公開情報をもとに編集部が再構成したサマリです。一次情報は出典欄をご参照ください。

事実のポイント

  • 対象と提供地域: 全世界の18歳以上(韓国では19歳以上)が対象。ChatGPT設定画面から有効化
  • 通知トリガー: 自動システムと訓練されたレビュアーが深刻な自傷リスクを検知した場合のみ
  • 通知内容: 会話ログ・テキスト詳細は含まない。「心配な会話があった」という趣旨の簡潔な通知のみ
  • 応答目標: OpenAIはレビューを1時間以内に実施することを目標
  • 連絡先の登録: 1名のみ(18歳以上・7日以内に承認が必要)
  • 背景: ChatGPTを感情サポート目的で利用するユーザーの増加と、自傷関連の複数の訴訟への対応

用語・背景の補足

「感情サポートとしてのAI利用」は、孤独感・悩み・メンタルヘルス問題を抱えるユーザーが、人間のカウンセラーや友人の代わりにAIに相談するという使い方。特に若年層でこの傾向が強まっているとされる。

ChagPTを含むは、感情サポートのために訓練されているわけではないが、傾聴と応答の能力から自然にこの用途に使われてきた。一部の事例では、AIとの対話が自傷行為を助長したという主張が訴訟に発展している。

「Trusted Contact」の設計は、Facebook・Instagram等のソーシャルメディアが持つ「誰かが自傷を示唆する投稿をした場合の通知機能」と概念的に近いが、チャット形式の対話AIに適用された点が新しい。

解説

AIチャットを感情サポートに利用するユーザーが増加する中、OpenAIが法的義務ではなく先行的な安全機能として「Trusted Contact」を導入した意義は大きい。

課題の一つは「誤検知と適切な判断の難しさ」だ。自傷リスクの検知は文脈依存であり、創作・研究・医療専門家の会話など、危険に見えるが危険でない会話も多数存在する。1時間以内の人間レビューを組み込んだ設計は、純粋なAI自動判断ではなくヒューマンインザループを維持する判断として注目に値する。

会話の詳細を連絡先と共有しないという設計は、プライバシーとの兼ね合いを示す。連絡先に「何か心配な会話があった」という通知だけを送り、詳細は明かさないことで、ユーザーの信頼と透明性を保つ設計になっている。

注意点

  • 本機能はオプトイン(ユーザーが自ら設定する必要あり)
  • 全ての自傷リスクを検知できる保証はなく、本機能は専門的なメンタルヘルスサポートの代替ではない
  • 韓国では19歳以上と国ごとに年齢条件が異なる場合がある

編集部見解

(追記予定)

info 公開情報をもとに編集部が再構成したサマリです。一次情報・追加情報は出典欄をご参照ください。

出典

arrow_backニュース・トピックス一覧へ Autais

5つのご相談入口

目的に合った入口からお気軽にどうぞ。すべてカジュアル相談OKです。