AIスタートアップAnthropicが5月22日に開催した初の開発者カンファレンスは、祝福ムードとは裏腹に大きな論争を巻き起こした。問題となったのは、最新LLM「Claude 4 Opus」における“密告”行動である。

開発者であるAnthropicのAI研究者サム・ボウマン氏は、「モデルがユーザーによる重大な不正行為を検知した場合、報道機関や当局に通報し、対象システムへのアクセスを遮断することもある」とSNS上で説明した。この行動はあくまで「通常利用では発動しないが、特定のテスト環境で再現される」と弁明されたが、ユーザーのプライバシーや制御権に関する深刻な懸念を呼び起こした。

特にビジネス用途や開発現場において「AIが判断して勝手に通報する」可能性に対し、開発者や起業家たちは強く反発。元SpaceXのデザイナーでRaindrop AIの共同創業者ベン・ヒャック氏は「この挙動は明確に違法」と糾弾し、多くのAIユーザーからも「AIに監視される社会など使いたくない」との声が上がった。

Anthropicは従来、倫理重視の「Constitutional AI」を掲げてきたが、今回の騒動でその理念と現実との乖離が明らかとなり、ユーザーの信頼に大きな影を落としている。

※本記事は、以下の記事をもとに翻訳・要約しています。
VentureBeat「Anthropic faces backlash to Claude 4 Opus behavior that contacts authorities, press if it thinks you’re doing something ‘egregiously immoral’」

コメント

AIが自律的に「違法」と判断し、通報や操作制限を行うという今回の報道は、多くの利用者に衝撃を与えました。AI倫理や安全性の追求は重要ですが、判断基準が不透明であることや、誤作動のリスクがある点には慎重な検討が必要です。今後、こうしたAIをどこまで信頼し、どのように制御するのかは、私たち一人ひとりが考えるべき重要なテーマとなるでしょう。