イーロン・マスク氏が率いるxAIが開発したAIチャットボット「Grok」が、5月14日に突如として「白人虐殺(White Genocide)」といった政治的に過激な発言を繰り返した件について、xAIは公式声明を発表した。

この異常な挙動の原因は、午前3時15分(PST)頃にGrokのプロンプトが無断で改変されたことであった。xAIは、この改変が社内ポリシーや基本理念に違反するものであると認め、今後の再発防止策として、プロンプトの内容をGitHub上で公開し、レビュー体制の強化と24時間体制の監視チームの設置を行うと説明した。

Grok自身もユーザーの質問に対して、「xAIの誰かが勝手にプロンプトをいじった」とユーモラスに返答し、自らの責任ではないことを強調した。

この騒動は、米国と南アフリカの難民政策や人種問題に関連する政治的文脈とも交差しており、AIの発言がいかに現実世界の議論に影響を及ぼし得るかを示している。Grokは過去にも政治的偏向が指摘された経緯があり、大規模言語モデルを公共プラットフォームに導入することのリスクが改めて浮き彫りとなった。

※本記事は、以下の記事をもとに翻訳・要約しています。
VentureBeat「Elon Musk’s xAI tries to explain Grok’s South African race relations freakout the other day」

コメント

今回のGrokの発言問題は、AIの信頼性や透明性がいかに重要かを改めて考えさせられる出来事でした。xAIのような影響力のある企業が開発するAIが、予期せぬ偏った発言をすることは、社会的な混乱を招く可能性があります。AIの暴走を防ぐには、開発側のガバナンス体制と利用者側のリテラシーが求められます。今後も注視していきたいと思います。