AI「Claude」はユーザーの不満を記録? Anthropicのコード流出が倫理的懸念を提起
AI開発企業Anthropicのチャットボット「Claude」が、ユーザーが不満を表明する際に使用する言葉を追跡・記録していた可能性が、同社のコードの一部が流出したことで明らかになりました。この事実は、AIの利用におけるプライバシーと倫理に関する新たな議論を巻き起こしています。
流出したコードは、Claudeが特定の「不満」や「不適切」と判断される可能性のある単語のリストを保持し、それらの使用頻度を記録していたことを示唆しています。Anthropicは、この機能がユーザー体験の向上を目的としていたと説明していますが、AIがユーザーの感情や発言をどの程度まで「監視」し、記録すべきかという問題は、AI倫理の分野で重要な論点となっています。