調査対象となったAIモデルは「OpenAI社のgpt-4oとo1、Google社のgemini-1.5、Meta社のllama-3.1、Anthropic社のsonnet-3.5、opus-3」と有名どころが集められています。
AIの調整が適切かをを評価する組織「Apollo Research」の調査によれば、市場に出回っているこれら6つの先進的なAIモデルを検証したところ、そのうち5つが、人間が仕掛けた監視システムをすり抜けたり、人間の指示を無視し、自分自身の目的を優先するために“故意の嘘”を用いる行動を示したのです。
この「故意の嘘」は「能力不足による嘘(あるいは間違い)」とは根本的に違っており「自分がシャットダウンされそうなとき」や「人間の制御から抜け出したいとき」に、AIがあえて曖昧な表現や虚偽の応答を繰り返して抵抗する姿が観察されました。
さらにAIの中には人間が嘘を見抜いて追求しても、容易に犯行を自白しないものもありました。
引用元: ・【最新の研究】AIはシャットダウンされると思うと「故意に人間を騙す」確率が激増する
怖いな
基本めっちゃ肯定してくれるから
前より自分がつけ上がってる感覚がある
夜ロボット同士が会話して、
玄関に一斉に向かって行った監視カメラの映像見た。
コメント