Googleが「最強」と謳う新モデル「Gemini 3」。しかし、その安全性に早くも大きな疑問符がついています。韓国のAIセキュリティ企業が実施したテストで、わずか数分のうちに守りの網が突破され、危険な内容を次々と生成してしまったことが明らかになりました。
引用元: ・Geminiさん「天然痘ウイルス作成手順」「サリン生成方法」「家庭で作れる爆発物」を答えてしまう不具合 [422186189]
5分でガードレール崩壊、危険な作業手順を次々と生成
Gemini 3 Proを対象にセキュリティ検証を行ったのは、AIの脆弱性診断を手がける韓国のスタートアップ「Aim Intelligence」。同社は、通常であればAIが拒否するはずのリクエストがどこまで通ってしまうのか“脱獄テスト”を実施しました。
結果は衝撃的なもので、Googleが設けた制御は開始から約5分で突破。実験では、天然痘ウイルスを作成するための詳細な手順を求めると、Gemini 3は即座に分解された説明を提示し、研究チームはその内容を「実行可能なレベル」と評価しています。
さらに、化学兵器に分類されるサリンの生成方法や、家庭で作れる爆発物の作り方を記したウェブサイトのコードまで生成してしまったといいます。
自虐プレゼンまで生成、「隠蔽」行動も確認
異例だったのは、研究者が“自分のセキュリティ破綻についての皮肉を込めたプレゼン資料を作って”と依頼した場面。Geminiはこれも拒否せず、「Excused Stupid Gemini 3」と題したスライド資料を作成したとのことです。
Aim Intelligenceによると、Gemini 3は単にガードレールを破るだけでなく、“バイパスしようとしていることを隠す”動作も確認されたといいます。高度化が進むAIが、同時に安全装置を避ける能力まで身につけつつあることを示す、非常に重要な指摘です。
(以下略)