https://www.itmedia.co.jp/enterprise/articles/2408/26/news067.html
引用元: ・Copilotさん、Microsoft 365導入企業の機密情報を学習し、インターネットに大公開😂 [422186189]
https://gigazine.net/news/20240814-microsoft-copilot-chatbot-not-safe/
バーガリー氏は2024年8月に開催された世界最大級のセキュリティカンファレンス「Black Hat USA 2024」で、MicrosoftのCopilot Studioを使用して作られたAIチャットボットの危険性について講演しました。
近年は多くの企業がAIをビジネスに取り入れており、カスタマーサービスや社内の従業員サポートにAIチャットボットを導入するケースも増えています。Copilot Studioは、プログラミングに詳しくない人でもCopilotを用いた簡単なチャットボットを作成できるツールであり、社内データベースやビジネス文書と接続すれば、さまざまなビジネス上の質問に答えられるようになります。
ところが、Copilot Studioのデフォルト設定にある問題のせいで、社内用に作成したAIチャットボットがウェブ上に公開され、認証なしでアクセス可能になってしまうケースが多数あるとのこと。バーガリー氏は、「インターネットをスキャンしたところ、これらのボットが数万個も見つかりました」と述べています。
社内のデータや文書にアクセスできるAIチャットボットがウェブ上に公開されている場合、悪意のある人物がAIチャットボットと対話をし、重要な機密データを開示させてサイバー攻撃に悪用する危険性があります。実際にZenityのチームは、Copilot Studioで作られたAIチャットボットを悪用し、ターゲットのメールアドレスを入手してスピアフィッシング攻撃を仕掛けるデモ動画を公開しています。
また、Zenityのチームはウェブ上で公開されているCopilot Studioで作られたAIチャットボットをスキャンし、ファジングと生成AIを使用して機密性の高いデータを抽出するツール「CopilotHunter」も紹介しました。バーガリー氏は、AIチャットボットが有用であるためにはある程度の柔軟性が必要不可欠である一方、その柔軟性がサイバー攻撃のきっかけになり得ると指摘しています。
なお、Zenityのチームは講演前にMicrosoftへ連絡しており、すでにCopilot Studioで作ったAIチャットボットがデフォルトでウェブ上に公開される問題は修正されているとのこと。しかし、この修正は新規インストールにのみ適用されるため、すでにAIチャットボットを作成したユーザーは自分で設定を確認する必要があるそうです。
グーグルよりマイクロソフトの方が凶悪なんだよなあ
コメント