10/27(月) 15:56 CNET Japan
https://news.yahoo.co.jp/articles/3c0359d54a7c675b0a61ad90d022c763a349e1ec
主要なAIチャットボットが日常的にニュース記事を歪曲し、不正確に伝えていることが欧州放送連合(EBU)と英BBCの新たな調査で判明した。その結果、報道機関に対する一般市民の信頼が大規模に損なわれ、民主主義自体の安定性さえも揺らぐ可能性があると両組織は警告している。
この調査は18カ国、14言語にわたって実施され、プロのジャーナリストが「ChatGPT」「Copilot」「Gemini」「Perplexity」から得られた数千件の回答を評価した。評価は、最近のニュース記事に関するもので、正確性、情報源の明示、事実と意見の区別といった基準に基づいている。
BBCによると、研究者らは4つのAIシステムが生成した全回答の半数近く(45%)に「少なくとも1つの重大な問題」があり、20%は「深刻な正確性の問題」を含んでいたことを発見した。これには、情報を捏造して事実として提示する「ハルシネーション」や、古い情報の提供などが含まれる。中でもGoogleの「Gemini」のパフォーマンスが最も悪く、回答の76%に重大な問題があり、特に情報源の明示に関して問題が多かった。
深刻な社会的・政治的影響
この調査は、生成AIツールが従来の検索エンジンに取って代わり、多くの人々にとってインターネットへの主要な入り口となりつつある中で発表された。これには、ニュースの検索や閲覧も含まれる。
ロイタージャーナリズム研究所の「Digital News Report 2025」によると、世界各地の調査対象者の7%がニュースの把握にAIツールを利用していると回答した。この数字は25歳未満の回答者では15%になる。なおPew Research Centerが8月に米国の成人を対象に実施した世論調査では、回答者の4分の3がAIチャットボットからニュースを得ることはないと回答している。
他の最近のデータでは、Googleの「AIによる概要」機能(Geminiを使用)から得られる情報を全面的に信頼している人は少ないものの、その多くは回答に付随するソースリンクをクリックして正確性を検証することをほとんど、あるいはまったくしていないことが示されている。
ニュースに触れるためのAIツールの利用と、ツール自体の信頼性の低さが相まって、深刻な社会的・政治的影響をもたらす可能性があると、EBUとBBCは警告している。
EBUのメディアディレクター兼副事務局長であるJean Philip De Tender氏は発表の中で、「今回の新たな調査は、こうした欠陥が個別のインシデントではないことを決定的に示している」と述べた。「それらは構造的で、国境を越え、多言語にわたるものであり、われわれはこれが一般市民の信頼を脅かすと確信している。人々が何を信頼してよいか分からなくなると、最終的には何も信頼しなくなり、それが民主主義への参加を妨げることになりかねない」
動画生成AIが火に油
「平均的な人は事実と虚構をしっかり見分けられる」という人々の認識が揺らいでいる状況は、OpenAIの「Sora」などの動画生成AIツールの台頭によってさらに深刻化している。Soraは9月に無料アプリとしてリリースされ、わずか5日間で100万回ダウンロードされた。
OpenAIの利用規約は、存命中の人物を本人の同意なく描画することを禁じているが、ユーザーはすぐにSoraで故人や、実際には起こっていない戦争の場面など、問題のある動画を生成した(Soraで生成された動画にはウォーターマークが入るが、一部のユーザーはこれを編集で除去する方法を発見している)。
動画は長い間、社会的にも法的にも、ある出来事が実際に起こったことを示す反論の余地のない決定的な証拠と見なされてきた。しかし、Soraなどのツールは、その古い仕組みを急速に時代遅れのものにしている。
(※以下略、全文は引用元サイトをご覧ください。)
引用元: ・【メディア】「AIでニュースを知る」危険性が明らかに、45%に「重大な問題」–BBCらが警告 [湛然★]
お前AI信用してんの?