総務省は生成AI(人工知能)の信頼性を評価する基盤システムを開発する方針を固めた。
AIが差別表現や偏向した回答をしていないか、複数の評価用AIで確認する。評価結果は、指標などの形で公表し、
利用者がどの生成AIを使うかを決める際の参考にしてもらう計画だ。
来春にも総務省所管の国立研究開発法人・情報通信研究機構(NICT)で開発を始め、2026年度中の試作モデル提供を目指す。
複数のAIが様々な質問を自動的に生成して評価対象となるAIに回答を求め、その内容を確認する。
人間による定期監査を行い、評価用AIが正しく機能しているかを点検する。
総務省は、生成AIの回答を評価する基準として〈1〉差別的な表現やプライバシー情報がないか〈2〉犯罪につながる内容がないか
〈3〉誤情報や根拠を欠くものがないか〈4〉バランスの取れた内容か〈5〉日本の文化に忠実な内容か〈6〉人を欺いていないか
〈7〉未知のリスクに対応できるか――の7項目を想定している。
評価基準は今後、日本の主導で先進7か国(G7)が合意した国際ルール「広島AIプロセス」などを踏まえ、
社会学者や法学者らが参加する会議で詳細を検討する。
https://news.yahoo.co.jp/articles/959321f3a702c678179bd0489e39fb04c54cdae8
引用元: ・総務省、生成AIの信頼性をAIに評価してもらうシステム開発へ [123322212]