数週間前、アップルがユーザーに知らせないまま写真をスキャンしてランドマークを照合していたことが発覚した。
ユーザーには事前に説明がなく、セキュリティ専門家の間で騒動になった経緯がある。
現在、同様の事態がグーグルでも起きている。問題は技術そのものではなく、説明を欠く秘密主義にある。
https://news.yahoo.co.jp/articles/e630e1ba9b53290c87f9bf933af6ca43f3951314
引用元: ・グーグル、Android端末内の写真を「予告なし」の更新でスキャン [178716317]
アップルの「拡張ビジュアル検索(Enhanced Visual Search)」は、写真の一部をクラウドに送信し、世界中の観光名所などのインデックスと照合する仕組みだ。プライバシー保護を重視しているとされるが、
暗号の専門家であるマシュー・グリーンは「大晦日の2日前にサービスの存在を知り、すでに自分のスマートフォンで有効になっていたとわかったときはとても苛立ちを感じました」と述べている。
グーグルが直面しているのは、Androdiのシステムアップデート「SafetyCore」をめぐる問題だ。
端末内で画像をスキャンできるようにするもので、実際にはいろいろな用途に使えるが、現在は閲覧注意コンテンツをぼかしたりフラグを立てたりする機能に焦点が当てられている。
しかも処理が端末上で完結するとされており、アップルの拡張ビジュアル検索よりもさらにプライバシー保護に優れているという説明がなされている。
しかし、そうした技術がユーザーに告知もなく端末にインストールされ有効化されると、後になってから「問題ない」と説明されても、初めからオープンに導入されていた場合と比べて疑いの目で見られやすい。
これはアップルのときと同じ問題だ。
今回のSafetyCore騒動の発端は、Xでの「グーグルがユーザーの許可なく、このアプリを複数のAndroid端末にひそかにインストールした。
写真ギャラリーをスキャンし、2GBものストレージを占有するようだ」という警告投稿だ。
自分は過去にSafetyCoreを取り上げ、そのときはGoogle Messagesを保護するのに使うのであれば歓迎すべき機能だと述べた。
サーバー側ではなく端末側でセキュリティスキャンを行う形になるからだ。だが、透明性が欠けているという問題は依然として残る。
Androidのセキュリティ開発者であるGrapheneOSは「SafetyCoreはグーグルやほかの第三者に報告するためのクライアントサイド・スキャニングを提供するわけではない。
アプリがスパムや詐欺、マルウェアなどを端末内で分類できるようにする機械学習モデルを備えている。
これにより、コンテンツを外部サービスに送信しないままローカルでチェックし、ユーザーに警告を表示することができる」とし、ある程度の安心材料を示している。
秘密主義だとの指摘に対するグーグルの回答
ただしGrapheneOSは「これがオープンソースとして公開されず、Android Open Source Projectの一部でもないのは残念だ。
モデル自体も公開されておらず、もちろんオープンソースでもない。ローカルでニューラルネットワークを活用できる機能自体には問題がないが、それらはオープンソースであるべきだ」と指摘している。
ここでもやはり透明性の問題に行き着くわけだ。
グーグルによれば「SafetyCoreは、端末上で安全かつプライベートに分類を行うための基盤を提供し、ユーザーが望まないコンテンツを検出できるようにするものだ。
ユーザーはSafetyCoreを制御でき、アプリがオプションで有効化した機能を介してリクエストした場合にのみ、特定のコンテンツを分類する」とのことだ。
そしてユーザーがその存在を知っていれば、確かにそれは事実なのかもしれない。
ZDNetによると、問題は「グーグルがこのサービスをユーザーの端末にインストールしたことを伝えなかった」点にある。
10月以降にソフトウェアのアップデートを受け取った、あるいは新しいAndroid端末を使っている人は、ほぼ確実にSafetyCoreが入っているそうだ。
アップルの場合と同じく「Android 9以降の端末にユーザーの明示的同意なしに静かにインストールされること」がプライバシーと端末コントロールの観点から懸念を呼んでいる。
グーグルは、SafetyCoreそのものが写真スキャンの仕組みを導入する一方で、実際のスキャン処理は別機能として行われると強調している。
たとえば今年実装が始まる閲覧注意コンテンツの警告などは、端末内だけで完結するという。
秘密主義だとの指摘に対して、グーグルは筆者に対して次のように述べている。
「グーグルのシステムサービスは、セキュリティやバグ修正、新機能などを自動的にデバイスへ更新します。
一部の更新は別のAndroidパッケージとしてシステムサービスを通じて配信しており、これは最小権限の原則に従ってプライバシー、セキュリティ、データ分離を維持するためです。
私たちは製品の透明性向上に継続的に取り組んでおり、これらのグーグル・システムAPKにバイナリ透明性を追加しました」
SafetyCoreは昨年11月にも取り上げられていたが、大きく報道されることはなかった。
グーグルは当時、開発機能の概要を示すとともに、アップルの端末内コンテンツ安全機能に似たセンシティブコンテンツの警告をGoogleメッセージに導入予定であると別途宣伝していた。
グーグルを信頼できないと考えるのであれば、機能を削除できる
しかし、今回改めて問題になっているのは、ユーザーが「端末内で何をされているのか」を把握できていないという不安感だ。特にグーグルに対しては、
端末上の処理とクラウド上の処理の境界があいまいという印象が付きまとっており、過去の追跡やデータ収集にまつわる報道などで失われた信頼は容易には回復しない。
グーグルはユーザーに選択肢があり、SafetyCoreを無効化またはアンインストールできること、今後の端末内スキャン機能もユーザーが有効化しない限り動作しないことを強調している。
しかしながら、プライバシー保護と新たな機能の利点をユーザーに広く理解してもらうための広報が不十分なのか、センシティブなユーザーは報道を見て機能を切ってしまう可能性もある。
実際、今週あるテック系フォーラムでは「グーグルが『Android System SafetyCore』というアプリをすべてのAndroid端末にひそかに仕込んだ。
『セキュリティ』と称しているが、バックグラウンドで動作しながら通話履歴や連絡先、位置情報、マイクへのアクセスなどを取得し、実質的にスパイウェアではないか。
削除可能ならアンインストールを強く勧める」という投稿があった。削除方法として「設定> アプリ>すべてのアプリ>右上の検索からSafetyCoreを検索してアンインストール」といった手順が示されている。
ZDNetは「SafetyCoreが外部と通信しないとしても、別のグーグルサービスが呼び出されて、撮影・送信した『閲覧注意』写真をサーバー側に伝える可能性はゼロではないと疑うユーザーはいる」と指摘する。
グーグルを信頼できないと感じるなら「設定>アプリ」の中から「SafetyCore」を検索してアンインストールまたは無効化することが可能だ。
アップルとグーグルの両社がこの数週間で学んだ教訓は、スマートフォンをAI駆動の高機能な機械にしたいのであれば、事前に「何をやろうとしているのか」を明かし、
ユーザーにイエスかノーかを選ばせる必要があるという点だ。そうしないと、未知の技術への不安や恐怖をかき立てることになる。
コメント