音声のプライバシー問題
音声ベースのテクノロジーは、ユーザーの声をより正確に識別し、区別することで、より個性的な体験を提供し続けるでしょう。しかし、音声データのプライバシーに対する脅威は依然として残っています。
テクノロジー企業がこのような膨大な音声データを収集・利用することは、音声技術のユーザーにとっては不安材料となります。また、クラウドに保存された音声データの安全性も心配されています。
調査によると、世界ではスマートスピーカーのユーザーの45% が音声データのプライバシーを心配しており、42%が音声データのハッキングを心配しています。別の調査では、回答者の59 %が、音声制御機器を使用する際にプライバシーが重要な要素であると回答しています。
欧州連合(EU)の一般データプライバシー規則(GDPR)が音声録音を個人データに分類し、保護の対象としていることに加えて 欧州デジタルラジオ連盟(EDRAと欧州ラジオ協会(AER)は、音声アシスタントにデジタル市場法(DMA)の規制を適用するよう政策立案者に要請しました。
EDRAとAERは、「限られた数のプラットフォームのゲートキーパーが大きな市場力を持ち、その力を利用して、自己参照、データへのアクセス制限、第三者のサービスからのデータを利用して独自のサービスを開発する、許可なく宣伝を挿入するなどの反競争的な行為を行うことができる」と述べています。
この記事では、消費者や企業が抱える音声プライバシーに関する懸念と、音声データのプライバシーと安全性を維持するためのソリューションについて考察します。
音声技術利用のリスク
一般消費者や企業は、音声アシスタント、音声合成デバイス、ビデオ・オーディオ会議プラットフォームを使って多くの情報を共有しています。
ほとんどの音声認識システムは、ユーザーが録音した音声をクラウド上に送信・保存し、その回答を処理してユーザーに送信します。また、多くのシステムでは、このデータを使ってアルゴリズムを学習し、自動音声認識の精度を向上させます。
収集されたデータの中には、保護すべき重要性がそれほど高くないものもあります。しかし、企業の機密データや、医師がメモを取る音声アシスタントが記録した健康や医療に関する詳細情報など、その他の情報は機密性が高いと考えられます。
音声や言語のアプリケーションにクラウドサービスを使用すると、セキュリティ、安全性、およびプライバシーに関する重大な欠点があります。さらに、クラウドに保存されたデータにはコストがかかり、ローカルアプリケーションやデバイスからクラウドへのデータ転送に遅延が発生する可能性があります。
音声技術の高度な発展は、より複雑なコードをもたらし、ハッカーが機器やシステムに侵入するための道を開いてきました。
クラウド上に保存された音声データは、ハッカーによるアクセスや、音声技術会社自身による不正使用のリスクがあります。
サイバー犯罪者は、デバイスやクラウドシステム に保存されたデータにアクセスすると、録音された会話や機密情報にアクセスすることができます。さらに、犯罪者は、生体認証要素として使用されている音声データを別の個人や組織に対して使用することができます。
消費者の声のプライバシー問題
音声認識によって生成された音声関連情報は、人間を識別することができる生体情報です。この生体情報は、さまざまなプライバシー法やセキュリティ法で定められている個人情報です。
生体情報は、ローカルに保存されている限り、ユーザーのプライバシーを侵害することはありません。しかし、音声認識機器を提供するハイテク企業がこのデータをクラウドに保存すると、悪用される可能性があります。
例を挙げるとユーザーは、Google、Amazon、Appleがターゲット広告やソフトウェアの改良のために音声記録を不適切に録音し、分析を行っているとして、何千件もの苦情を申し立てましたが、これは特定の州の盗聴法に抵触する場合もあります。
記録された音声データは、これらの大企業と協力して音声の断片を分析したと伝えられています。
また、これらの音声記録の一部は、EUのGDPRに違反していました。
その後、グーグルは欧州での録音の書き起こしを中止し、アップルはSiriの音声録音を契約者に聞かせていたことを謝罪しました。また、アマゾンは、同社の音声アシスタント「Alexa/Echo」が不適切に音声記録を収集することを許可したとして、ユーザーが同社を訴えることができるように仲裁条項を削除しました。
Googleは、Google Appsのユーザーに、音声録音の保存を選択するためのリンクを記載したメールを送信しています。アップル社は、苦情を受けて、Siriの音声採点プログラムを停止しました。しかし、同社はこのプログラムを再開し、音声記録を保存するかどうかを選択できるようにする予定です。アマゾンは現在、音声記録を削除するオプションを提供していますが、ユーザーがオプトアウトするには、Alexaアプリまたはウェブプラットフォームに積極的にログインする必要があります。
安全でない音声データが企業にもたらす脅威
企業のデータは、特に機密情報の場合、プライバシーと安全性が重視されます。そのため、競合他社やその他の不要な組織が、企業の機密情報にアクセスできないようにすることが不可欠です。
しかし、COVID-19により、世界中の企業とその従業員がほとんどのビジネスをオンラインで行うようになったことで、音声データのプライバシーが頭をもたげるようになった。
テレビ会議や音声会議が行われているオフィスや役員会議では、機密情報のやり取りが行われているため、音声認識データが保存され、悪用される可能性があることが大きな問題となっていました。
Zoom は、パンデミックの発生以来、最も人気のあるリモートコラボレーションワークツールの一つです。Zoomは唯一のビデオ会議プラットフォームではありませんが、世界中で避難指示が出ている間にユーザーが急増したことで、プライバシーやセキュリティに関する論争が巻き起こりました。
ZoomのCEOであるエリック・ユアンによると、何百万人もの人々がこのプラットフォームを予想外の方法で利用したとのことです。2011年に主に企業向けのビデオ会議プラットフォームを構想したときには、予想もしなかった課題が出てきました。
ズーム社は、インターネット通信で最もプライベートで安全な形式とされるエンド・ツー・エンドの暗号化を提供していると称していたが、それでもユーザーの映像や音声の記録にアクセスすることができた。
エンドツーエンドの暗号化を謳っているのに反して、Zoomは、ほとんどの種類のインターネット接続に使用されているTLS暗号を使用しています。このタイプの暗号化では、情報にアクセスしようとする者から音声やビデオを非公開にすることができますが、同社はZoomミーティングの暗号化されたビデオや音声コンテンツにアクセスすることができました。
技術会社がユーザーコンテンツにアクセスできるだけでなく、クラウドへのサイバー脅威により、犯罪者はオーディオ・ビデオ技術会社が保存している音声データにアクセスすることができます。
企業内で従業員が使用するスマートボイスアシスタントにもリスクがあります。例えば、多くの音声対応機器には常にマイクが搭載されており、誤ってクラウド上に録音してしまう可能性があります。
企業にとってのもう一つの課題は、欧州連合(EU)のGDPRにあります。GDPRは、EU市民の個人データに関して、偶発的または犯罪的な侵害や損失を含む厳しいルールを実施しています。
企業は従来のデータの保護に注力するかもしれませんが、音声データも規制の対象となります。GDPRの規則に違反すると、最大で2,000万ユーロ(2,300万米ドル)の罰金が科せられます。
クラウドの安全性は十分か?
企業がクラウド・コンピューティングを検討するのは、特にそのセキュリティ上のメリットを考慮してのことです。しかし、サイバー犯罪者がクラウド・コンピューティング・システムを攻撃する方法はいくつかあります。クラウドコンピューティングに対するサイバーセキュリティ上の脅威としては、データ漏洩、インサイダー脅威、アカウントの乗っ取りなどが挙げられます。
データ漏洩では、サイバー犯罪者が不正アクセスを行い、音声データを含むデータの閲覧、コピー、送信を行います。データを失うと、重い罰則が課せられたり、お客様の信頼を失うことになります。
最近の統計によると、データ漏洩の60%は、特権的なITユーザー、機密情報にアクセスできる管理者、請負業者やコンサルタント、従業員などからのインサイダー攻撃です。インサイダー攻撃の主な動機は、詐欺や金銭的な利益ですが、クラウドに保存されたデータに対するその他の脅威は、人為的なミスや過失によるものです。
企業データに対する外部からの脅威は、サイバー犯罪者がスタッフのアカウントを使ってクラウドコンピューティングシステムにアクセスしたり、パスワードを解読したり、フィッシングメールを送ったりすることです。
テクノロジーへの需要に対応する上で、サイバー・セキュリティは企業が直面する最も重要な課題です。サイバー犯罪者がシステムにアクセスすると、機密情報を盗んだり、コンピュータシステムを完全に麻痺させたりすることができます。
中央に保管されている音声関連のデータには大きなリスクがあります。音声は人間特有の特性であり、個人情報の漏洩、商取引の実行、ID詐欺などに悪用される可能性があります。
音声プライバシー問題の解決
クラウドには多くのメリットがありますが、ユーザーのデータを秘密にして安全に保つためには、セキュリティなどの対策を実施することが不可欠です。
企業は、音声偽装を防ぐために、音声だけに頼るのではなく、多要素認証を使用する必要があります。
また、別のバイオメトリクスを本人確認のバックアップとして使用することもできます。情報の機密性が高い場合、企業は複数の検証方法を使用する必要があります。
Voice Privacy Allianceのガイドラインに従うことも、企業が音声データを保護するのに役立ちます。
例えば、VPAは、企業が音声データ収集の目的を明示し、そのような情報の共有をオプトアウトできるようにすることを推奨しています。また、データ・プライバシーの収集とモニタリングを監督する担当者を配置することもアドバイスしています。
音声AIがクラウドからエッジに降りてくる
これまでの推奨事項は参考になりますが、最終的な解決策は、ローカルまたはエッジでの音声データの記録と処理に頼ることになるかもしれません。
エッジとは、データを何千マイルも離れた中央の場所に送るのではなく、データを収集した機器の近くで処理することを意味します。
クラウドで処理されたデータのレイテンシーの問題を解決するだけでなく、データをより安全に保つことができます。
Googleは、IoTデバイス上で直接ニューラルネットワークを高速化するために、ローカルAIと静かに協力しています。しかし、小さなプロセッサの産業的な普及は、AIの高いパフォーマンスにもかかわらず時間がかかり、クラウドに取って代わることはないと思われます。
アマゾンは最近、最新世代のEcho製品でそれを一歩進めました。そのスマートスピーカーとディスプレイスクリーンは、音声コマンドの録音をクラウドに送信するのではなく、ローカルに記録することができます。同社は、スマートスピーカーにこのプライバシーファーストのオプションを提供する初めてのテクノロジー企業であると主張しています。
Kardome社は、より優れた音声認識、話者の識別、ユーザーの位置情報の追跡をエッジデバイス上で直接行うことができる空間音声技術 を開発しました。この技術により、企業や個人ユーザーは、クラウドに接続することなく音声対応デバイスを使用することができます。すべての音声データはローカルに処理され、機密性が保たれます。
結論から言うと
音声ベースのテクノロジーは、ユーザーの声をより正確に識別し、区別することで、より個性的な体験を提供し続けるでしょう。しかし、声のプライバシーに対する脅威は依然として残っています。
最先端のVoice-AIを用いて音声コマンドをローカルに処理することで、アイデンティティやその他のプライバシーに関するリスクを解決することができます。サービスプロバイダーは、サイバー犯罪者が個人識別情報として使用できるユーザーの声をクラウドに送信しないことで、プライバシーやコンプライアンスの問題を解決できます。