ここから本文です

今後のAIは「公平性」「透明性」を確保していくことが課題に~マイクロソフト

Impress Watch 3/21(火) 12:05配信

 日本マイクロソフト株式会社は16日、「信頼できるAI(Trusted AI)の現状、課題と今後の展望」と題したプレスラウンドテーブルを開催。コンプライアンスの観点から、AIの公平性(Fairness)、説明責任(Accountability)、透明性(Transparency)、倫理(Ethics)について、米Microsoft 規制関連分野担当 バイスプレジデントのDavid A. Heiner氏が説明した。

 Heiner氏はプライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野を担当するバイスプレシデント。グローバルなデジタル革命を支える多くの規制上の最前線に立っており、マイクロソフトの人工知能のポリシーフレームワークを開発する取り組みを推進している。

 現在、デバイスに搭載されているCortanaをはじめとするAIのエージェントは、現在のデバイスに搭載されているAIはまだ基本的な機能しか提供していないが、今後のAIの展望についてHeiner氏は次のように述べている。

 「今後、よりリッチなインタラクションが可能なエージェントが登場し、現在は人でしかできないこともできるようになる。AIは。さまざまなコンピュータの処理能力、あるいは分析能力によって、毎秒何百万ものインタラクションを処理することができる。さらに人間の知能と組み合わせることによって、どれだけのメリットが享受できるようになるか思いを馳せてみてほしい」(Heiner氏)。

■機械はデータという体験から学ぶ

 では、実際に機械はどのように学習するのだろうか。その基本的なテクニックをHeiner氏は次のように解説した。

 「人と同じように、機械も体験から学ぶ。機械にとって体験はデータという形をとっており、これらのデータはトレーニングデータと呼ばれる。機械に多くのトレーニングデータを与えると、機械はパターンを検知していくようになる。このパターンを基に、機械は推論して予測を立てていく。そして、その予測が正しかったか、間違っていたかをさらに学習していくことになる」(Heiner氏)。

 また、「とても小さなパターンでも、実存していれば機械は検知することができるため、人間に検知できなくても機械なら検知できるパターンもある。もちろん検知したパターンが常に正しいとは限らないが、仮に誤っていても機械は人と同じように誤りから学習し、改善していく。また、正しいパターンであれば、将来にわたって活用することができる」と、機械ならではの特徴を説明する。

 続いて、教育、ヘルスケア、交通、農業などさまざまな分野でAIを活用していく動きが活発化している。どのような分野であっても、人間の知能によってメリットを得られる場合には、AIからもメリットを得ることができると語るHeiner氏は、ヘルスケアにおけるAIの活用事例を紹介した。

 「ガン、心疾患に次いで死亡原因の3位に挙げられるのは医療ミスだ。医薬品、インタラクション、さまざまなな症状など患者のデータを機械に与えることで、機械はパターンを検知し、医療ミスが起こりうる可能性がある場合にアラートを出し、医療ミスによる死亡件数を減らすことができるようになる。また、機械をX線写真を読めるように学習させることで、その患者のガンが発見できるようになる。現在、AIはリンパ線のガンをエラー率7.5%で検知できる。習熟した病理学者であれば、エラー率は3.5%で検知が可能になる。ただし、病理学者がAIの支援を受けて作業した場合にエラー率は0.5%となり、病理学者のみで作業する場合と比較して80%改善することができる」(Heiner氏)。

■AIは人間の能力を置き換えるのではなく拡張していく

 MicrosoftのAIにおけるビジョンについて、Heiner氏は次のように述べた。

 「MicrosoftのAIに対するビジョンは、ヘルスケアの事例からもわかるように、AIが人間の能力を置き換えるのではなく、拡張していくようにすること。CEOのサティア・ナデラも、AIのシステムを構築する際には、優れた機械の演算機能と人間もつ能力である共感力、公平性、判断力などを組み合わせたものにしたいと言っている。MicrosoftはAIをツールとして捉えており、すべての人がAIを利用できるようしたいと考えている」。

 また、Cortanaなどのエージェントを提供していることに触れ、「Microsoftは『Cortana』のようなエージョントを提供している。エージェントは秘書のような存在で、例えばメールやカレンダーの情報から、今日やらなければならないことを教えてくれる。交通データから交通渋滞を予想し、早めに移動開始することを通知することも可能になる。さらに今後開発が進んでいけば、エージェントはほかのエージェントとの対話もできるようになっていく。例えばハワイに旅行したいと思った場合、ホテルのエージェントと対話し、禁煙ルームやキングサイズのベッドなどユーザーの好みにあった部屋を自動で予約してくれるようになるだろう」と予測した。

 その上で、「我々はプラットフォームを提供する企業であり、そのプラットフォーム上で多くの開発者がアプリケーションを開発している。この開発者のコミュニティ全体に対し、我々はAIのAPIを提供しようとしている。例えば、昨年はAIの認知の部分に大きな突破口となる技術を開発した。それは『speech to text』と呼ばれ、人間が話した言葉を機械がテキストにする技術で、通常の人間が聞き取るのと同レベルの誤差6%を実現している。このテキスト化した情報は、分析して意味を理解することができる。この仕組みを開発者コミュニティに提供していく予定である。さらに、Microsoftはパワフルなスーパーコンピュータ上にもAIを構築し、クラウドからさまざまなアナリティクスを実現できるようなインフラの提供も予定されている。われわれはAI分野は非常に有望と考えており、とてもわくわくしている」(Heiner氏)と話している。

参考リンク 歴史的成果:マイクロソフトの研究者が対話型音声認識において人間と同等の成績を達成(マイクロソフト公式ブログ)
https://blogs.technet.microsoft.com/microsoft_japan_corporate_blog/2016/10/24/161018-microsoft-researchers-reach-human-parity/

■AIは信頼できるものでなければならない

 しかし一方で、今後AIの発展に伴って問題になっていくであろう懸念事項について、Heiner氏は次のように述べた。

 「人に関する予測や判断を行うAIを設計・展開する場合には、そのAIが信頼できるものでなければならない。そのAIが何をしているのか、どのような判断をしているのかを、人が知らなければならない。信頼性がなければ、AIの有望性は期待することはできない。しかし、AIがどのような判断をしているのかといった手法を説明するのは難しく、透明性をどのように担保できるかは私たちも努力しているところだ」。

 また、「今後はAIの公平性は大きな課題になっていく。以前米国で『黒人の3人のティーンエイジャーの女の子の写真』で検索した際、その検索結果に警察が撮影した容疑者の写真が多く返ってきたのに対し、『白人の3人のティーンエイジャーの女の子の写真』で検索した結果はバスケットを楽しむ写真などが多く返ってきた。これは非常に不公平な結果と言えるが、意図して差別的なアルゴリズムになっているわけではない。AIは与えられた情報によってパターンを学習するが、与えられた情報が偏っていた場合には、その結果も偏ったものとなってしまう。AIは社会を反映したものとなる。つまり、人種差別があれば情報は差別的なものとなり、AIが返す結果も不公平なものとなってしまうのだ。これは、社会全体で考えていかなければならない大きな問題だ」(Heiner氏)という点を指摘した。

 AIが公平性を失わないために必要なことについてHeiner氏は、AIの開発段階で検討できることがあるという。

 「機械にトレーニングデータを与える際には、多様な人がかかわっていることが重要。シリコンバレーには若い白人男性が多くいるが、AI開発の際には多様性を持たせるようにする必要がある。AIに何らかの偏見や差別が含まれてしまった場合に、それを検知する仕組みも必要になる。そして、AIにはガイドラインが必要だ。現在、GoogleやIBMなど多くの企業も参加するAIコミュニティにおいて、ガイドラインを策定している」(Heiner氏)。

 最後にHeiner氏は、AIが人の仕事を奪ってしまうのではないかという懸念について、次のように答えている。

 「AIが仕事を奪うことは確かにある。その一方で新たな仕事を創出することもある。かつて、自動車が登場したことで馬車の関係者は仕事を失ったが、その一方で車を生産する工場に多くの雇用を創出した。同じことがAIについても言える。AIは人間を置き換えるのではなく、人間の能力を拡張して向上させることにある。単純な仕事はAIに任せ、人間しか持っていない共感力や判断力などでインテリジェントな仕事をしていくべきだろう」(Heiner氏)。

クラウド Watch,北原 静香

最終更新:3/21(火) 12:05

Impress Watch