ここから本文です

マイクロソフトはAIの倫理についてどう考えているのか? ティム・オブライエン氏に聞く

8/7(水) 14:12配信

ハフポスト日本版

AIなど最先端のテクノロジーの活用が様々な場所で急速に普及している。一方で、そのあまりの影響力の大きさに、大手IT企業の間には自主規制の動きが広がっている。軍事や市民の監視などのために使われることになれば、大きな倫理的な課題が生まれるからだ。

AIの倫理について積極的に指針を公表し、政府の規制も必要だと訴える企業の一つがマイクロソフトだ。7月22日には、AIの倫理的な利用について検討するOpen AIに10億ドル(約1087億円)を出資すると発表した。

同社はAI倫理についてどう考えているのか、米国本社訪問の機会にAIプログラム担当ゼネラルマネージャー、ティム・オブライエン氏に話を聞いた。

同社は2018年1月に、The Future Computedと名付けられたAIと倫理についての基本方針を発表している。「マーケットでパワーを持っている企業として、社会的責任を果たすため」だという。

この指針は、社内のデザインや開発などあらゆる部署でフレームワークとして使用されているものだという。その中の5つの指針に対応する形で、オブライエン氏はそれぞれに興味深い事例を挙げて解説していった。

1:フェアネス(公平性)

Amazonは2015年、ネット通販で会員向けの配送料無料セールを実施する際に、27の主要都市をそのセールの対象にしたが、一部の地域は除外していた。ブルームバーグの調査報道で、それが黒人の多く住む地域であることが明らかになった。同社は、プライム会員数を増やすことを目的に、顧客データを元にしたAIを使用して除外地域を決めていた。

人種差別の意図はなかったが、黒人を排除することにつながってしまった。また、黒人の多く住む地域には元々商店へのアクセスが悪いという問題があり、それが人種間での不平等を強化する結果になってしまい、Amazonはミスを認めることになった。

Amazonはすでに米国中の住民にとって大切な生活インフラと化していることから、大きな問題として取り上げられたという。

「すべてのAIには、その背後に利用しているデータがあります。ウェブサイトや端末、聞いている音楽、会話。マシンラーニングはそうしたデータを利用していますが、そのデザインが適切でなければ、意図せず不平等な結果を招くことになります」(オブライエン氏)

1/4ページ

最終更新:8/7(水) 14:12
ハフポスト日本版

こんな記事も読まれています

あなたにおすすめの記事