ここから本文です

人工知能の思考過程を可視化する、「AI監視ツール」を生み出すスタートアップ企業たち

2019/12/12(木) 8:13配信

WIRED.jp

人工知能(AI)を専門とするスタートアップのClarifaiで働いていたリズ・オサリヴァンは2019年1月、上司に宛てた嘆願書を書いていた。その目的とは、同社が米国防総省と結んだ契約に、倫理上の制約を設けることを要求すること。当時『WIRED』US版は、ドローンが撮影した画像を機械学習で解析するという物議を醸す国防総省のプロジェクトに、Clarifaiが携わっていることをすでに報じていた。

AIが企業のリスク要因に?

そこでオサリヴァンは、攻撃や殺傷の対象を自律的に判断する兵器の開発に同社が貢献することはないと約束するよう、最高経営責任者(CEO)のマシュー・ズィーラーに強く要求したのだ。

ところがオサリヴァンによると、ズィーラーはその数日後の社内会議で嘆願をはねつけ、自律型兵器の開発に貢献することに問題があるとは考えていないとスタッフに告げたのだという。この件についてClarifaiにコメントを求めたが、回答は得られなかった。

オサリヴァンは自らの態度を明確にする決断をした。「辞職したんです。その週末はずっと泣いて過ごしました」と、彼女は言う。それでも週が明けた月曜には、事前の計画通りテクノロジーにおける公平性と透明性に関する学会へと旅立った。

そこで出会ったのが、米金融大手のキャピタル・ワンでAIプロジェクトを率いた経験をもつ、アダム・ウェンチェルだった。やがてふたりは、企業に対して導入後のAI制御をサポートするというビジネスにチャンスがあるかどうか、話し合いを始めた。

AIの思考過程をさかのぼることができるのか

オサリヴァンとウェンチェルは現在、スタートアップであるArthurAIの共同創業者に名を連ねている。

ArthurAIは、機械学習システムのパフォーマンスを監視するエンジニアへの支援ツールを提供している。このツールを使用すると、金融向けシステムがバイアスのかかった貸付や投資の判断をしているなどの問題を検知しやすくなる。ArthurAIは、AI時代におけるデジタルの安全性向上のためのツール開発によって利益を目指す、数ある企業の1社なのだ。

研究者やテック企業は、AIが間違いを犯すことに警戒を強めている。黒人の顔を対象とすると精度が低くなる顔認識アルゴリズムもそのひとつだ。マイクロソフトとグーグルは現在、自社のAIシステムによって倫理的あるいは法的な問題が生じる可能性を投資家に注意喚起している。

金融、ヘルスケア、政府といったあらゆる分野にAI技術が普及しつつあるなか、新たなセーフガードも同様に広めていく必要があるとオサリヴァンは言う。現在、ArthurAIの商業オペレーション部門のヴァイスプレジデントを務める彼女は、「AIシステムがいかに強力なものなのか、そしてその利点を活かすには責任ある方法が必要だという認識が広がりつつあります」と語っている。

ArthurAIや同様のスタートアップ企業は、最近のAIブームの原動力となっている機械学習の問題点に挑んでいる。機械学習モデルは人間が書く通常のコードとは異なり、融資判断を行うなどの特定の問題に対して、過去のデータからパターンを抽出することで自ら適応している。その適応や学習の過程で行われる多くの変更を、人間はそう簡単に理解することはできない。

「機械自身にコードを書かせているようなものなので、人間が論証するように設計されているわけではないのです」と、スタートアップのWeights & Biasesの創業者でCEOを務めるルーカス・ビーワルドは言う。同社は機械学習ソフトウェアのデバッグ作業を行うエンジニアをサポートするためのツールを提供している。

1/4ページ

最終更新:2019/12/12(木) 8:13
WIRED.jp

こんな記事も読まれています

あなたにおすすめの記事