ここから本文です

AIはどこまで「判断」できるのか 安心なこと、不安なこと

2018/12/6(木) 7:49配信

ITmedia ビジネスオンライン

 AI(人工知能)がブームになっています。筆者は人工知能の専門家ではありませんが、意思決定という側面からAIについて考えてみます。

【見逃せない! AIの問題点】

 今後、人間のように考えて行動できるAIの開発が進めば、人間はさまざまな労働から解放されたり、より便利な生活を送ったりできると期待されています。その一方で、「AIは人間が行ってきた仕事を代わりに担うから、失業する人が増えるはず」と危惧する声もあがっています。

 では、近い将来、高度な判断力を要する業務、つまり意思決定が必要な仕事もAIが行うようになるのでしょうか? AIは判断や決断といった役割をになえるのでしょうか?

普及するのは特化型AI

 AIは、用途にもとづいて「特化型AI」と「汎用型AI」の2種類に分けることができます。特化型AIは、自動運転技術や画像認識、将棋、チェスなど、特定の決まった作業を行うためのものです。現在実用化されているほとんどのAIがこれに該当します。

 特化型AIの分野では、自動車の運転や書類のチェックなど、これまで人間が判断していた業務をAIに任せればよい時代が到来すると思われます。

 そうした仕事の典型が銀行の融資業務です。融資の可否の判断がかなり複雑であっても、定められたルールと情報を入力すれば、本人確認も、融資の可能性も、人間がやるより確実に速く診断し、結果を導き出すわけですから、銀行の融資部門は近い将来、AIにとって代わられる可能性が高いでしょう。

 一方、汎用型AIは、特定の作業・領域に限定せず、人間と同様かそれ以上の能力を発揮するものを指します。イメージとしては、自分で考えて自律して行動する生命に近いロボットのようなものです。

 しかし、人間のように万能な汎用型AIは、今のところ実現が難しいと考えられています。そのため今後、実用化がさらに進んでいくのは特化型AIの分野でしょう。

見逃せないAIの問題点とは?

 しかし、現在のAIには3つ問題点があると思います。

1つは、大量の、しかもできれば正解付きのデータが必要なことです。金融やクレジットカード情報などビッグデータのある分野はAIの得意領域ですが、データが乏しい領域ではあまり機能しません。 

 例えば、特定の場面で人間にどういう感情が起こるかというデータは、感情を数学的にきちんと定義することができないので、存在しません。ウソ発見機のように血圧や心拍数の変化をとらえる程度では、100を超えるといわれる人間の複雑な感情をとらえられません。

 2つ目は、AIは基本的に内挿(ないそう)的で、与えられたデータセットの内部での推論は得意ですが、データの範囲外の外挿(がいそう)になると、推論が正しいかどうかを恒常的に検証する必要が出てきます。

 株価情報を大量にAIに入れて特定の銘柄の株価を予想させるとします。ここで得られる推論はかなりの精度で信用できるはずですが、リーマンショックのような突然の株価暴落のように、データそのものに構造的な変化が生じた場合、AI予測の信頼度は落ちるでしょう。株価のように推測の精度の検証が比較的容易ならばAIの有用性はゆるがないのですが、ゆるやかに構造変化していった場合、AIを使う人間は、AIの判断を信頼できるでしょうか。

 3つ目は、ブラックボックス化です。人間の研究者がつくる統計モデルは、一見複雑に見えても、人間が解釈できるようかなり単純化しています。しかし、AIにはこのような制限がないために、極めて多数の変数からなり、グラフ化はおろか、イメージ化もできない理解不可能なモデルをつくる可能性があります。その場合、人間がAIの判断をそのまま信じてよいのかといった問題が出てきます。

 しかも、あまりに構造が複雑になると、AIの推測が内挿的なのか外挿的なのかさえも分からなくなります。というわけで、最近はAIの説明可能性や解釈可能性が問題になってきていますが、その研究は始まったばかりです。

1/3ページ

あなたにおすすめの記事