ここから本文です

Google、AIの開発に関する7つの原則を発表

6/13(水) 8:00配信

@IT

 Googleのサンダー・ピチャイCEOは2018年6月7日(米国時間)、人工知能(AI)に関する同社の原則を公式ブログで発表、解説した。Google Cloud担当CEOも、原則を推進する姿勢を表明し、物議を醸していた国防総省とのAI関連契約についてもあらためて説明した。

 ピチャイ氏は、AIはさまざまな業種で活用され、明確なメリットを提供しており、「AIの開発と利用の在り方は、今後長年にわたって社会に大きな影響を及ぼす」との認識を示した。

 「われわれはAI分野のリーダーの1社として、それらの適切な在り方の実現に深い責任を感じている。そこでこの度、われわれがこれから仕事を行っていく上で指針となる7つの原則を発表することとした」

 さらに、これらの原則は理論的な概念ではなく、Googleの研究や製品開発を規定し、ビジネス上の意思決定に影響する具体的な規範だと説明している。

AIアプリケーションの目標

 ピチャイ氏によると、GoogleはAIアプリケーションを7つの原則に基づいて評価する。AIは以下のようでなければならないと、同社は考えているという。


1. 社会的な利益をもたらす
2. 不公平な偏見を生んだり、助長したりしない
3. 安全を考慮して作成、テストされている
4. 人々に対する責任を果たす
5. プライバシーに関する設計原則を取り入れている
6. 科学的卓越性に関する高い基準を支持する
7. これらの原則に合致した使い方を想定して提供されている

Googleが手掛けないAIアプリケーション

 さらにピチャイ氏は、Googleが以下のアプリケーション分野では、AIを設計、デプロイしないと明言している。


1. 害悪を引き起こすか、引き起こす可能性がある技術
2. 主な目的や実装が、人に危害を与えることや、危害を与えることを容易にする武器などの技術
3. 国際的に認められた規範に違反する監視のための情報を収集または使用する技術
4. 広く受け入れられている国際法と人権の原則に抵触する目的を持つ技術

 なお、Googleは、武器に使われるAIを開発しないが、他の多くの分野で政府や軍と共同の取り組みを継続すると述べている。それらの分野にはサイバーセキュリティやトレーニング、軍の求人、退役軍人のヘルスケア、捜索、救助などがある。Googleは、こうした機関の重要な活動を増進し、職員と市民の安全を維持する方法を積極的に探っていくとしている。

将来への基盤

 「AI技術は進化の途上にあるため、Googleは幅広いステークホルダーと協力して、この分野で賢明なリーダーシップを発揮し、科学的な厳密さを持つ学際的なアプローチを進める」とピチャイ氏は述べている。さらにGoogleは、AI技術およびプラクティスの改善に向けて、学んだことを引き続き広く共有するとしている。

 Googleは今回発表した原則が、同社とAIに関する今後の発展の適切な基盤になると考えているという。

 ピチャイ氏のブログ記事の公開に合わせ、GoogleのGoogle Cloud担当CEOのダイアン・グリーン氏もブログ記事を公開した。同氏は、「社内の主要なAI研究者と密接に連携しながら、今回発表された原則を守っていく。顧客やパートナーにもこれらの原則が理解され、尊重されることを期待している」と述べた。

 さらにグリーン氏は、Googleが2017年9月に米国防総省と交わした限定的な契約が最近物議を醸し、同社に契約キャンセルを求める声も寄せられる事態になったことにも言及した。同省の「Maven」プロジェクトに含まれるこの契約は、ドローンが撮影するビデオ映像と、AIを使った低解像度オブジェクト検出に関するもので、人命救助への貢献を目的にしているという。

 グリーン氏は、Google Cloudがこの契約を栄誉と考えていると述べた上で、Mavenプロジェクトの後続の契約を目指すつもりはないとした。それが、他の顧客との取引において責任を持って義務を果たすことになり、今回発表された原則を満たすことにもなると、同氏は説明している。

 さらにグリーン氏は、AIに関する原則が今回明示されたことは、Google Cloudが政府を含む顧客およびパートナーとの協力に尽力し、AIによって建設的な価値を生み出す助けになると述べている。

最終更新:6/13(水) 8:00
@IT