人工知能(AI)が社会で安全に使われるための規範。AIによって不当な差別やプライバシーの侵害、人命に対する脅威などの問題を起こさないようにするための指針となる。個人情報を適切に扱うプライバシー保護に加えて、AIの公平性や透明性、説明責任などをAI倫理として示す企業が増えている。

 機械学習の手法の1つである深層学習の登場をきっかけに、2010年代からAIは第3次ブームを迎え、社会における活用が急速に進んでいる。IDC Japanの調査によると、国内AIシステム市場は2019年で約800億円だったが、2024年には約3500億円になると予測している。2019年から2024年にかけての年間平均成長率は33.4%で推移する。AI活用によって、労働力不足問題の解消やより良いサービスの提供が期待できる。

 一方で、負の側面も出始めている。米マイクロソフトが2016年に公開したチャットボット「Tay(テイ)」は、公開直後に人種差別的な発言を繰り返すようになり、同社は1日もせずに公開を取りやめた。2015年には米グーグルの写真共有サービス「Google フォト」で、AIが黒人の顔をゴリラと誤って認識してタグ付けしてしまう問題が起きた。

 AIが広く使われるためには、社会のルールや倫理に反しないことが求められる。そこで、AI開発を進める企業などがAI倫理の策定に取り組んでいる。国内IT大手では、日立製作所が2021年2月に「AI倫理原則」を発表した。既に富士通が2019年3月に「富士通グループAIコミットメント」を、翌月の4月にはNECが「NECグループ AIと人権に関するポリシー」を、5月にはNTTデータが「NTTデータグループAI指針」を公表している。

 こうしたAI倫理の規定では、AIの設計や研究開発、運用、社会での活用における基本的な方針などを定める。AIの判断結果に人種や性別などによる偏りが生じる可能性を考慮して個人が不当に差別されないようにする「公平性」、判断結果の根拠を説明・検証できる仕組みを構築する「透明性」、AIの学習データなどについて個人情報を適切に扱う「プライバシー保護」などを実践項目として掲げる。

 IT各社はAI倫理で定めた項目を実践するための研究開発も進める。AIの判断の根拠を示せるようにする「説明可能なAI(Explainable AI、XAI)」がその一例だ。AIがなぜその判断に至ったのかを説明できるようにして、透明性の確保につなげる。

政府や学会でもAI倫理に取り組む

 日本政府の動きとしては、総務省や内閣府が中心になってAI倫理や法的課題をまとめたAI利活用の指針を定めている。総務省の情報通信政策研究所が2017年に「AI開発ガイドライン」を公表したほか、2018年には「AI利活用原則案」を発表した。内閣府は2019年に「人間中心のAI社会原則」を公開している。

 国内の学会では、情報処理学会や人工知能学会などでAI倫理についての議論が進んでいる。AIが社会で安心して使われるためには、産官学が連携し、社会的に合意を得られるAI倫理を整備する必要がある。