第0回その3
いまさら聞けない人工知能・その3
「AIの7原則って?」
知ってる?
“AIの7原則”
「AIの判断基準」ってむずかしい
さて、「いまさら聞けない人工知能・その2」では[ディープラーニング]についてふれましたね。 現在のAIは[ディープラーニング(特徴表現学習)]により、大量に学習したデータから精度の高い結論を導き出せるようになりました。ただその反面、結論を導くまでの処理が複雑なため、その過程や根拠を解明することが難しくなっています。今後AIが導入された場合、根拠が不明瞭なまま、金融では融資が拒否されたり、就職で不採用になったりするケースも起こるかもしれません。
AIの加速度的な進化にともない、そんな「AIの判断基準をどう明確にしていくか」について注目が集まっています。
“AIの7原則”ってなんなの?
2018年12月、日本政府の「人間中心のAI社会原則検討会議」から、“AIに関する7つの原則”が発表されました。先ほどの「AIの判断基準をどう明確にしていくか」についての、基本的な方針ですね。
それによると、日本政府がつくるAIの7原則とは、
- [1]AIは基本的人権を侵さず、人間中心に開発する
- [2]誰もがAIを利用できるよう教育を充実させる
- [3]個人情報を慎重に管理する
- [4]セキュリティーを確保する
- [5]公正な競争環境を維持する
- [6]AIの動作について企業は適切に説明する
- [7]産官学が連携しイノベーションを生む
――のこと。これは、AIを用いるときの安全性を高め、適切で偏りのない情報を身につけながら、AIにおける判断の過程を言語化していこうとする「環境の整備」の観点にくわえ、[1]のような「基本的人権を侵さない」、つまり「人が作った人工知能は、そもそも人を助けるための存在である」観点についても、あらためてふれられている、ともいえるかもしれません。
「AIの7原則」はAIが導き出した判断の過程や根拠をより明確化するために、発表されたんですね。
AIと基本的人権
人工知能は人を助ける?
「基本的人権」とは「人間が人間らしく生きていくために必要な、基本的な自由と権利の総称」のこと。ではそれをふまえ、「人が作った人工知能は、そもそも人を助けるための存在である」のか、ということについて、もう少し考えてみましょう。
たとえば「無人の自動運転車が事故を起こしたら、責任はどう取るの?」といった問題や、「SNSでAIが人を傷つける発言をしてしまったらどうするの?」というお話。本来人がいるはずだったところにいなくなったことを想定した、AIのルールづくりや法整備はまだ完全ではなく、今も議論が重ねられている段階です。
また、基本的人権には個人のプライバシーの観点もありますね。たとえば、防犯・監視などセキュリティーにおいてAIを導入した場面だと、どうでしょうか。
人がつくったAIと、ともに暮らす
顔認証機能が搭載されているAIカメラを用いれば、ディープラーニングにより監視ネットワークが強化されていきます。過去の犯罪履歴のデータベースと合わせれば、事前の犯罪防止にもつながるかもしれません。しかし、便利になる一方で、その気になればいくらでも個人の行動履歴をたどることができるようになり、ブライバシーとの兼ね合いの問題が生まれるでしょう。どこまで個人を特定することを認めていくのか、人間の知恵をつかって、慎重に進めていく必要がありますね。
また、そのうえで何よりも重要なのは、あらためて「AIは人間がつくったものであること」を再認識することかもしれません。そもそも人を助けるための存在であること。人間がつくったAIとそれを利用する人間とがともに暮らしていければ…。私たち三菱電機も、そう願っています。
人の役に立つAIであるために。それにはもっと議論が必要ですが、“AIの7原則”はそのさきがけでもありますね。