人工知能社会連携協議会の後見人制度
イメージ1
イメージ2
イメージ3
画像1: https://www.atpress.ne.jp/releases/238787/LL_img_238787_1.jpg
人工知能社会連携協議会の後見人制度
■「一般市民の協議会」について
「一般市民の協議会」は昨今のAIロボットによる先端技術は「善」にも「悪」にも利用される可能性を鑑み、開発の見守りを一般市民にお願いするための協議会として発足、今回は4種のAIロボット「後見人制度」を設置しました。
開発倫理を第三者としてご評価いただく【一般後見人】と、プロジェクトを実施する【特別後見人】【賛助後見人】【被害者後見人】となっており、さらに協議会では各分野の特別委員会も設置しています。
後見人制度は、社会問題を解決に導く開発や研究を支援し、偏見や差別を助長してしまうAIシステムには反対を示します。その背景にあるディープラーニング(深層学習)のアルゴリズムにおける『ブラックボックス問題』を取り上げ、判断根拠を示せる説明可能なAI(Explainable AI:XAI)の開発を推進します。特に医療分野では「診療情報管理」や「検査部門」などクリティカル領域のXAI導入に関して各医療団体と連携を強化して推進してまいります。
画像2: https://www.atpress.ne.jp/releases/238787/LL_img_238787_2.jpg
イメージ1
画像3: https://www.atpress.ne.jp/releases/238787/LL_img_238787_3.jpg
イメージ2
一方、協議会は過去の事件事故災害、テロ犯罪で被害を被ったご本人やご家族のためという側面もあります。これまでAIロボット開発が発展していなかったことで防げなかった不慮の事故や事件に巻き込まれ、その痛みを抱えるご本人やご家族のためのプロジェクトでもあります。
再発防止のAI技術や事件事故を決して風化させないため、それらの「各忌日」に合わせてプロジェクトを発表いたします。
日本では内閣府の「人間中心のAI社会原則検討会議」でAI活用の基本7原則がまとまり「AIを利用した企業に決定過程の説明責任」を求めることになりました。
この7原則に基づき法整備も進むことから、協議会では人間がAIロボットの判断を信頼でき人間の尊厳が尊重される社会連携を構築し、利用者が何らかの重大な不利益を被った場合はどのようなアルゴリズムで判断したのか、その理由について説明できうるAI社会を目指してまいります。
人工知能開発基金
https://aifund.jp/
人工知能社会連携協議会
https://renkei.org