TECHNOLOGY

テクノロジー

第三次AIブームである今、考えるべき人工知能が抱える多様な問題

近年のAIの特徴は「ディープ・ラーニング深層学習)」に重きを置いている点だ。AI自身が「思考」ができるようになり、自律的に学習して「成長」することが可能となった。
よりヒトに近い存在となった今、AIの倫理的・法的問題や「制御不能の本質」とどのように向き合うべきなのか考えておく必要性がある。


AIをとりまく倫理的・法的問題

AIは、行動的観念から「ビッグデータを取得・解析」し、そこから「パターンを認識」し、「自律的に判断」するという3つのステップを踏むという。
そして、このステップに関する諸問題を以下3つの領域にカテゴライズできる。

【1】 データの取得と利用に関わる問題(プライバシー等の問題)
ビッグデータを取得・解析する際に「個人の情報」の取得と利用によって、プライバシーや人格権や私的な権利・利益を侵害する可能性がある。
どのような範囲のデータの取得を許容するか、どのように取得するのか、どこまでその情報を利用可能かという点で、企業と市民(消費者や被用者等)との間に深刻な利害対立が生じてしまう。

【2】 判断過程の不透明性に関わる問題
最新のAIは開発者でさえAIがどのように情報を認識し、判断をしているのか分からないという。そのため、事故等が発生した場合、判断過程が明らかになるのは常にAIの判断と行動の後ということになる。また、AIが人間の手を離れて自律的に判断する以上、その予見可能性は極端に低下するとされており、AIが起こした事故等に対して個人や企業に責任を負わせても具体的な予防策をとることができない場合がある。

【3】 人から機械への制御権の移譲に関わる問題
緊急状況下における判断能力が低く、実定法の解釈に従った行動指針や行動規範をプログラミングするだけではその場に応じた倫理的判断はできない。
また、AIによる芸術作品と著作権法についても考えておかなくてはならない。AIが制作した作品について著作権が認められるのかという、「機械創作」「ロボット創作」「コンピュータ創作物」などと呼ばれる問題である。


人工知能をめぐる倫理的ジレンマ

車椅子の物理学者として知られ、2018年3月14日に逝去したスティーブン・ホーキング博士は、「完全な人工知能の完成は人類の終焉を意味する」と言い、IT業界の大御所ビル・ゲイツ氏も「我々はもっとAIの脅威を案ずるべきだ」と発言している。これは人工知能の分野でも倫理観が問われるようになってきていることを示唆すると同時に、人工知能をめぐって全く異なる次元のジレンマが2つ存在するということがわかる。

そのひとつは、より便利な社会を実現するため人工知能を進歩させようとする科学者や技術者の立場と、人工知能のもたらす未来を恐れる市民の立場の衝突だ。市民は進歩したAIに職を奪われるのではないか、専門的な高い技術と知識がなければ時代に取り残されるのではないか、という不安を持つはずだ。

もうひとつは、人工知能が一定水準まで進歩した暁には人間と同等の権利を与えるべきだというウルトラリベラリズム・超平等主義の立場と、人工知能と区別し人間の為の人権という「ヒューマニズム」の立場の衝突である。

この2つのジレンマに関しては、既に欧州のアカデミック哲学において科学哲学や応用倫理学の文脈で実際に議論されている。この先もこういったAIに関する様々な倫理的・法的問題は生まれ続けるだろう。


人工知能の行為について誰が責任を負うのか

機械学習と自律的判断を特徴とする人工知能の発展は「第三次AIブーム」ともてはやされる一方で、前述の「判断過程の不透明性に関わる問題」でもふれたように、人工知能の自律的判断により発生しうる社会問題や法的問題についても議論されるようになってきている。

【1】不法行為責任の問題点
不法行為責任とは「過失(予見可能性を前提とした客観的な注意義務違反)によって」第三者に損害を与えた場合に発生する法的責任のことである。
AIの起こしうる過失を製造者や開発者がすべて予見することは不可能であり、人工知能が過失の範囲を判断することもとても困難である。

【2】製造物責任の問題点
製造物責任とは「引き渡したものの欠陥により他人の生命、身体又は財産を侵害したとき」に生じる法的責任のことであり、過失そのものは製造者の責任ではない。つまり、AIが過失を起こした場合でも製造者の責任を問うことはできない。

他にも、AIやロボット(自動運転車を含む)が人間に危害を及ぼした場合誰が民事責任や刑事責任を問われるか、正当防衛や緊急避難は適用されるかなど、問題は山積だ。


これから人工知能について考えておくべきこと

欧州連合の欧州議会法務委員会は、倫理や安全性、セキュリティをめぐる問題を解決するために、ロボットの使用に関する新しいルールを定める必要性があると発言している。具体的には、緊急停止ができるよう「キル」スイッチを取り付けることや、損害責任を明確にするため「電子的人間」といった法的地位を与える可能性も検討するべきだという。また、欧州連合は新しいルールについて率先して取り組まなければ、他者に決められてしまうおそれがあると同委員会は報告書で警告した。現に、国際連合は戦場でAIを「キラーロボット」という形で利用可能にすべきかどうか議論している。

科学の進歩が人間のためであるからといって、AIの倫理的・法的問題の解決なしに進めて良い事柄なのだろうか。人工知能が自立的に思考するということはただの「道具」ではなくなるということであり、新たに法や倫理的問題についてどう対応するかを定め、ロボット工学のさらなる活用が社会に及ぼす影響にも目を向ける必要がある。日本も新たなAI導入を前提とした雇用モデルや、ロボット工学に対する現行の税制および社会制度の有効性について考えておくべきではないだろうか。AIとの共存はSFの世界としての夢物語ではなく目の前の現実として迫っている。


<参考・参照元>
人間はこの先AI(人工知能)とどのようにつきあっていくべきだろうか? | THINK FUTURE
人工知能と法律 ~人工知能の行為と責任~ | kasiko[カシコ]
EU、ロボットに関する法整備を提言--「キルスイッチ」義務化や法的地位の検討を求める|CNET Japan

あわせて読みたい記事!