●いい加減で下らない思いつき。
自動車の無人自動運転の技術の普及における大きな問題の一つに、もし事故を起こしてしまった時に「誰」が責任を負うのかという問題があると聞いた。例えば自家用車の場合、事故の責任は所有者にあるのか、自動車メーカーにあるのか、それとも自動運転プログラムの作成者にあるのか。
(実際には、その事故の原因によって責任の所在は明らかになるだろう。メンテナンス不足による事故なら所有者、車の構造的欠陥による事故ならメーカー、プログラムの欠陥であればプログラム作成者、と。)
ここで問題となるのは、AIは「責任の主体」として認められていないということだ。充分に賢くなったAIには責任能力があるのではないかとも思うのだが、人は何故か、責任を「人」に負ってもらいたいと感じる。あるいは、責任を負い得るのは人だけだ、と思っている。
(AIに責任能力を認めるのならば、人権も認めなければならないだろう。)
例えば、将来、バスの運転が自動化されれば、運転手は職を失う。しかし、運転手は、運転はもうしないけど、ただ「責任の主体」としてのみ雇用されるということはあり得ないのだろうか。運転手Aは、運転もしないし出社すらしない。ただ、バスaが事故を起こした時の責任の主体としてのみ雇用される。バスのメンテナンスや事故処理をするのでもない(それらも機械がやった方が効率的だし精度も高いだろう)。
(もし、現在既に、自動運転が可能なのにバス会社が運転手を雇っているのだと仮定すると、会社は、運転手の技能に対して給与を支払っているというより、運転手が「責任の主体」となり得ることに対して、給与を支払っていることになるのではないか……。)
この責任は、Aの能動性や自由意思とは関係ないものなので、責任をとって懲罰を受けたり解雇されたりするのでもない。ただ、「Aの責任だ」ということになるだけ。
(「責任」という概念を「能動性」や「自由意思」と切り離せるのか、という問題はある。こうなると責任は、ほとんど宗教的な概念になる…、のか。)
もっと言えば、社会のあらゆる仕事が機械化されれば、人はただ、何かしらのアクシデントが起きたときの「責任の主体」としてのみ、社会参加する、その「責任」に対して給与が支払われる、ということにはならないだろうか。
つまり、生産活動における有意なことはほとんど機械がやるので、人間はただ「責任の主体」であり得るということのみによって、その社会的「有意性」を辛うじて保つことが出来る、と。