●『サイコパス』の致命的に弱いところは、シビュラシステムを否定するロジックが弱いというところにある。確かに、システムは完璧ではなく穴があり、多くの間違いを犯すとしても、人間たちの合議で決定されるものごとよりは、ずっと少なくしか間違えない。そうであるにもかかわらず、(より多くの間違いを犯す)人間たちの合議によって社会が運営されなければならないとしたら、それはなぜなのか。シビュラシステムは人を殺すが、しかし、人間たちよりはずっと少なくしか殺さない。この部分は、ほとんど追求されることがなく、雰囲気として、気分として、システムが否定的な感情のなかで描かれる。
シビュラは独裁者であり、強権をもつ管理者であるが、民主主義より少なくしか間違わないし、少なくしか殺さない、のだとしたら、これを否定するのは簡単なことではない。
思考実験として否定の根拠を一つ挙げるとすれば、責任という概念が考えられる。人が殺されるためには、その行為に対して人が責任をとらなければならない、と。「責任を負い得ること」にこそ人の尊厳があるとすれば、より多くの人が殺され、より多くの混乱と苦痛と不正が社会にはびこっているとしても、人の合議(人々の責任)によって社会は運営され、人が殺されなければならないということになる。責任という尊厳と引き替えに、われわれは多くの苦痛と、多くの人が殺し殺される社会を生きることを選ぶべき、というロジックはあり得る。尊厳をとるのか、実利をとるのか。
だが、もし、責任を放棄することで、社会が少なからず良くなるとすれば、それでも、責任や尊厳を捨ててはいけないという理由は、どこかにあるのか。
自動車の自動運転が可能になれば、おそらく交通事故は激減する。しかしゼロにはならないだろう。この時、自動化した(責任の主体としての運転手のいなくなった)車が起こした事故の責任を誰がとるのかが問題となる。所有者か自動車会社かプログラマーか。この時、「責任」なんてどうでもいいから、とにかく社会全体として事故が激減するという実利を優先させるべきだ、と言い切れないのはなぜなのか。
アメリカ軍は、テロリスト掃討のために無人ドローンによる空爆を行っている。その操作は人がしている。しかし、安全地帯からゲームのように人を殺すことのストレスは、実際に戦場で殺す以上に大きいらしく、多くの操作者が神経をやられてしまうという。そのため、人工知能が自動的にテロリストを識別して攻撃する装置が検討されているという。それが実現すれば人は、人を殺すというストレスから解放される。
勿論、軍の指揮官がいるし、大統領も政治家もいるのだから、人が責任をとることがなくなるわけではない。AI の判断の責任は偉い人がとる。だが、下っ端が、人を殺す(手を下し、手を汚す)ストレスだけを負わされることはなくなる。これは現状に比べれば幾分かマシなことのようにも思えるのだが、なぜ、そのことに抵抗を感じるのか。
人を殺すことの責任をとることができるのは「人」だけだ、とする。ここで責任とは、ある自由と能動性に見合った枷というよりは、魂の問題に繋がっているように思われる。魂がなにかしらの痛みを負うことなく、人が殺されることは許されないと言うような。魂のみが、法(正義)を正当化する最終的な審級となり得る(し、なり損ない得る)、と。それは、人の死を「人の死」として受け止められるのは人=魂だけだ、ということなのか。人は、人によって「人の死」と認められるような死に方をしなければならない、と。
だけど、現在の世界、あるいは社会を、人がコントロールしているという実感(幻想)はどの程度成り立つのだろうか。民主主義的な意味での人々であろうと、一部の特権的な権力者としての人であろうと、世界は人の主体的な判断によってコントロールされていると感じられるのか。世界について多く深く知れば知るほど、世界は天気のようにコントロール不能だと思い知らされるのではないか。
人=魂の自由と能動性への信仰(幻想)が消えれば、尊厳としての魂の「責任」は受動的(受苦的)なものとなる。世界がこのようなものであることを自身の無力を噛み締めながら「受け止める」責任が魂にはある、と。魂は、宇宙における能動的主体性ではなく、宇宙の自己言及的自己意識にすぎない、と。魂は、この宇宙がどのような発展をするのかを見届け、受け止めるためにだけ存在する、と。魂は、宇宙がこのようなものでしかないという事実にただ「耐える」という責任のために存在する、と。その時、魂=尊厳とは罰ゲームのようなものになってしまうのだが。