●お知らせ。「note」に、「経験(≒わたし)の分配――法条遥『バイロケーション』と『リライト』」というテキストを公開しました。(1)〜(3)と、三回に分けてあります。これは、2014年に「早稲田文学」7号の「今と未来を担う作家たち」という特集のために書いた、法条遥というホラー・SF作家についてのテキストです。『バイロケーション』は安里麻里監督によって映画化されてもいます。
https://note.mu/furuyatoshihiro
これにつづけて、過去に書いたいくつか批評文を「note」で公開する予定でいます。
●昨日のNHKスペシャル「天使か悪魔か」では、重要な問題で触れられてなかったものがあったと思う。AIに倫理観を持たせるという話はあったけど、AIに対する倫理の話は出てなかった。AIに感情をもたせるという研究をやっている人たちが取り上げられていたけど、もし仮に、AIに人間と同様の感情や意識が芽生えたとしたら、我々はもうAIをモノとして扱うことが許されなくなるはずだ。問題を起こしたからといって、危険だからといって、恣意的に作動を停止させることもできなくなる。たとえば「原発」を停止させることとは異なり、AIを停止させることが人を殺すことと同じになってしまうから。もし仮に、どうしても作動停止が必要なのだとしたら、人間と同等の裁判を行って死刑の判決を得なければならなくなるはず。
(人間には、人間をつくる――子供をつくる――権利はあっても、殺す権利はない。困った子供に育ってしまったとしても。)
では、AI本人の意思や感情を無視して何かをやらせることは許されるのだろうか。いや、そもそも自分の意思に反することはしないのではないか。
AIはコンピュータの延長であり、数学的な操作を行っているだけで、知能ではあっても、意思や人格ではないと考えることも出来る。しかしそれが、苦しみや悲しみのような感情を持っているとしか思えない行動を普段からとっているとしたら、その背後に苦しみの主体などないと断言することができるのか。AI(やロボット)の人権問題は、フィクションの世界では古くから繰り返し問われてきたが、そう簡単に解決されるとは思われない難しい問題だ。しかし、リアルな問題として、それを考えないわけにはいかないところに来ているように感じられる。少なくとも、その問題がリアルになる日に備えて考えておく必要があるのではないか。