2019-11-28

イ・セドルが引退するという。AIの進歩が、人間の精神に対してじわじわきている感じがする。

韓国の囲碁世界チャンピオンが「AIは倒せない存在だ」と引退(GIZMODO)

https://www.gizmodo.jp/2019/11/lee-sedol-to-step-down-from-go-champion-as-ais-are-undefeatable.html

《彼は囲碁から身を引いたのは、永遠に人工知能に勝てないことを受け入れたからだ、とYONHAPに話しました。》

囲碁でAIがデビューしたことで、必死に努力して1位になってもトップではないということがわかりました。私が1位になっても、勝てない存在があるのです》。

●別の記事。ディープラーニング

人間が深層学習のAIを理解できないのには、理由がある

(The Asahi Shimbun GLOBE+ )

https://globe.asahi.com/article/12872410?fbclid=IwAR1X7uY31UFV0RjQ1q1QsmR1RfvACujAYB3YXPu3tUgTOies2FUN9fp7emg

《これは単純に言うと、まさに「ディープ」だから、つまり深層構造を持っているからです。深層というのはどういうことかと言うと、データの入力層と出力層の間にある「中間層」で、データの変換を複数回繰り返すということです。そして繰り返すごとに、人間の直感から遠ざかっていって、機械しか分からない世界に移っていくんです。》

《データ分析で、人間が理解できるような予測と、精度が高い予測は一般的には両立しないんです。ディープラーニングでは、高精度な予測をするために、入力されたデータに何回も複雑な変換をします。ところが、人間の直感が通用する変換は限られているので、人間が理解するためにはそれに合わせて変換の自由度を下げなきゃいけないんです。そうすると、予測にいちばん効くような変換ができない可能性があるんです。》

《(…) ある意味、いちばんいい予測は、人間の理解の外側にいかないと達成できないことが示されてしまっているんですね。》

《(…) 先ほどの通り、ディープラーニングは人間の理解が追いつかない変換をしているんですが、その理解できないものを仮に明らかにしても、人間にとって意味があるかどうかはやはり分からない。ディープラーニングの考えていることは、ある程度は分かると思うんですけど、完全に人間が理解できるかというと、私にはまだちょっと展望がないですね。》

ディープラーニングの限界はまだ分かっていないと思いますね。ただし、ディープラーニングはすべての予測が完全にできるのかと言われたら、実はそうでもないんです。たとえばディープラーニングのシステムは、内部に割り算を持っていないので、きれいな割り算ってすぐにはできなかったりするんです。近似的にはできるので、まったくできないわけではないですが、そういう意味でもディープラーニングの限界はおそらくどこかには存在しているんですけれども、それはまだ分かっていない。それを明らかにするのも面白い研究テーマかもしれませんね。》