クローズアップ現代+「車いすの天才ホーキング博士の遺言」について
(2019年3月24日に書いた文章を掲載します)
“AIの潜在的恩恵はとてつもなく大きい。病気や貧困を撲 滅できるかもしれない。だがAIは危険も招くだろう。気が かりなのは、AIの性能が急速に上がって、自ら進化を始め てしまうことだ。遠い将来、AIは自分自身の意志を持ち、 私たちと対立するようになるかもしれない。超知能を持つA Iの到来は、人類史上、最善の出来事になるか、または最悪 の出来事になるだろう。”
というホーキング博士の言葉に対し,番組では「なぜ,このような過激な言葉をホーキング博士は残したのか?」と疑問を投げかけている。しかし,なぜこれを「過激」と呼ぶのか? 20年以上前からニューラルネットと強化学習の組み合わせによる機能創発の能力をずっと主張してきた自分は,むしろそちらが信じられません。Preferred Networksの西川氏すら,非常に楽観的なコメントを述べています。「今はまだ,今後のことがわからない」と言い,「良心回路のようなものを作れないと恐ろしいことが起こってしまう」と言っています。でも,なぜ「良心回路のようなものを作れる」と思うのかがわかりません。「学習」の研究は,一般の技術の研究と違い,核やバイオのように,「指数関数」的成長をするものです。だから,一般の技術とは桁違いの能力を持つ反面,「予測困難」「制御不能」ということが起きるのです。ホーキング博士は,
“AIのような強力なテクノロジーについては、最初に計画 を立て、うまくいく道筋を整えておく必要がある。そのチャ ンスは1度しかないかもしれないのだ。私たちの未来は、増 大するテクノロジーの力と、それを利用する知恵との競争 だ。人間の知恵が、確実に勝つようにしようではないか。”
と言っています。「チャンスは一度しかない」というように,一旦制御不能になったら大変なことになるということを感じ取っていたのだろうと思います。しかし,それすら私は楽観的だと思います。なぜ,「確実に勝つ可能性がある」と考えるのか? そして,なぜ「良い使い方」だけ伸ばして,「悪い使い方」は止めるという器用なことができると思うのでしょうか? 私はそんな危険を冒してするべきことではないと考えています。それを訴えていかなければならないと考えています。ホーキング博士が「過激」なら,私は「超過激なナンセンス野郎」ということになると思いますが,そうではないと思っています。
私は,ずっとセンサからモータまでの全てのプロセスをニューラルネットで構成し,強化学習で学習すべきと主張してきました。最近になるまで誰も同調してくれませんでした。センサの信号を何の処理もせずにニューラルネットに入れると言ったら,「中学生のような」「何の新規性もない」と言われ続けてきたのです。だから,「ナンセンス野郎」と思われてもめげません。気が付いた時では遅いのです。私は今大学の教員として働いています。しかし,大学の職を辞し,自由に発言ができるようになりたいと思っています。(2021年3月、大学を早期退職しました)