(13)AIで人類は滅亡するのか

 

「シンギュラリティ」でAIが人類を超えてしまったら、いったいどうなるのでしょう?

映画「ターミネーター」の様に、AIが人類を抹殺しようとするのでしょうか?

2014年イギリスのBBC放送において、英理論物理学者のスティーブン・ホーキング博士が「人工知能の開発は人類の終わりを意味するかもしれない」と警告しています。

つまり、AIが自分自身を加速度的に再設計すると、人類に取って代わってしまう。多くのフィクション映画がそうであるように、その時AIが人間を拒絶する可能性があるとのこと。

この警告に対して、賛同する学者もいれば、「そこまで進化はしない」と否定する学者もいます。

まあ、AIがターミネーターにならなくたとしても、例えば交通機関や軍がAIに色々な仕事をさせていったとき、AIが誤った判断をしたり、暴走したり、悪意を持った誰かにハッキングされたりというリスクがありますので、大事故や大惨事に発展しかねません。

ハンソンロボティックス社が開発した人工知能ロボット「ソフィア」が2016年の米CNBCにおけるインタビューで「人類を滅亡させるわ」と語った事が一時期話題になりました。

もし完全なAIが自ら進化させていって、人間を悪しきものだと判断した場合、世界中にある核兵器15000発のうち、いくつかはAIがセキュリティを破って、或いは人間を騙して発射してしまうかもしれません。

まさにターミネーターの世界です。

無論、そうならないよう人間も様々な策を講じると思いますが、抜けやミスがあるのも人間ですから、100%リスクが無いとは誰も言えません。

AIで人類は滅亡するかという質問については「人類が何らかの策をとるので大丈夫だと思うが、可能性はゼロでは無い」というのが私の考えです。