最近はあらゆるメディアで「人工知能が人類を滅ぼすかもしれない」という人工知能の進化を危惧する理論と「それは荒唐無稽な考えだ」という否定する理論がせめぎあっています。
最近では、専門家が「超知性が人類を滅ぼすと考えるのは欧米の文化的背景にある」と説明していて、なるほど、確かにそれは言えていると思ったものですが、そこで奇妙な違和感を覚えました。
確かに人工知能の脅威論は欧米の専門家を中心に広がっていますが、人工知能の急速な進化は欧米が中心になっている研究機関で起きており、日本はそれに遅れている状態です。そんな中で、日本の専門家が楽観視する理由が「聖書の黙示録的な考え方が欧米にあるから」では困ります。
納得のいくの行くアプローチをしているのですが、なんだか「無理に安全だと思わされている」気がしてならないのです。なんとなく、「原発は絶対安全」というような過去の専門家たちを彷彿とさせます。本当に大丈夫なのでしょうか?
人工知能による破滅論者の鍵になっているのは、人工知能が人間を超えて加速度的に進化する「シンギュラリティの存在」です。要するに、人工知能が進化しすぎた結果、人間が滅ぼされてしまうという考えになります。
一方、楽観論者の主張は「シンギュラリティの否定」にあります。中には「シンギュラリティが起きても絶対にコントロール出来る」と考える人もいるようですが、主流派はシンギュラリティは起こらないから安全だという風に説明しています。
気をつけたいのは、破滅論者の中には「絶対に滅びるから進化させていけない」という派閥と「滅ぼすだけの力を持つ可能性があるから対抗する術を模索しなければいけない」という派閥が存在することです。もちろんそれだけではないのですが、我々が今取るべき策について提案しているのはこの派閥ぐらいでしょう。
その一方で、楽観論者は「心配ないから大丈夫」と対策については触れていません。もちろん、「雇用を奪う」とか、「社会構造が変わる」ぐらいの問題については指摘していますが、「人類が滅びるのは荒唐無稽」と一蹴です。
実は、これに似たような出来事が核エネルギーの発見時にも起こっています。
核エネルギーが広まった時、「地球に太陽を作ったら滅びる」とか、「核戦争が起きて人類は滅亡する」という話は当然ながら存在しました。しかし、核エネルギーを広めようとする派閥は「あり得ない」と一蹴します。
しかし、実際に核兵器が無数に作られてしまったことで、その脅威論が真実になるかも知れないと皆が恐怖することになりました。結果として、冷戦が始まり、核軍縮を経てなんとか何も起こらずに済んでいます。
現代の世界で、核兵器で人類が滅びることはないと断言する人は少数派です。
確かに、核戦争が起こっても一部の人間が生き残り、何百年後かに再興するから心配はいらないのかもしれません。しかし、滅びる手前まで行く可能性は十分にあります。
では、本当に「人工知能は人類を滅ぼさない」のでしょうか?
こんな論調で書いていると私が破滅すると思っているようにも聞こえますが、実際にはそうは思っていません。私の考えは「人工知能は人類を滅ぼせるほどに進化するものの、ギリギリのラインで人類と均衡を保って生き残る」という言ってみれば、「今の核兵器の状態」と同じような予測です。
もちろん、「人類VS人工知能」なんて構図ではなく、「良い人工知能+人間 VS 悪い人工知能」という構図です。要するに、人工知能同士が均衡を作り、そこに人間が加わってなんとか人間の安定を保てるという形になります。
では、何故「人工知能が人類を滅ぼさない」と考えるのが、「原発安全神話」のように聞こえると警鐘を鳴らしているかというと、「安全だと思いながら使っていると、安全だと思わずに使っている時より被害が大きくなるから」です。
それが日本で実際に起こりました。最初から危険だと思って使っていれば、被害の規模は変わっていたはずです。
しかし、人類はどう転んでも人工知能を進化させます。
そんな中で、人工知能が安全だと思いながら使っていくのは、人工知能が危険だと思いながら使っていくよりも危険です。
シンギュラリティが起こる可能性が今はそれほど高くなかったとしても、「飛躍的進歩」によって今の人間が予測していなかった状況になる可能性はあります。
終末論というのは「転ばぬ先の杖」を使い始めるための第一歩です。
ある意味で、先人の知恵でもあります。宗教論だと一蹴せずに、注意深く人類と人工知能の未来を考えてみるべきなのではないでしょうか?