自動車の運転もできれば、料理や洗濯、介護までしてくれる――そんな汎用型のAI、すなわち「強いAI」の可能性について前回の記事で考えた。
仮にそのような強いAIや、人間に対して重要な影響を与えるAIが登場したとき、私たちは「彼ら」をどのように制御し、リスクをコントロールすればよいだろうか。
この問いに対する絶対的な正解はないが、個々の分野やテーマにおいて、AIの手綱を握り続けるための試行錯誤が行われている。今回は、そうしたいくつかの取り組みを見ていきたい。
本記事では、AIがもたらす不利益とその対策を「自然災害」に例えて整理する。
「AI災害」を防ぐには?(筆者作成)
AIがもたらす不利益を「災害」とし、それに対抗する取り組みを(1)害が出ることを回避する「防災」、(2)害の発生を把握してそれを減らす「減災」、(3)害を出す仕組みを取り除く「復旧」――という3つの側面でまとめてみたい。
防災:害が出ることを回避する
まずは防災だ。AIが引き起こす可能性のある害に対して、その発生をあらかじめ予測し、防ぐ手段を講じたり、そうした手段が講じられるよう人々を促したりすることが考えられる。
その中で最も簡単なのは「使わないこと」。つまりAI自体や、AIを活用したアプリケーションの規制である。元も子もないと思われたかもしれないが、兵器の世界では、私たちは一度開発した技術を封印することを繰り返してきた。核兵器や化学兵器、生物兵器、あるいはクラスター爆弾や対人地雷など、さまざまな兵器に対して、多様な規制が敷かれている。
その中には封じ込めに成功しているケースもあれば、制御できているか怪しいものもあるが、いずれにしても「使わないようにする」のはシンプルで分かりやすい。