よくわかる人工知能の基礎知識:「AIのリスク」を理解してる? 世界でいま何が起こっているのか (1/5) - ITmedia NEWS

★★★:バランスよく議論できる
★★☆:意見を吟味する
★☆☆:客観的情報
☆☆☆:議論用ではない
☆☆☆:議論用ではない
ある特定のオピニオンが述べられる
ある特定のオピニオンが述べられる
いつ登録したか
Jul 4, 2019 02:31 AM
オピニオンが含まれない
オピニオンが含まれない
カテゴリー
両論が併記される
両論が併記される
事実ベース
事実ベース
立体的(多角的)
立体的(多角的)
考察的・思想的
考察的・思想的
複数のオピニオンが含まれる
複数のオピニオンが含まれる
調査、データ、観察的
調査、データ、観察的
自動車の運転もできれば、料理や洗濯、介護までしてくれる――そんな汎用型のAI、すなわち「強いAI」の可能性について前回の記事で考えた。
仮にそのような強いAIや、人間に対して重要な影響を与えるAIが登場したとき、私たちは「彼ら」をどのように制御し、リスクをコントロールすればよいだろうか。
この問いに対する絶対的な正解はないが、個々の分野やテーマにおいて、AIの手綱を握り続けるための試行錯誤が行われている。今回は、そうしたいくつかの取り組みを見ていきたい。
本記事では、AIがもたらす不利益とその対策を「自然災害」に例えて整理する。
「AI災害」を防ぐには?(筆者作成)
notion imagenotion image
AIがもたらす不利益を「災害」とし、それに対抗する取り組みを(1)害が出ることを回避する「防災」、(2)害の発生を把握してそれを減らす「減災」、(3)害を出す仕組みを取り除く「復旧」――という3つの側面でまとめてみたい。

防災:害が出ることを回避する

まずは防災だ。AIが引き起こす可能性のある害に対して、その発生をあらかじめ予測し、防ぐ手段を講じたり、そうした手段が講じられるよう人々を促したりすることが考えられる。
その中で最も簡単なのは「使わないこと」。つまりAI自体や、AIを活用したアプリケーションの規制である。元も子もないと思われたかもしれないが、兵器の世界では、私たちは一度開発した技術を封印することを繰り返してきた。核兵器や化学兵器、生物兵器、あるいはクラスター爆弾や対人地雷など、さまざまな兵器に対して、多様な規制が敷かれている。
その中には封じ込めに成功しているケースもあれば、制御できているか怪しいものもあるが、いずれにしても「使わないようにする」のはシンプルで分かりやすい。
notion imagenotion image