2017年のアシロマ会議(Asilomar conference)にて、AIに関する専門家が集って議論を行い、AIに関する原則が発表されました。
Asilomar AI Principles(英文)
https://futureoflife.org/ai-principles/
大きく3つの分野においた、23項目にもわたるものですが、この発表された内容について考えてみました。
※アシロマ会議(Asilomar conference)とは、アメリカ合衆国カリフォルニア州アシロマで行われる会議で、過去に「遺伝子組換え」に関するガイドラインの議論がなされました。
研究
- 研究目標:
AI研究の目標は、無秩序な知性ではなく有益な知性を創出することである。 - 研究資金:
AIへの投資は、コンピュータサイエンス、経済、法律、倫理、および社会学における厄介な問題を含む、有益な研究に対して向けられるべきである。 - 科学方針のつながり:
AI研究者と政策責任者との間に建設的で健全な意見交換が必要である。 - 研究文化:
AIの研究者や開発者の間で、協力、信頼、透明性の文化を育むべきである。 - 競争回避:
AIシステムの開発チームは、安全基準の軽視しないように積極的にチーム同士で協力する必要がある。
倫理と価値基準
- 安全性:
AIシステムは、運用寿命まで安全かつ堅牢で、適用と実現方法を検証可能でなければならない。 - 障害の透明性:
AIシステムがトラブルを起した場合、その理由を確認できるようにする。 - 司法の透明性:
司法の意思決定における自律システムの関与は、管轄の人権機関によって監査可能な満足のいく説明を提供するものでなければならない。 - 責任:
AIシステムの設計者および開発者は、その使用、悪用、および結果に対して道徳的影響に関わる関係者であり、その影響を形作る責任と機会があります。 - 価値観の一致性:
高度に自律的なAIシステムは、目標や行動が人間の価値観と一致するように設計する必要がある。 - 人間の価値:
AIシステムは、人間の尊厳、権利、自由、文化的多様性に適合するように設計され、運用されるべきである。 - 個人のプライバシー:
AIシステムには個人のデータを分析して利用することができるため、個人側で提供するデータへのアクセス、管理、制御する権限を持っている必要がある。 - 自由とプライバシー:
AIによる個人情報の利用は、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。 - 共同利益:
AI技術は、可能な限り多くの人々に利益をもたらし、支援を与えるべきである。 - 共通の繁栄:
人類のすべてに利益をもたらすために、AIによる経済的な繁栄は広く共有されるべきである。 - 人間によるコントロール:
人間が選択した目的を達成するために、AIシステムが選択を委ねる方法、もしくは選択するかどうかを、人間自身が選択すべきである。 - 非転覆:
高度なAIシステムの制御によって与えられる力は、健全な社会が依存する社会的および市民的プロセスを覆すのではなく、尊重し、改善させるべきものである。 - AI兵器の競争:
死を招く自律的なAI兵器の競争は避けなければならない。
長期的な問題
- 能力への注意:
意見の一致がないため、将来のAI能力の上限に関する前提は避けるべきである。 - 重要性:
高度なAIは、地球上の生命の歴史に深刻な変化をもたらす可能性があるため、相応の配慮や資源のために計画され、管理されるべきである。 - リスク:
AIシステムによってもたらされるリスク、特に壊滅的または存亡に関するリスクは、予想される影響に見合うだけの計画および緩和対策の対象としなければならない。 - 再帰的な自己改善:
AIシステムは、再帰的に自己改善するか、または自己複製するように設計されているため、品質や量が急激に増加する可能性があり、厳重な安全管理の措置を講じなければならない。 - 公益:
素晴らしい知能は、広く共有された倫理的理想のために、また特定の州や組織ではなくすべての人類の利益のために開発されるべきである。
感想
「研究」項目では、AI研究や開発に関して、協力や貢献することなどが多く見受けられました。これは近年のオープンソース文化の影響が入っているのでしょう。
オープンソースであるべきとまでは定義していませんが、それに近い形での研究がされることで、相互にAIの研究が加速するはずです。
※実際はAIの主要な技術にオープンソースが含まれているため、ほぼ必要な定義になっているのかもしれません。
「倫理と価値基準」項目では、安全性や運用性での内容となっています。
プライバシーの侵害など、AIだから知っていいというわけではありません。拒否する権利もあるはずです。また、どのような形でその答えを導き出したかを質問者がわかるような情報開示もやはり必要になってくるでしょう。キーワードに対する重みづけならパーセンテージなどの提示などです。
倫理規定に関しての線引きには、きっちりとした制約や抑制が必要なのは確かによくわかります。今後、政治(統治)に介在する場合もありえますし、特にAI兵器に関してならなおさらです。
(少なくとも人対人へのトリガーは、常に人間が持つべきでしょう。)
「長期的な問題」項目では、総括的な内容になっています。
AIに使われるディープラーニング<深層学習>の技術では、再帰的にAI自体が学習する仕組みになっています。現在、判断基準のチューニングは人が介在していますが、このチューニングも別のAIに任せたりしていくことになると、人が介在する範囲がなくなっていき、AI自体に「自我」はないとしても、やはり「暴走」してしまう危険性は否めません。
まとめ
この規定は、AI<人工知能>の利用範囲や影響範囲にもよると思います。
実際携わっている人のなかでも、妄想だと一瞥に付す人もいるでしょう。
確かに現時点でまだ機能補助的な使い方しかできていないAI分野ですが、このまま推進されていくと、ここで述べられている未来にぶつかっていくはずです。
(既に車の自動運転などは実用化まで近づいてきていますし、IT家電のハッキングも現実に起こっています。)
「ロボット三原則」<人間への安全性・命令への服従・自己防衛>では、あくまでロボットの行動原則の一番は「人間への安全性」で、その後に他の原則が続く単純なものです。
ですが、AI<人工知能>の場合はそこにある物体というわけではなく、さまざまな判断を行う用途や場面が想定され、周辺だけではなく、AIの持つ権限範囲によっては人類全体に対しての脅威となりえることが垣間見えています。
ほんの少しの不具合でも、決定が反転する場合もありえます。米MSの人工知能「Tay」がいい例でした。(プロパガンダなどの恐れがあった。)
あくまで善意のAI開発が推奨され、規定されていますが、善人が使うAIは善人のAIに、悪人が使うAIは悪人のAIになってしまいます。朱に交われば赤くなってしまった判断となるのです。
人間相手なら対話や交渉によって、価値観や判断を覆すことが可能です。でも、AIの場合には残念ながら交渉や交流などは意味を持たず、AIが触れることのできるデータと管理者(運用者)の判断が絶対になってしまいます。
AIによって、悪意の連鎖が始まるのを人類は望んでいないはずです。
もしあなたがAIの専門家(関係者)でしたら、この23項目に賛同できるようなら、オリジナルサイトに著名登録ができますので、登録しておくといいかもしれません。または、この内容を参考にAI研究に関わる契約の時に全員で議論して著名するのもいいでしょう。
この原則がきっかけとなり、AIの使い方に対して再考されることを願います。
※訂正、指摘などあればコメントをお願いします。