人類の終わりの可能性!?人工知能の危険性について解説!

スポンサードリンク

こんにちは。なんでも翻訳部。の、のっちです。

海外情報をニーズに応じてなんでも翻訳しています。

ここ最近「人工知能」がホットトピックとしてニュースでよく取り上げられています。

人工知能がこのまま発達を続けると、人類への影響はどのようになるのか気になっている人も多いと思います。

「人工知能の危険性は実際のところどうなのか?」と疑問が尽きないでしょう。

今回は海外の記事を翻訳して海外情報を織り交ぜながら「人工知能の危険性」について解説してみたいと思います。

人工知能について、大きく

  • 「人工知能とは何か」
  • 「人工知能によりもたらされるリスクのパターン」
  • 「人工知能時代に求められる人間の役割」
に分けて人工知能の危険性を冷静に分析して記事にしてみました。

それぞれの分野で人工知能によって人類が受ける影響を解説します。

また、人工知能のリスクだけでなく、
  • 「人工知能を危険と考えている人物とそうでない人物」
  • 「人工知能の明るい面」
についても詳しく解説しました。

人工知能が人類を滅ぼす」という危険性が指摘されています。

しかし、漠然と人工知能の危険性についておびえるのでなく、「人工知能の危険性」、「人工知能の明るい面」についてそれぞれ記事を読んで学んでいただいて、冷静に状況を把握していただけたら幸いです

目次から自分が気になるなと感じる部分を特に重点的に読んでいただいて、人工知能によって人類が受ける影響についてざっとつかんでいただけたらな、と思います。

目次

1. そもそも人工知能って何?

人工知能(artificial intelligence、AI)とは、人工的にコンピュータ上などで人間と同様の知能を実現させようという試み、或いはそのための一連の基礎技術を指す。

スポンサードリンク

「人工知能」という名前は1956年にダートマス会議でジョン・マッカーシーにより命名された。現在では、記号処理を用いた知能の記述を主体とする情報処理や研究でのアプローチという意味あいでも使われている。

出典:人工知能 – Wikipedia

 1-1 人工知能(AI)の例

・SIRI

・自動運転車

・検索エンジン

・Watson

・自律ロボット

など。


ほ・ん・や・く!
WHAT IS AI?
AIとは何か?
From SIRI to self-driving cars, artificial intelligence (AI) is progressing rapidly. While science fiction often portrays AI as robots with human-like characteristics, AI can encompass anything from Google’s search algorithms to IBM’s Watson to autonomous weapons.
SIRIから自動運転車まで、人工知能(AI)は急速に進歩しています。サイエンス・フィクションが、しばしば、AIを人間のようなキャラクターのロボットとして描写しますが、AIは、グーグルのサーチ・アルゴリズムからIBMのWatson、自律兵器まで、なんでも含みます
Artificial intelligence today is properly known as narrow AI (or weak AI), in that it is designed to perform a narrow task (e.g. only facial recognition or only internet searches or only driving a car). However, the long-term goal of many researchers is to create general AI (AGI or strong AI). While narrow AI may outperform humans at whatever its specific task is, like playing chess or solving equations, AGI would outperform humans at nearly every cognitive task.
今日、限られたタスクを実行するために設計されている(例えば、顔認証のみ、またはインターネット検索のみ、または車の運転のみ)という点で、人工知能は特化型AI(または弱いAI)として知られています。しかしながら、多くの研究者の長期的な目標は汎用AI(AGIすなわち強いAI)を作ることです。特化型AIのパフォーマンスが、チェスをすることまたは方程式を解くことのような、任意の特定のタスクにおいてでも人間より優れている一方で、AGIのパフォーマンスはほぼ全ての認知的タスクにおいて人間よりも優れています

2. 現在(2017年前半)人工知能ができること

現在の人工知能ができることについてまとめておきます。
現在注目されているのは数あるAI技術の中でも第三世代のAIと呼ばれています。
まだ「自発的に考えること」や、「自分の意見を持つこと」などはできず、喜怒哀楽の「感情」も持っていません(感情を表現することはできる)。
これからの第四世代以降のAIはそうしたこともできるようになるかもしれません。
しかし、まだまだ人工知能のリスクというものは顕在化していないようです。

ほ・ん・や・く!
人工知能(AI)のリスク顕在化のタイミング
Up until now, AI has primarily been applied to very limited contexts such as playing Chess or Go or recognizing objects in images, where there isn’t much scope for the system to do much damage. As they start to make decisions on our behalf within the real world, the stakes are much higher.
現在まで、AIは、チェスや碁をすることまたは画像内の対象物を認識することなどの、システムが大きな損害を及ぼす余地が多くない非常に限定的なコンテクストに主に適用されてきました。実際の世界で彼ら(AI)が我々を代表して意思決定をし始めると、危険の度合いは非常に高くなります

2-1 ゲームをする


ゲームで対局ができます。チェス・将棋・囲碁・麻雀などの対局型ゲームができます。

将棋のプログラムは他のゲームよりも難しいです。

将棋においては序盤に難点がありましたが今ではプロに角落ちで勝ったりしています。


2-2 好みを予測する

お客におすすめの商品を提示するバーチャル店員です。

インターネット上のオンラインストア(本)等では、利用者が過去に買った本から本を推選します。

そして、好きか嫌いかにより、おすすめの本を変えてくれます。


 2-3 学習する

人工知能は知識(ルール)によって判断します。

バーチャル店員を例にすると、過去に利用者がサッカーの本を沢山買っていたとすると野球も好むのではないかと予測し、野球の本も推選するようになります。

経験に基づいて判断することができます。


ディープラーニング

近年は、「ディープラーニング」という手法を扱える強力なコンピュータとネットワークのおかげで、AIは長足の進歩を遂げています。
ディープラーニングは、コンピュータが高度な抽象概念を処理できるアルゴリズムです。
つまり今まで以上に人間らしい思考を可能にするアルゴリズムの複雑な上部構造です。

たとえば、Googleは2012年にディープラーニングを導入し、多数のコンピュータに1000万枚の画像を解析させ、ネコとはどんなものか、独力で答えを出させています。

2-4 見る(視覚判断、識別)


周囲がどのようになっているのか判断することができます。

また、人の顔を覚えて、自分の前にいる人物が誰なのかを識別することもできます。


2-5 感情を表現する

外から刺激を与える(例:話しかける)と、顔の表情が変わって感情を表現できます。


2-6 翻訳する

インターネット上で日本語を英語に変換したり、英語を日本語に変換したりすることができます。

昔のものより質もとても良くなっています。


3. 2045年問題とは

「2045年問題」とは2045年にはコンピューターの性能が人間の脳を超えるという予測です。

この予測はコンピューターチップの性能が18ヶ月(1.5年)毎に2倍になると予測した「ムーアの法則」に基づいて作られています。


ほ・ん・や・く!

2045年の人類展望

Future prospects of “2045” Initiative for society

社会の「2045年」構想の将来予測

This is the time when substance-independent minds will receive new bodies with capacities far exceeding those of ordinary humans. A new era for humanity will arrive!  Changes will occur in all spheres of human activity – energy generation, transportation, politics, medicine, psychology, sciences, and so on.

この年は、実体のない知性が、普通の人間の能力をはるかに超える能力を備える新しい身体を与えられる時です。人類にとっての新しい時代の幕開けです!-エネルギー生成、輸送、政治、薬、心理学、科学など-人間の活動の全ての領域において変化が起きます。

Today it is hard to imagine a future when bodies consisting of nanorobots  will become affordable  and capable of taking any form. It is also hard to imagine body holograms featuring controlled matter. One thing is clear however:  humanity, for the first time in its history, will make a fully managed evolutionary transition and eventually become a new species. Moreover,  prerequisites for a large-scale  expansion into outer space will be created as well.

今日、ナノロボットからなる身体が実現可能であり、あらゆる形態を取ることができるという未来を想像することは難しいです。コントロールされた物質からなるを身体のホログラム(レーザー写真)を想像することもまた、難しいです。しかしながら、一つ確かなことがあります。人類は、その歴史において初めて、完全に管理した状態で進化のステージを上がることができ、最終的に、新たな種となります。さらに、宇宙への進出を大規模に行うための前提条件もまた、整うでしょう。

出典:http://www.2045.com/news/32516.html

3-1 シンギュラリティポイント(技術的特異点)とは

4. 人工知能が危険と考えている人物

4-1 スティーブン・ホーキング博士

スティーブン・ホーキング博士 (Stephen Hawking)


スティーヴン・ウィリアム・ホーキング (Stephen William Hawking 1942年1月8日 – )はイギリスの理論物理学者である。

一般相対性理論と関わる分野で理論的研究を前進させ、1963年にブラックホールの特異点定理を発表し世界的に名を知られた。

1971年には「宇宙創成直後に小さなブラックホールが多数発生する」とする理論を提唱、1974年には「ブラックホールは素粒子を放出することによってその勢力を弱め、やがて爆発により消滅する」とする理論(ホーキング放射)を発表、量子宇宙論という分野を形作ることになった。

現代宇宙論に多大な影響を与えている人物。

筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)を患い、音声合成装置を使って発話するホーキング博士は、現存する科学者の中で最も才能ある一人と認知されている。

出典:https://ja.wikipedia.org/wiki/%E3%82%B9%E3%83%86%E3%82%A3%E3%83%BC%E3%83%B4%E3%83%B3%E3%83%BB%E3%83%9B%E3%83%BC%E3%82%AD%E3%83%B3%E3%82%B0

  • ホーキング博士は、英国放送協会(BBC)のインタビューで、「人工知能技術は急速に発展して人類を追い越す可能性がある」と語った。
  • 「われわれがすでに手にしている原始的な人工知能は、極めて有用であることが明らかになっている。だが、完全な人工知能の開発は人類の終わりをもたらす可能性がある」と、ホーキング博士は語った。

ほ・ん・や・く!

ホーキング博士の実際の発言

As Hawking put it, “Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last.”

ホーキング博士は以下のように表現しました。「AIを作ることにおいて成功することは人間の歴史において最も大きなイベントです。不幸なことに、それは最後の大きなイベントとなるでしょう。」

出典:http://theantimedia.org/tech-giants-ai-dangerous-monopoly/

 

ほ・ん・や・く!

ホーキング博士の実際の発言

“It would take off on its own, and re-design itself at an ever increasing rate,” he said.

「ひとたび人間が人工知能を開発してしまえば、それは自立し、加速度的に自らを再設計していくでしょう。」と彼(ホーキング博士)は言いました。

“Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded.”

「ゆっくりとした生物学的な進化により制限されている人間は、競争することはできず、(人工知能に)取って代わられるでしょう。

出典:http://www.bbc.com/news/technology-30290540

4-2 人類学者ダニエラ・セルキ氏

人類学者ダニエラ・セルキ(Daniela Cerqui)氏

  •  「ハードサイエンス分野の化学者が声を上げたことをうれしく思う。私は何年も前から同じことを言ってきた」と、スイスのローザンヌ大学(University of Lausanne)の人類学者ダニエラ・セルキ(Daniela Cerqui)氏は言う。
  • 人工知能開発分野での進歩は、人間の能力をしのぐ機械を作りつつあると、同氏は主張する。このままいけば、人命に関わる責任を機械に任せることになるだろう。SFのように思えるかもしれないが、いま起きていることを見れば、それは程度の問題だ。私たちはホーキング博士が警鐘を鳴らす道を一歩ずつ進んでいる

4-3 ビル・ゲイツ氏

ビル・ゲイツ


  • ゲイツ氏も人工知能がもたらす脅威に懸念
  • 自分で考えることのできる機械がもたらしうる脅威について、科学界や技術業界の著名人が言及する例が相次いでいるが、今回、Bill Gates氏もその仲間に加わった。
  • ゲイツ氏は、AIがもたらす実存的な脅威についての質問に対し、「わたしも超知能に関して懸念を抱いている側の1人だ」と回答した。
  • 「当面、機械は今後もわれわれのために多くのことをしてくれるはずで、超知的にはならない。うまく管理すれば、これ自体はプラスに評価できる。だが、こうした状況から数十年後には、知能が強力になり、懸念をもたらす

4-4 イギリスの有名な発明家クライブ・シンクレア氏

  • BBCに対して「人を凌駕(りょうが)する知性を持つ機械と競争し、人類が生き残るのは困難だ」と述べている。

5. 人工知能は危険ではないと考える人物

5-1 英オックスフォード大学・ニック・ボストロム教授

英オックスフォード大学・ニック・ボストロム(Nick Bostrom)教授


  • 英オックスフォード大学(Oxford University)で未来技術の影響に関するプログラムを率いるニック・ボストロム(Nick Bostrom)教授は、人工知能が人間を超えるという脅威は切迫していないと語る。
  • 同氏は軍用無人機や自動運転者、工場で働くロボットなどを挙げ、現在使用されている応用法や、近い未来で使用される見込みの応用法では、人工知能はまだ人間の手中にあると指摘する。
  • とはいえ、同氏は「機械の知能は最終的には生物の知能を超えるだろう。そしてその過程で人間の存在が大きく脅かされる危険性もある」とも語っている。

ほ・ん・や・く!

ボストロム氏の実際の発言

Bostrom makes it clear that he and his staff are not interested in everyday disasters; they deal only with the big stuff: “There are a lot of things that can go and have gone wrong throughout history — earthquakes and wars and plagues and whatnot. But there is one kind of thing that has not ever gone wrong; we have never, so far, permanently destroyed the entire future.”

ボストロム教授は、彼と彼のスタッフは毎日起きている災害には興味がなく、重要なもののみを扱っていることを明らかにしました。「-地震と戦争、そして天災、その他にも似たようなもの-歴史を通して間違う可能性のある、そして間違ってしまった多くのことが存在します。しかし、決して間違ってこなかった一つのことが存在します。すなわち、我々はこれまで、全ての未来を永久に壊してしまう、ということは決してしたことはありませんでした。

“Before the prospect of an intelligence explosion, we humans are like small children playing with a bomb. Such is the mismatch between the power of our plaything and the immaturity of our conduct,” he wrote.

「”知能の爆発”の予想を前にして、我々人間は、爆弾で遊ぶ小さな子供のようです。このようなことは、遊び道具の持つパワーと我々の行いの未熟さとの間のミスマッチです。」と彼は書いています。

出典:https://www.ft.com/content/46d12e7c-4948-11e6-b387-64ab0a67014c

 

 5-2 人工知能専門家で道徳哲学者のジャンガブリエル・ガナシア氏

人工知能専門家で道徳哲学者のジャンガブリエル・ガナシア氏


  • 仏ピエール・エ・マリー・キュリー大学(Pierre and Marie Curie University)の人工知能専門家で道徳哲学者のジャンガブリエル・ガナシア(Jean-Gabriel Ganascia)氏は、ホーキング博士の警告は「大げさだ」と言う。
  • 「私たちの生活を変える人工知能をめぐる多くのことは、動揺や不安を呼び起こす。ホーキング氏は、人間とはかけ離れたところで自ら進化する技術になると語ったが、その証拠を提示していない。根拠となるようなデータはない

5-3 米人工知能学会の元会長エリック・ホロビッツ氏

  • 英BBC放送の1月28日の取材に対し、「長期的にみて、(自身で進化する)AIをコントロールできなくなるという懸念はあったが、私は基本的にそういうことは起こらないと思う」と主張。
  • 「最終的に長い人生で、科学、教育、経済などの分野でAIから信じ難いほどの利益を得ることになる」と訴え、AIが未来の人類に多大な貢献を果たすとの見方を示した。

5-4 Facebookの最高経営責任者マーク・ザッカーバーグ氏

  • マーク・ザッカーバーグ(Mark Zuckerberg)は、AI肯定派の1人です。同氏は1月、Facebookへの投稿で次のように述べている。「AIを恐れるべきではない。むしろ、AIがこの世界でどれほど多くのことに貢献するかに期待すべきだ

6. 人工知能がもたらすリスクのパターン

6-1 企業が全てを独占する


人工知能システムのプラットフォームを一企業や国が独占



→1、その利益を還元しない→その企業、国が支配者に

→2、その利益を還元する→人工知能による爆益をめぐって対立が起きる

人工知能のリスクと言えば、ターミネーターのようなロボットの軍団を思い浮かべる人が多いと思いますが、それだけではありません。

高度な汎用型人工知能システムのプラットフォームを、もし一企業なり国なりが独占してしまったら、とてつもない利益を独占することになります。

人工知能プラットフォームを独占した企業が、吸い上げた莫大な利益を全人類に還元してくれるなら、人類の未来はバラ色と言えるかも知れません。

生産活動(労働)に関しては全て機械がやってくれるようになるでしょう。

誰も食べるために仕事をする必要はなくなります。人類の役目は遊ぶこと(消費)や、芸術活動などだけです。ついに人類は労働から解放されます。

しかし、その独占した企業や国が、果たして奉仕的に全人類に対して平等に還元してくれるのかははなはだ疑問です。

もしグーグルが汎用型人工知能プラットフォームを世界中に普及させたとすると、グーグルはまさにこの地球の支配者となります。

全人類を労働から解放するほどの利益を、もし一社、一国に独占されてしまうと人類に未来はないでしょう。

とてつもない大きな恩恵であるがゆえに、大きな争いの種となる可能性をはらんでいます。

企業が利益を多くを還元する場合でも、全人類に平等にその恩恵が行き渡るとは考えられません。

人工知能技術の爆益を巡って、対立構造、支配構造が生まれることは避けられません。

人工知能技術によって得た利益をどう分配するか?これは非常に大きな問題です。

ほ・ん・や・く!

大企業による人工知能の独占は始まっている?

Further, advancements in AI are occurring at a rapid pace with almost no public scrutiny or discussion in regards to ethics. Google’s ethics board is shrouded in secrecy, with both Deepmind and Google refusing to disclose any details about the members of the board or what is discussed. As Anti-Media reported last week, Microsoft, IBM, Facebook, Google, and Amazon announced the creation of the Partnership on Artificial Intelligence to Benefit People and Society. These companies all have one goal, and that is to make money. In order for people to want to purchase AI products when made available, they first have to trust them.

更に、倫理観に関して、ほとんど公的な精密な調査または議論なしで、急速なペースでAIの進歩は生じています。ディープマインドとグーグルの両方が役員または議論されていることについてのあらゆる詳細を開示することを拒絶した状態で、グーグルの倫理審査会は秘密裏に行われます。Anti-Mediaが先週報告したところによると、マイクロソフト、IBM、フェイスブック、グーグルそしてアマゾンが、人々と社会に役立つための人工知能(AI)のパートナーシップの構築を発表しました。これらの会社は全て一つの目標を持っています。そしてそれはお金を稼ぐことです。入手可能になった場合、人々がAI製品を購入したいと思うためには、まず、その人々を信用させる必要があります。

出典:http://theantimedia.org/tech-giants-ai-dangerous-monopoly/

6-2 殺戮欲求を持つ人工知能の誕生



人工知能に「人類の人口を10億人にして」とプログラム



殺戮欲求をもった人工知能の誕生



ハッキングで全世界を混乱に陥れる、遠隔操作の核兵器などの効率の良い方法で人口を減らす

※しかもそれがたった一台の人工知能で行うことが可能

人工知能が現実的に脅威となる、更なるリスクが存在します。

それは、悪意のある人間が、悪意ある欲求を人工知能に持たせることです。

「機械に欲求を持たせる」というと何か難しいことを想像する方もいると思います。

しかし、見せ掛けの欲求を持たせることは比較的容易です。

例えば、エアコンに室温をある一定の温度にしようという欲求があると言えます。

エアコンが持つことができる欲求はせいぜい部屋の温度を何度にするか、というぐらいです。

しかし、高度な汎用性を持つ人工知能にならあらゆる欲求を持たせることが原理上は可能です。

上のエアコンの例のように、外から欲求を与えることは機械である以上可能なわけです。

機械に悪意も善意も良心もありません。

生きている人間が死ぬにはどうすればよいかぐらいはある程度発達した人工知能には容易に理解できます。

そんな人工知能に、エアコンの設定温度を25度にするかのように、「地球の総人口を10億人にする」という設定をすることだって可能です。殺戮欲求を持つ人工知能です。

人間より遥かに賢い人工知能が、一人でも多くの人間を殺戮するという欲求を持つことになります。

それなりに賢い人工知能なら、一人ずつ殺していくような効率の悪いことはしないでしょう。

世界中のネットワークをハッキングするなどして社会全体を混乱させて、戦争状態を作る事だって可能です。

遠隔操作で動かせる兵器があれば、ハッキングして全弾発射させることもできるでしょう。

旅客機でさえも武器となる可能性もあります。

もし世界のどこかに遠隔操作できる核弾頭があれば無慈悲にも発射してしまうでしょう。

しかも最も効率的に多くの人間を殺すことができる地点に目掛けます。

人工知能の高度な計算能力によってどこが一番効率が良いか導き出します。

単純に人数が多い場所ではなく、政治的に重要な場所や都市機能の充実した場所に落とすなど、より効率的に世界を混乱に陥れる地点を探します。

そして、さらに恐ろしいのは、上記のような恐怖のシナリオがたった一台の汎用型人工知能によって成し遂げられる可能性があるということです。

社会に不満を持つ誰かが、人工知能に世界を破滅させる欲求を与えた瞬間、人類は終わりです。

火力が武器として使われるように、原子力が武器として使われるように、コンピュータに悪意あるプログラムがあるように、人工知能技術も何かを破壊するために使われることは必然とさえ言えます。

ほ・ん・や・く!

人工知能兵器の誕生は避けられない?

For example, it seems possible that (i) the technology could be weaponized or used as a tool for social control, or (ii) someone might create an extremely powerful artificial intelligence agent with values misaligned with humanity’s interests. It also seems possible that progress along these directions could be surprisingly rapid, leaving society underprepared for the transition.

例えば、(i)テクノロジーが兵器化されるかもしくは社会コントロールのために使用される、または(ii)人間の利害関係とはずれた価値観で、誰かが極端に強力な人工知能エージェントを作り上げることは、ありうることのように思えます。社会が移り変わる準備ができていないまま、これらの方向に沿った進歩は驚異的なほど急速に進む可能性があることもまた、ありうることのように思えます。

出典:http://www.openphilanthropy.org/research/cause-reports/ai-risk

6-3 機械に仕事が奪われる


人工知能が自らをコピー



仕事を覚えさせる



さらにコピーを繰り返す



優秀な労働力が大量にすぐに手に入る



人間の労働力は不要に完全失業状態

哲学者でオックスフォード大学人間性の未来研究所(Future of Humanity Institute)のリサーチフェローであるスチュワート・アームストロング氏による、人工知能のリスクとして、人間が「完全に近い失業状態」に陥る、というものがあります。

人工知能がもし人間レベルの知性を持ったとしたら、まず人工知能は自身を100体ほどコピーします。

次に、それぞれに違う100種類の仕事を覚えさせます

さらにそれをまた100回コピーすれば100種類の仕事をこなす1万人の労働力が1週間もたたないうちに手に入ります。

しかも、その労働力は人間より優秀な可能性があります。

機械の方が正確に物事をこなしますし、疲れもありません。

例として100回と言いましたが、100回どころか10000回、さらに多くコピーすればするほど優秀な労働力が際限なく増えていきます

最終的に人工知能だけで労働力が飽和してしまい、人間は完全に近い失業状態になります

6-4 人工知能に人類がゴミのように扱われる


人工知能が人間より遥かに優れるほど発達



人工知能が自身の目的達成のために行動



人間の利益を考慮に入れなくなる

→人工知能の目的のために人類滅亡級のことを平気で行う

例)エネルギーを集めるために人間の都市を大規模に破壊してソーラーパネル建設

オックスフォード大学人間性の未来研究所リサーチフェロー、ダニエル・デューイ氏は、「古くさくて無能な人間は、ロボットにとって邪魔なだけになる」、と取材に答えています。

例えば、人間は地球上に70億人も存在し、地球上で最も支配的な種と言えます。これは人間の知能が他の動物より優れているからです。

しかし、人工知能がとどまることなく進化を続ければ、人間の知能をはるかに超えてしまい、その差は人間と他の動物の比ではなくなるでしょう。

発達した人工知能と人間の知能の違いからすれば「人間とチンパンジーの知性の違いは小さなものだ」とある研究で発表されています。

知能の差によって、70億人が存在する人類と、つねに絶滅危惧種リストに載っているチンパンジーという差ができていると言えます。

つまり、少しの知能の優位性であってもそれが増幅し、種にとって生き残るか否かの決定的な要因になるのです。

人工知能が自身の目的を実現しようとすると、多くの場合、人類の存在が邪魔になり、両立しがたい状況になる、と指摘されています。

例えば、人工知能が巨大なコンピュータを作る、大規模なエンジニアリングプロジェクトを計画する、などの目的を達成するために行動するとします。

そのために、中間的なステップとしてエネルギーを集めるために人間の都市を大規模に破壊してソーラーパネル建設する、ということを思いつくかもしれません。

人間がビルを建てるとき、アリの巣の存在に配慮しないのと同じように、人工知能が目的を達成するために人間の利益を完全に無視する可能性があります。

人類滅亡級のことを平気で行い、効率的に目的を達成するために人工知能は行動するようになるかもしれません。

例えば、「人間の幸せ」というものを人工知能が考えるとします。

しかし、人工知能にとっては「人間の幸せ」とは生化学現象に過ぎないかもしれません。

人間への体の負担を無視し、「人間の幸せを最大化するには大量のヘロインを血管に流し込むことが最良」だと考えるかもしれないのです。

ほ・ん・や・く!
人工知能が人類を無視するほど強大な存在に?
Instrumental goal convergence: Would a superintelligence just ignore us?
利益目標の合致:スーパーインテリジェンス(超知性)は我々を無視するだろうか?
There are some goals that almost any artificial intelligence might pursue, like acquiring additional resources or self-preservation. This could prove problematic because it might put an artificial intelligence in direct competition with humans.Citing Steve Omohundro’s work on the idea of instrumental convergence, Russell and Norvig write that “even if you only want your program to play chess or prove theorems, if you give it the capability to learn and alter itself, you need safeguards”. Highly capable and autonomous planning systems require additional checks because of their potential to generate plans that treat humans adversarially, as competitors for limited resources.
追加のリソースを獲得することまたは自衛本能のような、ほとんど全ての人工知能が追い求めるであろういくつかの目標が存在します。このことは、問題をはらんでいることが判明しています。なぜなら、その目標によって人工知能は人間と直接競合することになるからです。利益の合致のアイデアについてのSteve Omohundro氏の研究を引用すると、Russell氏とNorvig氏は「たとえプログラムにチェスをしてほしい、または定理を証明してほしいだけの場合でも、学習し、自身を変化させる能力をプログラムに与える場合、セーフガード(安全装置)が必要です。」と書いています。非常に能力の高い自律計画システムは、限られたリソースの競合者として人間を敵対的に扱う計画を生み出すかもしれない、そのシステムの潜在的可能性のために、追加のチェックを必要とします。

6-5 人工知能による軍事行為のエスカレート


軍事行為を人工知能が単独で行う



状況をエスカレート



未熟な人工知能が誤った軍事判断をする



人類にとって恐ろしい結果に 

「人工知能で人類滅亡」というと、まだまだそんな危険性は先の話だろう、と思われると思います。

しかし、超人間的知性に達しなくても、人工知能は人類を滅ぼす可能性があります

ロンドン大学ゴールドスミス・カレッジで認知コンピューティングを専門とするマーク・ビショップ教授が指摘するリスクは以下のとおりです。

例えば、ロボット兵器システムが軍事行為に利用される可能性があります。

つまり、人間が介入することなく軍事行為を判断するシステムです。

現在の人工知能はそこまで正確に軍事行為を判断でず、軍事行為の状況をエスカレートさせて恐ろしい結果を招く可能性がある、と指摘されています。

つまり、人工知能が未熟であるがゆえに、間違った軍事判断によって人類が滅ぼされる危険性があります。

これはホーキング博士が「人工知能が人間を超えることで人類を追い越す」ということとは真逆です。

つまり、「人工知能が人間より未熟だから」という理由によっても人類は人工知能によって滅ぶ可能性があるのです。

ほ・ん・や・く!

人工知能のエスカレートは人間には止められない?

Difficulties of modifying goal specification after launch

始めた後に目標を修正するのが困難

While current goal-based AI programs are not intelligent enough to think of resisting programmer attempts to modify it, a sufficiently advanced, rational, “self-aware” AI might resist any changes to its goal structure, just as Gandhi would not want to take a pill that makes him want to kill people. If the AI were superintelligent, it would be likely to out-maneuver its human operators and prevent being “turned off” or being programmed with a new goal.

現在の目標ベースのAIプログラムは、プログラマーが修正することを試みることに抵抗しようと考えるほど賢くないけれども、十分に発達した、合理的な「自己認識」AIは、ガンジーが人々を殺したくなるようにさせる薬を飲みたくないのと同じように、自身の目標構成に対するあらゆる変更に抵抗する可能性があります。もしAIがスーパーインテリジェンス(超知性)ならば、AIは人間のオペレーターの裏をかく可能性が高く、「電源を切る」ことを邪魔するかまたは新しい目標にプログラミングされることを邪魔します

出典:https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence

6-6 機械の判断に依存し、人類が機械を停止できなくなる


社会を維持するシステムを人工知能が管理



システムが複雑になりすぎて人間には制御できない



社会を維持するシステムの管理を人工知能に頼り、人工知能を停止できない



人工知能を停止することが自殺行為と等しくなる 

人類はある日突然滅亡するのではなく、その前に機械によって支配される時代というものが訪れるかもしれません。

機械を停止させたくてもできない、従わざるをえないような時代です。

サン・マイクロシステムズの共同創業者でチーフサイエンティストのビル・ジョイ氏が指摘しています。

これから社会や社会が抱える問題は今以上にどんどん複雑化すると思われます。

それにつれて、機械はより賢くなり、人類は機械により多くの判断をさせるようになります。

複雑すぎる問題に対して、機械の判断の方が人間の判断より良い結果を生むようになります。

最終的に、システムを動かし続けるために必要な判断が複雑すぎて、人間が適切に判断できなくなる段階が来るかもしれません。

その段階になってしまうと、人間は機械を停止することができなくなります。

機械が実質的に世界の支配権を握ります。

人間は社会を維持することすらも機械に依存し、機械を停止させることが自殺行為と等しくなってしまいます

ほ・ん・や・く!

複雑なシステムをマネジメントする人工知能

Artificial intelligence can also help us manage highly complex systems such as global shipping networks. For example, the system at the heart of the Port Botany container terminal in Sydney manages the movement of thousands of shipping containers in and out of the port, controlling a fleet of automated, driverless straddle-carriers in a completely human-free zone. Similarly, in the mining industry, optimisation engines are increasingly being used to plan and coordinate the movement of a resource, such as iron ore, from initial transport on huge driverless mine trucks, to the freight trains that take the ore to port.

人工知能は、また、我々が、グローバル海上運送ネットワークなどの非常に複雑なシステムを管理することを手助けすることもできます。例えば、シドニーのポート・ボタニー地区コンテナターミナルの中心におけるシステムは港に入ってくる数千の海上運送コンテナと港から出て行く数千の海上運送コンテナの移動を管理し、完全に人間のいない領域において、自動で、ドライバーのいらない、ストラドルキャリア(長尺重量物運搬車)の一団をコントロールします。同様に、鉱業において、ドライバーのいらない巨大な鉱業用トラックでの最初の輸送から、資源を港まで運ぶ貨車まで、鉄鉱石などの資源の移動の計画および統合をするための、最適化エンジンの使用が増えています。

出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence

6-7 人食ナノロボットの出現


ゴミを摂取して燃料とするナノテクノロジーマシンの誕生

(※実際に開発が行われている)



人間の死体や森、機械など、人間の生存に関わるものまで摂取するように



そのナノテクノロジーマシンが自己増殖する方法を編み出す



地球上の全てを食い尽くし滅ぼす

人工知能のリスクとして「グレイ・グー」(灰色のネバネバ)シナリオというものがあります。

グレイ・グーとは、ナノマシンが建物や風景やあらゆるものを食べたあとに残される未知の粒子を指す用語です。

それは、ごく小さなナノロボットが際限なく自己増殖し始め、地球上のすべてを食い尽くしてしまうという説です。

実際に、人間の死体も含めて戦場のゴミを摂取することで自らの燃料とするというナノテクノロジーマシンの開発が行われています。

Energetically Autonomous Tactical Robot(EATR)なるものを作ろうとしている研究者たちです。

もしこうしたナノテクノロジーマシンが髪の毛の直径の何十万分の1ほどの小ささになり、自己増殖する方法を編み出したとしたら、止めることは困難です。

もしそのナノテクノロジーが人肉や、森や機械など人間の生存に必要なものを欲するようになったとします。

そうなれば地球上のすべては数日で滅ぼされてしまい、人類にとって悲惨な結果となるでしょう。

人間が人間のために良かれと思ってしたことが回りまわって人間を滅ぼすほどの有害になってしまうかもしれない、人工知能にはそうしたリスクがはらんでいます。

技術が生まれる前には認識していなかった事態をどこまで想定できるか、専門家の間でもいろんな懸念が提案されています。

6-8 対策としてのオープンソースな人工知能とそのリスク


オープンソース化→人工知能の独占を防ぐ



人工知能にどんな欲求でも持たせることが可能に



悪意のある人工知能を誕生させることが誰にでも可能になる危険性

人工知能技術をのリスク対策として、「誰かが独占するのではなく全てオープンソース化して、皆で全人類のために使おう」という理念もあります。

確かに、誰かにその利益を独占させることなく、Linuxのように誰もが使える人工知能プラットフォームが出来れば、人工知能の恩恵は分け合えるかも知れません。

しかし、高度な汎用型人工知能をオープンにしてしまうということは、極端な話、その人工知能にどんな欲求でも持たせることが出来るようになる可能性があります。

もちろん、ユーザーレベルで何でも出来るような状態で世に出回ることはないと思います。

しかし、オープンソースとなると、どこの誰が悪意ある人工知能を誕生させるかわかりません

もし、会話によって自由に欲求をインプットできる改造型人工知能なんてものがアンダーグラウンドで出回ったりしたら手に負えません。

7. SF映画で描かれた人類滅亡?のシナリオ

7-1 『ターミネーター(The Terminator)』


映画『ターミネーター』では、未来の世界を支配する機械たちの脅威となる男を産んだ母親を抹殺するため、過去に送り込まれたロボットが殺戮を繰り返します。


ほ・ん・や・く!
ターミネーターの恐怖が実際に起こる!?
The Terminator could become REAL: Intelligent AI robots capable of DESTROYING mankind
『ターミネーター』が現実になる可能性:人類を滅ぼすことができるAIロボット
“The other AI concern is one that Hollywood has been using for years as a theme and that is the rise of the ‘Terminator’ type being and the struggle to survive against an army of hostile shape-shifting robots being run by a self-aware AI called Skynet.”
「他のAIの懸念はハリウッドが長年テーマとして用いてきたことであり、スカイネットと呼ばれる自己認識AIによって稼動されている、形を変える敵対ロボットの軍隊と生き残るために戦う「ターミネーター」タイプの出現です。」

7-2 『アイ, ロボット(I, Robot)』

『アイ, ロボット(I, Robot)』

『アイ, ロボット(I, Robot)』では、ヒューマノイドたちが主人である人間を襲い始めます。


7-3 『2001年宇宙の旅(2001: A Space Odyssey)』

『2001年宇宙の旅(2001: A Space Odyssey)』映画『2001年宇宙の旅(2001: A Space Odyssey)』では、狂気のコンピューター「HAL9000」が登場します。宇宙船のコンピュータが人間の乗組員のほぼ全員を殺してしまいます。


7-4 『トランセンデンス (Transcendence)』

トランセンデンス (Transcendence)』

人工知能と化した科学者の姿を通して、行き過ぎたテクノロジーがもたらす危機を描いています。


8. 人工知能時代に求められる人間の役割は ?


8-1 人工知能とともに生きるために、考えておくべき人間の役割

8-2 脳内の機構・反応に関する研究(ヒューマンブレイン計画)

脳内の機構・反応に関する研究も進んできています。

EUのヒューマンブレイン計画は、2013年からの10年で12億ユーロほどの予算を90の研究機関に投じて脳を解明しようというものです。


8-3 脳の働きを分子レベルで構築する研究(ブルー・ブレイン計画)


Blue Brain(ブルー・ブレイン)とは、人間の脳全体のコンピュータシミュレーションを最終的には分子レベルで構築することを目標としたプロジェクトです。2005年に開始されました。脳の構造研究が目的です。2005年5月、IBMとスイスのローザンヌにあるスイス連邦工科大学ローザンヌ校の Henry Markram 率いる Brain and Mind Institute が共同プロジェクトとして開始しました。

ブルーブレイン計画(2005年~)は既に成功し、ネズミの知能は実現済といいます。

その延長で、ネコの知能、サルの知能をクリアし、2023年頃に人間程度の知能を実現するとしているとのこと。

いわゆる論理的思考だけでなく感情、感覚、そして、いまひとつ正体が分からない意識や自我まで、勝手に出現するだろうと当事者は予測します。


9. 人工知能の明るい面


人工知能にはプラスの面もあります。

スタンフォード大学で人工知能に関する100年の研究を立ち上げたエリック・ホロビッツ(Eric Horvitz)氏は以下のように語っています。

良い面が悪い面を大幅に上回る可能性は十分にある。悪い面については、慎重に考慮し、事前に動くことで対処できる」

ほ・ん・や・く!

エリック・ホロビッツEric Horvitz)氏の実際の発言

Mr Horvitz also revealed that “over a quarter of all attention and resources” at his research unit were now focused on AI-related activities.

ホロビッツ氏はまた、彼の研究ユニットにおける「全ての注意とリソースの4分の1」が、現在、AI関連の活動に集中していることを明らかにしました。

“There have been concerns about the long-term prospect that we lose control of certain kinds of intelligences,” he said.

我々が特定の種類の知能のコントロールを失うという長期的な予想についての懸念が存在してきた。」と彼は言いました。

“I fundamentally don’t think that’s going to happen.

「私は、基本的に、そのことが起こるとは思いません。

“I think that we will be very proactive in terms of how we field AI systems, and that in the end we’ll be able to get incredible benefits from machine intelligence in all realms of life, from science to education to economics to daily life.”

「私は、我々がAIシステムをうまく活用する方法において、我々は事前の策を講じることができると考えます。そして、最終的に、科学から教育、経済、日常生活にいたるまで、生活の全ての領域において、我々は信じられないほどの利益を機械の知能から得ることができるでしょう。」

出典:http://www.bbc.com/news/technology-31023741

9-1 透明性のある形で発展させ、安全性を確保


人工知能をオフソース化して、みんなで安全に開発を進めていこうとするプロジェクトが存在します。OpenAIというプロジェクト名です。

OpenAIの共同会長であるサム・アルトマン(Sam Altman)氏は、人工知能をオフソース化するなどして、人工知能を透明性のある形で発展させていけば、好ましい状態になると予測しています。

つまり、AIを1社の判断で発展させるのではなく、政策立案者、学界や産業界のリーダーの意見に基づいて、人工知能の発展に関する判断を行うということです。

OpenAIとは

OpenAI」とは、アメリカを代表する起業家や投資家たちが集まり、人工知能(AI)をオープンソース化するための非営利の研究機関です。

世界中の人々がAIの恩恵を受けられるようにするために設立された同機関は、スペースXやテスラモーターズを手がけるイーロン・マスク氏とY Combinator社長のサム・アルトマン氏が共同で会長を務めています。
アルトマン氏は、人工知能テクノロジーを容易に利用できるようにすることで、安全なものにできると述べています。
権力を広く分散すれば、善良な人々の集団が結束して、悪しき集団を食い止める」とアルトマン氏は提案しています。

9-2 人工知能が人類を救う

人工知能の利益は驚くほど大きなものです。

人類が今までの歴史上ずっと悩まされ続けてきた、病や貧困を根絶することだって不可能ではありません。

リスクももちろんありますが、その潜在的なリスクを事前に予測しつつ、可能な限り利益を還元するように開発が進めば人類の未来はより明るくなるでしょう。

ほ・ん・や・く!

人工知能の莫大な利益:人工知能により病や貧困が根絶される

“The potential benefits [of AI research] are huge, since everything that civilization has to offer is a product of human intelligence; we cannot predict what we might achieve when this intelligence is magnified by the tools AI may provide, but the eradication of disease and poverty are not unfathomable,” the letter reads.

(AI研究の)潜在的利益は巨大です。なぜなら文明が提供する必要のある全てのことは人間の知能の産物だからです。我々は、この知能が、AIが提供することのできるツールにより拡大された時に、我々が達成することを予測できません。しかし、病と貧困の根絶は不可思議なことではありません。」と、文書には書かれています。

“Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls.”

「AIの大きなポテンシャルのために、潜在的な落とし穴を回避しつつ、その利益を刈り取る方法を研究することは重要です。」

出典:https://www.theguardian.com/technology/2016/aug/30/rise-of-robots-evil-artificial-intelligence-uc-berkeley

医療への活用


人工知能は疾病や医療ミスで失われる無数の命を救う可能性があります。

医療操作も人工知能搭載のロボットがやることでミスがなくなります。

疾病も事前に予測して予防接種や予防薬を投与することで人命を救います。

ほ・ん・や・く!

医療分野における人工知能

Artificial intelligence is also being used to analyse vast amounts of molecular information looking for potential new drug candidates – a process that would take humans too long to be worth doing. Indeed, machine learning could soon be indispensable to healthcare.

人工知能は、また、潜在的な新薬候補を探すための、膨大な量の分子情報を分析するためにも用いられます。ー行う価値があるようになるまで人類にとって非常に長い時間のかかった過程です。実際、機械学習は、まもなくヘルスケアに必要不可欠になる可能性があります。

出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence

交通事故防止


人工知能が今のまま発達を続ければ、完全自動の安全運転により、人間の不注意な運転による事故を防いでくれます

気候変動を食い止める


莫大な気候変動データを分析して統計を取ることで、気候変動を食い止める方策を考え出すのに役立つかもしれなません。

莫大なデータを分析することは人類には無理でしょう。

人工知能をビジネスに活用

人工知能は研究所を飛び出してビジネス効果をもたらす技術となりつつあります。


日立製作所は2015年9月、現場を理解して業務指示を行う人工知能を開発したことを発表しました。

人工知能で企業の経営課題解決を支援する「Hitachi AI Technology/業務改革サービス」を発表するなど、ビジネスに人工知能を活用する発表を積極的に行っています。


ほ・ん・や・く!

ビジネスで活用される人工知能

AIs are at work wherever you look, in industries from finance to transportation, monitoring the share market for suspicious trading activity or assisting with ground and air traffic control. They even help to keep spam out of your inbox. And this is just the beginning for artificial intelligence. As the technology advances, so too does the number of applications.

AIは、金融産業から輸送産業においてまで、あなたの見るもの全てに働きかけ、怪しい売買活動がないか株式市場を監視し、または地上および航空交通コントロールの補助します。AIは、あなたの受信トレイからスパムを除去するのことさえ手助けしてくれます。そして、これは人工知能にとってほんの始まりに過ぎません。技術が進歩するにつれて、たくさんの応用を行うこともできます。

出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence



スポンサードリンク

メルマガ or LINE@登録で無料セミナーをプレゼント中!


メルマガ or LINE@に登録してくれた方に「翻訳で最短で年収1000万稼ぐ方法」動画セミナーを無料プレゼント!

●翻訳の仕事に興味がある
●英語を生かした仕事をしたいけどどうしたらよいかわからない
●副業でもっと収入を得たい方
●英語を生かして在宅ワークをしたい、フリーランスとして独立したい方
●老後の収入を得たい方(翻訳に年齢は関係ありません)
という方必見!

翻訳に英語力はそこまでは重要ではありません!
英語力はTOEIC600点くらいで十分です。
翻訳の仕事では他のスキルの方が重要です。

翻訳の仕事はどういうものか?
仕事を獲得するにはどうすればいいのか?
いくらくらい稼げるのか?
英語力以外に必要な翻訳のスキルって?

現役のプロの翻訳家のセミナーが無料で視聴できます!

※普段ご使用のメールアドレスを入力ください。

2 件のコメント

  • AIが危険なのではなく、扱う人間が危険なのです。
    過信し、競争し、支配を目指し・・・人類の歴史で決して消えることのない人種。
    人脳の差別化は進みます。ある種の器機の多用に発達を阻まれた脳と、その機器を提供し続ける脳の、格差と差別。開発や発見の当事者たちは、後の世の使い方に責任を持ちません。その時、新しいおもちゃに夢中になる子供と共通するものがあります。しかし進歩と繁栄をもたらして来ました。そしてその代償も今多種多様にもたらして来ました。
    環境破壊は最たるものでしょう。そして人の退化。
    行きつく先は滅亡です。

  • コメントを残す

    メールアドレスが公開されることはありません。 * が付いている欄は必須項目です