読者です 読者をやめる 読者になる 読者になる

18卒理系就活生のブログ

今年中にあと100回更新しまーす(9/6から)

人工知能の危険性2

テクノロジー

 

 

またまた人工知能についてです。

 

昔の人工知能は人間が指示した通りにしか動かなかったのですが、機械学習の進歩により、人間の幼児と同じ様に、機械がデータから勝手に特徴を見つけて学習できるようになりました。

 

コンピューターの電子回路は、人間の脳とは比べ物にならないぐらいの情報量を、比べ物にならないスピードで処理することができます。

人工知能はどんどん発達していって、いずれ人間より賢くなるでしょう。(今でも一部の能力では人間を凌駕しています。)

それでもターミネーターみたいな、人間に刃向かうロボットができるかどうかはわかりません。

問題はそこではなくて、コンピューターが人間も思いつかないような目的達成手段を取り得るということです。

例えば、ある難解な数学の問題を解かせようとすると、コンピューターが自らの計算能力を上げるために、世界中のコンピューターをハッキングして計算させ出すといった風に。

 

コンピューターは"最適"なソリューションを見つけるのが得意です。

その"最適"なソリューションが、人間の道徳に反したり、時には危険をもたらす可能性があるということに問題があります。

 

Bostrom氏はコンピューターに道徳を学ばせることで、この問題は解決できると言っています。

だとすると、真に問題となるのはコンピューターの倫理観ではなくて、研究者、開発者の倫理観なのかもしれません。