TED日本語 - サム・ハリス: 人間より優れた人工知能を作って制御を失わずにいることは可能か?

TED日本語

TED Talks(英語 日本語字幕付き動画)

TED日本語 - サム・ハリス: 人間より優れた人工知能を作って制御を失わずにいることは可能か?

TED Talks

人間より優れた人工知能を作って制御を失わずにいることは可能か?

Can we build AI without losing control over it?

サム・ハリス

Sam Harris

内容

高度な知性を持つAI(人工知能)を怖いと感じますか?神経科学者であり思想家であるサム・ハリスは、単に理論的な可能性としてでなく、実際に怖れるべきだと警告します。人間を超える知力を持つAIがやがて作られることになるが、人間がアリを扱うように人間を扱うAIを作ることの問題に、我々はきちんと向き合っていないと、彼は指摘します。

字幕

SCRIPT

Script

I'm going to talk about a failure of intuition that many of us suffer from. It's really a failure to detect a certain kind of danger. I'm going to describe a scenario that I think is both terrifying and likely to occur, and that's not a good combination, as it turns out. And yet rather than be scared, most of you will feel that what I'm talking about is kind of cool.

I'm going to describe how the gains we make in artificial intelligence could ultimately destroy us. And in fact, I think it's very difficult to see how they won't destroy us or inspire us to destroy ourselves. And yet if you're anything like me, you'll find that it's fun to think about these things. And that response is part of the problem. OK? That response should worry you. And if I were to convince you in this talk that we were likely to suffer a global famine, either because of climate change or some other catastrophe, and that your grandchildren, or their grandchildren, are very likely to live like this, you wouldn't think, "Interesting. I like this TED Talk."

Famine isn't fun. Death by science fiction, on the other hand, is fun, and one of the things that worries me most about the development of AI at this point is that we seem unable to marshal an appropriate emotional response to the dangers that lie ahead. I am unable to marshal this response, and I'm giving this talk.

It's as though we stand before two doors. Behind door number one, we stop making progress in building intelligent machines. Our computer hardware and software just stops getting better for some reason. Now take a moment to consider why this might happen. I mean, given how valuable intelligence and automation are, we will continue to improve our technology if we are at all able to. What could stop us from doing this? A full-scale nuclear war? A global pandemic? An asteroid impact? Justin Bieber becoming president of the United States?

(Laughter)

The point is, something would have to destroy civilization as we know it. You have to imagine how bad it would have to be to prevent us from making improvements in our technology permanently, generation after generation. Almost by definition, this is the worst thing that's ever happened in human history.

So the only alternative, and this is what lies behind door number two, is that we continue to improve our intelligent machines year after year after year. At a certain point, we will build machines that are smarter than we are, and once we have machines that are smarter than we are, they will begin to improve themselves. And then we risk what the mathematician IJ Good called an "intelligence explosion," that the process could get away from us.

Now, this is often caricatured, as I have here, as a fear that armies of malicious robots will attack us. But that isn't the most likely scenario. It's not that our machines will become spontaneously malevolent. The concern is really that we will build machines that are so much more competent than we are that the slightest divergence between their goals and our own could destroy us.

Just think about how we relate to ants. We don't hate them. We don't go out of our way to harm them. In fact, sometimes we take pains not to harm them. We step over them on the sidewalk. But whenever their presence seriously conflicts with one of our goals, let's say when constructing a building like this one, we annihilate them without a qualm. The concern is that we will one day build machines that, whether they're conscious or not, could treat us with similar disregard.

Now, I suspect this seems far-fetched to many of you. I bet there are those of you who doubt that superintelligent AI is possible, much less inevitable. But then you must find something wrong with one of the following assumptions. And there are only three of them.

Intelligence is a matter of information processing in physical systems. Actually, this is a little bit more than an assumption. We have already built narrow intelligence into our machines, and many of these machines perform at a level of superhuman intelligence already. And we know that mere matter can give rise to what is called "general intelligence," an ability to think flexibly across multiple domains, because our brains have managed it. Right? I mean, there's just atoms in here, and as long as we continue to build systems of atoms that display more and more intelligent behavior, we will eventually, unless we are interrupted, we will eventually build general intelligence into our machines.

It's crucial to realize that the rate of progress doesn't matter, because any progress is enough to get us into the end zone. We don't need Moore's law to continue. We don't need exponential progress. We just need to keep going.

The second assumption is that we will keep going. We will continue to improve our intelligent machines. And given the value of intelligence -- I mean, intelligence is either the source of everything we value or we need it to safeguard everything we value. It is our most valuable resource. So we want to do this. We have problems that we desperately need to solve. We want to cure diseases like Alzheimer's and cancer. We want to understand economic systems. We want to improve our climate science. So we will do this, if we can. The train is already out of the station, and there's no brake to pull.

Finally, we don't stand on a peak of intelligence, or anywhere near it, likely. And this really is the crucial insight. This is what makes our situation so precarious, and this is what makes our intuitions about risk so unreliable.

Now, just consider the smartest person who has ever lived. On almost everyone's shortlist here is John von Neumann. I mean, the impression that von Neumann made on the people around him, and this included the greatest mathematicians and physicists of his time, is fairly well-documented. If only half the stories about him are half true, there's no question he's one of the smartest people who has ever lived. So consider the spectrum of intelligence. Here we have John von Neumann. And then we have you and me. And then we have a chicken.

(Laughter)

Sorry, a chicken.

(Laughter)

There's no reason for me to make this talk more depressing than it needs to be.

(Laughter)

It seems overwhelmingly likely, however, that the spectrum of intelligence extends much further than we currently conceive, and if we build machines that are more intelligent than we are, they will very likely explore this spectrum in ways that we can't imagine, and exceed us in ways that we can't imagine.

And it's important to recognize that this is true by virtue of speed alone. Right? So imagine if we just built a superintelligent AI that was no smarter than your average team of researchers at Stanford or MIT. Well, electronic circuits function about a million times faster than biochemical ones, so this machine should think about a million times faster than the minds that built it. So you set it running for a week, and it will perform 20,000 years of human-level intellectual work, week after week after week. How could we even understand, much less constrain, a mind making this sort of progress?

The other thing that's worrying, frankly, is that, imagine the best case scenario. So imagine we hit upon a design of superintelligent AI that has no safety concerns. We have the perfect design the first time around. It's as though we've been handed an oracle that behaves exactly as intended. Well, this machine would be the perfect labor-saving device. It can design the machine that can build the machine that can do any physical work, powered by sunlight, more or less for the cost of raw materials. So we're talking about the end of human drudgery. We're also talking about the end of most intellectual work.

So what would apes like ourselves do in this circumstance? Well, we'd be free to play Frisbee and give each other massages. Add some LSD and some questionable wardrobe choices, and the whole world could be like Burning Man.

(Laughter)

Now, that might sound pretty good, but ask yourself what would happen under our current economic and political order? It seems likely that we would witness a level of wealth inequality and unemployment that we have never seen before. Absent a willingness to immediately put this new wealth to the service of all humanity, a few trillionaires could grace the covers of our business magazines while the rest of the world would be free to starve.

And what would the Russians or the Chinese do if they heard that some company in Silicon Valley was about to deploy a superintelligent AI? This machine would be capable of waging war, whether terrestrial or cyber, with unprecedented power. This is a winner-take-all scenario. To be six months ahead of the competition here is to be 500,000 years ahead, at a minimum. So it seems that even mere rumors of this kind of breakthrough could cause our species to go berserk.

Now,one of the most frightening things, in my view, at this moment, are the kinds of things that AI researchers say when they want to be reassuring. And the most common reason we're told not to worry is time. This is all a long way off, don't you know. This is probably 50 or 100 years away. One researcher has said, "Worrying about AI safety is like worrying about overpopulation on Mars." This is the Silicon Valley version of "don't worry your pretty little head about it."

(Laughter)

No one seems to notice that referencing the time horizon is a total non sequitur. If intelligence is just a matter of information processing, and we continue to improve our machines, we will produce some form of superintelligence. And we have no idea how long it will take us to create the conditions to do that safely. Let me say that again. We have no idea how long it will take us to create the conditions to do that safely.

And if you haven't noticed,50 years is not what it used to be. This is 50 years in months. This is how long we've had the iPhone. This is how long "The Simpsons" has been on television. Fifty years is not that much time to meet one of the greatest challenges our species will ever face. Once again, we seem to be failing to have an appropriate emotional response to what we have every reason to believe is coming.

The computer scientist Stuart Russell has a nice analogy here. He said, imagine that we received a message from an alien civilization, which read: "People of Earth, we will arrive on your planet in 50 years. Get ready." And now we're just counting down the months until the mothership lands? We would feel a little more urgency than we do.

Another reason we're told not to worry is that these machines can't help but share our values because they will be literally extensions of ourselves. They'll be grafted onto our brains, and we'll essentially become their limbic systems. Now take a moment to consider that the safest and only prudent path forward, recommended, is to implant this technology directly into our brains. Now, this may in fact be the safest and only prudent path forward, but usually one's safety concerns about a technology have to be pretty much worked out before you stick it inside your head.

(Laughter)

The deeper problem is that building superintelligent AI on its own seems likely to be easier than building superintelligent AI and having the completed neuroscience that allows us to seamlessly integrate our minds with it. And given that the companies and governments doing this work are likely to perceive themselves as being in a race against all others, given that to win this race is to win the world, provided you don't destroy it in the next moment, then it seems likely that whatever is easier to do will get done first.

Now, unfortunately, I don't have a solution to this problem, apart from recommending that more of us think about it. I think we need something like a Manhattan Project on the topic of artificial intelligence. Not to build it, because I think we'll inevitably do that, but to understand how to avoid an arms race and to build it in a way that is aligned with our interests. When you're talking about superintelligent AI that can make changes to itself, it seems that we only have one chance to get the initial conditions right, and even then we will need to absorb the economic and political consequences of getting them right.

But the moment we admit that information processing is the source of intelligence, that some appropriate computational system is what the basis of intelligence is, and we admit that we will improve these systems continuously, and we admit that the horizon of cognition very likely far exceeds what we currently know, then we have to admit that we are in the process of building some sort of god. Now would be a good time to make sure it's a god we can live with.

Thank you very much.

(Applause)

我々の多くが抱えている ― 直感の誤りについて お話しします 正確には ある種の危険を 察知し損なうということです これから説明するシナリオは 私の考えでは 恐ろしいと同時に 起こりそうなことでもあります ありがたくない組み合わせですね 考えてみたら しかも 多くの人が それを恐れるよりは 素敵なことのように 感じています

人工知能によって 我々がどのように利益を得 そして最終的には 破滅を招きかねないか お話しします 人工知能が人類を破滅させたり 自滅に追い込んだりしないシナリオは 実際 考えにくい気がします それでも皆さんが 私と同じなら そういったことについて考えるのは 楽しいことでしょう その反応自体が問題なのです そういう反応は 懸念すべきです 仮にこの講演で 私の訴えていることが 地球温暖化や 何かの大異変のため 世界的な飢饉がやってくる ということだったとしましょう 私たちの孫や その孫の世代は この写真のような 有様になるんだと その場合 こうは思わないでしょう 「やあ 面白いな このTEDトーク気に入ったよ」

飢饉は楽しいものではありません 一方で SFの中の破滅は 楽しいものなのです 今の時点で AIの発展について 私が最も懸念するのは 将来に待ち受けている危険に対して 我々が感情的に適切な反応を できずにいることです こう話している私自身 そういう反応をできずにいます

我々は2つの扉を前に 立っているようなものです 1つ目の扉の先には 知的な機械の開発をやめるという 道があります ハードウェアやソフトウェアの進歩が 何らかの理由で止まるのです そういうことが起きうる要因を ちょっと考えてみましょう 自動化やインテリジェント化によって 得られる価値を考えれば 人間は可能な限り テクノロジーを進歩させ続けるはずです それが止まるとしたら 理由は何でしょう? 全面核戦争とか 世界的な疫病の大流行とか 小惑星の衝突とか ジャスティン・ビーバーの 大統領就任とか

(笑)

要は 何かで現在の文明が 崩壊する必要があるということです それがどんなに ひどい事態であるはずか 考えてみてください 技術の進歩を 幾世代にもわたり 半永久的に妨げるようなことです ほぼ間違いなく 人類史上 最悪の出来事でしょう

もう1つの選択肢 2番目の扉の 向こうにあるのは 知的な機械の進歩が ずっと続いていく未来です するとどこかの時点で 人間よりも 知的な機械を作ることになるでしょう そしてひとたび 人間より知的な機械が生まれたなら 機械は自分で 進化していくでしょう そうなると我々は 数学者 I・J・グッドが言うところの 「知能爆発」のリスクに直面します 進歩のプロセスが 人間の手を離れてしまうのです

それはこの絵のような 悪意を持つロボットの大群に 襲われる恐怖として よく戯画化されています でもそれは ごくありそうな シナリオではないでしょう 別に機械が悪意に目覚めるという わけではありません 本当に 心配すべきなのは 人間よりもはるかに優れた 機械を作ってしまうと 人間と機械の目的の ほんのわずかなズレによって 人類が破滅しかねないということです

人類がアリのような存在になると 考えるといいです 我々は アリが嫌いなわけではなく わざわざ 潰しに 行きはしません 潰してしまわないように 気を遣いさえして アリを避けて歩きます でもアリの存在が 我々の目的と衝突した時 ― たとえばこんな建造物を 作るという場合には 良心の呵責なしに アリを全滅させてしまいます 私が懸念するのは 意識的にせよ無意識にせよ 人類をそのように軽く扱う機械を 我々がいつか作ってしまうことです

考えすぎだと 多くの方は 思っていることでしょう 超知的AIの実現可能性を疑問視し ましてや不可避などとは 思わない人もいるでしょう でも それなら これから挙げる仮定に 間違いを見つけてほしいものです 仮定は3つだけです

知性とは物質的なシステムにおける 情報処理である 実際これは 仮定以上のものです 狭い意味での知性なら もう機械で作り出されており そのような機械はすでに 人間を超える水準に 達しています そして様々な分野にわたって 柔軟に思考できる能力である 「汎用知能」は 物質で構成可能なことを 我々は知っています なぜなら人間の脳が そうだからです ここにあるのは ただの原子の塊です より知的な振る舞いをする 原子でできたシステムの構築を 続けていくなら 何かで中断させられない限りは いつか汎用知能を 機械で作り出すことに なるでしょう

重要なのは ここで進歩のスピードは 問題ではないことです どんな進歩であれ そこに至るのに十分だからです ムーアの法則の持続も 指数爆発的な進歩も必要ありません ただ続けていくだけでいいのです

第2の仮定は 人間が進み続けていくこと 我々が知的な機械の 改良を続けていくことです 知性の価値を考えてください 知性は 我々が価値を置くもの すべての源泉 価値を置くものを守るために 必要なものです 我々が持つ 最も貴重なリソースです 我々は それを必要としています 我々は解決すべき問題を 抱えています アルツハイマーやガンのような病気を 治したいと思っています 経済の仕組みを理解したい 気象科学をもっと良くしたいと思っています だから 可能であれば やるはずです 列車はすでに駅を出発していて ブレーキはありません

3番目は 人間は知性の 頂点にはおらず その近くにすら いないということ これは重要な洞察であり 我々の状況を 危うくするものです これはまた リスクについての我々の勘が 当てにならない理由でもあります

史上最も頭の良い人間について 考えてみましょう ほぼ必ず上がってくる名前に フォン・ノイマンがあります ノイマンの周囲には 当時の最も優れた数学者や 物理学者がいたわけですが 人々がノイマンから受けた印象については いろいろ記述されています ノイマンにまつわる話で 半分でも 正しいものが 半分だけだったとしても 疑いなく彼は これまでに生きた最も頭の良い 人間の1人です 知能の分布を考えてみましょう ここにフォン・ノイマンがいて この辺に私や皆さんがいて この辺にニワトリがいます

(笑)

失敬 ニワトリはこの辺です

(笑)

元々滅入る話をさらに滅入るものに することもないでしょう

(笑)

知能の分布には 今の我々に想像できるよりも はるかに大きな広がりが あることでしょう そして我々が 人間よりも知的な機械を作ったなら それはこの知能の地平を 我々の想像が 及ばないくらい遠くまで 進んでいくことでしょう

重要なのは スピードの点だけを取っても それは確かだということです スタンフォードやMITの 平均的な研究者並みの 知能を持つ 超知的AIができたとしましょう 電子回路は 生化学的回路より 100万倍も高速に稼働します その機械は それを作り出した頭脳よりも 100万倍速く 働くということです だから1週間稼働させておくと 人間並みの知的作業を 2万年分こなすことになります 毎週毎週です そのような進歩をする頭脳は 抑えるどころか理解することすら おぼつかないでしょう

正直言って 心配なことが他にもあります それなら最良のシナリオは どんなものでしょう? 安全性について心配のない 超知的AIのデザインを 思い付いたとします 完璧なデザインを 最初に手にすることができた 神のお告げで 与えられたかのように まったく意図したとおりに 振る舞います その機械は人間の労働を不要にする 完璧な装置になります どんな肉体労働もこなす 機械を作るための 機械をデザインでき 太陽光で稼働し 原材料費くらいしか かかりません 人間は苦役から 解放されます 知的な仕事の多くすら 不要になります

そのような状況で 我々のようなサルは 何をするのでしょう? 気ままにフリスビーしたり マッサージし合ったりでしょうか それにLSDと奇抜な服を加えるなら 世界中がバーニングマンの お祭りのようになるかもしれません

(笑)

それも結構かもしれませんが 現在の政治経済状況の元で どんなことが起きるだろうか 考えてみてください 経済格差や失業が かつてない規模で生じる 可能性が高いでしょう この新しい富を即座に 全人類に進んで 提供する気がなければ 一握りの兆万長者が ビジネス誌の表紙を飾る一方で 残りの人々は 飢えることになるでしょう

シリコンバレーの会社が 超知的AIを展開しようと していると聞いたら ロシアや中国は どうするでしょう? その機械は 地上戦であれ サイバー戦であれ かつてない力でもって 戦争を遂行する能力があります 勝者がすべてを手にするシナリオです 競争で半年 先んじることで 少なくとも50万年分 先を行くことができるのです そのような技術革新の 噂だけでも 世界中が大騒ぎに なるでしょう

今の時点で私が いちばんゾッとするのは AI研究者が 安心させようとして 言うたぐいのことです 心配すべきでない理由として よく言われるのは 時間です そんなのは ずっと先の話で 50年とか100年も先の話だと ある研究者は 「AIの安全性を懸念するのは 火星の人口過剰を心配するようなものだ」と 言っています これは「あなたの小さな頭を そんなことで悩ませないで」というやつの シリコンバレー版です

(笑)

誰も気付いていないように見えるのは 時間的スケールは この際 無関係だということです 知性の実体が 情報処理にすぎず 人類が 機械の改良を 続けていくなら いずれ何らかの形の 超知性を生み出すことになるでしょう それを安全に行える 条件を作り出すのに どれくらい時間がかかるのか 我々には 見当も付きません もう一度言いましょう それを安全に行える条件を作り出すのに どれくらい時間がかかるのか 我々には 見当も付きません

今の50年というのは かつての50年とは違っています これは 50年を月の数で表したものです これはiPhoneが登場してからの時間 これは『シンプソンズ』の放送が 始まってからの時間 人類最大の難問に 取り組む時間としては 50年というのは そんなに 長いものではありません 繰り返しになりますが 必ずやってくると思われるものに対して 我々は感情的に適切な反応を できずにいるようです

コンピューター科学者のスチュワート・ラッセルが うまい例えをしています 異星の文明から こんなメッセージを受け取ったと 想像してください 「地球の諸君 あと50年で 我々はそちらに着く 準備されたし」 我々は 彼らの母船が着陸する時を ただ指折り数えて待つのでしょうか? もう少し 切迫感を抱くのでは ないかと思います

心配無用だとされる 別の理由は そういった機械は 人間の延長であり 人間と同じ価値観を 持つはずだというものです 我々の脳に接続され 人間はその辺縁系のような 存在になるのだと ちょっと考えてほしいんですが 最も安全で 唯一分別のあるやり方として 勧められているのは その技術を直接自分の脳に 埋め込むことだと言うのです それは実際に 最も安全で 唯一分別のあるやり方なのかもしれませんが テクノロジーに対する安全性の懸念は ふつうであれば ― 頭に埋め込む前に 解消されているべきではないでしょうか

(笑)

より根深い問題点は 超知的AIを作ること自体は 超知的AIを作り かつ それを人間の脳に統合するための 神経科学を完成させることよりは 簡単だろうということです これに取り組む国や企業は 他の国や企業と競争を していると認識しており 勝者が全世界を 手に入れられるのだとすれば ― 次の瞬間に破滅させて いたら別ですが ― そのような状況においては 何にせよ簡単な方が 先に成し遂げられることでしょう

あいにく 私はこの問題への答えを 持ち合わせてはおらず ただもっと考えてみるように お勧めするだけです 人工知能のための 「マンハッタン計画」のようなものが 必要なのではないかと思います 作るためではありません それは不可避でしょうから 軍拡競争のようになるのを いかに避けられるか探り 人類の利益にかなうように それが作られるようにするためです 超知的AIが 自身を変えていけることを考えると それを正しく作れるチャンスは 1度しかないでしょう しかもその上で それを正しくやるための 政治的・経済的な帰結を 受け入れる必要があります

知性の源は情報処理だと ― 知性の基礎をなしているのは ある種の計算システムであるということを認め 人類がそういうシステムを継続的に 改良していくだろうことを認め そして認知の地平は 我々に今分かっているよりも はるか遠くまで 続いているであろうことを認めるとき 我々はある種の神を 作ろうとしていることを 認めないわけにはいかないでしょう その神が一緒にやっていける相手か 確認したいなら 今がその時です

ありがとうございました

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

TED 日本語

TED Talks

関連動画

洋楽 おすすめ

RECOMMENDS

洋楽歌詞