TED日本語 - デイヴィッド・イーグルマン: 人間に新たな感覚を作り出すことは可能か?

TED日本語

TED Talks(英語 日本語字幕付き動画)

TED日本語 - デイヴィッド・イーグルマン: 人間に新たな感覚を作り出すことは可能か?

TED Talks

人間に新たな感覚を作り出すことは可能か?
Can we create new senses for humans?
デイヴィッド・イーグルマン
David Eagleman

内容

人間が感じ取れる光は全体の10兆分の1たらず ― 我々の経験する現実は、生物としての肉体に制約されているのだと神経科学者デイヴィッド・イーグルマンは言います。そして、彼はそれを変えたいと考えています。人の脳を研究する中から彼は「感覚チョッキ」のような新しいインタフェースを作り出し、身の回りの世界の今まで見えなかった情報を感じ取れるようにしています。

Script

We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.

Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.

Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.

Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.

Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.

Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)

So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.

So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.

Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.

But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.

So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.

Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.

Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.

The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.

So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.

So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.

So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days,two hours a day, and here he is on the fifth day.

Scott Novich: You.

David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.

SN: Where. Where.

DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.

SN: Touch. Touch.

DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.

Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?

So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then,two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)

Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.

We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.

And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.

So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.

So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?

Thank you.

(Applause)

Chris Anderson: Can you feel it? DE: Yeah.

Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)

CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?

DE: Well, that's right, I wouldn't have to write to NIH anymore.

CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?

DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't thing we have any reason to think there's a theoretical limit that we know the edge of.

CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.

CA: David Eagleman, that was one mind-blowing talk. Thank you very much.

DE: Thank you, Chris. (Applause)

私たちの体はとても 小さなものからできていて すごく大きな宇宙の中に いるわけですが そのようなスケールの世界を 私たちはあまり 上手く把握できません 私たちの脳は そういうスケールで世界を理解するようには 進化して来なかったからです

私たちの認識はむしろ 真ん中のほんの薄い領域に 捕らわれています さらにおかしなことに 私たちが自分の居場所と 思っている その薄い領域においてすら 私たちは起きていることの 多くを見てはいないのです たとえば世界の色を 例に取って見ましょう これは光波で 物に反射した電磁波が 目の後方にある専用の受容体に 当たることで認識されますが 私たちはすべての波長を 見ているわけではありません 実際私たちが 見ているのは 全体のほんの10兆分の1に すぎません だから電波や マイクロ波や X線やガンマ線が 今まさに 体を通り抜けているにも関わらず まったく気付かないのです それを捕らえられる 感覚受容体が 備わっていないからです 何千という携帯電話の会話が 今まさに 体を通り抜けているというのに それがまったく見えません

そういったものが本質的に見えない という訳ではありません ヘビに見えている世界には 赤外線の一部が含まれているし ミツバチが見る世界には 紫外線が含まれています そして私たちの車の ダッシュボードには ラジオ周波数帯の信号を 捕らえる機械があるし 病院にはX線領域の電磁波を 捕らえられる機械があります しかし私たち自身はそういったものを 感じ取ることができません 少なくとも今のところは そのためのセンサーを 備えていないからです

それが意味するのは 私たちの体験する現実は 生物としての肉体に 制約されているということです 私たちの目や耳や指先は 客観的な現実を 伝えているという 思い込みに反して 実際には私たちの脳は 世界のほんの一部を サンプリングしているに過ぎないのです

生き物の世界を 見渡してみれば 異なる生き物は世界の異なる部分を 見ているのが分かります 視覚も聴覚も欠く ダニの世界で 重要となるシグナルは 温度や酪酸です ブラック・ゴースト・ナイフフィッシュの 感覚世界は 電場で豊かに彩られています エコーロケーションする コウモリにとっての現実は 空気圧縮波から 構成されています それが彼らに捕らえられる 世界の断片なんです 科学でそれを指す 言葉があって Umwelt(環世界)と言います 「周りの世界」という意味の ドイツ語です どの生き物もきっと 自分の環世界が客観的現実のすべてだと 思っていることでしょう 立ち止まって 自分の感覚を越えた世界が あるかもしれないなどと 考えはしません 自分に与えられた現実を みんなただ受け入れるのです

ひとつ意識喚起をしましょう 自分がブラッドハウンド犬だと 思ってください 世界の中心にあるのは 「におい」です 2億という嗅覚受容体を備えた 長い鼻を持ち 濡れている鼻孔は においの分子を引き寄せて捕らえます 鼻孔には切れ目さえあって 鼻いっぱいに空気を取り込むことができます 犬はすべてを においで捕らえます ある日 ふと気づいて 足を止めるかもしれません そして飼い主の人間を見上げて 思います 「人間みたいに貧弱で情けない鼻を 持っているというのは どんなものなんだろう?」 (笑) 「空気をほんのちょびっとしか 取り込めず たった百メートル向こうに 猫がいることや お隣さんが6時間前この場所にいたことさえ 分からないというのは?」 (笑)

私たち人間は そのようなにおいの世界を 体験したことがないので そのことを特に 残念とも思いません 私たちは自分の環世界に すっかり馴染んでいるからです しかし私たちは ずっとそこに 捕らわれているしかないのでしょうか? 私は神経科学者として 技術が私たちの環世界を 拡張できる可能性や それが人間としての体験を いかに変えることになるかに興味があります

技術を生物的な肉体に組み込みうることを 私たちは知っています 何十万という人が 人工的な聴覚や視覚を使って 歩き回っています その仕組みは マイクを使って信号をデジタル化し 電極を直接内耳に繋ぐ あるいは網膜移植なら カメラを使って 信号をデジタル化し 格子状の電極を 視神経に直接繋ぎます 15年前という 比較的最近まで そういった技術はうまくいかないと 考える科学者がたくさんいました なぜならそういった技術が話すのは シリコンバレーの言葉で それは生物的感覚器官の言葉とは 違っているからです しかし実はうまくいくんです 脳はそういった信号の使い方を ちゃんと見つけられます

どのようにしてか? 実を言うと 脳というのはそういったものを 見も聞きもしてはいないのです 脳は音も光もない 頭蓋骨の中に収められています 脳が見るのは様々な ケーブルから入ってくる 電気化学的な信号だけです 脳が扱うものはそれだけです 脳というのは そのような信号を取り込んで パターンを抽出し 意味付けを行うことに 驚くほど巧みで この内的な宇宙から ストーリーをまとめ上げて 皆さんの主観的な世界を 作り出しているんです

ここで鍵になるのは 脳というのはそういうデータが どこから来ているのか知らないし 気にもしないということです 何であれ情報が入ってきたら 脳はその使い方を見つけ出すのです 脳というの とても効率的な機械です それは基本的には 汎用計算装置で どんなデータに対しても どう使えばいいか 見出すことができ 母なる自然が 様々な入力チャネルを作り出す 自由を生み出しています

私はこれを「進化のPHモデル」 と呼んでいます ここではあまり 専門用語を使いたくありませんが PHは「ポテト・ヘッド」の略です この名前を使っているのは 私たちがよく知り気に入っている感覚器というのは 目にせよ耳にせよ指先にせよ プラグアンドプレイの周辺装置に過ぎないことを 強調するためです 差し込むだけで準備OK 脳は入ってくるデータの 使い方を見つけ出します 動物の世界を見渡すと 様々な周辺機器が 見つかります ヘビには赤外線を感知する ピット器官があり ブラック・ゴースト・ナイフフィッシュには 電気受容器があり ホシバナモグラは 鼻先の22本の突起を使って 周囲を探って 世界の3次元モデルを作り出し 鳥類の多くは磁鉄鉱を備えていて 地球の磁場を感じ取れます これが意味するのは 自然は脳を再設計し続ける必要は ないということです 脳機能の基本が 確立されたなら あとは新たな周辺装置のデザインだけ 気にすればいいんです

それが意味するのは 我々に備わる器官は 別に特別で根本的なものではない ということです 進化の長い道のりで 受け継いできたもの というに過ぎず 我々はそれにしがみついている 必要はないのです そのことの良い例として 「感覚代行」と呼ばれる 現象があります これは通常とは 異なるチャネルを通じて 脳に情報を送るということで 脳はその情報をどうすべきか ちゃんと見つけ出します

空論に聞こえるかもしれませんが これを実証した最初の論文が 1969年のネイチャー誌に出ています ポール・バキリタという科学者が 改造した歯科用椅子に 盲人を座らせ ビデオカメラを設置して その前に何か物を置き 被験者はその映像を 格子状に並べた筒型コイルによって 背中で感じるようにしました だからコーヒーカップを カメラの前で動かすと それを背中に感じるわけです 盲目の人たちは背中の 小さな部分の刺激から カメラの前にあるものを 驚くほど正確に 言い当てられるようになりました その後これをより現代化したものが いろいろ現れました 「ソナー眼鏡」は 目の前にある物の映像を 音の風景に置き換えます 物が近づいたり 遠ざかったりすると 「ジジジ ジジジ ジジジ」 と音がします 雑音みたいですが 何週間かすると 盲目の人は その音をたよりに 目の前に何があるかを 非常に良く 把握できるようになります これは別に耳を使う必要はなく こちらのシステムでは 格子状の電気触覚を額に貼り付けて 目の前にあるものを 額で感じ取ります なぜ額かというと 他に大して使う用がないからです

最も新しい例は BrainPortと呼ばれるもので 小さな電極の格子を 舌に付け ビデオ映像を 電気触感信号に変換します 盲目の人はこれを驚くほどうまく使うことができ ボールをカゴに投げ入れたり 複雑な障害物コースを通り抜けたり できるようになります 舌で見るようになるんです 突拍子のない話に 聞こえるかもしれませんが 視覚は脳の中を流れる 電気化学的信号でしかない ということを 思い出してください 脳はその信号が どこから来たのか気にしません 単にそれをどう使ったら良いか 見出すんです

私の研究室で関心を持っているのは 聴覚障害者のための感覚代行です ご紹介するのは 私が大学院生のスコット・ノーヴィックと 一緒にやっているプロジェクトで 彼は博士論文に向けて この研究を主導しています 私たちがやりたいのは 周囲の音を 何らかの形に変換し 聴覚障害者が言われたことを 理解できるようにすることです 私たちは携帯機器の 性能と遍在性を生かし 携帯電話やタブレットで 使えるものにしたいと思いました またこれは身に付けて 服の下に着られるものに したいと思いました コンセプトを お目にかけましょう 私が話すと その音を タブレットが捕らえて チョッキに埋め込まれた たくさんのバイブレータに対応付けます 携帯に入っているような モーターを使っています 私が話した言葉が チョッキの振動パターンへと 変換されるわけです これはただの コンセプトではありません このタブレットはブルートゥース通信をしていて 私は今そのチョッキを身に付けています だから私がしゃべると ― (拍手) その音がダイナミックな 振動パターンへと変換されます これによって周囲の音響世界を 肌で感じ取ることができます

私たちはこれを聴覚障害者に 試してもらっていますが ほんのわずかな期間で チョッキの言葉を感じ取り 理解できるようになることが 分かりました

彼はジョナサン 37歳で 修士号を持っています 生まれもっての 重度聴覚障害者です 普通の人の環世界の一部が 彼には欠けているわけです それで彼にこのチョッキの訓練を4日間 日に2時間ずつしてもらい 5日目の様子がこちらです

(ノーヴィック) You

(イーグルマン) スコットが言葉を言い ジョナサンがそれをチョッキから感じ取って ホワイトボードに書いています

(ノーヴィック) Where

(イーグルマン) ジョナサンは 複雑な振動パターンを解釈して 言われた言葉を 理解することができます

(ノーヴィック) Touch

(イーグルマン) ジョナサンはこれを ― (拍手) 意識的にやっているわけではありません パターンがあまりにも複雑なためです 彼の脳がパターンを紐解いて データの意味を 理解するようになっているのです 私たちの予想では このチョッキを3ヶ月も着ていれば 彼は直接的な聴覚の感覚を 持つようになるでしょう ちょうど盲目の人が 点字の上に指を滑らせたときに 意識的な努力なしに 意味が直接ページから 飛び込んでくるように感じるのと同じように この技術は大きな変化をもたらす 可能性を持っています 現在 聴覚障害の唯一の解決法は 人工内耳ですが それには外科手術が必要です しかもこのチョッキは人工内耳の 40分の1以下の値段で作ることができ この技術を広く世界に 最も貧しい国々にも行き渡らせることができます

私たちは感覚代行での結果に 強く勇気づけられ 「感覚追加」について 考えるようになりました このような技術を使って まったく新しい感覚を 人間の環世界に付け加えることは できないでしょうか? たとえばインターネットから リアルタイムデータを 直接人の脳に送り込んで 直接的な認知経験を発達させることは できないでしょうか?

これは私たちの研究室で やっている実験ですが 被験者はインターネットからの リアルタイムデータを 5秒間体感します その後2つのボタンが現れ どちらかを選択します 被験者は何のデータか知りません 選択が正しかったか 1秒後にフィードバックが与えられます ここで見たいのは 被験者はパターンが何を意味するのか 知らないわけですが どちらのボタンを押せばよいか 正しく判断できるようになるかどうかです 被験者は私たちの 送っているデータが 株式市場のリアルタイムデータで 自分がボタンで売買の選択を していることを知りません (笑) フィードバックで正しい選択を したかどうか伝えています 私たちが見たいのは 何週間かの訓練の後に 世界経済の動きを 直接把握する感覚を持つように 人間の環世界を拡張することは 可能かということです 結果がどういうことになったか 追ってご報告します (笑)

これは私たちが試している もう1つのことですが 今朝のこのセッションの間 TED2015のハッシュタグが ついたツイートを 自動的に集めて センチメント分析にかけています みんなが肯定的な言葉を使っているか 否定的な言葉を使っているかということです この講演の間ずっと 私はこれを感じていました 私は何千という人々の 集合的な感情に リアルタイムで 繋がっているわけで これは人にとって 新しい種類の経験です みんなが今どうしていて どれくらいこれを楽しんでいるか判るんですから (笑) (拍手) これは人が通常体験できるよりも 大きなものです

私たちはまたパイロットの環世界を 拡張しようとしています ここではチョッキに クアッドコプターから 9種類のデータ ― ピッチ ヨー ロール 方位 方向などが送られていて パイロットの操縦能力を 向上させています パイロットの皮膚感覚が遙か向こうの機体にまで 拡張されているようなものです

これはとっかかりに 過ぎません 私たちはこれを計器で埋められた 現代的なコックピットに適用したいと考えています 個々の計器を読み取る代わりに 感じ取れるようにしたいのです 私たちは情報の世界に 生きていますが ビッグデータに アクセスするのと それを肌で感じ取るということの間には 違いがあります

人間の地平を拡張することの 可能性には 本当に限りがないと思います たとえば 宇宙飛行士が 国際宇宙ステーション全体の状態を 感じ取れるというのを 想像してみてください あるいは自分の体の血糖値や マイクロバイオームの状態といった 見えない健康状態を 感じ取れるというのを あるいは360度の視覚や 赤外線や紫外線の視覚を持つというのを

ここで鍵となるのは 未来へと進む中で 私たちは自らの周辺機器を 選んでいけるようになるだろうということです 母なる自然が長いタイムスケールで 感覚器官を与えてくれるのを 待つ必要はありません 良い親が皆するように 世界に出て行って進む道を決めるために必要な道具は 既に与えてくれているのですから 今 私たちが問うべきことは 自分の世界をどう体験し 探索したいかということです

ありがとうございました

(スタンディングオベーション)

(アンダーソン) これ 感じていますか? (イーグルマン) ええ

このチョッキで拍手を感じるのは初めてですが 良い気持ちです マッサージされているみたい (笑)

(アンダーソン) ツイッターでみんな熱狂し 驚喜している! 例の株式市場の実験ですが もし成功すれば 研究資金に困ることは もうなくなりますね?

(イーグルマン) そうですね もう国立衛生研究所に 提案を書かなくて済みます

(アンダーソン) ちょっとの間だけ 懐疑的な見方をしてみましょう これはすごいものだと思いますが これまで得られた結果の多くは 感覚代行が機能するということで それは必ずしも感覚追加がうまくいく ということではありませんよね? 盲目の人が舌で 見ることができるのは 視覚中枢があって 情報処理できるからで それが必要な構成要素だという 可能性はありませんか?

(イーグルマン) 良い質問です 実のところ 脳はどのようなデータを取り込めるのか 理論的な限界を私たちは知りません しかし一般論として ものすごく柔軟だとは言えます 人が視覚を失うと 視覚中枢が 他のものに引き継がれることになります 触覚や 聴覚や 言葉によって それから分かるのは 皮質は単機能で 単にある種の計算を行う ということです たとえば点字のようなものに 目を向けると 指で感じるでこぼこから 情報を受け取っているのです 理論的な限界があると 信ずべき理由は ないと思います

(アンダーソン) それが正しいとなったら みんな殺到することでしょう 非常に多くの応用が可能です その準備はできていますか? もっとも期待していること これが進む方向はどのようなものだと思いますか? (イーグルマン) 応用はとても たくさんあると思います 感覚代行を越えるという意味では 宇宙ステーションの宇宙飛行士 という話をしましたが 監視に多くの時間費やす代わりに 状況を感じ取れるようになるのではと思います これが特に適しているのは 多次元データだからです 鍵となるのは 私たちの視覚システムは 塊や境界を検出するのには優れていますが 世界の状態を把握するのは うまくないことです 無数のデータを表示する たくさんの画面を 1つひとつ注意して 見ていく必要があります だからこれは物事の状態を 感覚的に把握する方法になると思います 何もしないでいても 自分の体の状態を知ることができるように 重機や 安全性 工場や装置の 状態を感じ取るというのは すぐに応用できる 領域だと思います

(アンダーソン) デイヴィッド 本当に驚嘆させられる話でした どうもありがとう

(イーグルマン) ありがとう クリス (拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

関連動画