TED日本語 - ポピー・クラム: 人の感情を読むテクノロジー

TED日本語

プレゼンテーション動画

TED日本語 - ポピー・クラム: 人の感情を読むテクノロジー

TED Talks

人の感情を読むテクノロジー
Technology that knows what you're feeling
ポピー・クラム
Poppy Crum

内容

テクノロジーが私達のことを私達自身よりもよく知るようになったらどうなるでしょう?感情が外面にどう現れるかを研究しているポピー・クラムは、ポーカーフェイスはもう終わりだと言います。新技術によって私達の感情を示す兆候が容易に検出できるようになっているためです。彼女は講演とデモを通し、「共感のテクノロジー」を使って、体温や呼気の成分といった肉体的な兆候から感情を読み取れることを示します。良くも悪くも、「技術によって共感能力者となることの効力を認めるなら、感情的、認知的な分断をテクノロジーで橋渡しできる可能性が生まれる」のだと彼女は言います。

Script

What happens when technology knows more about us than we do? A computer now can detect our slightest facial microexpressions and be able to tell the difference between a real smile and a fake one. That's only the beginning. Technology has become incredibly intelligent and already knows a lot about our internal states. And whether we like it or not, we already are sharing parts of our inner lives that's out of our control. That seems like a problem, because a lot of us like to keep what's going on inside from what people actually see. We want to have agency over what we share and what we don't. We all like to have a poker face.

But I'm here to tell you that I think that's a thing of the past. And while that might sound scary, it's not necessarily a bad thing. I've spent a lot of time studying the circuits in the brain that create the unique perceptual realities that we each have. And now I bring that together with the capabilities of current technology to create new technology that does make us better, feel more, connect more. And I believe to do that, we have to be OK losing some of our agency.

With some animals, it's really amazing, and we get to see into their internal experiences. We get this upfront look at the mechanistic interaction between how they respond to the world around them and the state of their biological systems. This is where evolutionary pressures like eating, mating and making sure we don't get eaten drive deterministic behavioral responses to information in the world. And we get to see into this window, into their internal states and their biological experiences. It's really pretty cool. Now, stay with me for a moment -- I'm a violinist, not a singer. But the spider's already given me a critical review.

(Video) (Singing in a low pitch)

(Singing in a middle pitch)

(Singing in a high pitch)

(Singing in a low pitch)

(Singing in a middle pitch)

(Singing in a high pitch)

(Laughter)

Poppy Crum: It turns out, some spiders tune their webs like violins to resonate with certain sounds. And likely, the harmonics of my voice as it went higher coupled with how loud I was singing recreated either the predatory call of an echolocating bat or a bird, and the spider did what it should. It predictively told me to bug off. I love this. The spider's responding to its external world in a way that we get to see and know what's happening to its internal world. Biology is controlling the spider's response; it's wearing its internal state on its sleeve.

But us, humans -- we're different. We like to think we have cognitive control over what people see, know and understand about our internal states -- our emotions, our insecurities, our bluffs, our trials and tribulations -- and how we respond. We get to have our poker face.

Or maybe we don't. Try this with me. Your eye responds to how hard your brain is working. The response you're about to see is driven entirely by mental effort and has nothing to do with changes in lighting. We know this from neuroscience. I promise, your eyes are doing the same thing as the subject in our lab, whether you want them to or not. At first, you'll hear some voices. Try and understand them and keep watching the eye in front of you. It's going to be hard at first, one should drop out, and it should get really easy. You're going to see the change in effort in the diameter of the pupil.

(Video) (Two overlapping voices talking)

(Single voice) Intelligent technology depends on personal data.

(Two overlapping voices talking)

(Single voice) Intelligent technology depends on personal data.

PC: Your pupil doesn't lie. Your eye gives away your poker face. When your brain's having to work harder, your autonomic nervous system drives your pupil to dilate. When it's not, it contracts. When I take away one of the voices, the cognitive effort to understand the talkers gets a lot easier. I could have put the two voices in different spatial locations, I could have made one louder. You would have seen the same thing. We might think we have more agency over the reveal of our internal state than that spider, but maybe we don't.

Today's technology is starting to make it really easy to see the signals and tells that give us away. The amalgamation of sensors paired with machine learning on us, around us and in our environments, is a lot more than cameras and microphones tracking our external actions.

Our bodies radiate our stories from changes in the temperature of our physiology. We can look at these as infrared thermal images showing up behind me, where reds are hotter and blues are cooler. The dynamic signature of our thermal response gives away our changes in stress, how hard our brain is working, whether we're paying attention and engaged in the conversation we might be having and even whether we're experiencing a picture of fire as if it were real. We can actually see people give off heat on their cheeks in response to an image of flame.

But aside from giving away our poker bluffs, what if dimensions of data from someone's thermal response gave away a glow of interpersonal interest? Tracking the honesty of feelings in someone's thermal image might be a new part of how we fall in love and see attraction. Our technology can listen, develop insights and make predictions about our mental and physical health just by analyzing the timing dynamics of our speech and language picked up by microphones. Groups have shown that changes in the statistics of our language paired with machine learning can predict the likelihood someone will develop psychosis.

I'm going to take it a step further and look at linguistic changes and changes in our voice that show up with a lot of different conditions. Dementia, diabetes can alter the spectral coloration of our voice. Changes in our language associated with Alzheimer's can sometimes show up more than 10 years before clinical diagnosis. What we say and how we say it tells a much richer story than we used to think. And devices we already have in our homes could, if we let them, give us invaluable insight back. The chemical composition of our breath gives away our feelings. There's a dynamic mixture of acetone, isoprene and carbon dioxide that changes when our heart speeds up, when our muscles tense, and all without any obvious change in our behaviors.

Alright, I want you to watch this clip with me. Some things might be going on on the side screens, but try and focus on the image in the front and the man at the window.

(Eerie music)

(Woman screams)

PC: Sorry about that. I needed to get a reaction.

(Laughter)

I'm actually tracking the carbon dioxide you exhale in the room right now. We've installed tubes throughout the theater, lower to the ground, because CO2 is heavier than air. But they're connected to a device in the back that lets us measure, in real time, with high precision, the continuous differential concentration of CO2. The clouds on the sides are actually the real-time data visualization of the density of our CO2. You might still see a patch of red on the screen, because we're showing increases with larger colored clouds, larger colored areas of red. And that's the point where a lot of us jumped. It's our collective suspense driving a change in carbon dioxide. Alright, now, watch this with me one more time.

(Cheerful music)

(Woman laughs)

PC: You knew it was coming. But it's a lot different when we changed the creator's intent. Changing the music and the sound effects completely alter the emotional impact of that scene. And we can see it in our breath. Suspense, fear, joy all show up as reproducible, visually identifiable moments. We broadcast a chemical signature of our emotions. It is the end of the poker face.

Our spaces, our technology will know what we're feeling. We will know more about each other than we ever have. We get a chance to reach in and connect to the experience and sentiments that are fundamental to us as humans in our senses, emotionally and socially. I believe it is the era of the empath. And we are enabling the capabilities that true technological partners can bring to how we connect with each other and with our technology. If we recognize the power of becoming technological empaths, we get this opportunity where technology can help us bridge the emotional and cognitive divide. And in that way, we get to change how we tell our stories. We can enable a better future for technologies like augmented reality to extend our own agency and connect us at a much deeper level.

Imagine a high school counselor being able to realize that an outwardly cheery student really was having a deeply hard time, where reaching out can make a crucial, positive difference. Or authorities, being able to know the difference between someone having a mental health crisis and a different type of aggression, and responding accordingly. Or an artist, knowing the direct impact of their work. Leo Tolstoy defined his perspective of art by whether what the creator intended was experienced by the person on the other end. Today's artists can know what we're feeling. But regardless of whether it's art or human connection, today's technologies will know and can know what we're experiencing on the other side, and this means we can be closer and more authentic.

But I realize a lot of us have a really hard time with the idea of sharing our data, and especially the idea that people know things about us that we didn't actively choose to share. Anytime we talk to someone, look at someone or choose not to look, data is exchanged, given away, that people use to learn, make decisions about their lives and about ours.

I'm not looking to create a world where our inner lives are ripped open and our personal data and our privacy given away to people and entities where we don't want to see it go. But I am looking to create a world where we can care about each other more effectively, we can know more about when someone is feeling something that we ought to pay attention to. And we can have richer experiences from our technology.

Any technology can be used for good or bad. Transparency to engagement and effective regulation are absolutely critical to building the trust for any of this. But the benefits that "empathetic technology" can bring to our lives are worth solving the problems that make us uncomfortable. And if we don't, there are too many opportunities and feelings we're going to be missing out on.

Thank you.

(Applause)

テクノロジーが 私達のことを 私達自身よりも よく知るようになったら どうなるでしょう? 今のコンピューターは ごくかすかな表情も検出でき 笑顔が本物かどうかを 言い当てられます それもまだ序の口です テクノロジーはものすごく 知的になっていて 人の内面について 既にかなりのことが分かります 気に入ろうが入るまいが 私達は既に 自分の内面のある部分を 隠せなくなっています これは問題と思えます 多くの人は 心の中のことは 知られたくないからです 何を外に出し 何を出さないかは 自分で制御したいと思います ポーカーフェイスでいたいんです

でも それはもう過去のことです これは怖く感じるかもしれませんが 必ずしも悪いことではありません 私達のそれぞれが持つ 独特な知覚された現実を生み出す 脳の回路について 私は研究してきました それを今まとめて 最新のテクノロジーと組み合わせ 私達がもっとよく感じ取れ 繋がり合えるようにする 人をより良くする技術を 作ろうとしています そのためには ある程度制御を失うことも 受け入れるべきだと 思っています

これはすごいことなんですが ある種の動物について その内的な経験を 捉えられるようになっています まわりの世界への反応と 体の生物学的システムの状態の間の 機械的な関係を 見て取ることができます 食べ つがいになり 食べられないようにするという 進化圧によって 周りの世界の情報に対する 決まった 応答行動が生み出されているのです 私達は 生き物の内面や その生物学的体験を 覗き込み始めています 結構すごいことだと思います ちょっとお耳を汚すことになりますが ― 私はバイオリンはやりますが歌手ではないので でも 批評なら既に このクモが 出しているのかもしれません

(低音の歌声)

(中音の歌声)

(高音の歌声 ― クモが反応する)

(低音の歌声)

(中音の歌声)

(高音の歌声 ― クモが反応する)

(笑)

ある種のクモは 巣をバイオリンみたいに ある音に共鳴するよう 調弦するんです 私の歌う声の 高さや音量が高くなり それが捕食者のコウモリの エコーロケーションや 鳥の鳴き声に近くなったとき クモはしかるべき 反応をし 立ち去れと 私に言ったんです すごく面白いと思います クモの外界への反応によって 内側で起きていることが 見て取れます 生物学的に 制御された反応に クモの内面が 現れているんです

でも私達人間は 違いますよね 自分の内面について 他人が見 知り 理解することは 制御できると思っています 感情も 不安も はったりも 艱難辛苦や それに対する反応も 私達はポーカーフェイスが使えます

でも そうでもないのかも ちょっと試してみましょう 目は脳の働き具合に反応します ご覧いただく目の反応は 精神的努力によって生じたもので 光量の変化によるもの ではありません 神経科学で 裏付けられています 皆さんの目も この被験者と 同じことをしています 望むと望まざるとに かかわらず 複数の声が聞こえるので 何と言っているのか聞き取りつつ この目を見ていてください 最初は難しいですが 一方が消えると ずっと簡単になります 努力の程度の変化が 瞳孔の大きさに見て取れます

(重なった2人の声)

(1人の声)インテリジェンス技術は 個人データに依存している

(重なった2人の声)

(1人の声)インテリジェンス技術は 個人データに依存している

瞳は嘘をつきません 目がポーカーフェイスを 破っています 脳が必死に 働かねばならないと 自律神経系が 瞳孔を拡張させ そうでないときは 縮小します 2つの声の一方を取り除くと 話を理解するのは ずっと楽になります 2つの声を空間的に 別の位置に配したり 一方の声を大きくすることでも 楽になります 経験があるはずです 私達は内面を隠すことを クモよりもうまくできる つもりでいますが そうでもない かもしれません

最新の技術により 人の内面を明らかにする様々な兆候が 容易に検出できるように なってきています 私達自身や 周りの環境についての センサーデータと 機械学習を 組み合わせることで 外面を捉えるカメラやマイクより ずっと多くのことがわかります

生理的な体温変化を通して 私達の体は 物語を語っています スクリーンに出ているのは 赤外線熱画像で 赤が温かい部分 青が冷たい部分です 体温変化のパターンから 多くのことが分かります ストレスの状態や どれほど頭を働かせているか 注意を払っているか 会話について いっているか 火の写真を 本当の火のように 感じているかどうかまで 実際 炎の画像への反応として 頬が熱くなるのがわかります

ポーカーでのはったりが ばれるだけでなく 体温変化から 相手に対する関心を 読み取れるとしたら どうでしょう? 熱画像に現れる 正直な感情を見ることが 恋愛関係を始めるプロセスの 一部になるかもしれません マイクで捉えた 話す言葉のタイミングの 変化を分析することで 精神的 肉体的な 健康状態に耳を澄ませ 洞察し 予測する こともできます 言葉の統計的な変化を 機械学習にかけることで その人が精神病になりそうか 予測できることが 示されています

これをさらに進めて 様々な病状に応じて現れる 言葉や声の変化を 観察することもできるでしょう 痴呆症や糖尿病により 声の特性は変化します アルツハイマー病に関連する 言語的な変化は 病気が診断される10年以上前から 現れることがあります 何を どう言うかは 以前に考えられていたよりも ずっと多くのことを 物語っているのです そして 受け入れさえするなら 家庭にあるデバイスを使って 貴重な洞察を得ることができます 呼気の化学組成から 感情がわかります アセトンとイソプレンと 二酸化炭素の混合物ですが 心拍が早くなり 筋肉が緊張すると 見た目では分からなくとも 呼気の成分比が変化します

一緒に映像を見て頂きます 横の画面に何か出ますが 正面の画面に出る 窓辺の男に 注目していてください

(不気味な音楽)

(女性の悲鳴)

驚かせてごめんなさい 皆さんの反応を見たかったので

(笑)

今 皆さんが吐く二酸化炭素を 計測しています 会場中にチューブが 配置されていて CO2は空気よりも重いので 床の近くなんですが そのチューブが 裏にある装置に繋がっていて CO2濃度変化を リアルタイムで 正確に計測しています 横の画面の雲みたいなのは 会場のCO2濃度を リアルタイムで可視化したものです 画面に赤い部分が 見えるかと思いますが ホラー映像を見ていたときに 赤い部分が大きくなっています 皆さんが ビクッとしたところです みんなの不安が 二酸化炭素濃度を変化させたのです 映像をもう一度見てみましょう

(陽気な音楽)

(女性の笑い声)

予期していた というのもありますが 作者の意図を変えると 全然違ったものになるのが分かります 音楽や効果音によって 同じシーンの感情的反応が まったく変わってしまい そのことが呼気から 読み取れます 不安や恐怖や 喜びがすべて 再現可能で視覚的に識別可能な 瞬間として現れるのです 私達は自分の感情の化学的痕跡を 放出し続けています ポーカーフェイスは 終わりということです

身の周りの空間やテクノロジーが 私達の感情を把握するようになるでしょう 私達は互いのことが ずっとよく分かるようになり 相手の人間として基本的な 経験や気持ちに触れ 感情的に 社会的に 繋がれるようになるかもしれません 共感能力者の時代が やってきます 人間同士や 人間とテクノロジーの 繋がりに対し 真の技術的パートナーがもたらせる能力を 私達は手にしつつあります 技術によって共感能力者となることの 効力を認めるなら 感情的 認知的な分断を テクノロジーで橋渡しできる 可能性が出てきます そうやって 私達の物語る方法が 変わることでしょう 拡張現実のような技術によって 自分の能力を強化しつつ より深く他者と繋がり より良い未来を作り出せるでしょう

想像してみてください 高校のカウンセラーが 外面は陽気な生徒に 深い悩みがあるのが分かり 手を差し伸べて 重要な変化を起こすことを あるいは当局が 心の病を抱える人や 攻撃性のタイプの 違いがわかり 適切な対応が できるようになることを あるいは芸術家が 自分の作品に対する 直接的な反応が分かるようになることを トルストイの芸術の考え方は 作者が意図したとおりのことを 受け手が経験するかどうか ということでした 今日の芸術家は 私達がどう感じているか 知ることができます 芸術にせよ 人間関係にせよ ― 今日のテクノロジーによって 相手の経験していることが 分かるようになり それによって私達は より近しく より真摯になれるでしょう

でも 自分のデータを 共有することに 抵抗があるのも分かります 特に自分が共有することを 選んではいないことが みんなに知られて しまうのは嫌でしょう 私達が誰かと話すとき 誰かを見るとき あるいは見まいとするとき 交換されるデータがあり そこから人は何かを知り 自分や他の人についての 決断をします

私達の内的な生活が さらけ出され 個人データやプライバシーが 自分の望まない相手や組織に 勝手に渡されるような世界に したいとは思っていません 私が築きたい世界は 人々がもっと お互いを気にかけ 私達が注意を向けるべき感情を 誰かが抱いているときに それと分かるような世界です 私達はテクノロジーによって より豊かな体験ができます

テクノロジーというのは 良い使い方も悪い使い方もできます このようなものに 信頼を構築する上では 透明性や効果的な規制が 大切です 「共感のテクノロジー」が 私達の生活にもたらす恩恵は 私達を不安にさせる問題に 取り組むだけの価値があります そうしないなら あまりに多くの機会や感情が 見逃されてしまうことでしょう

ありがとうございました

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

関連動画