TED日本語 - シンシア・ブリジール: パーソナル・ロボットの台頭

TED日本語

TED Talks(英語 日本語字幕付き動画)

TED日本語 - シンシア・ブリジール: パーソナル・ロボットの台頭

TED Talks

パーソナル・ロボットの台頭

The rise of personal robots

シンシア・ブリジール

Cynthia Breazeal

内容

大学院生の頃 シンシア・ブリジールはなぜ火星ではロボットを使っているのに 私たちのリビングルームにはいないのか考えました。彼女が気づいた鍵は、人々と交流できるようにロボットを学習させようとするものでした。今彼女は、そのような考えのもとで、人に教えたり、学習し、一緒に遊べるようなロボットを作っています。子供達のための新しいインタラクティブ・ゲームの驚くべきデモをご覧ください。

字幕

SCRIPT

Script

Ever since I was a little girl seeing "Star Wars" for the first time, I've been fascinated by this idea of personal robots. And as a little girl, I loved the idea of a robot that interacted with us much more like a helpful, trusted sidekick -- something that would delight us, enrich our lives and help us save a galaxy or two. I knew robots like that didn't really exist, but I knew I wanted to build them.

So 20 years pass -- I am now a graduate student at MIT studying artificial intelligence, the year is 1997, and NASA has just landed the first robot on Mars. But robots are still not in our home, ironically. And I remember thinking about all the reasons why that was the case. But one really struck me. Robotics had really been about interacting with things, not with people -- certainly not in a social way that would be natural for us and would really help people accept robots into our daily lives. For me, that was the white space; that's what robots could not do yet. And so that year, I started to build this robot, Kismet, the world's first social robot. Three years later -- a lot of programming, working with other graduate students in the lab -- Kismet was ready to start interacting with people.

(Video) Scientist: I want to show you something.

Kismet: (Nonsense)

Scientist: This is a watch that my girlfriend gave me.

Kismet: (Nonsense)

Scientist: Yeah, look, it's got a little blue light in it too. I almost lost it this week.

Cynthia Breazeal: So Kismet interacted with people like kind of a non-verbal child or pre-verbal child, which I assume was fitting because it was really the first of its kind. It didn't speak language, but it didn't matter. This little robot was somehow able to tap into something deeply social within us -- and with that, the promise of an entirely new way we could interact with robots.

So over the past several years I've been continuing to explore this interpersonal dimension of robots, now at the media lab with my own team of incredibly talented students. And one of my favorite robots is Leonardo. We developed Leonardo in collaboration with Stan Winston Studio. And so I want to show you a special moment for me of Leo. This is Matt Berlin interacting with Leo, introducing Leo to a new object. And because it's new, Leo doesn't really know what to make of it. But sort of like us, he can actually learn about it from watching Matt's reaction.

(Video) Matt Berlin: Hello, Leo. Leo, this is Cookie Monster. Can you find Cookie Monster? Leo, Cookie Monster is very bad. He's very bad, Leo. Cookie Monster is very, very bad. He's a scary monster. He wants to get your cookies.

(Laughter)

CB: All right, so Leo and Cookie might have gotten off to a little bit of a rough start, but they get along great now.

So what I've learned through building these systems is that robots are actually a really intriguing social technology, where it's actually their ability to push our social buttons and to interact with us like a partner that is a core part of their functionality. And with that shift in thinking, we can now start to imagine new questions, new possibilities for robots that we might not have thought about otherwise. But what do I mean when I say "push our social buttons?" Well,one of the things that we've learned is that, if we design these robots to communicate with us using the same body language, the same sort of non-verbal cues that people use -- like Nexi, our humanoid robot, is doing here -- what we find is that people respond to robots a lot like they respond to people. People use these cues to determine things like how persuasive someone is, how likable, how engaging, how trustworthy. It turns out it's the same for robots.

It's turning out now that robots are actually becoming a really interesting new scientific tool to understand human behavior. To answer questions like, how is it that, from a brief encounter, we're able to make an estimate of how trustworthy another person is? Mimicry's believed to play a role, but how? Is it the mimicking of particular gestures that matters? It turns out it's really hard to learn this or understand this from watching people because when we interact we do all of these cues automatically. We can't carefully control them because they're subconscious for us. But with the robot, you can.

And so in this video here -- this is a video taken from David DeSteno's lab at Northeastern University. He's a psychologist we've been collaborating with. There's actually a scientist carefully controlling Nexi's cues to be able to study this question. And the bottom line is -- the reason why this works is because it turns out people just behave like people even when interacting with a robot. So given that key insight, we can now start to imagine new kinds of applications for robots. For instance, if robots do respond to our non-verbal cues, maybe they would be a cool, new communication technology. So imagine this: What about a robot accessory for your cellphone? You call your friend, she puts her handset in a robot, and, bam! You're a MeBot -- you can make eye contact, you can talk with your friends, you can move around, you can gesture -- maybe the next best thing to really being there, or is it?

To explore this question, my student, Siggy Adalgeirsson, did a study where we brought human participants, people, into our lab to do a collaborative task with a remote collaborator. The task involved things like looking at a set of objects on the table, discussing them in terms of their importance and relevance to performing a certain task -- this ended up being a survival task -- and then rating them in terms of how valuable and important they thought they were. The remote collaborator was an experimenter from our group who used one of three different technologies to interact with the participants. The first was just the screen. This is just like video conferencing today. The next was to add mobility -- so, have the screen on a mobile base. This is like, if you're familiar with any of the telepresence robots today -- this is mirroring that situation. And then the fully expressive MeBot.

So after the interaction, we asked people to rate their quality of interaction with the technology, with a remote collaborator through this technology, in a number of different ways. We looked at psychological involvement -- how much empathy did you feel for the other person? We looked at overall engagement. We looked at their desire to cooperate. And this is what we see when they use just the screen. It turns out, when you add mobility -- the ability to roll around the table -- you get a little more of a boost. And you get even more of a boost when you add the full expression. So it seems like this physical, social embodiment actually really makes a difference.

Now let's try to put this into a little bit of context. Today we know that families are living further and further apart, and that definitely takes a toll on family relationships and family bonds over distance. For me, I have three young boys, and I want them to have a really good relationship with their grandparents. But my parents live thousands of miles away, so they just don't get to see each other that often. We try Skype, we try phone calls, but my boys are little -- they don't really want to talk; they want to play. So I love the idea of thinking about robots as a new kind of distance-play technology. I imagine a time not too far from now -- my mom can go to her computer, open up a browser and jack into a little robot. And as grandma-bot, she can now play, really play, with my sons, with her grandsons, in the real world with his real toys. I could imagine grandmothers being able to do social-plays with their granddaughters, with their friends, and to be able to share all kinds of other activities around the house, like sharing a bedtime story. And through this technology, being able to be an active participant in their grandchildren's lives in a way that's not possible today.

Let's think about some other domains, like maybe health. So in the United States today, over 65 percent of people are either overweight or obese, and now it's a big problem with our children as well. And we know that as you get older in life, if you're obese when you're younger, that can lead to chronic diseases that not only reduce your quality of life, but are a tremendous economic burden on our health care system. But if robots can be engaging, if we like to cooperate with robots, if robots are persuasive, maybe a robot can help you maintain a diet and exercise program, maybe they can help you manage your weight. Sort of like a digital Jiminy -- as in the well-known fairy tale -- a kind of friendly, supportive presence that's always there to be able to help you make the right decision in the right way at the right time to help you form healthy habits. So we actually explored this idea in our lab.

This is a robot, Autom. Cory Kidd developed this robot for his doctoral work. And it was designed to be a robot diet-and-exercise coach. It had a couple of simple non-verbal skills it could do. It could make eye contact with you. It could share information looking down at a screen. You'd use a screen interface to enter information, like how many calories you ate that day, how much exercise you got. And then it could help track that for you. And the robot spoke with a synthetic voice to engage you in a coaching dialogue modeled after trainers and patients and so forth. And it would build a working alliance with you through that dialogue. It could help you set goals and track your progress, and it would help motivate you.

So an interesting question is, does the social embodiment really matter? Does it matter that it's a robot? Is it really just the quality of advice and information that matters? To explore that question, we did a study in the Boston area where we put one of three interventions in people's homes for a period of several weeks. One case was the robot you saw there, Autom. Another was a computer that ran the same touch-screen interface, ran exactly the same dialogues. The quality of advice was identical. And the third was just a pen and paper log, because that's the standard intervention you typically get when you start a diet-and-exercise program.

So one of the things we really wanted to look at was not how much weight people lost, but really how long they interacted with the robot. Because the challenge is not losing weight, it's actually keeping it off. And the longer you could interact with one of these interventions, well that's indicative, potentially, of longer-term success. So the first thing I want to look at is how long, how long did people interact with these systems. It turns out that people interacted with the robot significantly more, even though the quality of the advice was identical to the computer. When it asked people to rate it on terms of the quality of the working alliance, people rated the robot higher and they trusted the robot more. (Laughter) And when you look at emotional engagement, it was completely different. People would name the robots. They would dress the robots. (Laughter) And even when we would come up to pick up the robots at the end of the study, they would come out to the car and say good-bye to the robots. They didn't do this with a computer.

The last thing I want to talk about today is the future of children's media. We know that kids spend a lot of time behind screens today, whether it's television or computer games or whatnot. My sons, they love the screen. They love the screen. But I want them to play; as a mom, I want them to play, like, real-world play. And so I have a new project in my group I wanted to present to you today called Playtime Computing that's really trying to think about how we can take what's so engaging about digital media and literally bring it off the screen into the real world of the child, where it can take on many of the properties of real-world play. So here's the first exploration of this idea, where characters can be physical or virtual, and where the digital content can literally come off the screen into the world and back. I like to think of this as the Atari Pong of this blended-reality play.

But we can push this idea further. What if -- (Game) Nathan: Here it comes. Yay! CB: -- the character itself could come into your world? It turns out that kids love it when the character becomes real and enters into their world. And when it's in their world, they can relate to it and play with it in a way that's fundamentally different from how they play with it on the screen. Another important idea is this notion of persistence of character across realities. So changes that children make in the real world need to translate to the virtual world. So here, Nathan has changed the letter A to the number 2. You can imagine maybe these symbols give the characters special powers when it goes into the virtual world. So they are now sending the character back into that world. And now it's got number power.

And then finally, what I've been trying to do here is create a really immersive experience for kids, where they really feel like they are part of that story, a part of that experience. And I really want to spark their imaginations the way mine was sparked as a little girl watching "Star Wars." But I want to do more than that. I actually want them to create those experiences. I want them to be able to literally build their imagination into these experiences and make them their own. So we've been exploring a lot of ideas in telepresence and mixed reality to literally allow kids to project their ideas into this space where other kids can interact with them and build upon them. I really want to come up with new ways of children's media that foster creativity and learning and innovation. I think that's very, very important.

So this is a new project. We've invited a lot of kids into this space, and they think it's pretty cool. But I can tell you, the thing that they love the most is the robot. What they care about is the robot. Robots touch something deeply human within us. And so whether they're helping us to become creative and innovative, or whether they're helping us to feel more deeply connected despite distance, or whether they are our trusted sidekick who's helping us attain our personal goals in becoming our highest and best selves, for me, robots are all about people.

Thank you.

(Applause)

小さい子供の頃から 『スター・ウォーズ』を見てからというもの 私はパーソナル・ロボットというアイデアに 魅了されてきました 子供の頃は ロボットが私たちと交流し合い 私たちを助け 信頼できるパートナーとなるというアイディアが大好きでした 私たちを喜ばせ 人生を豊かにしてくれたり 銀河の一つか二つ救う手助けをしてくれるのです そのようなロボットは実在しないことは知っていましたが それを作りたいと強く思っていました

20年後 私はMITの大学院生となり 人工知能を勉強していました 時代は1997年です NASAが火星に始めてロボットを着陸させた年でした でも皮肉なことに ロボットはまだ私たちの家にはいませんでした なぜそういう結果となったのか その理由について考えていたのを覚えています でも何より衝撃的だったことは ロボット工学が物とのやりとりにのみ注力されていたことです 人とではありません これは間違いなく 社会的に日常生活において 人々がロボットを受け入れる 手助けとなる方法ではありませんでした 私にとって それがまだロボットたちにできていない分野でした そこでその年に このロボット キスメットの製作に取りかかりました 世界で最初の社会的なロボットです 3年後 多くのプログラミングと 研究室の他の大学院生との作業によって キスメットが人と交流し始める準備が整いました

(動画)科学者:君に見せたい物があるんだ

キスメット:(言葉)

科学者:この時計は僕の彼女がくれたものなんだ

キスメット:(言葉)

科学者:見てごらん 中に小さな青い光が光ってるでしょ 今週は 気が変になりそうだったよ

シンシア・ブリジール:キスメットは人と まったく話せない もしくはまだ話せない子供のように接します 今までに類を見ないものであったので ひとまずこれでよしとしました 言葉はしゃべりませんが 大したことではありません この小さなロボットは どういうわけか 私たちの奥底にある社会的な何かを引き出してくれました これによって まったく新しい方法で ロボットと交流する展望が開けたのです

数年前から今にかけて 私はロボットによる対人的側面について メディアラボの自分の研究室に在籍する 非常に才能ある学生達と共に探求し続けています 私のお気に入りのロボットはレオナルドです レオナルドはスタン・ウィンストン・スタジオと共同で開発しました レオとの特別なひと時を皆さんにお見せしたいと思います レオと接しているのはマット・ベルリンです レオに新しい物体を紹介しています 新しいため レオはどうしたらいいのか判断できません でも 私たちと同じように 彼も マットの反応を見ながら学習が可能です

(動画)マット・ベルリン:やあ レオ レオ これはクッキーモンスターだよ クッキーモンスターを探せるかな? レオ クッキーモンスターはとても悪い奴なんだよ 彼はとても悪い奴だ レオ クッキーモンスターはとてもとても悪い奴さ 彼は怖いモンスターだよ 君のクッキーを取り上げたいんだ

(笑)

CB:ええ レオとクッキーとの 初顔合わせは若干難があったようですが 今はとても仲良くしています

これらを作り上げることで 学んだこととしては ロボットは実際に 魅力的な社会的技術であるということです 彼らは実際に 私たちの社会的なボタンを押し まるでパートナーのように接してくれます それが彼らの中心となる機能なのです そのように考えを変えることで 私たちはロボットに対して今まで考えたことがなかった 新しい問いかけや可能性を想像することが可能になりました でも「私たちの社会的なボタンを押す」事とは何でしょうか? 私たちが学んだものの一つとして 同じボディ・ランゲージを使い 私たちと コミュニケートできるようにロボットをデザインしたら 例えばこの人形ロボットのネクシーのように 人が使う言葉にならない仕草を使えるようにしたら 人々はロボットに対して人と同じように 反応するようになることを発見しました 人々はこれらの仕草を使って 相手にどれだけ説得力があるか どれだけ好きか どれだけ魅力的か どれだけ信用できるかを判断するために使います どうやらロボットにも同じことが言えそうです

実際にはロボットは 人間の行動を理解するためのとても興味深い 新規の科学的ツールになりつつあります 例えばこのような問いに答えようとしています 一瞬の出会いから相手の信用度をどのように評価するのか? 人をまねることで理解の一翼を担うと信じられていますが どのように? 特定の仕草のものまねがそんなに重要なのか?といった問いです どうやらこれらの問いに対して 人への観察から学び 理解するのは困難なことが分かりました なぜなら 私たちは人と交流する際 自然とこのような仕草を行うからです 無意識で行うため 制御することはできません でもロボットなら制御が可能なのです

この動画はノースイースタン大学の デービッド・デステノ研究室で撮影されました 彼は共同研究先の心理学者です この問いについて研究するため ネクシーの仕草を 制御している科学者が実際にいます これがなぜ上手くいくかというと 人はロボットと接する時でも 人として接するからです このような見識によって ロボットの新しい利用方法を 考え始められるようになりました 例えば もしロボットが私たちの言葉にならない仕草に反応したら 非常にクールで新しいコミュニケーション技術となるでしょう 想像してみてください 携帯電話用のロボットアクセサリーはどうでしょう? 友達に電話し 彼女が電話をロボットに取り付けると ジャーン!ミーボットの完成です 友達と話すことはもちろん アイコンタクトもできます 動き回ることもできますし ジェスチャーを行うこともできます 実際に その場にいるみたいですよね?

この問いを探求するため 私の学生のシギー・アダルゲリソンは 私たちの研究室の外にいる研究協力者と 共同作業を行ってくれる 参加者を研究室に集めました この作業には 例えば テーブル上に設置された物を見て 特定の作業を行う上で それぞれの重要性や関連性を議論することが含まれます 最終的には お互いがどれだけ相手を 信頼できたか評価しました 研究室の外にいた研究協力者は私たちの研究室のメンバーで 彼らは3つの異なる技術を使って 参加者とやり取りしました ひとつは ただのスクリーンを使用したものです 現在のビデオ会議と同じですね 次は スクリーンに移動能力を追加したものです これは テレプレゼンスロボットを知っている方にとって とても見覚えのある光景でしょう 最後に 表現豊かなミーボットです

やり取りのあと 実験参加者に 研究室の外にいた研究協力者との それぞれの技術を利用した 交流の質を評価してもらいました 私たちは 相手に対してどれくらい共感できたか その心理的関与について見てみました 全体的な関わりや 協力への欲求について見てました そしてこれが スクリーンのみを使用した時の場合です テーブル上を動き回れる移動能力を追加すると もう少し評価が高くなります 表現を豊かにすると さらに評価が高くなります このように移動能力や表現力を取り入れることは 実際にはとても効果があるようです

それではこれをもう少し具体化させましょう 現代において 家族は互いにますます遠くに住むようになり 家族関係や絆に対して確実に 悪影響を及ぼしています 私の場合 3人の小さな男の子がいますが 彼らと祖父母にはとても良い関係を 築いてもらいたいと考えています しかし 私の両親は数千マイルも遠くに住んでおり あまりお互い会える機会がありません Skypeや電話は かけたりしますが 子供達はまだ小さく しゃべるよりも 遊びたい年頃です 彼らはロボットを遠くでも遊べる 新しい技術として好意的にとらえてくれています そこで今からそう遠くない未来を私はこんな形で想像します 私の母はコンピューターの前に座って ブラウザーを立ち上げ 小さなロボットに接続します するとおばあちゃんロボットは 私の息子達である孫達と 現実世界において 本物の彼らのおもちゃで一緒に遊べるのです 私の祖母が 孫娘や友達と遊び 家の中で 寝る前におとぎ話を聞かせたりするなど 様々なことを行う事ができると想像できます この技術を通して 現在では実現ができないような形で 彼らの孫の日常に積極的に 参加することが可能になるのです

それでは 他の領域に目を向けて見ましょう 医療を例にあげます 現在 アメリカ合衆国では 65%以上の人々が肥満であり 子供達にとっても大きな問題となっています 年を重ねるにつれて 若いうちから肥満である場合 慢性的な疾患として 日常生活の質を損なうばかりか 医療サービス制度に大きな経済的負担がかかることに気づきます でも もしロボットが魅力的で 彼らと協力しあうことができ 説得力があるものであれば ロボットが人々のダイエットや運動を 管理してくれるかもしれません 人々の体重管理をしてくれるかもしれないのです 有名なおとぎ話に出てくる ジミニーのデジタル版みたいなものです とても親切な存在で 健康的な習慣を身につける上での 正しい判断を 適切な方法で 時間内に行う手助けをしてくれるのです そこで実際にこのアイディアを試してみました

このロボットは オートムと言います コーリー・キッドが博士課程の研究でこのロボットを開発しました ダイエットや運動のコーチ用のロボットとしてデザインされました 簡単な言葉にならない仕草を行うことが可能です 人とアイコンタクトすることができます 下の画面を見て情報を共有することができます スクリーン上のインターフェースに対して 例えば その日どれくらいのカロリーを摂取したか どれくらい運動したかといった情報を入力します すると それらの情報を追う手助けをしてくれるのです 運動させるために ロボットは合成音声で トレーナーと患者とのやり取りを手本に 作られた指導に関するせりふを しゃべり始めます そして 指導用のせりふを通して 協調関係を築こうとするのです 目標の設定や進捗を記録してくれたり やる気を出させてくれるのです

ここで問われている興味深い質問は 社交的な機能の実装に意味があるのか?ロボットであることに意味があるのか? 提供するアドバイスと情報の質のみが重要なのか?といったことです それらの問いに答えるために ボストンエリアで 3つの異なる内容を数週間にかけて それぞれの人々の家で実験を行いました 1つ目はロボットのオートムです 次は 同じタッチ・スクリーンインターフェースと 同じ会話内容を表示するコンピュータです アドバイスの質はいずれも同じです 3つ目はただのペンとメモ用紙です これは ダイエットや運動プログラムを始める時に 大抵利用するものだからです

私たちが最も注目していたのは どれだけ人々が体重を落としたかではなく 実際にどれだけ長くロボットとやり取りしたかです なぜなら体重を落とす事よりも 維持することが課題であり これらの対象と長くやり取りするほど それだけの期間うまくいっていることを意味するからです そこで私はまず始めに どれだけ長く これらの対象と人々がやり取りできたのか確認しました どうやら人々はアドバイスの質が コンピュータと同等であったにも関わらず ロボットとより長くやり取りをしていることが分かりました 協調関係の質について評価を人々にお願いした所 人々はロボットに対して他よりも高く評価し 信頼していていたようです (笑) 感情的な関わりに目を向けると まったく異なっていました 人々はロボットを名付けます 彼らはロボットに服を着せます (笑) しかも 学習の後にロボットを回収しに来た時も 彼らは車から出てロボットにさよならを言いに来るのです コンピュータの場合はこんな対応はありませんでした

最後にお話したいのは 未来の子供のメディアについてです 現在 子供達はテレビにせよ コンピュータ・ゲームにせよ 多くの時間を画面の前で過ごしています 私の息子達は本当に画面が大好きです でも私は母親として 彼らに現実世界で遊んで欲しいと 思っています そこで今日は 私のグループの新しいプロジェクトである プレイタイム・コンピューティングをご紹介します これは デジタルメディアにおいて 人を引きつけるものとは何か 真剣に考え それらを画面上から子供の現実世界に 文字通り引っ張りだして 現実世界の様々な遊びの特性を持たせることを目的にしています これはこのアイディアを初めて試した時のものです キャラクターは物理的でも仮想的でもよく デジタルコンテンツは 画面上から抜け出して 現実世界を行き来します 私はこの 現実と仮想が混じりあった遊びを アタリ社のポンのように捉えたいと思います

しかもこのアイディアは更に広げることができます もし (ゲーム)ネーサン:きたよ ほら! CB:キャラクター自体が皆さんの世界に現れたらどうですか? どうやら子供達は キャラクターが現実化することを喜ぶようです そして現実化した時 彼らはスクリーン上で行っていた遊びとは 根本的に異なる方法で遊ぶことができます 次に重要なのは キャラクターによる現実との間の継続性についてです 子供が現実世界で起こす変化は 仮想世界でも反映される必要があります ここでは ネーサンが文字Aを数字2に変更しています このような記号はキャラクターが仮想世界に 戻った際に特殊な力を与えるものと考えてください 彼らはこれからキャラクターを元の世界に戻してます これで数字の力を得ました

私がここで行おうとしているのは まるでその物語の一部となり 子供達が没入できる 体験を作り出す事です そして私が小さな頃に『スターウォーズ』をみて 感じたことと同じく 彼らの創作意欲をかき立てたいのです 更にもう一歩踏み込んで 彼らにそれらの体験を創造してほしいと思っています 文字通り彼らの想像力を元に このような体験を作り出して欲しいのです このように テレプレゼンスや合成現実を通して 子供達のアイディアをこの空間に反映させ 他の子供達が遊んだり それらを元に新しいものを 作れる様々なアイディアをご紹介してきました 想像力や学習力 イノベーション性を育てる 子供のための新しいメディアを切に用意したいと考えています これはとても重要なことだと思います

そこでこの新しいプロジェクトを発足しました このような空間に多くの子供達を招待し 彼らにはなかなか好評でした でもこれだけは言えます 彼らが最も愛していたのは ロボットです 彼らが関心を持っていたのがロボットでした ロボットは私たちの人間らしさを呼び起こしてくれます 私たちの想像力を 底上げしてくれたり 遠く離れていても人との繋がりを より強く感じられるようにしてくれたり 自分が目指す個人的な目標を達成するための 信頼出来るパートナーとなってくれるなど 様々な面がある中で 私にとってロボットとは人々のためのものだと思っています

ありがとうございました

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

TED 日本語

TED Talks

関連動画

洋楽 おすすめ

RECOMMENDS

洋楽歌詞