TED日本語 - デニス・ホン: 視覚障害者が運転できる車を作る

TED日本語

TED Talks(英語 日本語字幕付き動画)

TED日本語 - デニス・ホン: 視覚障害者が運転できる車を作る

TED Talks

視覚障害者が運転できる車を作る
Making a car for blind drivers
デニス・ホン
Dennis Hong

内容

ロボティクス、レーザーレンジファインダー、GPS、フィードバック装置を使い、デニス・ホンは視覚障害者が運転できる車を作ろうとしています。これは「自動運転車」ではないことに注意してください。目の不自由なドライバーが、速度、障害物との距離、ルートを把握し、自分で運転できる車なのです。

Script

Many believe driving is an activity solely reserved for those who can see. A blind person driving a vehicle safely and independently was thought to be an impossible task, until now. Hello, my name is Dennis Hong, and we're bringing freedom and independence to the blind by building a vehicle for the visually impaired.

So before I talk about this car for the blind, let me briefly tell you about another project that I worked on called the DARPA Urban Challenge. Now this was about building a robotic car that can drive itself. You press start, nobody touches anything, and it can reach its destination fully autonomously. So in 2007, our team won half a million dollars by placing third place in this competition. So about that time, the National Federation of the Blind, or NFB, challenged the research committee about who can develop a car that lets a blind person drive safely and independently. We decided to give it a try, because we thought, "Hey, how hard could it be?" We have already an autonomous vehicle. We just put a blind person in it and we're done, right? (Laughter) We couldn't have been more wrong. What NFB wanted was not a vehicle that can drive a blind person around, but a vehicle where a blind person can make active decisions and drive. So we had to throw everything out the window and start from scratch.

So to test this crazy idea, we developed a small dune buggy prototype vehicle to test the feasibility. And in the summer of 2009, we invited dozens of blind youth from all over the country and gave them a chance to take it for a spin. It was an absolutely amazing experience. But the problem with this car was it was designed to only be driven in a very controlled environment, in a flat, closed-off parking lot -- even the lanes defined by red traffic cones.

So with this success, we decided to take the next big step, to develop a real car that can be driven on real roads. So how does it work? Well, it's a rather complex system, but let me try to explain it, maybe simplify it. So we have three steps. We have perception, computation and non-visual interfaces. Now obviously the driver can not see, so the system needs to perceive the environment and gather information for the driver. For that, we use an initial measurement unit. So it measures acceleration, angular acceleration -- like a human ear, inner ear. We fuse that information with a GPS unit to get an estimate of the location of the car. We also use two cameras to detect the lanes of the road. And we also use three laser range finders. The lasers scan the environment to detect obstacles -- a car approaching from the front, the back and also any obstacles that run into the roads, any obstacles around the vehicle.

So all this vast amount of information is then fed into the computer, and the computer can do two things. One is, first of all, process this information to have an understanding of the environment -- these are the lanes of the road, there's the obstacles -- and convey this information to the driver. The system is also smart enough to figure out the safest way to operate the car. So we can also generate instructions on how to operate the controls of the vehicle. But the problem is this: How do we convey this information and instructions to a person who can not see fast enough and accurate enough so he can drive? So for this, we developed many different types of non-visual user interface technology. So starting from a three-dimensional ping sound system, a vibrating vest, a click wheel with voice commands, a leg strip, even a shoe that applies pressure to the foot. But today we're going to talk about three of these non-visual user interfaces.

Now the first interface is called a DriveGrip. So these are a pair of gloves, and it has vibrating elements on the knuckle part so you can convey instructions about how to steer -- the direction and the intensity. Another device is called SpeedStrip. So this is a chair -- as a matter of fact, it's actually a massage chair. We gut it out, and we rearrange the vibrating elements in different patterns, and we actuate them to convey information about the speed, and also instructions how to use the gas and the brake pedal. So over here, you can see how the computer understands the environment, and because you can not see the vibration, we actually put red LED's on the driver so that you can see what's happening. This is the sensory data, and that data is transferred to the devices through the computer.

So these two devices, DriveGrip and SpeedStrip, are very effective. But the problem is these are instructional cue devices. So this is not really freedom, right? The computer tells you how to drive -- turn left, turn right, speed up, stop. We call this the "backseat-driver problem." So we're moving away from the instructional cue devices, and we're now focusing more on the informational devices. A good example for this informational non-visual user interface is called AirPix. So think of it as a monitor for the blind. So it's a small tablet, has many holes in it, and compressed air comes out, so it can actually draw images. So even though you are blind, you can put your hand over it, you can see the lanes of the road and obstacles. Actually, you can also change the frequency of the air coming out and possibly the temperature. So it's actually a multi-dimensional user interface. So here you can see the left camera, the right camera from the vehicle and how the computer interprets that and sends that information to the AirPix. For this, we're showing a simulator, a blind person driving using the AirPix. This simulator was also very useful for training the blind drivers and also quickly testing different types of ideas for different types of non-visual user interfaces. So basically that's how it works.

So just a month ago, on January 29th, we unveiled this vehicle for the very first time to the public at the world-famous Daytona International Speedway during the Rolex 24 racing event. We also had some surprises. Let's take a look.

(Music)

(Video) Announcer: This is an historic day in January. He's coming up to the grandstand, fellow Federationists.

(Cheering)

(Honking)

There's the grandstand now. And he's [ unclear ] following that van that's out in front of him. Well there comes the first box. Now let's see if Mark avoids it. He does. He passes it on the right. Third box is out. The fourth box is out. And he's perfectly making his way between the two. He's closing in on the van to make the moving pass. Well this is what it's all about, this kind of dynamic display of audacity and ingenuity. He's approaching the end of the run, makes his way between the barrels that are set up there.

(Honking)

(Applause)

Dennis Hong: I'm so happy for you. Mark's going to give me a ride back to the hotel.

Mark Riccobono: Yes.

(Applause)

DH: So since we started this project, we've been getting hundreds of letters, emails, phone calls from people from all around the world. Letters thanking us, but sometimes you also get funny letters like this one: "Now I understand why there is Braille on a drive-up ATM machine." (Laughter) But sometimes -- (Laughter) But sometimes I also do get -- I wouldn't call it hate mail -- but letters of really strong concern: "Dr. Hong, are you insane, trying to put blind people on the road? You must be out of your mind." But this vehicle is a prototype vehicle, and it's not going to be on the road until it's proven as safe as, or safer than, today's vehicle. And I truly believe that this can happen.

But still, will the society, would they accept such a radical idea? How are we going to handle insurance? How are we going to issue driver's licenses? There's many of these different kinds of hurdles besides technology challenges that we need to address before this becomes a reality. Of course, the main goal of this project is to develop a car for the blind. But potentially more important than this is the tremendous value of the spin-off technology that can come from this project. The sensors that are used can see through the dark, the fog and rain. And together with this new type of interfaces, we can use these technologies and apply them to safer cars for sighted people. Or for the blind, everyday home appliances -- in the educational setting, in the office setting. Just imagine, in a classroom a teacher writes on the blackboard and a blind student can see what's written and read using these non-visual interfaces. This is priceless. So today, the things I've showed you today, is just the beginning.

Thank you very much.

(Applause)

車の運転ができるのは 目の見える人だけだと 多くの人は思っています 視覚障害者が自分で車を安全に運転するなど これまで不可能だと考えられていました 私はデニス・ホンです 視覚障害者のための車を開発することで 目が不自由な人に 自由をもたらしたいと思っています

この話に入る前に 私がした別のプロジェクトについて 少しお話しします DARPAアーバンチャレンジです これは自動運転ロボットカーを 作ろうという試みです ボタンひとつで 人が何もしなくとも 車が自律的に 目的地までたどり着きます 2007年に この競技会で私たちのチームは 3位に入り 50万ドル手にしました それと同じ頃 全米視覚障害者連合(NFB)によって 「視覚障害者が安全に運転できる? 車は作れるか?」という課題が 研究コミュニティに投げかけられ 私たちはこの挑戦を受けました 簡単だと思ったのです 自動運転車は既に作っているので あとは視覚障害者を乗せるだけでしょ? (笑) 大間違いでした NFBが望んでいたのは 視覚障害者を運べる車ではなく 視覚障害者が自ら判断し運転できる車だったのです だから私たちはすべてを捨てて 一から作り直す必要がありました

本当にそんなことが実現可能なのか? 私たちは検討のため バギーで試作をしました 2009年の夏に 国中から視覚障害のある若者を募って 車の運転を試してもらいました まったく素晴らしい体験でした もっとも この試作車は設計上 よく管理された環境でしか使えず 閉じた平坦な駐車場で走らせ 車線もロードコーンを使っていました

試作がうまくいったので 私たちは次のステップへと進み 本物の道を走れる 本物の車の開発に取りかかりました どういう仕組みなのでしょう? 結構複雑なシステムなんですが 簡単化して ひとつ説明してみましょう 3つのステップがあります 認識 計算 それに? 非視覚的インタフェースです ドライバーは目が見えないので システムがドライバーに代わって 環境を把握し 情報を集める必要があります そのために初期測定ユニットを使います ちょうど人の内耳のように 加速度や角加速度を把握します その情報をGPS情報と合わせて 車の位置を割り出します それから2台のカメラで車線を検出し 3台のレーザーレンジファインダーで 環境中の障害物をスキャンします 前後から近づく車や 道路に飛び出してくるもの 車の周囲の障害物などです

そういった膨大な情報をコンピュータに取り込んで 2つのことをします 1つはその情報を処理して 周りの環境を理解すること ここに車線があり あそこに障害物があると把握し それをドライバーに伝えます このシステムは賢くて どう運転すると一番安全か判断でき 運転のための操作指示を 生成します 問題は 素早く正確に見ることのできない人に そういった情報や指示を どう伝えるかということです そのために様々な種類の 非視覚的インタフェース技術を開発しました 3次元通知音システムに始まり 振動するベスト ボイスコマンド付きクリックホイールや レッグストリップ 足を圧迫して合図する靴まであります 今日はその中から 3つだけご紹介しましょう

最初のはDriveGripです 手袋なんですが 関節にバイブレーターが付いていて ハンドルを回す方向と大きさを 指示するようになっています もうひとつはSpeedStripです この座席は元々マッサージチェアでした 中身を取り出して 様々なパターンで振動するようにしてあります それを使って 現在の速度や アクセルやブレーキの指示を伝えます こちらはコンピュータが環境を どう理解しているかを示しています 振動は見えないので LEDを付けて 何が起こっているのか見えるようにしてあります センサーのデータが コンピュータを通してドライバーに伝えられています

DriveGripも SpeedStripも とても効果的ですが これらの装置の問題は 操作の指示をするばかりで 運転車に自由がないということです コンピュータがどうしろと指示します 左に曲がれ 右に曲がれ スピードを上げろ 止まれ 後部座席ドライバーの問題です それで私たちは運転指示装置よりも 情報を伝える装置に より注力するようになりました 情報を伝える非視覚的インタフェースの 良い例は AirPixです 視覚障害者用モニタと思ってください 穴のたくさん開いた小さなタブレットで 穴から出てくる圧搾空気で イメージを描き出すようになっています 目が見えなくとも これに手をかざせば 車線や障害物を見ることができます 気流の頻度や温度を 変化させてもいいかもしれません これは多次元ユーザインタフェースなのです 左右のカメラの映像と それをコンピュータがどう解釈し AirPixにどんな情報を送っているかの様子です ここではシミュレータを使い 視覚障害者がAirPixで運転しています シミュレータは 視覚障害ドライバーの練習に良いですが 非視覚的ユーザインタフェースを いろいろ手早く試すのにも使えます 以上が基本的な仕組みの説明です

ほんの1ヶ月前 1月29日に 私たちはこの車を初披露しました 有名なデイトナ国際スピードウェーで行われた Rolex 24レースでのことです きっと驚きますよ どうぞご覧ください

(音楽)

皆さん 今日は歴史的な日と言っていいでしょう NFBの皆さん 特別観覧席にこれからさしかかります

(歓声)

(最高時速43キロ)

今 特別観覧席前です ゲート前です 前に出てきたバンの後ろを走っています 最初の箱が来ます マークがよけられるか見てみましょう やりました 右にかわしました 3つめの箱が投げられました 4つめの箱です 2つの箱の間を完璧に通り抜けました バンを追い抜こうと 近づいています これこそ運転の醍醐味です 素晴らしい大胆さと巧みさを見せています 最終関門に近づいています 並んだ樽の間を通り抜けます

(成功!!)

(拍手)

とても嬉しいよ 帰りはマークにホテルまで送ってもらおうかな

いいとも

(拍手)

このプロジェクトを始めて以来 世界中の人から何百という 手紙やメールや電話をもらいました お礼のメッセージが多いですが 中には変わったのもあります 「車専用のATMに点字がついている理由がやっとわかったよ」 (笑) しかし時には・・・ (笑) しかし時には 抗議とは言わないまでも 強い懸念を示した手紙もあります 「視覚障害者に道路で運転させるなんて あんたどうかしてる 正気の沙汰じゃない」 この車はプロトタイプであり 今ある普通の車と同等か それ以上に 安全になるまで 公道には出しません そして実現できると固く信じています

しかし このような過激なアイデアを 社会は受け入れるのでしょうか? 保険はどうなるのでしょう? 運転免許は? 実現のためには 技術的難問以外にも 違った種類の問題がたくさんあります このプロジェクトの主な目的はもちろん 視覚障害者のための車の開発ですが 可能性としてより重要なのは このプロジェクトから派生して出てくる 価値ある様々な技術です センサーは 暗闇や霧や 雨の中を走るのにも使えます 新しいインタフェースと合わせて 目の見える人のための車を より安全にすることもできるでしょう あるいは視覚障害者が学校やオフィスで 日常的に使うものにも応用できます 教室で先生が黒板に書いたことが 非視覚的インタフェースで視覚障害のある生徒にもわかる そんなことを想像してみてください とても価値あることです 今日お見せしたものは ほんの始まりに過ぎません

どうもありがとうございました

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

関連動画