TED日本語 - イーライ・パリザー: 危険なインターネット上の「フィルターに囲まれた世界」

TED日本語

プレゼンテーション動画

TED日本語 - イーライ・パリザー: 危険なインターネット上の「フィルターに囲まれた世界」

TED Talks

危険なインターネット上の「フィルターに囲まれた世界」
Beware online "filter bubbles"
イーライ・パリザー
Eli Pariser

内容

インターネット企業が私たちの好みに合わせてサービス(ニュースや検索など)をカスタマイズしようと努めるにしたがい、思いもよらぬ害が出てきています。私たちは「フィルターに囲まれた世界」に閉じ込められ、自己の世界観に疑問を投げかけたり視野を広める情報に触れる機会を失っているのです。結果的に私たちのためにならず、民主主義にも悪影響を及ぼすことになるとイーライ・パリザーが強く訴えます。

Script

Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.

So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.

So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out,one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.

But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.

So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."

So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.

What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.

What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.

And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.

I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.

Thank you.

(Applause)

マーク・ザッカーバーグが ニュース配信について質問されていました 「なぜそんなに重要なんですか?」 ジャーナリストが聞くと ザッカーバーグは答えました 「今あなたの関心事は アフリカで死に瀕した人々よりも 家の庭で死にかけているリスかもしれないでしょう」 この関連性の考え方をもとにした ウェブとはどういうことか話したいと思います

メイン州の片田舎に住んでいた 僕にとって 子供の頃 インターネットは全く違う意味を持ったものでした 世界へのドアであり 人々を繋げるものでした 民主主義と僕たちの社会に 大きく役立つに違いないと思っていました でも見えないところで インターネットでの 情報の流れに変化がありました 注意しないと 大きな問題になるかもしれません これに初めて気付いたのは僕がいつも使っている Facebookのページでした 見た目どおり 僕は政党的には進歩派ですが 進んで保守派と交流しています 保守派の考えを聞いたり 何にリンクしているか見たり 何か学びたいと思っています ですから ある日僕のFacebookの配信から 保守派の人たちが消えてしまって驚きました 何が起こったのかと言うと 僕がどのリンクをクリックしているかFacebookがチェックしていて 実際に保守派より リベラル派の友達のリンクを クリックすることが多いと気づき 僕に何の相談もなく 保守派を削除していたのです 保守派はいなくなってしまいました

このように目に見えないところで アルゴリズムによるウェブの 編集をしているのはFacebookだけではありません Googleもしています 何かの検索をするにしても 僕とあなたでは たとえ今同時に検索しても かなり違う結果になる可能性があります あるエンジニアによると ログオンしてなくても 57個のシグナルを Googleはチェックしているそうです どんなPCを使っているか どのブラウザを使っているか 現在地は何処かなどによって 検索結果を調節しているのです ちょっと考えてみてください もう標準のGoogle検索はないのです そして妙なことに これは認識しにくい現象です 自分の検索結果がどれほど 他人のものと違うか分かりません

でも数週間前 Googleで「エジプト」と検索したスクリーンショットを 送ってもらうよう大勢の友人に頼みました これが友人スコットのスクリーンショットです こちらはダニエルからのスクリーンショットです 並べて見てみると リンクを読むまでもなく 2つのページの違いに気付きます でも実際リンクを読むと 本当に驚きます ダニエルのGoogle検索結果の最初のページには エジプトのデモ関連記事が全くなく スコットの方はそればかりでした この頃大きな話題だったのにです これほど検索結果は異なってきています

GoogleとFacebookだけではありません これはウェブ全体で起こっています 多くの企業がこのようなカスタマイズをしています Yahoo!ニュースはネット最大のニュースサイトですが 今ではカスタマイズされた違う内容を提示しています Huffington Postや Washington Postや New York Timesも 様々な形でカスタマイズを試みています その結果 インターネットは私たちが見たいものを 予測して見せているが それは必ずしも私たちが見る必要があるものでない という状況に急速に変わってきています エリック・シュミットが言うように 「全く何のカスタマイズもされていないものを 人々が見たり利用したりするのは とても難しくなるでしょう」

ですからこれは問題だと思います このようなフィルターやアルゴリズムを 全部集めてできるのは 「フィルターに囲まれた世界」だと思うのです そしてこの「囲まれた世界」がネット上での あなた個人独特の 情報世界となるわけです さらに自分の世界に何が含まれるかは 自分が どんな人で何をしているかによって決まります でも何が取り入れられるかは自分次第でないのが問題です もっと重要なのは 何が削除されるか自分には見えないことです フィルターによる問題の1つは Netflixのデータアナリストたちに発見されました 発送待ち段階で妙なことが起こっていたのです 気付いていた人も多いでしょうか 映画によってはDVDが すぐに発送されて家に届きます オーダーが入るとすぐに発送されます ですから「アイアンマン」はすぐ届くのに 「ウェイティング・フォー・スーパーマン(原題)」は 待ち時間がとても長いことがあります

データアナリストたちが DVDの発送待ち段階で見たのは 利用者の計画的な向上心と もっと衝動的な今の欲望が 大きく対立している状況でした 「羅生門」を観たことがある人に なりたいと思う一方 今は 4回目の 「エース・ベンチュラ」を観たいわけです (笑) 最良の編集は両面を見せるものです ジャスティン・ビーバーを少し アフガニスタンを少し ヘルシーな情報と デザート的情報も提供するわけです アルゴリズムでカスタマイズされた フィルターの問題点は 利用者が何を最初に クリックしたかを主に参考にしているため そのようなバランスを崩してしまうことです バランスのとれた情報摂取の代わりに ジャンク情報ばかりに 囲まれてしまうこともあり得ます

つまりインターネットに対する 我々の見解は実は間違っているのかもということです 放送社会の 創設神話はこんな感じです 「放送社会では 門番である編集者によって 情報の流れがコントロールされていました でもインターネットが現れ 門番を追い払ったので 素晴らしいことに 私たちは 繋がり合えるようになりました」 でも今 実際にはそうなっていません 私たちが目にしているのは どちらかと言うと 人間の門番からアルゴリズムの門番に バトンが渡されている状況です そして問題なのはアルゴリズムは 編集者が持ち合わせていた倫理観念を まだ持っていないということです ですから世界の情報をアルゴリズムが監修して 私たちが何を見て 何を見ないか決めるのなら アルゴリズムが関連性以外の要素も 使用するようにしなくてはなりません 見たくないものや難しいもの 重要なものなども提示するようにしなくてはだめです TEDが異なる視点を 見せていることと同じです

過去我々は同じ問題に 直面しています 1915年当時 新聞は市民としての義務について あまり考えていませんでした でも人々は新聞が 重要な役割を果たしていることに気付きました つまり 市民が 適切な情報を得ていないと 民主主義は機能しないということです よって 情報のフィルターを行う新聞は重要なのです そしてジャーナリズムの倫理ができました 完璧ではありませんでしたが 1世紀の間このやり方をしてきました ですから現在私たちは ウェブ上での1915年に直面しているようなものです プログラムを書く上で このような責任を 組み込んでくれる 新しい門番が必要なのです

会場にはFacebookとGoogleからの出席者も大勢います ラリーやサーゲイのように 今あるウェブの構築に 貢献した人々には感謝しています でも私たちは彼らに これらのアルゴリズムに 生活や市民の義務が組み込まれているように しっかり確認してもらいたいのです アルゴリズムが明白で何が入ってくるかを決める フィルターのルールが 理解できるようにして欲しいのです さらに自分で何が削除されて 何がされないか決められるように 管理できるオプションを提供してもらいたいです これも インターネットが私たちの 思い描いていたようなものに なってもらう必要があると思うからです みんなを繋ぐものであり 新しいアイデアや人々 そして 異なる視点を提示するものであるべきです これを達成するには ウェブ上で私たちが孤立しないようにするべきです

ありがとう

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

関連動画