TED日本語 - アレサンドロ・アクイスティ: プライバシーはなぜ重要か

TED日本語

TED Talks(英語 日本語字幕付き動画)

TED日本語 - アレサンドロ・アクイスティ: プライバシーはなぜ重要か

TED Talks

プライバシーはなぜ重要か
Why privacy matters
アレサンドロ・アクイスティ
Alessandro Acquisti

内容

オンラインと実世界の両方で、公私の境界線はここ10年の間に曖昧になってきています。アレサンドロ・アクイスティがこれが何を意味し、なぜ問題となるのかを説明します。私たちの思考を刺激する、やや背筋の寒くなるトークで、人物の写真からその人物に対するプライバシー情報を得ることがいかに簡単かを含む、最新の研究を紹介します。

Script

I would like to tell you a story connecting the notorious privacy incident involving Adam and Eve, and the remarkable shift in the boundaries between public and private which has occurred in the past 10 years.

You know the incident. Adam and Eve one day in the Garden of Eden realize they are naked. They freak out. And the rest is history.

Nowadays, Adam and Eve would probably act differently.

[ @ Adam Last nite was a blast! loved dat apple LOL ]

[ @ Eve yep.. babe, know what happened to my pants tho? ]

We do reveal so much more information about ourselves online than ever before, and so much information about us is being collected by organizations. Now there is much to gain and benefit from this massive analysis of personal information, or big data, but there are also complex tradeoffs that come from giving away our privacy. And my story is about these tradeoffs.

We start with an observation which, in my mind, has become clearer and clearer in the past few years, that any personal information can become sensitive information. Back in the year 2000, about 100 billion photos were shot worldwide, but only a minuscule proportion of them were actually uploaded online. In 2010, only on Facebook, in a single month,2.5 billion photos were uploaded, most of them identified. In the same span of time, computers' ability to recognize people in photos improved by three orders of magnitude. What happens when you combine these technologies together: increasing availability of facial data; improving facial recognizing ability by computers; but also cloud computing, which gives anyone in this theater the kind of computational power which a few years ago was only the domain of three-letter agencies; and ubiquitous computing, which allows my phone, which is not a supercomputer, to connect to the Internet and do there hundreds of thousands of face metrics in a few seconds? Well, we conjecture that the result of this combination of technologies will be a radical change in our very notions of privacy and anonymity.

To test that, we did an experiment on Carnegie Mellon University campus. We asked students who were walking by to participate in a study, and we took a shot with a webcam, and we asked them to fill out a survey on a laptop. While they were filling out the survey, we uploaded their shot to a cloud-computing cluster, and we started using a facial recognizer to match that shot to a database of some hundreds of thousands of images which we had downloaded from Facebook profiles. By the time the subject reached the last page on the survey, the page had been dynamically updated with the 10 best matching photos which the recognizer had found, and we asked the subjects to indicate whether he or she found themselves in the photo.

Do you see the subject? Well, the computer did, and in fact did so for one out of three subjects.

So essentially, we can start from an anonymous face, offline or online, and we can use facial recognition to give a name to that anonymous face thanks to social media data. But a few years back, we did something else. We started from social media data, we combined it statistically with data from U.S. government social security, and we ended up predicting social security numbers, which in the United States are extremely sensitive information.

Do you see where I'm going with this? So if you combine the two studies together, then the question becomes, can you start from a face and, using facial recognition, find a name and publicly available information about that name and that person, and from that publicly available information infer non-publicly available information, much more sensitive ones which you link back to the face? And the answer is, yes, we can, and we did. Of course, the accuracy keeps getting worse. [ 27 % of subjects' first 5 SSN digits identified (with 4 attempts) ] But in fact, we even decided to develop an iPhone app which uses the phone's internal camera to take a shot of a subject and then upload it to a cloud and then do what I just described to you in real time: looking for a match, finding public information, trying to infer sensitive information, and then sending back to the phone so that it is overlaid on the face of the subject, an example of augmented reality, probably a creepy example of augmented reality. In fact, we didn't develop the app to make it available, just as a proof of concept.

In fact, take these technologies and push them to their logical extreme. Imagine a future in which strangers around you will look at you through their Google Glasses or,one day, their contact lenses, and use seven or eight data points about you to infer anything else which may be known about you. What will this future without secrets look like? And should we care?

We may like to believe that the future with so much wealth of data would be a future with no more biases, but in fact, having so much information doesn't mean that we will make decisions which are more objective. In another experiment, we presented to our subjects information about a potential job candidate. We included in this information some references to some funny, absolutely legal, but perhaps slightly embarrassing information that the subject had posted online. Now interestingly, among our subjects, some had posted comparable information, and some had not. Which group do you think was more likely to judge harshly our subject? Paradoxically, it was the group who had posted similar information, an example of moral dissonance.

Now you may be thinking, this does not apply to me, because I have nothing to hide. But in fact, privacy is not about having something negative to hide. Imagine that you are the H.R. director of a certain organization, and you receive resumes, and you decide to find more information about the candidates. Therefore, you Google their names and in a certain universe, you find this information. Or in a parallel universe, you find this information. Do you think that you would be equally likely to call either candidate for an interview? If you think so, then you are not like the U.S. employers who are, in fact, part of our experiment, meaning we did exactly that. We created Facebook profiles, manipulating traits, then we started sending out resumes to companies in the U.S., and we detected, we monitored, whether they were searching for our candidates, and whether they were acting on the information they found on social media. And they were. Discrimination was happening through social media for equally skilled candidates.

Now marketers like us to believe that all information about us will always be used in a manner which is in our favor. But think again. Why should that be always the case? In a movie which came out a few years ago, "Minority Report," a famous scene had Tom Cruise walk in a mall and holographic personalized advertising would appear around him. Now, that movie is set in 2054, about 40 years from now, and as exciting as that technology looks, it already vastly underestimates the amount of information that organizations can gather about you, and how they can use it to influence you in a way that you will not even detect.

So as an example, this is another experiment actually we are running, not yet completed. Imagine that an organization has access to your list of Facebook friends, and through some kind of algorithm they can detect the two friends that you like the most. And then they create, in real time, a facial composite of these two friends. Now studies prior to ours have shown that people don't recognize any longer even themselves in facial composites, but they react to those composites in a positive manner. So next time you are looking for a certain product, and there is an ad suggesting you to buy it, it will not be just a standard spokesperson. It will be one of your friends, and you will not even know that this is happening.

Now the problem is that the current policy mechanisms we have to protect ourselves from the abuses of personal information are like bringing a knife to a gunfight. One of these mechanisms is transparency, telling people what you are going to do with their data. And in principle, that's a very good thing. It's necessary, but it is not sufficient. Transparency can be misdirected. You can tell people what you are going to do, and then you still nudge them to disclose arbitrary amounts of personal information.

So in yet another experiment, this one with students, we asked them to provide information about their campus behavior, including pretty sensitive questions, such as this one. [ Have you ever cheated in an exam? ] Now to one group of subjects, we told them, "Only other students will see your answers." To another group of subjects, we told them, "Students and faculty will see your answers." Transparency. Notification. And sure enough, this worked, in the sense that the first group of subjects were much more likely to disclose than the second. It makes sense, right? But then we added the misdirection. We repeated the experiment with the same two groups, this time adding a delay between the time we told subjects how we would use their data and the time we actually started answering the questions.

How long a delay do you think we had to add in order to nullify the inhibitory effect of knowing that faculty would see your answers? Ten minutes? Five minutes? One minute? How about 15 seconds? Fifteen seconds were sufficient to have the two groups disclose the same amount of information, as if the second group now no longer cares for faculty reading their answers.

Now I have to admit that this talk so far may sound exceedingly gloomy, but that is not my point. In fact, I want to share with you the fact that there are alternatives. The way we are doing things now is not the only way they can done, and certainly not the best way they can be done. When someone tells you, "People don't care about privacy," consider whether the game has been designed and rigged so that they can not care about privacy, and coming to the realization that these manipulations occur is already halfway through the process of being able to protect yourself. When someone tells you that privacy is incompatible with the benefits of big data, consider that in the last 20 years, researchers have created technologies to allow virtually any electronic transactions to take place in a more privacy-preserving manner. We can browse the Internet anonymously. We can send emails that can only be read by the intended recipient, not even the NSA. We can have even privacy-preserving data mining. In other words, we can have the benefits of big data while protecting privacy. Of course, these technologies imply a shifting of cost and revenues between data holders and data subjects, which is why, perhaps, you don't hear more about them.

Which brings me back to the Garden of Eden. There is a second privacy interpretation of the story of the Garden of Eden which doesn't have to do with the issue of Adam and Eve feeling naked and feeling ashamed. You can find echoes of this interpretation in John Milton's "Paradise Lost." In the garden, Adam and Eve are materially content. They're happy. They are satisfied. However, they also lack knowledge and self-awareness. The moment they eat the aptly named fruit of knowledge, that's when they discover themselves. They become aware. They achieve autonomy. The price to pay, however, is leaving the garden. So privacy, in a way, is both the means and the price to pay for freedom.

Again, marketers tell us that big data and social media are not just a paradise of profit for them, but a Garden of Eden for the rest of us. We get free content. We get to play Angry Birds. We get targeted apps. But in fact, in a few years, organizations will know so much about us, they will be able to infer our desires before we even form them, and perhaps buy products on our behalf before we even know we need them.

Now there was one English author who anticipated this kind of future where we would trade away our autonomy and freedom for comfort. Even more so than George Orwell, the author is, of course, Aldous Huxley. In "Brave New World," he imagines a society where technologies that we created originally for freedom end up coercing us. However, in the book, he also offers us a way out of that society, similar to the path that Adam and Eve had to follow to leave the garden. In the words of the Savage, regaining autonomy and freedom is possible, although the price to pay is steep. So I do believe that one of the defining fights of our times will be the fight for the control over personal information, the fight over whether big data will become a force for freedom, rather than a force which will hiddenly manipulate us.

Right now, many of us do not even know that the fight is going on, but it is, whether you like it or not. And at the risk of playing the serpent, I will tell you that the tools for the fight are here, the awareness of what is going on, and in your hands, just a few clicks away.

Thank you.

(Applause)

今日は アダムとイブが巻き込まれた 有名なプライバシー事件と ここ10年間に起きた 公私の境界の 大きな変化を関連付けて お話ししたいと思います

この事件はご存知の通りです エデンの園にいるアダムとイブはある日 自分たちが 裸なのに気付きます 彼らは ひどく あわてます その後の顛末は ご存知の通りです

今日なら アダムとイブは 恐らく 違った行動を取るでしょう

[ @アダム :昨夜は楽しかった!あのリンゴは美味しかった(笑)]

[ @イブ:本当にでも ズボンどうしたんだろう?]

私たちは今までになく多くの 情報をオンラインで公開しています そして我々に関する情報は 様々な組織によって収集されています この大量の個人情報 あるいはビッグデータから 非常に有用で 価値のあるものが得られますが 同時にプライバシーを手放すことに伴う 複雑なトレードオフも存在します 今日は このようなトレードオフについてお話しします

まずここ数年の間に 私のなかで 非常に明確になってきた どんな個人情報でもプライバシー情報になり得る という洞察から話したいと思います 2000年の時点で 全世界で 1000億枚ほどの写真が撮られましたが ウェブにアップロードされたものの割合は 非常に小さなものでした 2010年には ファイスブックだけでも 25億枚の写真がひと月にアップされ そのほとんどが誰の写真か特定可能です 同じ期間で 写真に写っている人を認識する コンピュータの能力は3桁上がりました この2つの技術を組み合わせると 何が起こるでしょうか 顔写真がどんどん手に入るようになり コンピュータの顔認識の能力が向上する そしてクラウドコンピューティングが ここにいる誰に対しても 数年前には政府の専門機関しか 持てなかったような コンピュータ能力を提供します ユビキタスコンピューティングによって スーパーコンピュータではない私の携帯電話が インターネットに接続して 数十万の顔認識を 数秒で実行することを可能にします このような技術の組み合わせが プライバシーと匿名性に対する 私たちの基本的な理解を 大きく変えると推測します

この考えを検証するために カーネギーメロン大学である実験を行ないました キャンパスを歩いている学生に声を掛け 実験に参加してもらい ウェブカメラで学生の顔写真を撮って ノートパソコンに用意したアンケートに答えてもらいました 彼らがアンケートに答えている間に クラウドコンピューティングのクラスタに写真をアップし 顔認識技術を使って フェイスブックから取ってきた 数十万の画像データーベースと 照合しました 被験者の学生がアンケートの最後の ページに到達する頃にはそのページは動的に変更されていて 顔認識エンジンが選んだ最も似ている 10枚の写真が表示されます そこで 学生にその写真の中に 自分が映っているかどうか尋ねました

学生をみつけられますか? コンピュータは探せたわけです 実際3人中1人の割合で学生の特定が可能でした

基本的には 不特定の顔写真から始めて オンラインかオフラインかに関わらず顔認識技術を使って その写真の人物の名前を特定することが ソーシャルメディアのおかげで可能です 数年前にこれとは異なる実験を行いました ソーシャルメディアのデータから始めて それを統計的に米国政府の ソーシャルセキュリティー関連のデータと組み合わせ 最終的にソーシャルセキュリティー番号を特定することが出来ました ソーシャルセキュリティー番号は米国では プライバシーに関する非常に重要な情報です

この話の先に見えてくるものは何でしょう? この2つの実験を組み合わせると ある疑問が浮かびます 顔の写真から始めて 顔認識技術によって名前を特定し その名前からその個人に対する 公開情報を取得し 次に公開情報から よりプライベートな 非公開情報を参照し それを元の顔と結びつけられるでしょうか? 答えはイエスで私たちはそれに成功しました もちろん精度は徐々に悪くなります[27%の被験者のソーシャルセキュリティ番号の頭5桁が特定できました] iPhoneのアプリも作ることにしました[27%の被験者のソーシャルセキュリティ番号の頭5桁が特定できました] 内蔵のカメラで 人物の写真を撮って それをクラウドにアップして 先ほど説明した処理をリアルタイムで実行して 該当する写真を探し公開されている情報を探し そこからプライバシー情報を探し それを携帯に送り返し その人物の写真と重ね合わせて表示する なんかゾッとする拡張現実の例だと思います このアプリは公開していません 単に可能かやってみただけです

このような技術の応用が 最大限に進んだ場合を考えると 周りにいる他人が あなたの顔をグーグルグラスや コンタクトレンズを通して見て あなたに関する7、8個のデータから 知り得るどんな個人情報にも アクセスできるような未来が想像できます このような秘密のない世界はどんな感じでしょうか? このようなことに注意を払うべきでしょうか?

私たちは 多くのデータにアクセスできる未来が 偏見のない世界だと信じる傾向にあります でも 多くの情報があるからといって より客観的な判断をするとは限りません もう1つの実験では 被験者に 就職志望者の情報を見てもらいました この情報のなかに 意図的に混ぜたのは 被験者自身がネットに投稿した 完全に合法でありながらちょっと具合の悪い 情報に関することです 被験者のなかには そのような情報を投稿したことがある人も ない人もいました どちらのグループが求職者を 厳しく非難したと思いますか? 逆説的ですが 自分自身もそのような 情報を投稿したことがあるグループでした これは言動不一致の良い例です

皆さんは これは自分は当てはまらない なぜなら隠しておきたいことは ないからと思っているかも知れません しかしプライバシーとは ネガティブなことを隠すことではありません あなたがどこかの組織の 人事担当責任者で 就職希望者の履歴書を受け取ったときに 応募者に関してもう少し調べたいと思ったとしましょう 候補者の名前をグーグルで検索したら あるサイトで こんな情報が見つかったとします 一方 どこかのパラレルワールドでこの情報を見つけるとします あなたは両方の応募者と 同じように面談をしたいと思うでしょうか もしそう思うのなら あなたは米国の雇用主とは違います 私たちは実験の一部として正にそのような状況を試してみました ファイスブックに人柄を操作した架空のプロファイルを登録し 米国内の様々な企業にその人物の履歴書を送りました そして企業がその人物に関する情報を ソーシャルメディアで検索するかどうか また そこで得た情報に影響されるか観察すると 影響されると分かりました 同じ能力の候補者間で ソーシャルメディアを介した差別が発生していました

マーケティングの人たちは 私たち自身に関する情報が 私たちのために使われると信じさせようとしています でもよく考えてみてください常にそうであるはずがありません 何年か前の「マイノリティー・レポート」という映画で トム・クルーズがショッピング・モールを歩くと 個人に特化した広告がホログラフィックに 彼を取り巻くように表示される 有名な場面がありました 映画の設定は2054年 40年後の未来となっていて その技術は素晴らしいもののように見えますが それはすでに 組織が集めることのできる個人情報と それが思いもよらない方法で利用され得る ということに関して過小評価をしています

そのような例として現在私たちが行なっている 実験を紹介します 企業があなたのフェイスブックの 友達リストにアクセスできると仮定してみて下さい そして何らかのアルゴリズムで 一番仲のいい友達を2人選ぶことが出来るとします そしてその2人の友達の顔の写真を リアルタイムにで合成出来るとします 過去の研究から 合成された顔写真は 本人自身もそれと認識は出来ないのですが 何故かその写真の顔に親しみをもつ ということが分かっています 次に何か特定の商品を探しているとき それを勧める広告があり 勧めているのは見知らぬ人ではなく あなたの友達の合成イメージで それに 全く気付かないかもしれません

問題は 現在の法律では 個人情報の悪用から我々を保護する仕組みは 銃撃戦にナイフで対抗するようなものだということです このような仕組みの一つが透明性で 入手した情報をどの様に使うかを明確するものです 原理として それは良いことです 必要ですが 充分ではありません 透明性は誤用される可能性があります 情報をどのように使うかを伝えた上で 個人情報を提供するように 相手を誘導することが可能です

学生を対象にもう1つ実験を実施しました 学生達にキャンパスでの行ないに関して 情報を提供するように依頼しました 試験でカンニングをしたことがありますか? といった非常にプライベートな質問を含んでいます 一つ目のグループには 回答は 他の学生だけが閲覧すると伝えました もう一つのグループには 他の学生と教授陣が回答を閲覧すると伝えました 透明性と留意点が明確であり当然期待した結果になりました 最初のグループの方が 2番目のグループより情報を開示する可能性が高いという結果です 妥当な結果だと思います 次に誤った誘導を加えました 同じ2つのグループで実験を行ないましたが 今度はどのように回答が利用されるかを 伝えるタイミングと 実際に質問をするタイミングを ずらしました

教授陣も回答を閲覧するという 抑止作用のある情報を 忘れるのにどの位の時間が必要だったと思いますか? 10分? 5分? 1分? 15秒ではどうでしょう? 両方のグループに同じ量の情報を開示させるのには 15秒あれば充分でした 2つ目のグループも教授陣が 回答を見ることを気にしていないようでした

ここまでの話で とても憂鬱な気分になるとは思います でもそれがポイントではないのです 実際には別のアプローチがある ということをお話したいのです 現在のやり方が唯一の方法ということは ありませんし ベストな方法でもありません もし誰かが「人々はプライバシーを気にしない」と言ったら やり方が巧妙にデザインされていて プライバシーを気にさせなくしているか疑って下さい そのような操作が存在すると気付くことは すでに自分自身を守る道を 半分進んでいることを示しています もし誰かが プライバシーと ビッグデータから得られるメリットは両立しないなどと言い放ったら ここ20年間 研究者は 理論上どんな電気的な通信に対しても プライバシーを強化できる技術を 開発してきたことを思い出すべきです 私たちは匿名のままインターネットをブラウズすることができます メールを指定した受信者だけが 読めるように送ることもできます米国家安全保障局でさえ読めません プライバシーに配慮したデータマイニングも可能です 言い換えれば ビッグデータのメリットを享受しながら 同時にプライバシーを守ることが可能です もちろんこのような技術は 情報を持つ者と情報を利用する者の間の コストと利益のあり方に影響するかもしれません これが理由であまりこのような話を聞かないのかもしれません

ここからエデンの園に話に戻ります これはエデンの園の話を プライバシーの観点からみたもう1つの解釈です これはアダムとイブが裸であることに 気付いて恥ずかしいと思ったこととは 関係がありません 同じような話を ジョン・ミルトンの「失楽園」にも見ることができます エデンの園で アダムとイブは物質的には不自由なく 幸せで満足していました しかし同時に彼らは知識や 自己認識に欠けていました 彼らは 適切にも知恵の実と名付けられた 実を食べた瞬間 自分たちを発見しました 彼らは自分達を認識し自主性を獲得しました しかしその代償はエデンの園を去ることでした プライバシーも自由のための 手段でもあり同時に払うべき代償でもあります

マーケッティングの人々は ビッグデータとソーシャルメディアは 彼らが利益を得るための場ではなく 私たち全員のエデンの園だといいます 私たちは無料でコンテンツを楽しみ アングリーバードを手に入れたりほしいアプリを手に入れたりできます しかし実際には 数年の内に企業は 私たちを熟知し 私たちの欲しいものを 意識する前に察知し 必要と思う前に 買い物までしてくれるようになるかもしれません

このように私たちが自立性と自由を 快適さと引き換えに手放してしまう このような未来を憂慮した 英国の作家がいました ジョージ・オーウェル以上にこれを描いたのは もちろん オルダス・ハクスリーです 『すばらしい新世界』で彼は もともとは自由のために私たちが 作り上げた技術が 私たちを 支配する世界を創造しています しかし同時にその小説では その社会から 逃げ出す経路 アダムとイブがエデンの園から 出るために通らなければならなかった経路と似たものを示しています 小説のなかの未開人の言葉として 代償は高いが 自立性と自由を手に入れることは可能だと言っています 我々の時代の独特の戦いは 個人情報のコントロールに対する 戦いであると私は信じています ビッグデータが自由のための力となるか 私たちを陰で操作するような力となるかの戦いです

現在はまだ 多くの人が そのような戦いが始まっていることすら知りません しかし好むと好まないとにかかわらず戦いは始まっています 蛇の役割を演じてしまう危険を承知で 戦いに必要な道具はここにある 何が起きているかを理解する力は あなたの手のなかに ほんの数クリックしか離れていないところにあると伝えたいと思います

ありがとうございます

(拍手)

― もっと見る ―
― 折りたたむ ―

品詞分類

  • 主語
  • 動詞
  • 助動詞
  • 準動詞
  • 関係詞等

関連動画