スゴ本の広場

2013年05月10日(金)

『ビッグデータの正体 情報の産業革命が世界のすべてを変える』
~第1章「世界を変えるビッグデータ」より一部抜粋~

2013年最大のキーワード「ビッグデータ」を初めて本格的に論じたベストセラー、待望の翻訳!!
我々の未来の生活、仕事、意識、すべてが「ビッグデータ」によって大きく変わる!


伊藤穰一(MITメディアラボ所長)
「押し寄せる情報の波によって、世の中の捉え方自体が根本から変わろうとしている。この事実をあぶり出すうえで新境地を切り開いたのが、本書『ビッグデータの正体』だ。企業はいかに新たな価値を生み出すことができるのか、人々は物事の認知のあり方をどのように変える必要があるのか---本書は大胆な主張と見事な語り口でその答えをはっきりと示している」

ローレンス・レッシグ(ハーバード大学ロースクール教授、『Free Culture』著者)
「物の見方を大きく変えてしまう本が10年に数冊は登場するが、まさに本書がそれだ。社会はビッグデータがもたらす変化に目を向け始めている。本書はその重要な出発点となる」

 

第1章 世界を変えるビッグデータ
When Data Speaks  データが語り始めるとき

検索データからインフルエンザ流行を予測したグーグル

 新型のインフルエンザ・ウイルスが見つかったのは、2009年のこと。鳥インフルエンザと豚インフルエンザのウイルスが部分的に組み合わさって誕生した新しいH1N1ウイルスは瞬く間に蔓延した。

 数週間後には世界中の公衆衛生当局が恐ろしいパンデミック(世界的大流行)の到来に危機感を募らせた。1918年のスペイン風邪に匹敵する感染被害を警告する専門家もいたほどだ。スペイン風邪といえば、感染者5億人、死者数千万人を出したインフルエンザ。しかも、今回の新型ウイルスの場合、ワクチンもなかった。公衆衛生当局としては、感染の拡大を遅らせるくらいしか手の打ちようがなかったのだ。もっとも、時間稼ぎのためには、肝心のウイルスの居所を突き止めなければならない。

 米国では疾病予防管理センター(CDC)が医療機関に新型インフルエンザ症例の報告を求めた。すでに広がりを見せていたパンデミックの情報が1~2週間遅れで届き始めた。感染患者も、具合が悪いと感じながらも、病院に行くのは数日後になる。しかも、その情報がCDCに届くまでに時間がかかる。おまけにCDCでは、集まったデータを週に1回しか集計していなかった。感染力の強い病気の場合、2週間の遅れは致命的だ。こうした遅れのために、肝心な局面で公衆衛生当局に完全な死角が生まれてしまったのである。 検索データからインフルエンザ流行を予測したグーグル

『ビッグデータの正体』
⇒本を購入する(AMAZON)

 実はH1N1ウイルスがマスコミを賑わす数週間前、グーグルのエンジニア・チームが有力科学誌『ネイチャー』で注目すべき論文を発表していた。世間では話題にもならなかったが、衛生当局者やコンピュータサイエンスの研究者は色めき立った。論文では、グーグルがどのようにして米国での冬のインフルエンザの流行を「予測」し、国内はおろか、地域単位、さらには州単位での流行まで特定してみせたのかが解説されていたのである。

 グーグルが着目したのは、インターネット上での人々の「検索行動」だ。グーグルの場合、全世界で1日に30億件以上の検索が実行されている。それだけ解析に使えるデータが豊富にあった。しかも、グーグルではあらゆる検索内容を長年にわたって蓄積していたことも強力な武器となった。

 グーグルは、まず米国人が検索時に入力した言葉のうち、上位5000万件を抽出した。そして2003年から2008年までの季節性インフルエンザの流行に関するCDCのデータとの相関関係を調べた。つまり、インターネットでの検索内容から、インフルエンザ・ウイルスの感染状況が明らかになると考えたわけだ。実はグーグル以外にも、インターネットの検索データを使って感染状況を把握しようとする動きは過去にもあった。しかし、データ量、処理能力、統計処理のノウハウでグーグルが群を抜いていた。

 人々がネットでインフルエンザ情報を探すときは、「咳の薬」や「解熱剤」といったキーワードで検索するはず、とグーグル・チームは推測した。しかし、重要なのはそこではなかった。彼ら自身、わからなかったのだ。また、そんなことにいちいち注意を払うようなシステムに設計されていなかった。グーグルのシステムは、各検索語の使用頻度と、インフルエンザ感染の時間的・空間的な広がりとの間の相関関係の有無を見ていただけだ。

 グーグルは、合計4億5000万にも上る膨大な数式モデルを使って検索語を分析し、CDCが提供している2007年、2008年の実際のインフルエンザ症例とグーグルの予測を比較検討した。そこで彼らは大変なことに気付く。特定の検索語45個と、ある数式モデルを組み合わせたとき、グーグルの予測と公式データの間に高い相関関係が見られたのだ。

 つまり、CDCと同じようにグーグルもインフルエンザがどこで流行しているのか特定できることになる。両者に決定的な違いがあったとすれば、グーグルは1~2週遅れではなく、ほぼリアルタイムに特定できた点だ。

 その結果、2009年にH1N1ウイルスによる新型インフルエンザ危機に見舞われた際、どうしても報告手順に遅れが生じる政府の公式データよりも、グーグルのほうがはるかにタイムリーで有効な指標になることが判明した。公衆衛生当局に貴重な情報が蓄積されていたことは間違いない。

 一方、グーグル方式は、口の粘膜を綿棒で採取する検査もなければ、医療機関との接触もない。その代わりに利用されたのが「ビッグデータ」だ。大量のデータがあれば、斬新な方法で情報を活用し、新たな知見や価値ある製品・サービスを生み出すことができる。いわば、社会が新たな力を手にしたことになる。ビッグデータがあれば、次なるパンデミックが襲来するころには、我々は発生予測に役立つもっと有効なツールを手にしているはずで、流行は食い止められるだろう。

結果がわかれば理由は要らない

 公衆衛生はビッグデータが特に有効な分野だが、それはほんの一例に過ぎない。産業界全体で、ビッグデータによる再構築が始まろうとしている。その好例が航空券購入だ。

 2003年、ある男が弟の結婚式に出席するため、シアトルからロサンゼルスまでの航空券を購入することになった。早く予約したほうが安上がりと考え、数ヵ月前にオンラインで購入した。ところがフライト当日、ふとした好奇心から、隣の席の客にいくらで買ったか尋ねたところ、愕然とする答えが返ってきた。隣の客はごく最近購入したにもかかわらず、自分よりもはるかに安く手に入れていたからだ。カチンときた男は、次々に周囲の客に尋ねたが、みな自分より安く買っていたのだった。

『ビッグデータの正体』
⇒本を購入する(AMAZON)

 普通なら、このように損得で裏切られた気分を味わっても、目の前に食事が運ばれて、さあ食べようという段になれば、どうでもよくなってしまうものだ。ところが彼は違った。男の名はオレン・エツィオーニ。米国屈指のコンピュータサイエンス研究者だ。ワシントン大学の人工知能研究プログラムのディレクターのかたわら、まだ「ビッグデータ」という言葉が世に出る前からビッグデータ関連会社をいくつも起こしてきた人物である。

 1994年には、ウェブ上で最古参とも言える検索エンジン「メタクローラー」の開発に協力している。さらにエツィオーニは、業界に先駆けて大規模な商品比較サイトを開設したネットボットに共同創業者として名を連ね、後にエキサイトに売却した。続いて立ち上げたベンチャー企業がクリアフォレストだ。テキスト文書から意味を抽出する技術を開発した会社で、後にロイターが買収している。

 エツィオーニの目には、世界全体がコンピュータサイエンス上の1つの大きな問題と映っていて、自分の手で解決する自信があった。実際、コンピュータサイエンス専攻の第一期生として1986年にハーバード大学を卒業して以来、数々の問題を解決してきた。

 空の旅を終えたエツィオーニは、オンラインで販売されている航空券の価格が好条件かどうか判断する方法を模索し始めた。航空機の座席は日用品と同じで、同じフライトであれば基本的に座席間に大きな差はない。にもかかわらず、さまざまな条件が絡み合って価格は激しく乱高下する。その条件を完全に把握しているのは当の航空会社だけである。

 やがてエツィオーニは1つの結論にたどり着く。価格差の原因となる諸条件を解明する必要などないのだ。要は、画面に表示されている価格が将来、上がるか下がるかを予測できればいいのである。簡単とは言わないが、不可能ではない。特定路線についてすべての航空券の販売状況を分析し、出発までの残り日数と価格の相関関係を調べればいいのだ。

 航空券の平均価格が下降局面にあれば、もう少し待ってから購入すべきだし、平均価格が上昇基調なら、少しでも下がった瞬間に購入するのが賢い買い方だ。エツィオーニはフライト中に周囲の客に購入額を聞きまくったが、あの調査の"超拡大版"を実施すればいいのだ。コンピュータサイエンスの中では、とてつもない難題であることは確かだったが、エツィオーニ本人は解決する自信満々で、すぐに作業に乗り出すことにした。

ゴミ同然のデータが突然「宝の山」に

 まず旅行ウェブサイトからかき集めた情報を基に、41日間をかけて1万2000件の価格動向観察サンプルを使ってシミュレーションを実行。乗客が大幅に節約できる予測モデルを開発した。このシステムでは「買い時」がわかっても、「買い時の理由」はわからない。つまり、航空会社の運賃決定にどのような変数(余っている座席数、季節的な要因、「土曜宿泊」のような運賃を押し下げる要素の有無)が関わるのかは、依然としてわからない。他のフライトのデータを使って、確率予測をしているだけだからだ。

 「買うべきか、買わざるべきか、それが問題だ」とエツィオーニは噛みしめるように言う。その思いをぶつけるように、この研究プロジェクトには「ハムレット」と命名した。

 そんな小さなプロジェクトも、やがてベンチャーキャピタルの支援を受けて、フェアキャストというベンチャー企業へと発展する。航空券価格は上がるのか下がるのか、その増減幅はどのくらいかを予測してくれるから、消費者にとっては「購入」ボタンを押すタイミングが決めやすくなる。これまで絶対に手の届かなかった情報が手に入るようになり、消費者が強くなったのである。フェアキャストは、自社についてもガラス張りにする方針を掲げ、予測に関する自信のほどまで数値化してユーザーに公開した。

 このシステムを運用するには、膨大なデータが必要になる。そこでエツィオーニは、予測精度を高めるため、旅行業界向けフライト予約データベース会社に触手を伸ばした。この情報があれば、米国民間航空の全路線、全フライト、全座席について1年を通じて予測可能になる。これでフェアキャストは2000億件近い運賃情報を基に航空券価格を予測できるようになった。おかげで、消費者にとっては大きな節約につながる。

 一方、航空業界にしてみれば、何百万ドルもの儲けをふいにしたことになる。薄茶色の髪に屈託のない笑顔の無邪気そうな男。そんなエツィオーニの風貌を見ていると、この男がそんな大それたことをやってのけたとは、とても思えない。しかし、エツィオーニはさらに大きな勝負に打って出る。2008年ごろから、ホテルやコンサートチケット、中古車などにもこの手法を利用しようと考え始めた。要は、差別化要素がほとんどない商品で、価格変動が激しく、膨大なデータがあるものなら何でも応用が利くのだ。

 ところが、こうした計画を練っていた矢先、マイクロソフトから買収の打診があった。マイクロソフトは1億1000万ドル(約105億円)でフェアキャストの経営権を取得し、同社の検索エンジン「Bing」に組み込んだのである。2012年には、75%の確率で正確に予測できるようになり、チケット1枚当たりの節約可能額は約50ドルに上った。

 フェアキャストはビッグデータ系企業の典型で、今後、世界中の企業がめざしている姿の一例でもある。

 5年前あるいは10年前ならこういう会社は生み出せなかった。「たぶん不可能だったと思う」と本人も認める。当時は必要なコンピュータの処理能力やデータ保存スペースを確保しようにも、あまりにコストがかかりすぎたのだ。その後、不可能が可能になったのはテクノロジーの進歩が大きいが、実は、その陰でもっと重要な変化も起こっていた。しかも簡単に見分けのつかない微妙な現象である。それはデータ利用に関する意識の変化だ。

 昔は、データは何の代わり映えもしない陳腐な存在と考えられていた。例えば航空機の到着(グーグルなら検索処理の終了)と同時にそれまで集めたデータはゴミ同然というのが常識だった。

 ところがその常識は崩れ去った。データはビジネスの素材に生まれ変わり、重要な経済資源として、新たな経済価値の創出に活用されることになった。実際、こうした正しい意識を持って臨めば、データを上手に再利用することでイノベーションや新サービスの基盤に変えることもできる。謙虚な姿勢、意欲、そして情報収集のツールがあれば、そこに隠されていた意味が浮かび上がってくるのである。

「ビッグデータ」とは何か

 情報社会の成果は一目瞭然だ。誰もが携帯電話を身に付け、デスクにはパソコン、会社の管理部門では巨大なITシステムが稼働している。ただ、情報そのものはあまり注目されていない。

 世の中にコンピュータが本格的に入ってきてから50年。データの蓄積が進み、これまででは考えられなかったようなことがいつ起こっても不思議ではない状況にある。かつて世界がこれほどの情報洪水に見舞われたことはないし、その情報量も日増しに拡大する一方だ。規模の変化は状態の変化につながる。そして、量的な変化は質的な変化をもたらす。

 天文学やゲノム科学のような研究領域では、2000年代半ばに初の情報爆発を経験、「ビッグデータ」という言葉が生まれた。このコンセプトが今、人間の活動のあらゆる分野に広がり始めたのだ。

 ビッグデータに厳格な定義はない。元々は、情報量が増えすぎて、研究や分析に使用するデータがコンピュータのメモリーに収まりきらなくなり、分析用ツールの改良が必要になったというのが、ビッグデータと呼ばれるようになった背景である。

 こうした技術が発展して、グーグルの「MapReduce」や、そのオープンソース版の「Hadoop」(開発元はヤフー)といった新型の情報処理技術が生まれている。その結果、きれいに整理された表や従来型データベースには入りきらないほどの大量のデータでも管理できるようになった。厳格な階層構造や均一性のないデータを処理できる技術も現れ始めている。

 ネット企業は膨大なデータを収集できるし、実際にそうするだけの大きな経済的メリットもあったことから、このような最先端のデータ処理技術をいち早く導入し始めた。だから、ときには何十年もの実績を誇る非ネット系企業さえ追い抜くケースも見られる。

 現時点でビッグデータの捉え方(と同時に、本書の方針)は、次のようにまとめることができる。「小規模ではなしえないことを大きな規模で実行し、新たな知の抽出や価値の創出によって、市場、組織、さらには市民と政府の関係などを変えること」。

 それがビッグデータである。

 ただし、これは始まりにすぎない。ビッグデータの時代には、暮らし方から世界との付き合い方まで問われることになる。特に顕著なのは、相関関係が単純になる結果、社会が因果関係を求めなくなる点だ。「結論」さえわかれば、「理由」はいらないのである。過去何百年も続いてきた科学的な慣行が覆され、判断の拠り所や現実の捉え方について、これまでの常識に疑問を突きつけられるのだ。

 ビッグデータは大変革の始まりを告げるものだ。望遠鏡の登場によって宇宙に対する認識が深まり、顕微鏡の発明によって細菌への理解が進んだように、膨大なデータを収集・分析する新技術のおかげで、これまではまったく思いもつかぬ方法で世の中を捉えられるようになる。やはりここでも真の革命が起こっているのは、データ処理の装置ではなく、データそのもの、そしてその使い方だ。

各方面に押し寄せる情報洪水

 実際のところ、情報革命はどの程度まで進んでいるのだろうか。それを明らかにするには、はじめに社会全体のさまざまなトレンドを見ておく必要がある。

 デジタルという名の宇宙は常に膨張を続けている。例えば天文学。2000年に宇宙地図作成プロジェクト「スローン・デジタル・スカイサーベイ」が始まったが、同プロジェクト用の望遠鏡(米国ニューメキシコ州)が最初の数週間に収集したデータ量だけで、天文学の歴史全体を通じて集めたデータ量を超えてしまった。

 2010年には、蓄積されたデータが140テラバイト(テラは10の12乗)という途方もない量に達している。ところが、後継の望遠鏡として2016年にチリに設置予定の大型シノプティック・サーベイ望遠鏡になると、これだけのデータをわずか5日で集めてしまう。

 このような文字どおりの天文学的数字は、我々の暮らしの周辺にも少しずつ姿を現し始めている。ヒトゲノム(全遺伝情報)が初めて解読されたのは2003年。30億の塩基対の配列を決定するまでに10年の歳月が流れた。それからほぼ10年後、これと同じ量のDNAを世界中にあるゲノムマシンが15分もあれば解析してしまう。2012年には、個人のゲノム配列解析にかかる費用は1000ドル(約8万円)を割り込み、広く世の中で利用可能な大衆向け技術になりつつある。

 金融分野では、米国債券市場で1日に取り引きされる株式およそ70億株のうち、約3分の2がコンピュータのアルゴリズムに従って取り引きされている。数学的なモデルによって膨大なデータを処理し、リスクを抑えながら利益を予測しているのだ。

 特に激しい情報洪水が押し寄せているのは、インターネット産業だ。グーグルは、1日に24ペタバイト以上のデータを処理している。これは、米国議会図書館に所蔵されている全印刷資料の何千倍もの情報量に相当する。

 10年前には産声さえ上げていなかったフェイスブックの場合、1時間に新規アップロードされる写真は1000万枚を超える。「いいね!」ボタンのクリックやコメント投稿の数は1日におよそ30億回だ。フェイスブックは、この膨大なデジタルの"足跡"を洗い出せば、ユーザーの嗜好をあぶり出すこともできる。

 グーグルが運営するユーチューブは月間利用者数が8億人。この膨大な数のユーザーが、1秒ごとに長さ1時間分の動画を投稿している。ツイッターのつぶやき数は年200%の勢いで増加しており、2012年には1日に4億ツイートを突破した。

 サイエンスから医療まで、あるいは金融業界からネット業界まで、分野こそ異なるが、状況は同じだ。世界中でデータ量が急増していて、ハードウェアの能力はもとより、我々の想像力までも超えようとしている。

 我々を取り巻く情報の正確な量を特定し、その増加ペースを測定しようと、これまで多くの人々が取り組んできた。ただ、測定対象の違いもあって、成果はまちまちだ。

 中でも、かなり包括的な調査を実施したのが、南カリフォルニア大学コミュニケーション学部のマーティン・ヒルバートである。ヒルバートは、作成・記録・伝達された全情報の量を正確に割り出そうとした。書籍、絵画、メール、写真、音楽、動画(アナログ、デジタル)はもちろん、テレビゲーム、電話通話、さらにはカーナビシステムやメールでやり取りされた文字も含まれる。また、テレビやラジオなどの放送メディアも、視聴率を基に算出している。

 ヒルバートの計算によれば、2007年には300エクサバイト(エクサは10の18乗)のデータが記録・伝達されたという。長編映画1本をデジタル化して圧縮すると、1ギガバイト(ギガは10の9乗)のファイルになる。この10億倍が1エクサバイトになる。要するに、とてつもない量ということだ。

 印刷メディアなど記録された情報だけを見ても、実に興味深いトレンドが浮かび上がる。2007年に記録状態にあったデータのうち、7%はアナログデータ(書類、書籍、写真など)で、残りがデジタルだった。ところがそれからほどなくして状況はがらりと変わる。

 「情報革命」とか「デジタル時代」といった発想自体は1960年代から存在するが、やはりかなり新しい現象と言える。ちょっと前の2000年当時、全世界で記録された情報のうち、デジタル情報はわずか4分の1にすぎなかった。残りの情報は紙やフィルム、レコード、カセットテープなどに記録されていた。

 当時、デジタル情報はそれほど多くなかった。昔からウェブサーフィンに興じたり、オンラインで書籍を購入したりしていた方々は首をかしげるかもしれない(実際、1986年には、世界の一般的な計算処理の約40%は電卓が担っていた。この電卓の処理能力をすべて足し合わせると、同じ年に存在した全パソコンの処理能力を上回っていた)。

 しかし、デジタルデータが急増し、ヒルバートの説に従えば、3年ちょっとで倍増していったことになる。ほどなくしてデジタルとアナログの逆転劇を迎える。アナログ情報はほとんど増加していない。2013年ごろには、世界の蓄積情報の量が約1200エクサバイトに達すると推定されるが、このうち非デジタル情報は2%にも満たない。

 このデータ量が何を意味するのか、一言で的確に言い表すのは難しい。もしこれだけのデータを書籍にした場合、米国全土に書籍を敷き詰めて、さらに52段ほど上に積み上げなければならない。CD-ROMだったら全部積み上げれば月に届く。しかも、その"CDの塔"が5つもできる計算だ。

 紀元前3世紀に作られた偉大なアレクサンドリア図書館に置き換えるとどうだろう。この図書館は、プトレマイオス2世が世界中の文献を漏らさず集めるために建設した施設で、世界のあらゆる文献が集められた知の殿堂だった。現在、世界を押し流しそうな勢いのデジタル洪水の中、地球上の1人ひとりが、このアレクサンドリア図書館の320倍もの情報を抱えている計算になる。

 あらゆる物事のスピードは速まるばかりだ。蓄積情報の量は世界経済の4倍のスピードで成長している。おまけに、コンピュータの処理能力は9倍のスピードで増加している。情報過多に不満を漏らす人々がいても不思議ではない。誰もが、この変化による痛みを味わっているのだ。

『ビッグデータの正体 情報の産業革命が世界のすべてを変える』
(斎藤栄一郎=訳) 第1章より抜粋

 

*****

目次

世界を変えるビッグデータ …………… 9
When Data Speaks  データが語り始めるとき

検索データからインフルエンザ流行を予測したグーグル/結果がわかれば理由は要らない/ゴミ同然のデータが突然「宝の山」に/「ビッグデータ」とは何か/各方面に押し寄せる情報洪水/「量」が変われば「本質」が変わる/ビッグデータ「3つの大変化」/想像を絶するパラダイムシフト

第1の変化「すべてのデータを扱う」 …………… 35
When Data Speaks  「N=全部」の世界
データ集計の歴史/無作為抽出という革命/部分から全体へ/八百長試合を探せ/コミュニティが栄える真の理由

第2の変化「精度は重要ではない」 …………… 55
When Data Speaks  量は質を凌駕する

「乱雑なほうが正確になる」時代/コンピュータが翻訳機能を獲得するまで/量は質を凌駕する/乱雑な分類が標準に/データベースの世界も変わる/そして第3の大変化へ

第3の変化「因果から相関の世界へ」 …………… 81
When Data Speaks  答えが分かれば、理由は要らない

書評家を敗北させたアマゾン/ビッグデータの先駆者─ウォルマート/主役に躍り出た「相関分析」/購入品目から女性客の妊娠まで予測/各方面に応用される「予測分析」/因果関係はそこまで重要なのか/オレンジ色のクルマはなぜ欠陥が少ないのか?/人間とマンホールの戦い/理論は終焉するのか

データフィケーション …………… 116
When Data Speaks  「すべてのもの」がデータ化され、ビジネスになる時代

航海の姿を変えてしまった男/「座り方」のデータが有望なビジネスに変身/世の中を数値化する/複式簿記の登場/言葉がデータに変わる─カルチュロミクス/位置もデータに変わる─人間の行動を逐一記録するアプリ/システムに知恵や洞察力が生まれる/ふれあいや交流までデータ化される/そしてすべてがデータ化される

ただのデータに新たな価値が宿る …………… 152
When Data Speaks  ビジネスモデルの大変化

データ自体が「商品」に/データが持つ「オプション価値」/再利用はビッグビジネスにつながる/"データ組み換え"という新手法/データの価値の"減価償却"/スペルミスさえも立派なデータになる/ユーザーのデータを徹底的に採集するグーグル/政府が保有する大量データの行く末/フェイスブック社の本当の価値はいくらなのか/データはすでに金融商品化している

データを上手に利用する企業 …………… 189
When Data Speaks  ビジネスモデルの大変化 その2

ビッグデータ企業の3タイプ/ビッグデータのバリューチェーン/再入院する患者に共通した特徴とは/データを使って商売をひねり出す/自動車は「走る観測所」/新たなデータ仲介業/仲介業者と顧客の微妙な関係/エキスパートの終焉/「ゲーム会社の皮をかぶった分析会社」/ビジネスの勝者と敗者が変わる/個人情報の売買が普通の時代に?

リスク─ビッグデータのマイナス面 …………… 226
When Data Speaks  『1984』の悪夢は実現するか

プライバシーの麻痺/匿名化されたデータでも特定は可能/捜査のあり方も根底から変わる/「確率による制裁」は可能か/人間は「選択の余地」を奪われるのか/マクナマラの大失敗/データの独裁/ビッグデータの影

情報洪水時代のルール …………… 257
When Data Speaks  ビッグデータ時代のガバナンスとは

プライバシー保護は「利用者責任制」へ/人間vs.予測/新職種「アルゴリズミスト」の台頭/2種類のアルゴリズミスト/データ資本家の暴走を許すな

ビッグデータの未来 …………… 275
When Data Speaks  ここまで述べてきたことの「まとめ」

不正改造住宅を探し出せ/データは何を語るのか/影の側面にも眼を向けるべき/データには語り得ぬもの。それは・・・

注      303
参考文献        321

 

Victor Mayer-Schonberger (ビクター・マイヤー・ショーンベルガー)
ハーバード大学ケネディスクール(行政大学院)で10年にわたって教鞭を取った後、現在はオックスフォード大学オックスフォード・インターネット研究所教授(専門はインターネットのガバナンスと規制)。ビッグデータ分野の世界的第一人者として知られ、著書も多い。2009年の『Delete: The Virtue of Forgetting in the Digital Age』は、誤ったデータでもネット上には永遠に残ってしまう現状を指摘し、「忘却される権利」という概念を提示。メディア界や法曹界から注目を浴びたほか、『ニューヨークタイムズ』紙や『サイエンス』誌などでも高く評価された。マイクロソフトや世界経済フォーラムなど多数の企業や団体の経営諮問委員を務める。

Kenneth Cukier (ケネス・クキエ)
『ウォール・ストリート・ジャーナル・アジア』の技術担当エディター、『インターナショナル・ヘラルド・トリビューン』などを経て、現在は英『エコノミスト』誌のデータエディター。ビッグデータの最新事情に関するさまざまな記事を手がける。2010年に同誌に掲載したスペシャルレポート「The Data Deluge」(データの洪水)は、一般読者向けとしては初のビッグデータ関連記事となった。2002~2004年、ハーバード大学ケネディスクールの客員研究員。米国のシンクタンクなどで構成される超党派組織、外交問題評議会のメンバーも務め、『フォーリン・アフェアーズ』、『ニューヨークタイムズ』、『フィナンシャルタイムズ』など有力紙誌に寄稿するほか、CNNやBBCなどでレギュラーコメンテーターとしても活躍。

著者: ビクター・マイヤー・ショーンベルガー
ビッグデータの正体 情報の産業革命が世界のすべてを変える
(講談社、税込み1,890円)
2013年最大のキーワード「ビッグデータ」を初めて本格的に論じたベストセラー、待望の翻訳!! 我々の未来の生活、仕事、意識、すべてが「ビッグデータ」によって大きく変わる!

amazonこちらをご覧ください。

楽天ブックスこちらをご覧ください。