いなたくんへ
サン・マイクロシステムズCTOのグレッグ・パパドポラス氏は2006年に「世界のコンピュータは5つに集約される」という趣旨の予想をブログに載せて話題になった。YouTubeがGoogleに買収されたように、ウェブサービスがやがて統合されていく、という予想だ。
5つかどうかはわからないが、この予想のように進む未来もあるのでは、と私は考えている。昨今バズワード化している「ビッグデータ」と、これを活用するための人工知能技術とが情報処理に与える影響を大きくした場合に、これらの技術を持てるのが大企業に限られる可能性があるためだ。
人工知能開発の現状をまとめた良書、小林雅一著『クラウドからAIへ』(2013)について、前回に引き続き紹介したい。本書による人工知能の3類型を参考に、人工知能が自己進化して、やがてひらめきや感情を獲得できるのか、はすでに述べた。
本書は人工知能の技術的な解説のあと、AppleやGoogleといった先端企業における取り組みを紹介しており、各社の思惑の予想もあって面白かった。
各社ともビッグデータと人工知能を利用したビジネスに対して、研究開発や、データ集積のためのサービスを始めるなど、投資に力を入れている。
今回は、本書で述べられていた主要企業の戦略をまとめるとともに、ビッグデータと人工知能のビジネスが大企業に有利になりそう、ということを考えてみた。
また、本書では多くのページを割いてはいなかったが、個人的にIBMの動向も気になったのでまとめてみた。IBMは人間の脳を模したコンピュータ・アーキテクチャSyNAPSEチップを開発するなど、この分野で目立った動きを見せている。人工知能の進化に少なくない影響がありそうだ。
Summary Note
人工知能開発をめぐる先端企業各社の戦略(本書より)
- ウェブの入り口となったGoogle検索に対して、AppleはSiriの音声入力を通じてモバイル・インターネットの主導権を奪いたいのでは
- Siriによる音声検索でビッグデータを収集することで、今後のビッグデータ競争に備えようとしているのでは
- Googleはニューラル・ネットワーク型AIの開発に注力している模様
ビッグデータと人工知能は「大企業」のビジネス
- ビッグデータビジネスはビッグデータ保有者が圧倒的に有利であるところ、ビッグデータ収集のためにはプラットフォームを持つことが必要になるため、ベンチャーや中小規模の企業にはハードルが高い
- すると、ビッグデータの利用を前提とした人工知能は、ビッグデータ獲得という「設備投資」ができる、大企業ならではのビジネスにならないか
- 人工知能が情報処理のためのキーテクノロジーとなるとき、「コンピュータは世界に5つ」の予言も実現するかもしれない
ワトソンとSyNAPSEで勝負するIBM
- IBMは、最先端人工知能「ワトソン」と、人間の脳を模したコンピュータ・アーキテクチャ「SyNAPSE」を開発・発表した
- ビッグデータに立脚して人工知能開発を進めるGoogle等とアプローチが異なり、人工知能に最適化できるハードウェアを用意できるIBMの戦略には注目である
本書は人工知能について、AppleやGoogleを始めとする企業動向を紹介していた。まず本書で述べられていた企業動向についてまとめる。
なお前提として、現在主流となっている人工知能が、「統計的・確率的アプローチに基づくAI」、又は「ニューラル・ネットワークを備えるAI」であること、両類型の人工知能が知識データベースの活用を前提としており、いわゆるビッグデータとの相性が良いことが重要になる。これらについては前回説明した。
音声認識に対する人工知能利用が普及し始めており、Appleの提供するSiriもその1つだ。
Siriは、ウェブにあるサービスを呼び出すソフトウェアであり、ユーザはまずSiriを起動して、Siriをゲートして様々なウェブサービスに流れていく。
著者はこの点に注目し、AppleがSiriを用いて、Googleからモバイル・インターネットの主導権を奪おうとしているのではないか、と予想した。
ブラウザの入り口はGoogleに奪われているから、文字を使った検索と、それに基づくビッグデータ収集ではGoogleに勝てない。しかし音声検索であれば、これからデファクトを取れる可能性がある。という予想である。
本書によれば、Siriの音声認識精度は、2012夏の68%から、2012冬の89%に一気に上昇したという。質問やリクエストに対する正答率も77%から91%に上昇しているとのこと。
Appleは、ユーザがSiriに向かって話した内容に、ユーザを示すランダムな番号をつけて6月保存し、以降は番号を削除して、ユーザとの関連付けが削除された状態で18月保存しているそうだ。
Experimental Group Voice singer / yugenro
Googleは人工知能研究の権威であり、未来学者でもあるレイ・カーツワイルを、ニューラル・ネットワーク型AI研究の開発責任者として採用した。カーツワイルは「「人間の脳が今から数10年以内にシリコン上に再現できないというのはばかげている」としている。
また2013年には、カナダのAI研究所「DNNサーチ」を買収した。DNNサーチはディープ・ラーニング開発者のジェフリー・ヒントンが創設した会社で、今もAI分野をリードしているという。
Googleは自然言語の意味を理解して答えを返す検索エンジン、セマンティック検索の開発を進めており、その第1歩として、2012年にナレッジ・グラフと呼ばれるサービスを開始した。
ウェブ上の情報の爆発的増大に合わせて、新しい検索を探っている。
本書はAppleとGoogleのほかにも、人工知能やビッグデータに関する企業の取り組みを紹介していた。
データには構造化されたデータと、構造定義なされていない非構造化データとに分けられるFacebookは後者のデータを大量に蓄積する企業であり、これはビッグデータ解析において重要になる。Facebookは2013年に、セマンティック検索である「グラフ検索」サービスをスタートしている。
Microsoftについては、Office等の定番製品に基づくビッグデータ・ビジネスで有利なポジションを築ければ強いだろう、というのが著者の予想だった。
また、IBMが開発した人工知能「ワトソン」も紹介されていた。ワトソンは、人間の脳を模したディープラーニング、確率的推論のベイジアンネットワーク、さらに遺伝的アルゴリズムなど、あらゆる先端技術の集大成とされている。
以上が、本書で述べられていた企業戦略だった。
著者のアップルに対する読みはおもしろかった。
Siriの性能が顕著に上がっているようだが、その背景にビッグデータの蓄積があることは疑いがない。ビッグデータの蓄積と機械学習の積み重ねが人工知能の能力を育てる、という好例だろう。
その上で、Appleの最終的な目的はSiriの性能強化だけでなく、Siriをウェブ世界の(もう1つの)入り口とするプラットフォーム戦略と、プラットフォームに基づくビッグデータ収集というのは、鋭い読みだと思う。
こうした戦略について私は、基本的に大企業に有利なものであり、当該分野において将来大きな参入障壁を築くのでは、と考える。
ビッグデータについて体系的にまとめたベストセラー『ビッグデータの正体』(2013)では、ビッグデータに関わるプレイヤーを次の3つに分類していた。
- 1.実際にデータを保有又は入手できる「データ保有者」
- 2.分析のための専門的ノウハウを持つ「データスペシャリスト」
- 3.データから価値を引き出す「ビッグデータ思考の個人・企業」
ビッグデータは分析をして、意味を見出して初めて価値を取り出せる。そうした分析ノウハウを持つデータスペシャリストや、価値を取り出す斬新な切り口をもつビッグデータ思考のプレイヤーにもチャンスはある、というのが『ビッグデータの正体』での示唆だった。ただし、チャンスはあるとしつつ、やはりビッグデータそのものを保有できる者が圧倒的に有利、というのが前提になっている。
ではどうすればビッグデータが手に入るかと言うと、簡単では無さそうだ。ビッグデータを手に入れるためには、データを集めるられるだけのプラットフォームが必要になるからだ。
それをAppleはSiriを通じて実現しようとしている。
なおちなみに、各社ともビッグデータ収集に躍起になっているようだけど、こういうやり方はちょっとよくないよね。
Appleの戦略を見ると、ビッグデータやこれを用いた情報処理ビジネスは、大企業が圧倒的に有利のように思える。
少し単純化しすぎかもしれないが、情報処理を含むソフトウェアを扱うビジネスは、ハードウェアを扱うビジネスに比較して、起業のハードルが低く、ビジネスを進めるのも身軽だと考えてきた(あくまで比較だけど)。
ハードウェアの場合、何しろモノを作って売らなければならないから、設備投資が必要になる。商品をより多くの人に届けようとすれば、より大きな設備投資が必要になるし、大きな設備投資をして多くの商品を作らなければ、コストを下げられず、大きな市場を取ることもできない。
もちろんソフトウェアだって、大規模にやろうとすればサーバの準備や人件費等かかるけど、ハードウェアほどの負担ではないだろう。
ハードウェアビジネスはこうした設備投資が不可欠なので、従って、大企業に有利な側面があると言えそうだ。体力が必要なのだ。
その一方で、ソフトウェアビジネスは(ハードウェアに比べて)少ない初期投資で、一気に世界に展開できる。
ところが、一言にソフトウェアと言っても色んな種類があるわけだけど、その中でもビッグデータと人工知能は、企業体力を必要とする分野に思える。
ビッグデータを保有するには、データを集めるためのプラットフォームが不可欠になるところ、これを構築することが容易ではないからだ。本書で紹介されていた通り、例えばAppleはSiriを使ってGoogleに対抗できるビッグデータを集めている。けれども普通は、世界に訴求できるプラットフォームを用意することは簡単ではない。
確率・統計型やニューラル・ネットワーク型の人工知能が、その性能を知識データベース、すなわちビッグデータに左右されることはすでに述べた。人工知能の性能競争の激化が予想される中で、ビッグデータを持てなければ、市場で戦える人工知能を開発することは難しそうだ。
ビッグデータを持つこと、ビッグデータを得るためのプラットフォームを持つことを、人工知能開発のための「設備投資」と考えると、これはハードウェア企業における工場を持つことに相当する。この設備投資は、大企業に圧倒的に有利だ。
All Systems GO! / andrewfhart
もちろんベンチャーや中小規模の企業にチャンスがないわけではない。大ヒットアプリが短期間に世界市場に普及する例はたくさんあるし、ビッグデータとはデータ量の大きさではなく「ノイズを含む全てのデータ」の意味であるから、小規模から始めることもできる。大企業と提携して、大企業の持つビッグデータを利用するアプローチもあるだろう。
とは言え、大企業に買収される可能性も常に付きまとう。ビッグデータと人工知能は、大企業に有利な事業と言えるんじゃないだろうか。
ここで、サン・マイクロシステムズCTOのパパドポラス氏による、2006年の予想を見てみる。コンピュータは世界で5つに集約される、という予想だ。
THE WORLD NEEDS ONLY FIVE COMPUTERS
Let’s see, the Google grid is one. Microsoft’s live.com is two. Yahoo!, Amazon.com, eBay, Salesforce.com are three, four, five and six. (Well, that’s O(5);)) Of course there are many, many more service providers but they will almost all go the way of YouTube; they’ll get eaten by one of the majors. And, I’m not placing any wagers that any of these six will be one of the Five Computers (nor that, per the above examples, they are all U.S. West Coast based — I’ll bet at least one, maybe the largest, will be the Great Computer of China)
Googleが1つ目、MicrosoftのLive.comが2つ目、Yahoo!、Amazon、eBay、Salesfoce.comが3つ目から6つ目。もちろん多くのサービス提供者がいるが、彼らはみなYoutubeのように、メジャーの1つに食われるだろう。そして、私はこの6つのいずれかが「5つのコンピューター」になるとも思っていない。(これらはすべて米国西海岸の企業だが、私は少なくとも「コンピューター」のうちの1つで、そして最大のものは、中国のものになると予想している)
Greg Matter -Greg Papadopoulos’s Weblog(2006/11/10)より冒頭抜粋、筆者意訳
ビッグデータと人工知能は強いシナジーを持つ技術であり、ビジネスを回すほどビッグデータの規模がマシ、人工知能の性能競争力が高まっていく。両者を持てる大企業だけが人工知能の技術的優位を高められ、これが参入障壁となる。
人工知能が情報処理におけるキーテクノロジーになるとき、大企業に寡占される高性能人工知能は、パパドポラス氏のいう「5つのコンピュータ」に相当することになるかもしれない。
Siriというアプリケーションを通してビッグデータを蓄積し、ウェブ世界の入り口を押さえたいApple。Google検索やOffice、FacebookというプラットフォームをもつGoogle、Microsoft、Facebook。
これらと戦略を異にするのがIBMだ。IBMは検索やSNSのようなプラットフォームではなく、人工知能の性能そのもので切り込んでいるように思え、おもしろい。
1997年に、当時のチェスの世界チャンピオンと人工知能が対戦し、人工知能ディープ・ブルーが勝利して話題になった。このディープ・ブルーを開発したのがIBMで、その後継プロジェクトとなったのが質問応答システム「ワトソン」だ。
ワトソンは自然言語を理解して、文脈を含めた質問の趣旨を理解し、適切な回答を行なう。2009年に開発が発表された後、2011年に米国のクイズ番組に出演し、人間との対戦を行なって勝利し、100万ドル(約1億円)を獲得した。
日本では昨年ごろから、大手銀行がコールセンター業務にワトソンを導入するなど、サービスレベルでの本格利用が始まっている。
現在様々な応用がされているようだが、下記は例えばワトソンをレシピ作成に利用した事例。
先端テクノロジーの現在と未来を描いた『楽観主義者の未来予測』(2014)では、病院にいくことなく簡易診断を受けられる「ラボ・オン・チップ」という未来が紹介されていた。携帯できるサイズの診断用センサを利用者が持つとともに、何かあった際には診断データをサーバ側に送信し、サーバ側で解析することで診断を行う。
このときサーバ側の解析ソフトとして紹介されていたのもワトソンだった。ワトソンは実際に、医療解析も主な利用目的として開発されている。
ワトソンは統計・確率型AIやニューラル・ネットワーク型AI、及び遺伝的アルゴリズムなど、複数方式の人工知能技術の集大成とされている。
IBMは古くから人工知能開発に力を入れており、その技術的優位性をもって、人工知能市場で戦おうとしている。現在は様々なサービスへの応用がはじまっており、初動に十分な量のビッグデータが集積された段階とみることができるだろう。
ちなみにワトソンは現在、誰でも使えるクラウドサービスとして無償版が用意されている。無償の動機はもちろん、より多く使ってもらうことによるビッグデータの収集だろう。
また、日本語の学習も開始したとのこと。そのうち方言とかもいけるようになるずらか。
IBMの戦略を特徴付けるのがハードウェア部門の働きだ。IBMはソフトウェアだけでなく、ハードウェアからも先端コンピュータの開発に取り組んでいる。「SyNAPSE」と呼ばれる、人間の脳を模した、非ノイマン型コンピュータ・アーキテクチャだ。現在第2世代チップ「TrueNorth」が発表されている。
SyNAPSEの54億からなるトランジスタは100万個のニューロンと2億5千万個以上のシナプスを構成し、低消費電力と高い拡張性のアーキテクチャを実現している。
脳と同じように自立して物事を理解できるとされており、ニューラル・ネットワーク型人工知能を搭載するハードウェアとして最適な構造であることが予想できる。
シナプスを26万個しか備えていなかった第1世代では、専用プログラムを用意せずSyNAPSEの自律的な学習に任せたまま、テレビゲームのプレイや車の運転(シミュレーション)、画像識別を行えたという。
IBM web site
ニューロン1000億個・シナプス100兆個を備える人間の脳にはまだ及ばないかもしれないが、いずれ人間に並ぶ日も遠くないだろう。
例えばIBMは電気信号の代わりに光パルスを用いて情報伝送を行う新方式のコンピュータ技術を開発しており、消費電力を抑えつつ計算量を大規模することが期待できる。
現状の人工知能が知識データベースを利用する方式である以上、人工知能開発においてビッグデータを手に入れることは不可欠だ。世界中の検索履歴を持つGoogleや、世界に普及したiPhoneを利用できるAppleの強みは大きい。
これに対して、最先端の人工知能と、これを最適化できるハードウェアを自前で用意できるIBMがどのように戦っていくのか、Google・Appleとアプローチが異なる分、今後の展開が楽しみである。
実際に人間の脳構造を作っちゃうとかヤバいよね。人工知能が全人類の知能を上回るという「2045年問題」も信憑性を帯びてくる。
それぞれのアプローチにおいて、今後どんな成果が挙げられていくのか、実際に人間と大差ない性能の人工知能が社会に現れたとき、何が起こるのか、引き続き今後の動向に注目したい。