+81.3.3222.5988

Japanese

WORLD OF IOT通信 2017 Vol.7 Repo.2 AI

WORLD OF IOT
AIがもたらす半導体産業へのインパクト

国際技術ジャーナリスト 兼 セミコンポータル編集長
津田 建二

 

AI(人工知能)が今ブームである。英国のAI企業であったディープマインド社(グーグルが2014年に買収)が開発した囲碁のソフトウエア「アルファGo」が2016年に人間のプロ棋士を破ったことで、昨今のAIブームがやってきた。その前にこのブームに火を付けたのはIBMのAIである「ワトソン」だ。2011年米国のテレビのクイズ番組でクイズ王と称される人間をワトソンが打ち破った。IBMはワトソンをAIと呼ばず、コグニティブコンピュータと呼んだため、AIブームにはならなかった。しかし、現在のAI技術である機械学習は、着実に進歩していた。そして最近になり、マイクロソフトが機械学習を使って文字認識率を95%に高めたことから、再びAIが注目されるようになった

IBMがコグニティブコンピュータと呼ぶ理由をIBMにぶつけてみると、AIという言葉は昔から出てきており、その定義があいまいで、胡散臭さが漂うから認知科学からコグニティブコンピュータと呼んだと答えている。確かに、人工知能という言葉は、テレビが登場した1960年代でも自動制御しただけで、そう呼ばれた。その後もエキスパートシステムという言葉も出て、人工知能の定義はコンピュータと何が違うのか、今でさえまだはっきりしていない。

一方で、機械が人間よりも賢くなったらどうしよう、という不安を煽り立てる風潮も消えない。賢い機械をAIという訳ではない。AIが人間の仕事を奪うとか、AIに支配されるとか、AIは人間よりも賢くなる可能性について間違った情報が氾濫している。これもAIとは何かを定義せずに言葉を使っていることによる。AIは、人間が機械に学習させるコンピュータであり、そこから何を推論するかも人間が設計する。

最近、使われているAIを整理すると、AIとは機械学習やニューラルネットワークを使ったディープラーニングをベースとする学習・推論のコンピュータシステムと言ってよいだろう。特に今はパターン認識(音声認識や映像・画像認識、文字認識など)にAIを使うことで、処理時間を短縮することに使っている。学習は機械が反復練習することであり、推論は人間が判断して決めた分類に基づいて機械が対象物を推察する。

では、AI、すなわち学習し推論するコンピュータは、私たちの生活にどのような影響を及ぼすのだろうか。製品では、音声認識や画像認識を活用するのに、機械学習を使っている。そのコンピュータはエッジと呼ばれる端末だけではない。クラウドコンピュータを使っても実現できる。

例えばすでによく使われているiPhoneの音声認識システムSiriは、私たちの「近くのコーヒーショップは?」という声を、インターネットを経てクラウドコンピュータに送り、そこで言葉を取り込み、その言葉の意味を理解し、その意味に沿って応答を検索するという形で元のiPhoneに答えをウェブブラウザという形で戻している。演算が大変な意味理解や応答などはクラウドコンピュータが検索・照合し、答えを見つけて送り出すという動作をしているのである。AIはまだ大きなコンピュータが必要なのだ。私たちはまるでiPhoneに話しかけ、iPhoneが答えてくれるように見えるが、その縁の下ではクラウドコンピュータが大活躍している。

この音声認識はスマホだけではなく、AIスピーカーと呼ばれる形でも使われている(図1)。スピーカーに向かって、「今日の天候は?」、「東証の株価は?」、「ビートルズの音楽をかけて」、など問い合わせると答えてくれる。米国ではデジタルアシスタントと呼ばれている。この音声認識はこれまで英語しかできなかったが、このほどようやく日本語でも聞き取れるようになったことでアマゾンのAIスピーカーが日本にも上陸することが決まった。
 

 

図1 AIスピーカー(出典:Amazonホームページ)

 

コンピュータに学習機能を持たせるためには、膨大なデータを読み込ませデータを蓄えておく必要が出てきている。英語の文章を大量に読み込ませ、しかも男、女、こもりやすい声の人、明瞭なアクセントの人などさまざまな音声で同じ文章を読み込ませる必要がある。そして別の文章でも同じことをさせる。数千の文章を入力してデータベースを作っておくのにはやはり強力な大型コンピュータが必要である。しかし、推論する場合はもう少し楽である。

推論では、学習したデータベースと入力した言葉との比較対照を行い、どの言葉であるかを判別する。膨大なデータベースはクラウドで、比較することができる。エッジ(端末)側で大きなコンピュータを持つ必要はない。

今はやりの自動運転で使う画像認識では、クルマの目の前にある物体がクルマかどうか、それも乗用車かトラックか、あるいは人間か、自転車かなど区別する必要がある。そのために前もってクルマとは何かという画像を何千枚もコンピュータに読み込ませて、乗用車、トラック、自転車、バイク、人間などの分類したデータベースを持って置き、それらのデータを突き合わせることで認識する。5G(次世代セルラー通信技術)になると、大きなコンピュータをクルマ側で持っていなくてもかまわないという状況ができる可能性がある。リアルタイムで応答できると期待されているからである。

学習や推論を行うための手段として、ニューラルネットワークという技法がある。ニューラルネットワークは人間の神経細胞を模倣したモデルで、一つの神経細胞(ニューロン)からシナップスという結合部分を経て他のニューロンに信号が送られる。ここでは学習は、たくさんのニューロンからの信号にそれぞれの重みを加えて、次のニューロンへ信号を伝達していくが、それぞれの重みを変えることで学習する。これを電気的に表現すると、積和演算すなわち掛け算の積を足し合わせるという作業に相当する。つまり積和演算のプロセッサが望ましく、GPUが使われているのは積和演算を並列処理できるプロセッサだからである。

最近、Nvidiaの株価が値上がりし企業の時価総額が大きく上がったのは、NvidiaのGPUを使って機械学習やディープラーニングを自動車の物体認識に使いその認識性能を様々なところで示してきたことが大きい。Nvidiaはゲーム機などに用いるグラフィックス処理をするためのGPUをコアとしたファブレス半導体メーカーである。このGPUがディープラーニングに使われるニューラルネットワークで学習させるための積和演算に現時点ではピッタリなのだ。
 

AIの製造業・生活へのインパクト

機械学習は、さまざまな研究開発部門でも使われ始めている。かつては、半導体の回路やデバイスのモデルを創作してきたが、これまではモデルを考え出して実験と合うように繰り返し試行錯誤を重ねてきたが、最近では多くのデータを読み込ませ、電気的特性を分類することによって学習させる、という研究も行われるようになった。また人の顔を認識させるための学習アルゴリズムを工夫することで短時間に認証することも可能になった。

今最も注目を集めているAIの応用の一つは、自動運転車である。乗用車かバスかトラック、あるいは自転車、大人、幼児などを学習によって判別させられるようにすることに使う。それも動いている速度も即座に求まる。クルマ、人、自転車等の速度とぶつかるまでの時間を計算してブレーキを早めにかけることにつなげることができる。またレベルの低い自動運転車は白線を検出しそこからはみ出ないようにしているが、Nvidiaは獣道のように白線のない道路を走ることもできることをデモしている。これは周囲の状況を学習させ、進むべき道を認識させたものだ。

ただ、学習に何日も何ヵ月もかかるようでは実用にならないため、学習を短時間でできるようにクラウドのデータセンターにある大型コンピュータを使うか、あるいは短時間で済むような新しいアルゴリズムを開発するなど、ハードとソフトの両面から学習・推論で進歩している。

 

AIチップと半導体産業

AIは結局、半導体チップに焼きこまなければ実用化できない。特に自動車に搭載したり、リアルタイム処理を伴ったりする応用ではクラウドに学習と推論をさせられないことが多い。今は手元にGPUや積和演算のアクセラレータなどがあるため、学習・推論機能を実行できるが、消費電力は数百Wと極めて大きい。無駄を省いた学習アルゴリズムに向いた半導体AIチップや、画像認識によく使われる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)向けのAIチップなどの開発が進んでおり、1~2年以内に各社から続々出てくるだろう。

グーグルが一足先に開発したTPU(Tensor Processing Unit)チップは、従来の検索エンジンと比べて約一桁消費電力が低かった。現在開発中のチップはさらに数分の一に減らせるとみている。IBMが発表したTrue Northチップは、ワトソンに使われているPowerチップよりも3桁消費電力が少なかった。CNNに特化したチップだと、重みのビット数を4ビット、2ビット、あるいは1ビットすなわちバイナリで表現して演算を軽くし消費電力を下げる技術も出ている。インテルも、AIに強いNervana社を買収し、AIチップを開発してきたが、2017年11月にニューラルネットワーク専用のチップNervanaを発表した。

AIチップの商用化発表は始まったばかり。AIチップのプロセス技術はCMOSであり、ニューロンの集積度を高めるためにさらなる微細化も必要となる。AIチップに要求されるCMOSプロセスの競争が再び始まる可能性がある。その一つの例として、これからの量子コンピューティングの一つである、量子アニーリング手法を使った量子コンピュータを富士通はCMOS技術で開発し、このCEATECで展示している。AIのカギを握るのはやはり半導体技術である。今はCMOS技術が主流だが、将来はどのような素子が主流になるのか、Si、再び超電導、グラフェンやカーボンナノチューブなどの新材料なのか今は言えないが、とにかく材料開発はマストになろう。

 

<SEMICON Japan 2017 / WORLD OF IOT>
2017年12月13日~15日 東京ビッグサイト
入場登録

<関連セミナー>
SuperTHEATER オープニングキーノート -ゲームチェンジ時代へのビジョン- (12月13日(水) 10:20-12:00)
SuperTHEATER IT/AIフォーラム (米国大使館協賛) -米国ITトップランナーのAI/IoT戦略 (12月14日(木) 10:20~12:00)
スマートヘルスケアフォーラム -AIxIoTにより進化するヘルスケアと社会 (12月13日(水) 12:50-14:30)
特別セッション AI -実用化に向けたAI技術の革新 (12月13日(水) 10:20-12:00)
 

Share page with AddThis