SSブログ

ニューラルネットワークは実現するのか?(月刊ASCII 1987年9月号9) [月刊アスキー廃棄(スクラップ)]

ニューラルネットワークは実現するのか?
ASCII1987(09)f01ニューラルネットワーク_W520.jpg
ASCIIは、このような読みごたえのある記事がよくあった。
この記事の20年余り後に、ディープラーニングが出てきてAIが格段の進歩を見せた。AIが完成したと言ってもいいと思う。機械学習の本が豊富にあり、素人プログラマでもAIで問題解決をできるようになった。
この記事をスクラップしてAIがどのように萌芽したのか味わいたい。
有力企業が次々とニューラルネットワークの開発に乗り出している

 人間の歴史における,最初の情報革命は,コンピュータやシリコンチップから生まれてきたわけではない.それは,感性を持った人間の頭脳と神経組織から生まれた,人間の脳は,今でも究極の計算能力を持っているし,あのナメクジでさえ,神経を使うことによってスーパーコンピュータ以上に複雑な演算を行っている.こうした天然のコンピュータが,どのように動いているのか,研究者たちが理解できるようになるまでには,まだ相当時間がかかりそうだ。しかし一方で,神経生物学者や物理学者,数学者たちが,神経の電子的なモデルを試作しており,まったく新しいコンピュータ原理が,そこから生まれようとしている.これらのモデルは,ニューラルネットワーク,コネクショニズム,アダプティステム,ニューロコンピューティングなど,さまざまな名称で呼ばれている.
 ニューラルネットワーク(神経網=神経網コンピュータ)の初歩的な研究は大学で行われてきたが,最近では,Texas Instruments社やAT&T社,IBM社,Bendix社,TRW社,BDM社,General Electric社など,大手のハイテク企業が,ニューラルネットワーク研究プロジェクトを事業化している.同時に,Nestor社(ロードアイランド州プロビデンス)やHecht-Nielsen Neurocomputer社(サンディエゴ),Synaptics社(カリフォルニア州サンノゼ),Neural Tech社(カリフォルニア州ポートラバレー)といった専門の会社が次々と設立され,活発な投資が行われつつある.この内,Nestor社とHecht-Nielsen社は,今年中に何らかの関連製品を発売する計画だ。
 ニューラルネットワーク製品の形態は,必ずしも一つではない.例えば,神経の並列構造をモデルにして,それらが相互接続したような製品を作る場合を考えると,個々のプロセッサとコミュニケーションリンクを組み合わせたハード的な形をとることもあるし,部分的に並列構造を持ったハードと,神経網の働きに近い動きをするように設計されたソフトで構成される「ニューロコンピュータ(neurocomputer)」の形をとることもある.あるいは,神経網の動きをシミュレートできるソフトを、既存のコンピュータで走らせるといった方法もある.
 これらの製品がカバーしようとしているアプリケーションは、多種多様だ。その中でも重点が置かれているのは,“あいまいな(あるいは予測し難い)データを処理するアプリケーションである.例えば,日常会話や手書きの文字を理解するといった処理能力を装備したものだ。
 これらのアプリケーションは,明確なルールやデータでは定義しづらいため、既存のコンピュータのアルゴリズムを使うことは,不可能に近いとさえ言われている。現在,もっとも一般的に考えられているアプリケーションは、ニューラルネットワークを、既存のコンピュータと,複雑な現実世界のデータとの間に介在するインターフェイスとして使うというものだ。

ニューラルネットワークはこんなことを可能にする

 ニューラルネットワークは,脳細胞とその相互接続の論理的なモデルに基づいて作られている.問題は,脳細胞同士の接続が,電子的なデバイスのスイッチングに比べてはるかに遅い(シリコンチップが1秒間に10億パルス以上扱えるのに対し,生物の神経は毎秒約1000パルスしか扱えない)にもかかわらず,どうして複雑な計算ができるのかという点にある.神経の機能や複雑な並列構造を,電子的に完全にシミュレートするのはまだ不可能だが,それを単純化し,ニューロン(神経細胞)の間での電子的なパルスのやりとりだけに絞って作られたモデルは、学習や記憶といった能力を持つようになってきている.ここで,ニューラルネットワークの諸機能の内,特徴的なものをいくつか挙げてみよう.
●あるニューロン(プロセッサ)が記憶を失っても,それを補って記憶を取り戻せる能力.
これが可能なのは,記憶された情報が多くのプロセッサや,その相互接続に分配されているためだ。だから,あるプロセッサの記憶に欠落が生じたとしても,実行には少々支障が生じるものの,取り返しがつかなくなることはない.
●扱う情報に関するデータを持っていない場合,それに“最も近い”データを活用して認識を行う能力.
例えば,Aという文字を認識しなければならない時,その書体がメモリ中のものと違っていても,それがAという文字だと認識できる能力.これが可能なのは,記憶されている文字について,高度に普遍化されたデータを持っているからだ.
●新しく入力された情報に応じて,すでに記憶されている情報に変更を加える能力.
ニューラルネットワークは,記憶されている様々なルールの関係から,潜在的なルールを表現できるような形でデータを蓄えている.例えば,Aという文字に異なる書体があるように,新しいデータに出会った場合,これらのデータが持つ潜在的なルールが呼び出されて,対処できるようになっている.
●壊れてしまった情報やバラバラになった情報を,元の形に復元する能力.
例えば,絵の断片から,その全体を連想・復元したり,リンゴから,果物やアイザック・ニュートンなどを連想できるような能力.
●記憶の中から,統計的にある特徴を検索する能力
例えば,ニューラルネットワークが種々な種類のリンゴを知っていた場合,新しいタイプのリンゴの色を考え出せ,と命令されたとすると,考えられる色は赤か,そうでなければ緑や黄色もあるというように答える能力.
●選択可能な答えが幾通りもあって,(既存のコンピュータなら)暴走を誘発するような問題から,きちんと回答を引き出せる能力.
この能力は,AT&T社のJohn HopfieldとDavid Tankが,試作のニューラルネットワークを使って実験をしている.会話とか対象認識といった人間に近い仕事をする時の計算も,この手の暴走を引き起こしやすい性質を持っている.
AIの入門本ではとっつきにくいことが、この記事ではすんなり読んでいくことができる。AIはこうあるべきだという入り方が理解しやすいということだろう。もうできているAIを解説されるとかえって理解しにくくなる。
ASCII1987(09)f02ニューラルネットワーク_写真_W518.jpg
ニューラルネットワークと人工知能

 前述の特徴からも分かることだが,ニューラルネットワークは、エキスパートシステムをはじめとする人工知能と似たアプリケーションをめざしているように見える.たしかに,両者は研究費の争奪戦を演じてきた.しかし,実際には競争するというよりも,むしろ補間する場合が多い.ニューラルネットワークが,生物の情報処理のプロセスや,その構造をシミュレートしようとするのに対し,人工知能のプログラムは、ロジックや言語学に基づいて,高度な概念の処理やそれらの関係付けを把握し,計算しようとするものだ.こうした相違は明確になりつつあり,現在では,研究者たちもその境界線を心得た上で,研究・開発を行っている.
 エキスパートシステムは,ビジネスとしてみるとかなりの成功をおさめている.そのアプリケーションは、明確に決められたルールと,限定された分野のデータ集合だけを扱う.予測が難しい現実世界の生のデータに関わるような,柔軟さと強靭さが求められるアプリケーションは、エキスパートシステムには不向きである.一方,ニューラルネットワークは,こうした変化に富んだ対象に適している.そのため研究者は,画像や会話の認識,ロボットの制御といったものにニューラルネットワークの方向性を見出そうとしている.
ほう、34年前既にエキスパートシステムはビジネスとして成功していたとは知らなかった。私達がPC-9801で一太郎や1-2-3で仕事をしていた頃すでにAIがそんなに使われていたのか。
神経網をシミュレートする

 生物の神経網は,無数の単純なニューロン(神経細胞),すなわちプロセッサ(生物のものであれ,シミュレートされたものであれ)から構成されており,それらは複雑に相互接続されている.このプロセッサは「活性」と「不活性」の2種類の信号だけでコミュニケーションを行う.そこには反応(応答)を活性化するか,不活性化するかという2種類の動きしかなく,それ以上に高度な意味を持った記号やメッセージのやりとりはない.
 あるニューロンは,他の無数のニューロンから入力を受けることができ,これらの入力の値の和が一定の限界を超えると,そのニューロンは「活性」状態になり,その値が信号として出力される.この出力は,他のニューロンへと伝送される.また,種々な出力の値を持つようにプログラムされたニューロンもある.例えば,ニューロンAは「活性」状態になると,1.0という値を出力し,Bという二ューロンは,1.25という値を出力するようプログラムされているといった具合だ。
 さらに,ニューロン間の接続は,すべて「重量」あるいは「接続強度」と呼ばれる値を持っており,これが各出力の値に影響を与え,つながっているニューロンへ伝送される信号の値を決定するようになっている.これらの「重量」が,不変の値に固定されている神経網もあれば,神経網の動きに合わせて増減するものもある.
 神経網のソフトウェアによるシミュレーションでは,各ニューロンの連接の「重量」は数値で表され,伝送される信号の強度は,二ューロンの出力とこの「重量」の積によって得られる.例えば,二ュ-ロンAが1.0の「重量」で信号を出力し,そこからニューロンBへの接続が0.25の強度を持っているとすると,ニューロンBが受け取る信号の大きさは,(1.0×0.25=)0.25になる.ニューロンBが,0.25の信号を受け取るということは,「活性」ではなく「不活性」の働きをニューロンAから受け取るということになる..ニューラルネットワークをハードウェアの形にした場合,この連接の「重量」は,各接続線を通じて電子的に伝達される.そして,信号の「重量」は,種々なレジスタを通過することによってコントロールされる.
 ニューラルネットワークの初期の研究者たちには,ランダムにつないだデバイスから,ある種の知性が作り出せるのではないか,と考えていた.しかし現在では,ニューラルネットワークには、極度に辛抱強く設計されたアーキテクチャが必要だという考え方が一般的になっている.今までに,ニューラルネットワークの基本的なモデルは12種類ほど作られているが,それらは,連接点を接続する方法や,異なる入力信号に応じて出力信号を作り出すためのルールなどが,それぞれ異なっている.例えば,すべてのプロセッサが相互にまんべんなく接続されているネットワークもあれば,ツリー状や階層状の構造になっているものもある.

ニューラルネットワークのデータ表現

 ニューラルネットワークの最も際立った特徴は,情報が,1つのプロセッサに記憶されたコードから構成されるのではなく,「重量」を持ったニューロン同士の接続の中に分散された形で表現されるということだ。
 単純な例を挙げてみよう.まず,Aという文字が,10ビットの2進法コードで表されるとする.ニューラルネットワークでは,10個の入力用ニューロン(1ニューロン当たり1ビットとする)がこのデータを受け取り,「重量」を持った連接を通じて次の層のニューロンにデータを渡す.この第2層目のニューロンは,それぞれ4個の入力用ニューロンと接続されていて、受け取った信号の和が,1以上になるとパルスを発生すると仮定しよう.
 ここで,入力用ニューロンと第2層目の二ューロンを結ぶ連接の「重量」が1だったとすると,第2層目のニューロンが1という値のビットを持つためには、4個の第1層ニューロンのうち,最低1個が1という値を持っている必要がある.もし,連接の「重量」が0.5だったとすると,入力用二ュ-ロンのうち,少なくとも2個が1の値を持っていなければ,第2層への入力は行われないことになる(図1を参照).
 第2層からの出力信号は,「重量」を持った連接を通じて第3層へ送られ,そこでまた同じプロセスが繰り返されることになる.このプロセスは層の数だけ,つまり信号が出力層達するまで繰り返される.この最後の層のニューロンが,それぞれ「活性」か「不活性」のどちらかのパターンを表すことによって,それが最後の反応,例えば「これはAという文字だ」という認識を形成することになる.入力される10ビットの配列の違いが,ネットワーク中の異なる連接パターンを経由することによって,固有の出力パターンを生み出すわけだ。
 こうした信号の伝送パターンを作り出すことによって,さまざまなデータのタイプを表現するという方法は,特定のニューロンに完全に頼らずに,ネットワーク全体の実行性能を保証できるという点で,非常に優れている.例えば,ある入力用ニューロンがミスを犯した場合や,入力されたパターン自体が不正確だった場合でも,ほかのニューロンによって発生されたパターンだけで正しい出力を行うことも可能だ。

ASCII1987(09)f03ニューラルネットワーク_図1_W515.jpg
連接の「重量」設定

 ニューロンの連接の「重量」は,信号伝送のパターンを決定する際に,非常に重要な役割を果たすが,これを設定するには2つの方法がある.まず1つ目は,ある問題を計算するために必要な特性をネットワークに与える前に,連接に不変の「重量」を設定してしまう方法である.そして2つ目は,ネットワークを「自己学習」可能なものとして,学習のためのルールを持たせ,それによって,連接が状況に適応できるようにする方法である.後者の「自己学習」可能なネットワークでは,学習効果によって実行性能をアップしたり,学習から独自にデータを組み合わせたり,といったことが可能になる.
 最初から「重量」が固定されている構造を採用しているニューラルネットワークで,もっともよく知られているのは「Hopfieldネット」だろう.名前の由来になったJohn Hopfieldidは,Caltech社とAT&T社のベル研究所の共同研究事業で活躍している生物物理学者兼化学者だ。彼の「ニューラルネットワークの計算特性における数学的な分析」は,1982年に,連邦科学アカデミーの報告書の中で発表され,この分野で大きな関心を呼ぶと同時に高い評価を受けた.この論文で彼は,「コンピューテーショナル・エネルギー(計算エネルギー)」と呼ばれるニューラルネットワークの計算特性について触れている.彼は,山の尾根と谷のうねりという比喩を用いて,ニューロンの連接の「重量」を掛け合わせていくと,(計算の)解は常に谷間に沈み込む傾向があると述べている.物理的なシステムと同じように,ニューラルネットワークは,常に「最も低いエネルギー状態」を指向するので,あらかじめ設定されている連接の強度を通じて,新しく入力されたパターンを,ネットワーク中にすでに存在しているパターンと照らし合わせることができるというのだ.
 Hopfieldのニューラルネットワークは,欠落のある入力や不正確な入力から,完全な形を再構築できるシステムだ。例えば,10ビットの入力列は,縦横が10×10のマトリクス状のネットワークに記憶される.彼のアルゴリズムでは,マトリクス中の各項目の値は,入力されたビット列の各値の関係に応じて決まる.3番目と4番目のビットが両方とも0なら,第3列の4番目に位置する項目は-1になり,両方とも1なら+1になり,一方が0でも他方が1なら0になるといった具合だ。こうしておけば,システムが不完全な入力を受け取った場合,つまり,4番目のビットが欠けていたといったような場合でも,マトリクスの項目に記憶されている値から再現することが可能になる(図2を参照)。

ASCII1987(09)f04ニューラルネットワーク_図2_W513.jpg
自己学習能力を持ったシステム

 「自己学習」可能なニューラルネットワークは,Hopfieldのニューラルネットワークはど構造がきちんと決まっていない.そのかわり,学習のルールを内蔵しており,それが不的確な反応を切り捨てながら、的確な反応へと導いていくという方法をとっている.こうした学習アルゴリズムの多くは,1949年に神経生理学者のDonald Hebbが考案したルールに基づいている.このルールは,2つのニューロンが同時に「活性」の状態にある場合は,これらをつないでいる連接の強度がより強くなり,「不活性」の状態にある場合は,連接の強度が弱くなるというものだこのルールでは,ニューラルネットワークは反応のパターンを、発生回数が多いほど強化することができ,こうした回数による経験から学習するという特性を持つことができる.
 自己学習能力を持ったプログラムの1つ,NETtalkは,語学的なルールをあらかじめプログラムされることなしに,英語の文章を朗読でき,その認識度は各文字の95%を正確に把握できるところまできている.生物物理学者Terrence Sejnowskiと,プリンストン大学の研究者Charles Rosenbergによって生み出されたNETtalkは,わずか231の二ューロン(連接数は1万346)を3つの層に構築したシステムである.
 NETtalkの入力を受ける層は,ニューロンが5つのユニットに分かれており,これらが29の記号(26のアルファベットとスペース,カンマ,ピリオド)を29ビットのパターンとして伝送する.一方,出力する層は26のユニットからなり,これらが音と単語をコード化し、サウンド・シンセサイザを動作させて音を発生する.中間の層は,60のユニットから構成される.これらは,入力を正しい出力に結び付けるという能力を,学習に応じて高めていけるように設計されている.この中間層の各ユニットは,入力層と出力層の全ユニットと接続されている.
 入力層は,文章から同時に5つの文字を読み取ることができる.次に,ニューラルネットワークは、5つの文字から真ん中の文字だけを抽出して出力パターンに結びつける.その両側の2つずつの文字は,とりあえずルールを無視して強制的に出力する.子供が言葉を覚える時のように,ニューラルネットワークは,まず訓練されていない状態からスタートするので、初めは意味のないつぶやき(バブバブ)を発するだけだ。そうした試みは,いちいち正しい出力と比べられ(人間がテキストを読みながら,正しい発音を吹き込んでいく),自分の出力が正しい発音とどれだけ違っているかを計測していく.それにしたがって,ニューロンの連接の「重量」が訂正されていき,エラーは徐々に少なくなっていく.さらにトレーニングを続けていくと,能力は格段に向上する.最初,意味のない発音を続けているうちは、語彙と語彙の間に空きを発見すると発音に詰まってしまったりするが,次第に母音と子音の違いがつかめるようになり,一晩続けさせておくと,(VAXクラスのミニコンを使って,きわめて非効率的な線状のシミュレーションを用いた場合でも),意味が理解できるような発音をするようになる.

パターン認識の可能性

 研究者たちが強調するニューラルネットワ-クの能力とは,記憶・蓄積された情報を自分で組み合わせたり,未知のデータや互いに矛盾するデータを扱ったりできるというものだ.こうした能力から考えられるアプリケーションとしては,パターン認識が挙げられる.例えば,NETtalkの場合,開発はひと夏で終わり,10時間ほど学習させただけで,DECtalkレベルの実行性能を持つまでになった.テキストを音声で発生するためのプログラムは,制作に数年を要したが,今では,10年分の言語能力を蓄積している.
 もっとも,DECtalkがすでに発売されている製品であるのに対し,NETtalkは,まだ研究段階のプロジェクトにすぎない.しかも,ニューラルネットワークが実用化され,既存のコンピュータの能力を追い抜くまでには、まだかなりの年数がかかりそうだ.Nestor社の最初の製品になる「Nestor Writer](発売は今年中)は,IBM PC/ATで動作し,部分的にニューラルネットワークのパターン認識システムを取り入れている.しかし,その能力は、手書き入力パッドから入力された文字を読み取れる程度だ。そのくらいなら,Pencept社の「Penpad」が既存の技術を用いて,もう実現している.もっともPenpadは、未知の記号に出くわしても,その時点で,自らそれを覚えるといったことはできないが……
 Nestor社の設立者で,ブラウン大学の物理学教授でもあるLeon Cooper(1972年にノーベル物理学賞を受賞)と,Charles Elbaumは,文字の認識のためのルールを完全にプログラムしておく方法を捨てて,自分である程度のルールを考え出せるようなシステムを設計した文字を読み取るといったパターン認識を行うには,「対象(例えば文字)の分類境界線を,厳密に識別できなければならない.そのためには,対象のどの形状に着目すべきか判断しなければならない」とCooperは言う例えば,Nestor Writerが,Cという文字とOという文字の違いを識別する場合,文字の曲線が開いているか閉じているかを見なければならない.さらに,CとUの違いを識別する場合は,文字の向きを見分ける必要も出てくる.手書きの文字(例えば手書きのOは閉じた輪の形になっていないものもある)は、分類の境界線を非常に見分けにくくしてしまうというわけだ.
 Nestor Writerは,特定ユーザーの筆跡を学習して,少数のユーザーの筆跡を認識・区別することができる.実験では,かなりクセのある文字でも,6回反復すると認識して,区別できたという.
 同社のニューラルネットワークの最も際立った特徴は、手書きの漢字が識別できるという点だ。約2500の漢字について、90%の確度で読むことができ,書くスピードと同じ速さで認識するため,日本語ワープロでも実用化できるという
 ニューラルネットワークが認識できるパターンは,書かれた文章や会話に限られるわけではない.TRW社やBendix Aerospace社,ペンシルベニア大学は,レーダーやソナーによって捕らえられたパターンから,標的となっている乗り物を識別する実験を,ニューラルネットワークで行っている.TRW社は,ドップラー効果を利用したレーダー追跡によって乗り物の種類を認識することを,学習によってマスターできるシステムを開発した.ペンシルベニア大学のNabil Farhat教授が開発したニューラルネットワークは,3~4種類の乗り物の完全なレーダー画像を記憶し,その形の10~20%の部分から,全体のパターンを識別できるという.
 Bendix Aerospace社のR.Paul Gormanは,NETtalkのアルゴリズムを応用し,水面下の目標物をソナーを使って識別できる二ューラルネットワークを開発している.

ASCII1987(09)f05ニューラルネットワーク_写真_W515.jpg
ニューラルネットワーク専用ハードの開発

 専用コンピュータがない,というのがニューラルネットワークの進歩を妨げている障害の1つだ.従来の線的処理を行うマシンでは、ニューロンの高度な並列構造のシミュレーシニョンに向いていない.しかし,この問題はようやく克服されようとしている.
 TRW社は,「ニューロンコンピュータ」と呼ばれる専用コンピュータを2機種開発した.1つは,6万4000個のニューロンを内蔵したMARK III-1で,これは現在6万ドルで発売されている.もう1つは,25万個のニューロンを内蔵したMARK IVで,このマシンは,先進防衛研究計画局(Defense Advanced Research Projects Agency)が,トップシークレットのテストを行うため,独占的に使用している.この2機種は,部分的に並列構造のハードウェアを使って,ニューラルネットワークのシミュレーションを行っている.例えば,MARK III-1は,8つの物理的なプロセッサを持ち、その各プロセッサが,それぞれ約8000個のニューロンに相当する構造を持っている.開発当初の実験では,このマシンは,VAXミニコンの約21倍の速さでシミュレーションが行えたという.
 TRW社の社員Robert Hecht-Nielsenが,同社を退職して設立したHecht-Nielsen社は,既存のコンピュータに接続して使えるプロセッサボードの形で,各種のニューロンコンピュータを発売していく予定だ.まず,IBM PC/RT用のコ・プロセッサボード「ANZA」を,今年中に1万5000ドルで発売する.同社によれば,ANZAは3万個のニューロンと30万個の連接点を持ち,毎秒2万5000一回のスイッチングを行うという.ユーザーの中には、早くもこの製品を使ってアプリケーションを開発し,3年以内に商品化までこぎつけようとしているOEM企業も数社ある,とHecht-Nielsenは語っている.
 しかし,ANZAのように,膨大な数のニュ-ロンを搭載したニューロネットワークでさえ,アプリケーションを使ってリアルタイムの処理を行うためには,まだあまりに遅すぎるという.そのため,AT&T社やマサチューセッツ工科大学,Caltech社などでは,ニューラルネットワークをICの中に直接組-み込む方法を探っている.これは,各ニューロンを物理的なコンポーネントに置き換えた上で,「重量」を持つニューロン連接をレジスタのようなデバイスに置き換えて,接続線を回路の中に設けるといった方法を取ろうというものだ。例えば,AT&T社の「ENN(Electronic Neural Network)」チップは,256個のニューロン(トランジスタ)と,ニューロン連接に相当する1万個のレジスタを載せている.ニューロン同士の接続は,製造段階でチップに焼きつけられてしまうため,ここのチップが実用段階で行う仕事は,事前に綿密な設計をしておく必要がある.しかし,この種の回路は,使われるレジスタが小さいし,既存のメモリチップに比べるとリトグラフの層の数も少なくて済むため,チップには,1m2当たり5億個のニューロン連接を載せることができる見込みだ.
 現在,ENNチップでは,ビデオ画像の周波数帯を圧縮するテストが行われている.これが成功すれば,ビデオ画像も電話回線を通じてリアルタイムで伝送できるようになる.その場合,色や階調を1ピクセルずつ送るようなことはしない.まず,画像を小さなフレームに分割し,各フレームごとに,それにきわめて近いシンプルなパターンを作って送るという方法を用いるため,システムは、大量のデータを送らなくても済むはずだ.また,これとは別に,AT&T社では,54個のニューロンで構成されるプログラム可能なチップもテスト段階に入っている.これは,連接の強度をプログラムによって変えられるチップで,実用化されれば,プログラム可能な連想記憶メモリとして使われることになるだろう.
 他に,プロトタイプが完成しているニューラルネットワークチップとしては,VLSI設計の先駆的存在と知られるCaltech社のCarver Meadによって開発されたものがある.Meadは,センサーからの入力を感知して処理するアナログ/デジタル混合のコンポーネントを使い,「シリコン網膜」チップと呼ばれるものを作っている.
 シリコン網膜は,動作を把握することにかけては他のどんな視覚システムよりも優れているという。例えば,このチップは、光の強さの変化に反応するので,チップは連続した動きを捕捉することができる.これに対して,TVカメラの技術をベースにした視覚システムでは、一定の間隔でスナップショットのような静止画像を1フレームずつとらえ,それを1ピクセルごとに比較しながら動作を追いかけていかなければならない.
 Meadはごく最近,Synaptics社(本誌4,5月号EEXPRESS のTrend Letterを参照)に入社している.同社は,昨年1月に設立され,スタッフとして神経生物学のGary Lynch(カリフォルニア大学)やZilog社の設立者であるFederico Fagginなどが参加している新進気鋭の会社である.「わが社の出発点は、本物の生物学だ.(Meadのシリコン網膜は)きわめてすばらしい働きをするが,それというのも,これが本物の網膜とそっくり同じ機構で作られているからだ」と,代表取締役社長のLauren Yazolinoは語っている。同社では,ニューラルネットワークチップを設計するだけでなく,音声認識,ソナー画像認識,気体色彩認識などに対応するニューラルネットワーク製品を開発中だ.

ASCII1987(09)f06ニューラルネットワーク_写真_W515.jpg
果たして,本当にうまくいくのか?

 ここまで見てきたように,数々の開発プロジェクトが進行してはいるものの,ニューラルネットワークは,市場での有効性が保証されたわけでもないし,その特性をまだ疑問視している業界関係者さえいる.例えば,Thinking Machines社の科学者であるDanny Hillsは,「この分野で言われていることには,誇張やナンセンスが非常に多い.ちゃんとした仕事をしてきた人でも,ニューラルネットワークに足を突っ込んだために,科学的に信用をなくしてしまった例がある.科学的に重要な進歩があったことは認めるが,現在では,見るべき成果もなく,大風呂敷の広げ合いが演じられているだけだ」と語っている.
 一方,スタンフォード大学のWidrow教授は,「私は,すべての大風呂敷を信じる」と述べてはいるが,「過大な期待だけは禁物だ」と警告も発している。「私が心配しているのは,ニューラルネットワークを現実のものにすることがどれほど困難かということを,多くの人が認識していない点だ.研究所でうまく動いたものでも,市場で通用するような製品化にこぎつけるまでには,10年はかかるだろう」と彼は予測している.
(翻訳・原修二)

最後は、もうなんという言われようかと思ってしまった。「ちゃんとした仕事をしてきた人でも,ニューラルネットワークに足を突っ込んだために,科学的に信用をなくしてしまった例がある」これは酷い。10年は確かに無理だったが、今こうして当たり前のようにAIを利用している状況から見ると、スタート時はAIとは胡散臭いものだったのかと認識した。

nice!(0)  コメント(0) 
共通テーマ:パソコン・インターネット

この広告は前回の更新から一定期間経過したブログに表示されています。更新すると自動で解除されます。