1 脳を模倣した情報処理技術
1.1 人工ニューラルネットワークと脳
近年LLMを用いた生成AIやDNNを用いた機械学習が大きな進化をとげ,社会生活で広く活用され始めている。しかし,大規模な人工ニューラルネットワークを用いた学習や推論には莫大な電力を消費することから,それに伴うCO2排出量などの環境負荷が新たな社会課題として取り上げられている。例えばOpenAI 社の言語モデルGPT-3が機械学習の際に消費した電力量は1,200 MWh以上であり,一般的な原子力発電所1基が1時間で生み出す電力量を上回っている。一方で,極めて高度な情報処理を行っている人間の脳の消費エネルギーは20 W程度と言われており,100 年生きても20 MWh 以下である。このように現代普及している人工ニューラルネットワークと比較して,生物の脳は極めてエネルギー効率の高い仕組みを持っていると言える。
脳の神経細胞ネットワークでは,スパイクもしくは活動電位と呼ばれる発火信号を介して情報が伝搬し,スパイク間の時間間隔や発火周波数などの時間領域の情報を活用することで高度な学習や認知機能が実現されていると考えられている。このスパイクを用いた情報処理モデルはスパイキングニューラルネットワーク(SpikingNeural Network:SNN)と呼ばれ,脳内の情報処理メカニズムを理解し,より生物の知能に近しいAI に至るための次世代の人工ニューラルネットワークモデルとして注目を集めている。
1.2 SNN モデルの物理実装
2014年にIBMがScience誌で発表したTrueNorthを皮切りに,SNNモデルのアナログ電子回路による物理実装に向けた取り組みが活発化し,インテルがPohoikiSpringsで1億ニューロンのSNNを実現するなど,脳と同等のニューロン数を目指した大規模SNNの研究開発が進められてきた。光学分野においても,光学素子のもつ強い非線形性を用いて神経細胞の発火ダイナミクスを模擬する取り組みが盛んになり,周波数多重化などを用いた高速・低消費エネルギーの光SNNに向けた実証実験が報告されている。一方で,SNNの多くの物理実装では神経細胞の発火ダイナミクスを表現するために比較的簡略化されたモデルが使用されており,どの程度神経細胞の機能を模倣できているかは定かではない。また,生物の脳内では様々な発火ダイナミクスを持った異なるタイプの神経細胞が協調しながら情報処理を行っており,このような発火ダイナミクスのもつ多様性が脳機能にどのような寄与をしているのかを明らかにすることは脳の情報処理メカニズムを理解するうえで重要となる。そのため我々の研究グループでは,生体で確認されているClass-IおよびClass-II と呼ばれる異なる2種類の発火モードの任意切替えが可能な人工ニューロンを光発振器によって作製し,大規模な光SNNの物理実装に取り組んでいる。
【月刊OPTRONICS掲載記事】続きを読みたい方は下記のリンクより月刊誌をご購入ください。
本号の購入はこちら
