>>642
そりゃ、すまんかった。

専用プロセッサの話は、ここに詳しい。
http://news.mynavi.jp/articles/2017/07/04/dlu/

アーキテクチャ的にはDLU(Deep Learning Unit)は、ディープラーニングに特化した設計になっている。この点では、GoogleのTPUなどと同じ考え方のプロセサである。

DLUは、チップ間接続インタフェースを持ち、3次元トーラスの大規模DLUネットワークを構成することができるというスケーラブルな設計になっている。
GoogleのクラウドTPU(第2世代のTPU)やNVIDIAのV100 GPUなどは、大規模ネットワークを構成する機能は持っておらず、
この点は、富士通のDLUが先行するディープラーニング用のチップに対して優れている点であると言える。

なお、先行するGoogleは、ディープラーニングに特化した専用のプロセサを開発する構えで、富士通の路線に近い。
一方、NVIDIAはVolta V100はTensor Coreを搭載してディープラーニング性能を引き上げるのと同時に、
科学技術計算で主流のFP64の演算性能も約40%引き上げるという2正面作戦で1つの製品で両方をカバーするという路線であり、どちらが主流になるのか興味深いところである。

とあります。