【電算/深層学習】NTTがスパコン技術開発に参戦、大規模深層学習を高速化 光通信技術の蓄積を生かしていきなり先頭ランナーに[07/21]

■ このスレッドは過去ログ倉庫に格納されています
0001一般国民 ★2019/07/21(日) 06:25:05.02ID:CAP_USER
NTTがスパコン技術開発に参戦、大規模深層学習を高速化 光通信技術の蓄積を生かしていきなり先頭ランナーに
https://tech.nikkeibp.co.jp/atcl/nxt/mag/ne/18/00001/00091/
2019/07/19 05:00
日経 xTECH/日経エレクトロニクス,野澤 哲生
(無条件公開記事を全文)

【科学(学問)ニュース+】

(写真)NTTの分散深層学習向けアクセラレーター。ボードの奥左側の送受信モジュール2つは、100Gビット/秒の光リンク。黒い台に見えるのはサーバーの筐体(写真:NTT)
https://cdn-tech.nikkeibp.co.jp/atcl/nxt/mag/ne/18/00001/00091/0.jpg

 NTTは2019年6月にドイツで開催された高性能コンピューター(いわゆるスーパーコンピューター)技術の学会「ISC High Performance 2019」で、大規模深層学習を大幅に高速化する光インターコネクト技術を発表した。NTTは光通信技術の開発を長年牽引してきたが、実はスーパーコンピューターのインターコネクトはこれまで手掛けていなかったという。「これまでは長距離通信をいかに大容量にするかに注力していた」(NTT)。今回、その技術をインターコネクトに向けることで、その分野でいきなり先頭に立つ可能性が出てきた。

・流れ作業で待ち時間をなくす
 開発したのは「NTT-Allreduce」という、大規模な深層学習を高速に実行するためのアクセラレーター。データを他のサーバーに高速伝送するインターコネクトの機能と一体になっている。

 一般に、大量の演算を高速化しようとする際、処理の並列化が効果的だ。ただ、その効果が上がりにくい例もある。深層学習はその典型。深層ニューラルネットワーク(DNN)を並列に切り分けることは原理上できないからだ。そこで、「分散深層学習」という手法が開発されている。これには「AllReduce」と呼ぶアルゴリズムを利用する(図1(a))注1)。具体的には、並列処理する数だけ、同じDNNを用意し、学習データを分割して学習させる。ただし、これだけでは各DNNは一部のデータしか学習していないため、学習結果(具体的には得られたDNNの各層の重みデータなど)をDNN間で集約して加算・平均化し、それを再び各DNNに分配して共有する、といった手続きをとる。

(画像)図1 リング型接続で分散深層学習の通信遅延を大幅低減
深層学習を並列処理する際の基本的な手法「AllReduce」とその課題(a)を示した。ただしこの手法では、並列度が高まると集約(reduce)と分配(gather)の際の通信オーバーヘッドが非常に大きくなる課題がある。これを解決するのが、リング型のAllReduce(b)。NTTはreducerを、サーバーのCPUやGPUではなく、リング型の光インターコネクトを担うアクセラレーターに実装する形で通信オーバーヘッドの大幅低減を実現した。
https://cdn-tech.nikkeibp.co.jp/atcl/nxt/mag/ne/18/00001/00091/1.jpg

注1)「AllReduce」という表現は、大規模並列計算のプロトコル「Message Passing Interface(MPI)」で使われる用語。演算器1つに演算結果を集約(reduce)した後、残りの演算器すべてに結果を分配することを「AllReduce」と呼ぶ。ちなみに、分配は「gather」。すべての演算器にデータを分配することは「AllGather」という。

 しかし、この手法は学習データを集約、分配する際の通信オーバーヘッドが非常に大きく、並列度が高いと有効性が低い課題があった。

 一方、NTT-Allreduceでは、サーバー間の接続トポロジーをリング状にした上で、加算や分配といったデータ処理をサーバー機のCPUコアやGPUとは切り離してアクセラレーターで実行する注2)。リング上のアクセラレーター全体で、加算や分配などのデータ処理をパイプライン(流れ作業)化することで通信オーバーヘッドを隠蔽している。

注2)分散深層学習向けリング型AllReduceは2017年2月に中国Baiduが発表しているが、NTTは今回の技術を独自に開発したものだとする。「リング型のAllReduce自体、大規模並列計算機の世界では以前からあったもの。今回の技術はBaiduとは実装レベルで大きく違う」(NTTの坂本氏)。例えば、Baiduはツリートポロジーを持つInfiniBandの上に論理的なリングをソフトウエア(ライブラリー)で実現した。一方、NTTはハードウエア(アクセラレーター)を使い、しかも物理的なリングを構築した。また、Baiduは比較的大きなデータの加算と分配を逐次的に処理しているため、そのデータのリング2周分の遅延が発生するが、NTTは数Kバイトという小さいデータを基に、加算と分配を逆回りの並列処理にすることで遅延がずっと少ない、といった点だ。

この先は有料会員の登録が必要です。
「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。

日経 xTECH/日経エレクトロニクス
https://tech.nikkeibp.co.jp/

0002ニュースソース検討中@自治議論スレ2019/07/21(日) 11:28:21.64ID:Ky0pYbO1
NTTがAIでなにするんだろか

0003ニュースソース検討中@自治議論スレ2019/07/21(日) 13:50:20.68ID:lM0CAPGB
このスレへのレスの少なさよ

0004ニュースソース検討中@自治議論スレ2019/07/21(日) 14:10:14.79ID:NGiWWywv
どっかに技術なさ過ぎて5G開発できず韓国やアメリカに頼ってるって書いてあったけど

0005ニュースソース検討中@自治議論スレ2019/07/21(日) 17:56:31.68ID:A/PtXXW+
>>4
肝が電話の交換器の歴史を経てる技術だから

0006ニュースソース検討中@自治議論スレ2019/07/21(日) 21:07:17.93ID:gwCLlVj4
でもこれを買って研究を進展させるのは海外の研究者なんだろ

0007ニュースソース検討中@自治議論スレ2019/07/21(日) 21:08:00.24ID:gwCLlVj4
ハードよりソフトなんとかしろや

0008ニュースソース検討中@自治議論スレ2019/07/22(月) 09:35:22.17ID:jDniUFHP
不快なので広告拒否します

0009ニュースソース検討中@自治議論スレ2019/07/22(月) 09:40:35.80ID:J4M5R+ue
猫も杓子も人工知能に機械学習だな
なにに使うのかも決めてないのに

0010ニュースソース検討中@自治議論スレ2019/07/22(月) 11:55:37.26ID:O07sqtvi
>深層学習を並列処理する際の基本的な手法「AllReduce」とその課題(a)を示した。ただしこの
>手法では、並列度が高まると集約(reduce)と分配(gather)の際の通信オーバーヘッドが非常
>に大きくなる課題がある。これを解決するのが、リング型のAllReduce(b)。NTTはreducerを、
>サーバーのCPUやGPUではなく、リング型の光インターコネクトを担うアクセラレーターに実装
>する形で通信オーバーヘッドの大幅低減を実現した。

いまどきデータセンターでもフォールデッドクロスが当たり前なのにリングとかwwwwwww

何十年遅れてるんだよ、ってか何のギャグだよ

>ちなみに、分配は「gather」。すべての演算器にデータを分配することは「AllGather」という。

gatherは集めるで分配はscatterなのに、記事書いたやつは基礎的な英語も知らんのか

allgatherはすべての演算器からすべての演算器にデータ送るから、分配といえなくもないが

reduceとの違いも理解できてねーし

0011ニュースソース検討中@自治議論スレ2019/07/22(月) 12:16:33.98ID:9HOQL+Id
>>3
なんか企業名だされると萎えるのが科学板
まあ大学での研究だといつ実用化???で終わるからいい傾向なのかもしれんが

0012ニュースソース検討中@自治議論スレ2019/07/23(火) 05:16:03.70ID:bnrEb16B
>>10
MPIって知ってる?
パイプライン処理したいんだから、リニアに繋げるのはあたりまえでしょ?
でもってリソースは有限なんだから、パイプラインの頭にケツを繋げてリングになるのも自然でしょ?

0013ニュースソース検討中@自治議論スレ2019/07/23(火) 12:51:11.52ID:YmfK6qQI
>>12
>MPIって知ってる?

>>10
>分配はscatterなのに

はMPI用語なのにそれって、お前MPIろくに知らんだろ

>パイプライン処理したいんだから、リニアに繋げるのはあたりまえでしょ?

パイプライン処理じゃねーよ、reduceが終わらないと誰も次に進めないんだよ、アホ

0014ニュースソース検討中@自治議論スレ2019/07/23(火) 13:29:47.46ID:w/D75s6t
AIにおいてはベクトル演算の速度も大事だけど
本質的には強化学習のアルゴリズムが一番重要なファクターだっと思う
allreduceと呼ぶこの勾配分配そのものが学習のオーバーヘッドのような気もする

0015ニュースソース検討中@自治議論スレ2019/07/23(火) 14:07:23.14ID:RQjfos29
PEZY製のスパコンは創業者がタイーホされた後情報が落ちてこなくなったけどどーなったの?

0016ニュースソース検討中@自治議論スレ2019/07/26(金) 20:48:34.68ID:6WKcJoKv
>>2
頭悪いな。
AIがあったらNTTはどう変われるかなんだよ。
そういう発想が無いから、30年間馬鹿な日本だったんだよ。
白犬のハゲをみてみろ!

0017ニュースソース検討中@自治議論スレ2019/07/26(金) 22:18:51.51ID:y5twGoMW
さすが電電公社の系譜

0018ニュースソース検討中@自治議論スレ2019/07/27(土) 00:05:38.65ID:AJU8m3xH
あ…ありのまま 今 起こった事を話すぜ!
『高速の光通信技術を追求してたらスパコンが出来ていた』
な… 何を言ってるのか わからねーと思うが(色々略

0019ニュースソース検討中@自治議論スレ2019/07/27(土) 00:07:17.31ID:hpVq3ZuG
これでAI囲碁やらせたらグーグルより強くなるだろな

0020ニュースソース検討中@自治議論スレ2019/07/27(土) 00:25:07.57ID:GVmwN8kQ
量子コンピュータの開発してたはずだけど、どうなった?

0021ニュースソース検討中@自治議論スレ2019/07/27(土) 00:31:09.44ID:AJU8m3xH
古臭いベンチでコア数ドヤるのは時代じゃないね爆速AI、これ

0022ニュースソース検討中@自治議論スレ2019/07/27(土) 00:47:55.65ID:q/Dap5yt
説明や語句が英語で書かれているから、解りにくい上に、相当長ったらしい言葉で瞬時に理解できない。

日本語なら
例えば
演算結果集約環状反映システムとか、専門知識がなくても直感的に誰でも判る言葉で書けるのに。

様々な表現が必要な時代に英語は時代遅れ。

0023ニュースソース検討中@自治議論スレ2019/07/28(日) 03:56:49.17ID:+xAHs/cq
NTTって独自技術何があるの?研究所つくってやってるみたいだけど。

0024ニュースソース検討中@自治議論スレ2019/07/29(月) 01:42:02.08ID:rwHPzGYX
次から次へとGAFAに引き抜かれる程度には優秀な人はいる

0025ニュースソース検討中@自治議論スレ2019/07/29(月) 21:18:41.07ID:ErCqSJxF
NTTてスパコンつくれたん?

0026ニュースソース検討中@自治議論スレ2019/07/29(月) 22:36:23.47ID:53wKXIHa
最近は隣国にはいかないのか

0027ニュースソース検討中@自治議論スレ2019/07/30(火) 09:30:22.89ID:0J1dZ6Jr
>>2
作って終わり

0028ニュースソース検討中@自治議論スレ2019/07/30(火) 09:40:53.00ID:jo9VvT8t
ソースあるの? ランダムサンプリングか層別解析の類の
日本だとそのへんいいかげんだとおもったが

0029ニュースソース検討中@自治議論スレ2019/07/30(火) 09:55:04.13ID:H1Iz/u0O
それよりも、ネットの料金を下げて貰いたい。
1GBPSを月2000円ぐらいでプロバイダ込みで使えるように。

0030ニュースソース検討中@自治議論スレ2019/07/30(火) 10:26:05.37ID:DbC4Sii0
暗に情報覗き見してるって言ってねーかこれ?

0031ニュースソース検討中@自治議論スレ2019/07/30(火) 13:42:28.77ID:ywYPbTDH
これで何万人も居る従業員が生きていける利益は上がらないぞ
数パーセントの社員しか維持できない
固定電話も光回線も参入されてシェア失うし
衛星からバックボーンさえ無視して通信事業しかけられてんのに

0032ニュースソース検討中@自治議論スレ2019/07/31(水) 01:05:21.23ID:eLLQbbGM
技術の蓄積ってジョークだよな?

0033ニュースソース検討中@自治議論スレ2019/07/31(水) 07:54:56.63ID:7myqsUNy
>>2
滞納しそうな奴にメールをおくる

0034ニュースソース検討中@自治議論スレ2019/07/31(水) 19:07:56.98ID:9X7ZQMJb
>>1
光インターコネクト部品を外販すれば儲かるわ!!

0035ニュースソース検討中@自治議論スレ2019/08/04(日) 23:40:23.39ID:4UUIYEK5
そういえばNTTって不可思議なファニーな人材があちこちにいるんだよな
何とも言えないタイプで桁が外れた人材
JTだと常識のちょっと外側の人もいるけど
NTTは枠が見えない人たちのるつぼみたいだ
会社としてもとても鷹揚でつかみところがないみたい
頭がいいとはいえるのだが優秀でもなく
ユニークなクールさと少しだけの泥臭さがあったな

0036ニュースソース検討中@自治議論スレ2019/08/18(日) 04:00:52.00ID:/P3sCFvw
NTT、鬼門の海外再挑戦 内向きな社風の打破カギ
ビッグBiz解剖(下)
ttps://www.nikkei.com/article/DGXMZO47939960Z20C19A7TJ1000/
 巨大IT企業への対抗戦略はほかにもある。
 神奈川県厚木市の物性科学基礎研究所などで研究者が世界初のチップの実現へ研究を進める。チップの
中では電子ではなく、光子が飛んでデータを伝送する。熱が出ないため効率が良く、消費電力を100分の1に
減らせ、データの伝送容量は今の125倍に及ぶ。
 「光半導体、光サーバー、光パソコン……。あらゆるネットワーク機器が光に変わる。グループの総力を結集
する事業になる」。澤田社長はこの構想を「IOWN(アイオン)」と呼ぶ。実用化の目標は30年だ。
 次世代通信規格「5G」の技術で日本勢は海外勢に出遅れた。だが、次の「6G」の勝負はこれからだ。NTTは
IOWNを6Gの主流に据えるべく、世界の有力企業に協力を呼びかけ始めた。
 ただ、狙い通りに進むかは未知数だ。ガートナージャパンの海老名剛アナリストは「NTTの発想はインフラ
からのボトムアップ。企業への提案力が足りない」と話す。年功序列が残るNTTでは研究者がGAFAなどに
引き抜かれる例も相次ぐ。

0037ニュースソース検討中@自治議論スレ2019/08/18(日) 04:22:04.35ID:shKdoghX
これは先般発表のあったなんちゃって量子コンピュータの応用って事?

0038ニュースソース検討中@自治議論スレ2019/10/03(木) 09:54:34.49ID:gKpTSeqB
防衛装備庁,安全保障技術研究推進制度の令和元年度採択研究課題及び2次募集の実施

関連リンク
https://www.mod.go.jp/atla/funding/koubo.html

令和元年度2次募集に係る研究テーマについて
https://www.mod.go.jp/atla/funding/koubo/r01/r01koubo2_bessi1.pdf

0039ニュースソース検討中@自治議論スレ2019/10/03(木) 10:09:21.05ID:REv1LdJ3
夜ネット遅くなるの何とかして

0040ニュースソース検討中@自治議論スレ2019/10/04(金) 19:54:50.70ID:hJqYKokU
 


>>25

スパコンどころかコンピュータ自体作ったことねえだろ。

仕様だけ決めてNHFに作らせるだけだった。
古くはDIPS。

今回のはいったいどこがやるんだか?
もしかしたら実験機だけ作って論文発表してそれで終わりかもな。
研究員に無駄飯食わせるのが目的の公共事業w


 

0041ニュースソース検討中@自治議論スレ2019/10/05(土) 01:26:41.83ID:GQ+H5XTA
DEMOSというシステムを昔作ってたが、あれは実際にはどこが製造したんだろうな。
電話回線で150Baudの音響カップラーで接続して、簡単な電卓でやるような計算を
サービスしようとしてたらしいんだけれども、電卓の普及で需要が消えたらしい。
そんなもんだろ。

0042ニュースソース検討中@自治議論スレ2019/10/05(土) 01:44:54.17ID:g/kD32lI
日本の凄さを感じるために読んで見たけど
まぁ〜自分の頭じゃ見事に何言ってるかわかんない‥‥
なんでいいからネットがはやくなぁ〜れ

0043ニュースソース検討中@自治議論スレ2019/10/05(土) 07:03:34.08ID:LIN/vIKN
 


>>41

NHF(NECか、富士通か、日立)に納品させて構築させたんだよ。
DIPS使ったかどうかは知らんが。

電卓の登場であっという間に姿を消した。


 

■ このスレッドは過去ログ倉庫に格納されています