0001すらいむ ★2021/07/14(水) 09:45:00.95ID:CAP_USER
深層学習モデルの量子化により、データ処理速度が最大5倍に向上
TRUST SMITHは2021年6月29日、深層学習モデルを量子化することで、データ処理速度が最大5倍向上したと発表した。
膨大な処理が困難だったエッジAI(人工知能)で、深層学習モデルの実装が可能になるという。
同社は、最新の量子化技術を用いることで、深層学習モデルの精度を保ちながらモデルを軽量化した。
従来の演算手法が32ビットの浮動小数点数で数値を取り扱うのに対し、今回の手法では最低2ビットにまで演算に必要なビット数を削減できる。
(以下略、続きはソースでご確認下さい)
MONOist 2021年07月14日 08時00分
https://monoist.atmarkit.co.jp/mn/articles/2107/14/news061.html これはすげえ!!!
CPUだけででもかなり速くなるな
でもVRAMのメモリそのものを増やしてくれwww
0004名無しのひみつ2021/07/14(水) 13:19:50.52ID:owko2lzD
すごいなー
東大発の企業?
0007名無しのひみつ2021/07/14(水) 17:00:08.90ID:XzCrkgqS
トランザム!
0008名無しのひみつ2021/07/14(水) 19:07:55.53ID:OTQcK0MP
日本が世界最先端最高文明国家だからな(笑)
0009名無しのひみつ2021/07/14(水) 19:12:12.54ID:I451nGd5
ミカンなら2倍体でも単為結実性があれば実をでかくできる
0010名無しのひみつ2021/07/14(水) 19:46:42.48ID:tvyltN09
>>5
標本化のこと
例えば最終的なアウトプットが1/0の2値でいいのなら
インプットデータも32ビットはいらないよね
という話 0011名無しのひみつ2021/07/14(水) 19:57:35.95ID:LsW2VBpS
>>1
私が作った作品といえば・・・
記憶術×エロい奴です。
一夜漬けで、テストで100点とか97点ぐらいとれる
エロい×記憶術の奴です。
でも・・・
公表できない。
人生\(^o^)/オワタ
人生\(^o^)/オワタ
人生\(^o^)/オワタ
人生\(^o^)/オワタ
人生\(^o^)/オワタ
人生\(^o^)/オワタ
以下略。
(´;ω;`)・・・ 0012名無しのひみつ2021/07/15(木) 00:14:32.51ID:5n8G5DAk
>>1
このまえ沖電気のやつをみかけたが
画像認識とは違って一般化でもしたんかな
どっちにしろ>>10の解説は間違ってるはず 0013名無しのひみつ2021/07/15(木) 00:20:36.14ID:5n8G5DAk
>>1
ソースの情報量は
>>1より多くないので読む必要なかったぞ 0016名無しのひみつ2021/07/15(木) 11:09:36.24ID:0NB4cmIl
量子という単語がでると、量子コンピュータと区別ができない人が勘違いするのは
自然とおもえる、いまの量子コンピュータの話題を支えている人はその区別ができない人
大企業ですら同じじゃないの?というレベルである場合がおそろしい。
そもそもニューラルネットワークは最悪1ビットでも可能であり、GPUや64ビット
CPUが得意な単位が多ビットであるからこそ、簡易化した構成で作ればビット数を減らせなかったが
32ビット16ビット8ビット4ビットと減らすそれは近年恐ろしい勢いで行われ
最終的に1ビットは超えられないので収束する。その手法での性能向上はもう
限界に近付いているってこと。
0018名無しのひみつ2021/07/15(木) 17:42:53.22ID:5n8G5DAk
>>12
ちなみに沖電気のやつは
入力の多bitをフィルタと量子化と層パスで
計算を軽量化するやつだったが
どう考えても入力データを減らすような
アホなことはせんだろう
こっちは学習モデルの方を量子化することにしてるが
そんな大層なもんじゃなくて学習結果側が量子化されてるだけだと思う ややこしいことに量子機械学習というこれとは全く別のものがあることだ