Intelの次世代技術について語ろう 91©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
Intelの次世代製品や、それに関連する技術についてのスレッドです。
■前スレ
Intelの次世代技術について語ろう 90
http://egg.2ch.net/test/read.cgi/jisaku/1499796238/ また性懲りも無く現れてるのか。
たまにはamdを一切引き合いに出さず語ってみなよ(笑 Tesla P100にしろ東工大のTSUBAME3.0も含め大規模スパコンではPCIeカード版ではなくNV-Link対応のメザニンコネクタ版のほうが採用されている
既にPCIe接続に人権なんてなかった なぜスパコンでPCIe接続のアクセラレータがオワコンなのかは、CPUで縦挿しのスロットが採用されなくなった理由考えてみればいい
サーバの密度を下げるし配線ロスも多くなる むしろ新規格Welcomeなんでそれを一般向けSSDに卸してくれませんかね 筐体が嵩張るかどうかが問題
アクセラレータよりはレイテンシを許容できる用途にはM.2で十分 ワークステーション市場はTeslaに取られたってことだな >>46
一生懸命芽を摘んでるつもりなんだろ
そもそもPCIeであろうがなかろうが、苦手なGPUの分野でもx86様になんとかして貰おうって、歪な発想の産物だろさ
つまりx86神話にしがみ付くしかないインテル
ちなみにアムダじゃないからARMな母艦でも知ったこっちゃないwww 目を積むも何もPCIe版の需要がないから出すのやめただけの話をなんでそうも頭の悪い解釈できるの バカ「EPYC+カード版Xeon Phiなら需要あった(`・ω・´)」 >>57
なんならpowerでもいいぜ?www
AMDがいないと困るな?イン厨様はwwe PCIeがボトルネックって先代(KNC)から散々な評価を受けてきたものをホストすげ替えたところで評価変わるわけねーしな
逆にCAPI-NVLinkのダイレクト接続使わないかぎりわざわざ割高なPOWERサーバなんざ使う意味もない
そもそもXeon PhiがGPUだと思ってる時点で根本的に勘違いしてるし、メザニン版のP100/V100もビデオ出力機能はねーから てかAMDいらないでしょ
QuadroとXeonさえあれば機械学習はできる だから非ホスト版の存在意義はIntel含め前から疑問視されてたから
廃止されたのは予想(予定)通りだろっていう
なんでこんなに荒立てるのがいるのかわからん AMDファンボーイの評価が何故か高いPCIe版(笑) こいつはamdを叩くためだけにIntelその他を引き合いに出してるだけだよね DL性能がGPUとも張り合えるKnights MillならPCIe版の出る可能性は否定できないかな
いやないと思うけども 誰かさんが絶賛してたララビー(笑)の時点でコンシューマ向けに落とし込めなかったんだからねーわな
誰とは言わんが 張り合えるとは言ってもV100の前には霞むしなぁ
まあ安いだろうからコスパで対抗すんのかな DDR4を含めた400GBのメモリは現行PhiにとってTeslaと張り合う意味でも最大の武器だからそこは外すべきじゃない
大阪大学が世界最強のレーザーを生成 日本は未来産業の基盤となる技術開発を
http://the-liberty.com/article.php?item_id=10004 >>63
x86を他分野に展開しようとして
ことごとく失敗
CPUでGPU作るも失敗し
CPUでアクセラレータ作るのにも失敗
案の定CPUソケットが最後の砦
ゴミなんか誰も評価してないよ てなビッグマウスをCALもHSAも失敗したゴミ量産メーカーのファンボーイが言うから楽しいっちゃない >>72
某ゴミのバーゲンセールメーカーには
敵いませんよw
インテル、IoT向け小型コンピュータ3種類を静かに生産終了へ。出荷も年内完了予定
http://japanese.engadget.com/2017/06/21/iot-3/
IntelがAtomプロセッサの新規開発中止、スマホやタブレットから撤退か
http://buzzap.jp/news/20160430-intel-atom-on-the-edge/ なんだっけあのCUDAもどきのコンパイラって
cuDNNにしろCUDAのコード資産の大半はバイナリベースで提供されてるから徒労でしかないのにな
さすが三流メーカーだべ、ソフトへの投資の意味を理解していない >>72
ゴミAtomを絶賛してた
某ファンボーイの妄言は楽しかったよ
無料バラマキAtomをASUSが採用したと
我が事のように喜んで
これからスマホで普及すると
某ファンボーイが鼻息荒くしてたのは
今でも鮮明に覚えているよ(笑) このスレでAMDの話をメインでしてるクソコテはアホなの?
Intelの話をしろよ
スレタイも読めないのかな? Intelのやってるmkl-DNNはissueやプルリク一日何件も飛んでるし
本当に必要とされてるソフトとそうでないソフトの差は歴然ですよ KNLからもPCIeくらい出てるだろ
だったら普通にKNL+Phiのセット販売すりゃいいだけ
それが出来なかったってことは、普通にTeslaに負けたということだろう 意味がわからんしPhiはTeslaのホストにもなれるし争う理由もないわな
Teslaが得意な処理はPhiでは遅いが
Phi向けの処理はTeslaでは動かない nVidiaはやる気まんまんだけどもね
ttp://www.nvidia.com/object/justthefacts.html ATOMは需要があるのにIntelが儲からっていう理由で撤退した
ATOM継続してほしい人が多いのでは?
あとはATOMのECC対応版、
プロセッサの内部のほとんど、およびメインメモリをECC対応にした高信頼バージョンとかあれば
需要でたのに 上の書き込みはタイプミスね
× Intelが儲からっていう理由で撤退した
○ Intelが儲からないっていう理由で撤退した 7120ならKnights Cornerのほうだな
今更?な感じするけど > Xeon Platinum and Gold 61XX have two AVX-512 FMA units per core.
> Xeon Gold 51XX, Silver, and Bronze have a single AVX-512 FMA unit per core.
既出? Intel の Optimization Reference Manual
に書いてあるね
SkylakeXはちゃんと2つある
ただし、一個はレイテンシがデカい >>88
2つあるのは7900X以上でそれより下はSliver/Bronzeの転用 さすがシッタカ団子www
7800X 7820Xも2個だボケ ブーメランを自ら頭に刺しに行くのやめなよ
http://www.tomshardware.com/reviews/intel-core-i7-7820x-skylake-x,5127.html
> (unfortunately, -7820X loses one AVX-512-capable unit per core compared to -7900X). r"`ヽ、
\::: \
\::: \
): )
__/::: /
/ 〈:: /
/ \ ,〈//\
/ (●) ┃(●) \
| (__人__) | <さすがシッタカ団子(ドヤッ
\ ` ⌒ ┃ ,/
. /⌒〜" ̄, ̄ ̄〆⌒,ニつ
| ,___゙___、rヾイソ⊃
| `l ̄
. | |
<●> <●> )っ-○○○ <え? 個体差でHCCだったりXCCだったりする可能性は否定できないが
そもそもIntelは一度もSkylake-X Core i7のAVX-512のユニット数を公表してないしな
いずれにしても1Pワークステーションとしてちゃんとしたものが欲しいならXeon Wを買うべきだよ
全製品ラインで512b-FMAが2基と明言されてるしPCIeも48レーンあるしECCもついてる ついでに>>79の妄想発言については普通にソケット版Phi同士をOmni-Pathで繋いだ方が性能スケールするし、ホストの稼働率に影響しないのでノードの信頼性も上がる。 >>82
儲からないってことは需要がないってことなんだが instlatx64で計測されてる7800Xは普通に2x512bitFMA/cycle出とるよね tomsのみならずanandでもi7-XのAVX-512が半速と言ってるし
Intel公式フォーラムでも議題に上がってたが中の人は明言を避けてたな
くじ引き? >>95
数売りゃ儲かるなら理屈上そうなるが
Celeron Nが107ドル、Pentium Nが161ドルのものをI/O制限して消費電力絞って40ドルで売ってたのがモバイル向けAtomの実態ですぜ あ、団子は頭が悪いから見方がわからないか
世の中に多くあるAVX512を使ったベンチの結果からもわかる >>95
atom自体は儲かるし需要もあった
ただintelの他の製品の売り上げを下げるのが問題
intel全体として利益が下がったからatomを辞めるって話をどっかで見た >>89
xeon goldは5000番代でも2機だね。
silverは一つのようだ。 レビューサイトが軒並み(結果的に)間違った事を書いてるのはIntelからそういうレクチャーがあったんだろうけど
Xeon Wは全部2xなところを見るとLGA3647の方でしか差別化してないのだろうか 逆にXeonはBronzeからPlatinumまで全てPCIeは48レーン(DMIぶん4レーンを含む)だけど、Skylake-Xは下位だけが28レーン(+DMI)に制限されてる >>104
Atomラインを6Wレベルまで押し上げて
一番低電力な製品も高価格なCore系にしてきたけど
あれ絶対に技術よりも売上を気にしての商業判断だよな
これ見たときにそう思った
http://pc.watch.impress.co.jp/docs/news/1047081.html 押し上げたというか、Braswellも6Wだったし
逆にPCIeやSATA使えるのに封印してるのがAtom Zだよ
実際問題単価が低いからだろ
売れるのが200ドルなら文句ねーって
なんでNシリーズの1/3の価格で売らなきゃいかんのって話で __〉 じ グ た. こ ち ち
{_. ゃ リ だ れ が
) : ス の は う
(. :
{ヽ-‐\__
淫厨→ ヽ、:::::::::::(
/::::::::::::::::`ー'⌒ー〜'⌒ー〜〜'^ー〜⌒ー〜
{::::::::ト、:{\:{`ヽ:{∨ゝ{'^j;ノ}:ノ|:/};人::::::::::::::::
i ∨:::::ゝ__ ` u j ∪:、 u ´__,, `ヽ、:::::::
| ∨::::|ヽ.ニ二二,‐{,, :::.,_`二二ニ,, _j:ヽ._j::::::;
| 〉::::},, `ミニ彡';::::: u `ヾミ=彡'";; ゝ、:::::,ィ'´
,|j、 iヽ-':::::::j ゛l!i|il!|li!γ'⌒ヽ、゛!lili|i|!li" ー'}::::| f
iー-i ゝニ-::::::〉 j_ .::::::/r:ュ、 ,r:ュヽ. _;j i i |::::| К
| :| `ゝ__;;;;;j |ヽr--rーrーrー:r‐ァ'"::} U ,|:::;jー‐"
| :|ク `l .{::::\,{_j_j_,,j_,ノ::::::j u j'´ ,__
,ィ| :|'/フ ヽ、ヽ、:,ヘrーr─rーr‐ュ;ノi.i / _/::::::
/ j../ .,ィ' \`u∪~"二~ ̄"~uuU/,ィ'´:::::::::::
{ { 〈 /´フ ,イ´`ー、{,,_____,,}-ー'"´ .::| i^ヽ:::::::: >>109
5122は2機だよ。
よくわからんSKUだな。 5122は4コア8スレッドだけど12コアぶんのL3(16.5MB)が使えるというかなり変なCPU >>82
Atomは実質無料でばら撒いてた
事業は当然ながら赤字
乞食需要しかなかったので撤退
インテルCPUのAtomが終息へ。
http://bto-pc.jp/btopc-com/select/intel-atom-eol-2016.html
もともと、IntelとMicrosoftはプラットフォームの普及を狙って
実質無料に近い形でプロセッサやソフトウェアを
OEMに供給していたと言われており
(マーケティング費用としてリベートが供給されるモデルだとされている)、
これを原資に一時期は100ドル未満の
Windowsタブレットが市場に多数登場する事態にまでなっていた。 >>120
なるほど、x86エミュを投入したくもなろうというもの
あれはやっぱ、インテルのものいいが入って、御蔵入り? Coriは単精度理論性能60PFなのでもう少し理論性能あたりの効率に振るべきだ >>122
学習とかGPUじゃ全くスケール出来ねえからなあ
粗い計算だが、なんとか100ノードまでは出来るようになったとかいう世界 おおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおおつういぇるy9hれ9ゆへるいぇるお 機械学習で名を売りたいやつはMKL-DNNのコミッタになれ
へるみ先生も間接的にはコミッタか… TLに #DLAccel のツイート流れてきてるがまさにGPGPUのスケーラビリティの話やってたわ GPGPUあるあるネタ
GPGPUは理論性能に比べて実効性能が低い
→実効性能あたりのコストを調べたら結局GPGPUがいちばん安かった >>122
非同期やハイブリッドがどうのと書いて有ることくらいしか分からなかった
よろしければ解説してもらえないだろうか 今日の某勉強会セッション資料によればChainerNNは分散メモリでもある程度スケールするらしいがTensorFlowはあんまり考慮されてないらしく IntelやNVIDIA, Microsoftが開発支援してるけど割と的確だったようだね つか、バイナリニューラルネットTueeeeな
AVX512BWのvpermb始まったかも 革ジャン以外DNNがここまで流行るとはおもってなくてスタートダッシュで出遅れた印象だね
スタートダッシュで先行した革ジャンだけど、そのうちライバルが追随してくるでしょう GPUで実現可能なモデルは限定されるしバイナリベースならFPGAがさいつよだし大きなモデルを扱うならCPUベースの方がいい
多様化に向かうと思うね >>132
そらあらかじめ計算量というか時間を予め少なくしようとして計算してるからな
1時間ブン回すとかなら話は全く違ってくるで 追随するも何もソフトウェアをCUDAで囲い込まれてしまってるけどね
CPUでやるかCUDAでやるかの2択になってしまってる
まあ、Intelは自力で何とかするだろうけど >>134
TensorFlowが複数マシン、GPUじゃ難しいのは去年から指摘されてた
ChainerやCNTKが比較としてTensorFlow出して、ダメだろこれと
学会行った人もGoogleはTensorFlowからフィードバックが上手く出来てないとか言ってたわ
MS、Baiduの2社が抜けてたとも 最近はずっと低精度化の学習が流行りだからね
FP32やFP16は学習でも非効率という世界になってきた感 色んな精度、モデル及びそれらの変更があるなかでは
ASIC化するのは得策ではない いろんな精度って...
今は低精度の話をしてるんだけど
CPUが不得意な ■ このスレッドは過去ログ倉庫に格納されています