【解説/ハードウェア】人工知能時代には必須か? 最近、プロセッサに搭載されている「NPU」って何 [すらいむ★]
第288回 人工知能時代には必須か? 最近、プロセッサに搭載されている「NPU」って何
最近、プロセッサに「NPU」と呼ばれる人工知能(AI)処理に特化したユニットが搭載されるのがちょっとしたブーム(?)になっている。
このNPUって、GPUなどと何が違うのか、なぜプロセッサに搭載されるようになってきたのか解説しよう。
今回のお題は「NPU」である。
出だしから注釈になってしまうが、NPUといっても2つの意味がある。
今回取り上げたいのは「Neural network Processing Unit」と呼ばれる類いの人工知能(AI)用のNPUである。
もう一つ「NPU」と省略されるものに、ネットワークの通信をつかさどる「Network Processing Unit」というものもあるのだが、今回はそちらではない。
■NPUとGPUを同列に比較するのはおかしい?
現在、NPUと呼ばれるような機能モジュール(ベンダーによって呼び名は異なる)を、メジャーなプロセッサベンダーはどこもプロセッサに集積している。
Intel、Arm、Apple、Qualcomm Technologies、Samsung Electronicsと名前を列挙すれば、NPU搭載がもはや「必須」となっていることが分かるだろう。
現代的なSoC(System on Chip)マイクロプロセッサには、「CPU」「GPU」「NPU」と3種のプロセッサコアが集積されている、というわけだ。
(以下略、続きはソースでご確認ください)
atmarkit 2024年05月20日 05時00分
https://atmarkit.itmedia.co.jp/ait/articles/2405/20/news015.html んぴゅーってビバップのエドと友達になった人工衛星搭載の人工知能がいたな >Intel、Arm、Apple、Qualcomm Technologies、Samsung Electronics
人口知能ではなく、人口痴呆が含まれているが、わざとか? タスクによっては従来の30倍の処理能力、か
ただし学習済みのニューラルネット限定と GPUがNVIDIA専用のように有名になったから他の会社が差別化したくてニューラル言い出しただけの話
NVIDIAがCUDAでGPUをドライブしてることとなんら変わらない
しかしこれが入ってるのはモバイル向け
つまり低電力
そして低能力
ちなみにGoogleは
Tensor Processing Unit (TPU)
テンサーこそテンサーフローでGoogleがはじめたやつなのにオープンAIのGPTに先越されたからな
オープンAIの技術のトップだったイリヤがGoogleで携わってた
イリヤはつい数日前にオープンAIやめたけどね
元に戻して
同じことをやるだけだ
名前でどうこういうやつは知識ないやつ
機械学習の基本を学べよまず >>2
その話じゃないからだ
いまどき汎用CPUのなかだからだ
組込では別のこともある そもそもこの分野ってGPUにCPU的な事を超並列でやらせたのが始まりだからな
NPUってのはこれをやってるだけ やっぱりMicrosoftの宣伝だったな
Copilot+PCって名前の やっぱりMicrosoftの宣伝だったな
Copilot+PCって名前の 掛けて足す計算をするという点では変わらないが
GPUと呼ばれているものの方がAI以外にも対応できて
汎用性高いということだね 具体的に何に使うんだ?
動画のエンコード・デコードが良くなるとかか? まだGPU以外に使えるチップが無いからな
AI専用チップが出来たら拡張ボードも出て来るやろ