Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している

 Appleの研究者が「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」と題した論文をプレプリントサーバーのarXivに公開しました。
 この論文では「メモリが限られたデバイス上で大規模言語モデル(LLM)の推論を効果的に行う道を開く解決策」、すなわちiPhoneなどのデバイス上でLLMを動作させるための技術が示されており、Appleは将来的にiPhone上でLLMを動作させることを目指していると考えられます。

 [2312.11514] LLM in a flash: Efficient Large Language Model Inference with Limited Memory
 https://arxiv.org/abs/2312.11514

(以下略、続きはソースでご確認ください)

Gigazine 2023年12月22日 11時35分
https://gigazine.net/news/20231222-apple-iphone-llm-in-a-flash/