【AI】AIのトレーニングに必要なデータ量を1万分の1に減らす画期的なラーニング手法をGoogleが発表 [すらいむ★]

■ このスレッドは過去ログ倉庫に格納されています
1すらいむ ★
垢版 |
2025/08/09(土) 21:13:17.09ID:NiKsZ2Lk
AIのトレーニングに必要なデータ量を1万分の1に減らす画期的な方法をGoogleが発表

 複雑なプロンプト(命令文)を理解して高度な計算や回答をするAIを実現するためには、数百億~数兆パラメータもの膨大なトレーニングデータを必要とします。
 基本的にAIが高度になればなるほど多くのトレーニングデータを必要としますが、GoogleはAIモデルの品質を維持したままデータ量を最大1万分の1まで削減できるラーニング手法を発表しました。

 Achieving 10,000x training data reduction with high-fidelity labels
 https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/

(以下略、続きはソースでご確認ください)

Gigazine 2025年08月09日 14時00分
https://gigazine.net/news/20250809-training-reduction/
2名無しのひみつ
垢版 |
2025/08/09(土) 21:33:54.47ID:ew4ETCbb
つまり1万分の1になる手法で今までの量をトレーニングすれば性能が1万倍に
3名無しのひみつ
垢版 |
2025/08/09(土) 22:30:26.85ID:03l2KznG
その結果
私は宇宙の恥だとAIさんが嘆くようになったのかw
4名無しのひみつ
垢版 |
2025/08/09(土) 23:15:17.26ID:xS8Mzjwh
もう止まらんぞこの流れは。
5名無しのひみつ
垢版 |
2025/08/09(土) 23:23:30.00ID:X5wASS/5
>>2
ならんらしい
6名無しのひみつ
垢版 |
2025/08/10(日) 00:00:10.61ID:oOMsPNlq
自虐的に育つって、今見たばっかりなんだけどw
2025/08/10(日) 06:41:58.33ID:nEhJ01V8
チョコザップ?
8名無しのひみつ
垢版 |
2025/08/10(日) 20:04:48.34ID:5a3Hmyo6
中国の方が遥かに先を進んでいる
2025/08/10(日) 20:22:52.10ID:73YEAuen
>>8
我々は人民のエネルギーを奪って勝てるアル
既存のモノを100倍スケールにすればいいだけアルね
2025/08/10(日) 20:26:30.23ID:eJd0TuhE
この方法を中共人民のカンニングに応用すると良いアル
11名無しのひみつ
垢版 |
2025/08/10(日) 21:59:16.40ID:wxpDd+ee
品質を維持したまま?
12名無しのひみつ
垢版 |
2025/08/11(月) 03:17:30.15ID:L0MTXMcU
結局、シビアな判断の必要な弁別を人力にしましたってだけ?
13名無しのひみつ
垢版 |
2025/08/11(月) 08:41:03.44ID:xOzDRMqo
それだけ
14名無しのひみつ
垢版 |
2025/08/15(金) 22:20:42.88ID:YvxgWNyE
より人間らしくなる
のか?
■ このスレッドは過去ログ倉庫に格納されています