【AI】東大ベンチャーELYZA、GPT-3.5 Turboレベルの日本語LLM発表 [すらいむ★]
東大ベンチャーELYZA、GPT-3.5 Turboレベルの日本語LLM発表
文● 田口和裕
東京大学松尾研究室発のAIベンチャー「ELYZA」は3月13日、700億パラメーターの最新日本語大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70b」を発表した。
■100Bトークンの日本語コーパスで追加事前学習
同モデルは英語の言語能力に優れたメタのLLM「Llama 2」シリーズに日本語能力を拡張するプロジェクトの一環で得られた成果物だ。
具体的にはLlama 2に対し、日本語による追加事前学習と事後学習を実施。追加事前学習には約100Bトークンの日本語コーパスを用い、事後学習には「日本語での指示追従能力と一般的な知識を向上させることを目的としてELYZAが独自に構築した高品質なデータセット」を用いているという。
(以下略、続きはソースでご確認ください)
ascii 2024年03月13日 12時40分
https://ascii.jp/elem/000/004/188/4188943/ 四角形ABCDはAD〃BCの台形, Eは線分ACとDBとの交点である。
AD=6cm, AE=3cm, EC=7cmのとき, BCの長さは何cmか求めなさい。
この問題は、相似を用いて解くことができます。
まず、四角形ABCDはAD=BCと仮定すると、AD〃BCの台形であることから、AB=DCとなります。
次に、三角形ADEと三角形BCDは相似なので、
AE: EC = AD: BC
となります。
これらの比率を用いて、BCの長さを求めます。
AE = 3cm, EC = 7cmと与えられているので、
3 : 7 = AD : BC
となります。これをAD=6cmで解くと、
6 × 7 = 42
BC = 42 / 6 = 7cm
したがって、BCの長さは7cmです。
アホアホでした。 頑張っているなぁ。昔東大発のロボットを開発しているベンチャーがGoogleに買収されて、
その後、Googleはロボット開発を棄てたという事があったが、その後彼らはどうしたの
だろうか? プロモーションには池田エライザを起用してほしいねw 他を凌駕するには
学習量を増やすだけなのかな?
そのためにGUIボードがまだまだ必要なんかな? GPT5が囁かれてる中GPT3.5で自慢
それもまだ使えない
未来は遠い