【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」
■ このスレッドは過去ログ倉庫に格納されています
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。
日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml_01.jpg
最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差の2乗和を最小とするような係数を決定する方法。ディープラーニングに詳しい東京大学の松尾豊特任准教授は、2018年8月に登壇したイベントで、「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明していた。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml2.jpg
松尾氏は2月20日、Twitterの公式アカウントで「小林慶一郎先生はよく議論させていただくので、少し責任を感じています」とツイート。ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。
松尾 豊
@ymatsuo
しかし、いつも「深い関数を使った」というところが抜け落ちてしまいます。ディープラーニングはその名の通り「深い」ことを強調した学術用語であり、そのくらい深いことが重要ですが伝わらない。深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきことです。
https://twitter.com/ymatsuo/status/1098116029987713024
松尾 豊
@ymatsuo
「最小二乗法」は、損失関数を最小化することで、モデルのパラメータをデータから推定することを、一般の人がぎりぎり持っている(かもしれない)知識で言い換えたもので、大雑把ではありますが、それほど悪くない言い方だと思っています。深いことに比べるとそれほど重要ではありません。
https://twitter.com/ymatsuo/status/1098116143393386497
松尾 豊
@ymatsuo
いずれにしても、経営者や政治家の方を含め、多くの人に正しく理解してもらうのは大変難しいです。「最小二乗法」がこれだけ話題になるというのは、逆に言うと、多くの人がぎりぎり理解できる地点がそこらへんまでなのだということを示してもいて、なかなか絶望的ではあります。まだまだ道は長いです。
https://twitter.com/ymatsuo/status/1098116255737737216
松尾 豊
@ymatsuo
翻って、「深い関数」という意味や、それがもたらす可能性を、(専門家の人も含め)どれだけの人がちゃんと理解しているのかとは、常々疑問に思います。もちろん、AI全般、あるいは知能全般の議論と簡単に結びつけるのは良くないですが、非常に大きな広がりがある技術だと思っています。
https://twitter.com/ymatsuo/status/1098116360062722048
続けて、「深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきこと」「『最小二乗法』は、損失関数を最小化することで、モデルのパラメータをデータから推定すること(略)深いことに比べるとそれほど重要ではありません」と投稿。経営者や政治家など、AIに詳しくない非エンジニアに正しく理解してもらうための解説は「大変難しい」と痛感しているようだ。Twitterでも同様に、AI技術について上司や同僚にどう解説すればいいかを嘆くエンジニアの声も見られた。
松尾氏は「深い関数」の意味やそれがもたらす可能性について、今後も研究や啓もう活動を続けていくと発信した。
ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
https://twitter.com/5chan_nel (5ch newer account) We Can Divide the Numbers and Analytic Functions by Zero
with a Natural Sense.
http://vixra.org/abs/1902.0058 Horn Torus Models for the Riemann Sphere and Division by Zero
http://vixra.org/abs/1902.0223 地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)
リーマン球面における無限遠点は、実は、原点0に一致していました。
地球人はどうして、ゼロ除算1300年以上もできなかったのか?
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由
1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。
Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf 地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)
リーマン球面における無限遠点は、実は、原点0に一致していました。
地球人はどうして、ゼロ除算1300年以上もできなかったのか?
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由
1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。
Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf Global Journal of Advanced Research on Classical and Modern Geometries ISSN: 2284-5569, Vol.7, (2018), Issue 2, pp.44-49 APPLICATIONS OF THE DIVISION BY ZERO CALCULUS TO WASAN GEOMETRY HIROSHI OKUMURA AND SABUROU SAITOH
http://geometry-math-journal.ro/pdf/Volume7-Issue2/1.pdf
岡山大学における日本数学会における講演要旨:
https://ameblo.jp/syoshinoris/entry-12407517586.html 再生核研究所声明 453 (2018.9.28): The International Conference on Applied Physics and Mathematics, Tokyo, Japan, October 22−23
https://ameblo.jp/syoshinoris/entry-12408098596.html
再生核研究所声明 452 (2018.9.27): 世界を変えた書物展 − 上野の森美術館
(2018年9月8日―24日 )
https://ameblo.jp/syoshinoris/entry-12407864914.html TOP DEFINITION
Genius
A super-smart math teacher that teaches at HTHS and can divide by zero.
Hey look, that genius’s IQ is over 9000!
#divide by zero #math #hths #smart #genius
by Lawlbags! October 21, 2009 divide by zero
Dividing by zero is the biggest epic fail known to mankind. It is a proven fact that a succesful division by zero will constitute in the implosion of the universe.
You are dividing by zero there, Johnny. Captain Kirk is not impressed.
Divide by zero?!?!! OMG!!! Epic failzorz
#4 chan #epic fail #implosion #universe #divide by zero 数学ではできない、考えてはならない ゼロ除算が 計算機が できた:
José Manuel Rodríguez Caballero
Added an answer
In the proof assistant Isabelle/HOL we have x/0 = 0 for each number x.
This is advantageous in order to simplify the proofs. You can download
this proof assistant here: https://isabelle.in.tum.de/ 根拠、理由、説明は 計算機の出力結果であるから 分からない。
我々は 2014年2月2日 それを発見していた。
5年を経て、計算機が出力した。
Close the mysterious and long history of division by zero and open the
new world since Aristotelēs-Euclid: 1/0=0/0=z/0= \tan (\pi/2)=0. 人工知能については時々ブームみたいなのがあるんでしょ?
一時ブームになるけど、限界みたいなものが指摘されてブームが収束する
現状では人工知能といっても、つきつめると物が似てるか否かを判定するぐらいの能力なんでしょ?
次のブレークスルーがくるまで、またブームもひと段落つくでしょ >>118
だめ、重要度が逆でまったく意味が変わってしまうから。
最初から深い関数の物量ありきが勝負。最小二乗法は定番だけど、そんなのは二の次。
大量の中間関数などの多変量、非線形関数を階層的に組むこんで計算量に物言わせて初めて意味がある。
最小二乗法使ったところで関数や階層が少ないと全く意味がない。 ディープラーニングとか言ってるけど、パターン解析と傾向分析で近似値を積層化してるだけだから
基になるデータ量が決め手になるし基データが間違ってたら結局すべでがオジャンになる糞分野
ディープラーニングを基盤にAI開発してるやつは永遠にAIを開発することは不可能 >>53
>マハラノビス距離が最小となる分類を決定する方法とかどうよ。
東京湾にはびこるマハラノビスもどうにかしてください(><) 星座みたいなものか。AIも星座を創造できたらすごいね。 AIの天才である俺が簡単に言うとだな
ディープラーニング=めちゃめちゃ多次元の関数を最小二乗法で最適化したもの
ということだ。
ちなみにその多次元関数を仮に図化できたとするとその図は
新聞紙を丸めてめちゃめちゃシワシワにしたようになる。
- 以上 - >>104
社会とのかかわりという点から見たらそうだよね
ヲタクが必死で喚いてるけど
結局、AIという言葉がミスリーディングなんだろうね
素直に機械学習と呼んだら勘違いもなくなるはず >>131
意外にいいとこついてんじゃないかな
つまりはラプラスの悪魔の復活の儀式だからね AI=頭脳プレー
というインチキイメージよりはマシだろう。 1次の線形近似計算
→線形回帰
線形では表現できない関数がたくさんある。
解を求める際には、最小二乗法などが用いられる。
非線形とするため、活性化関数をつける
→パーセプトロン
パーセプトロンの結果、階層を作ることが可能となった
→3層パーセプトロン
これにより、xor関数、sin関数などの近似が可能となる。
解を求めるためには、最小二乗法を応用したバックプロパゲーションが用いられる。
3層以上ではバックプロパゲーションが上手く機能しなくなるため、悶々悶々。
ここ、色々なものが生み出されては消えていった。
画像解析で畳み込みニューラルネットワークが開発される
→コンボリュージョナルニューラルネットワーク
バックプロパゲーションの問題が起きないため、階層を幾らでも深くできるようになる。
→ディープコンボリュージョナルニューラルネットワーク
略してディープラーニング
ディープラーニングでは、階層を深くすれば、どんな関数でも近似できる事が、
理論上示される。つまり、万能近似関数。
教師データが与えられたら、どんな事柄でも学習する事ができる。
ただし、教師データにない未知の入力に対して、本当に正しく予測できているのかは不明。
なんとなく予測できてそうという状態のまま、使えるから良いじゃんとしているのが現在。
まあ、近似計算全部が抱える本質的な問題なのだが。 間違ってるだろ。
ディープラーニングは、ある程度、汎用性のある学習システム、ソフトであることを重視してるだろ?
今現在の手法と別物で、どう学習してるかブラックボックスでも、性能よければそれもディープラーニングでまとめられるかと。 >>150
万能近似関数いいですね。一番しっくりくる言葉かもしれません。
ディープラーニングをパターンマッチ的な解釈で唱える人がいるが
ディープラーニングは関数を作成するというところが肝で
つまり関数だから学習したこの無いXを与えた時でもYを出せるのである。 >>150
常に人間によるチェックが必要なんだな
完全にAIに任せて自動化しようなんて夢物語 >>92
そのオッサン、言語をよくわかってないけど、
各方言(英語やスペイン語)などに共通して使われている言葉は存在する。
表裏というのは Recto と verso という。
これは、万国共通。
ラテン語は権力のある聖職者の言語だったから。 ディープラーニングは教師あり学習が主流だという話だね。 >>141
おまえらバカが想像するAIを作るために
DLやってるやつなんて一人もいねぇよwww
バカ過ぎ >>157
インドのベンチャーで強いAIを開発しようとしてるとこなかったっけ? フィッティングが精緻になれば将来予測も精緻になる。
それでランダムウォークというんだろうか。
深い関数なんてものが何ものかまったくわからないけど。 最小二乗法ねぇ....素人には条件を満たす巨大な関数を作っていくでいいんじゃね? いくらAIだの人工知能だのと言ったところで、結局は、人間の作り上げた機械の
限界を超えていないんだよ。
人間と機械の根本的に異なる所以は、人間は30数億年の進化の歴史を背負っている。
知能がどうのこうのと言ったところで、それは30億年以上もの生物の進化の歴史に
支えられて、その上で発達した生き残りのための手段でしかない。
AIに生存本能がありますか? AIは自分で餌を探しますか?
AIは誰かが鉄棒を持って襲い掛かってきたときに自らを守ることができますか?
そういうことがまったくできないのに「知能」がどうのこうのと言ったところで
地盤がゆるいところに鉄筋コンクリートの建物を建てようとするのと同じだよ。
人間の知能は生存本能の進化の結果としての一つの形態に過ぎない。
鳥は空を飛ぶことで対応し、象やキリンは体を大きくすることで対応し
ライオンやシロクマはするどい牙やツメを持つことで対応した。
根源的な自己保存本能がないのに「将来は人間に敵対するかも」などと
言ったところで意味はない。 AIというのは研究費獲得のためのパワーワードにすぎない。
無知を騙すにはAIって言っとけば良いのだ。
騙すとは言ったがが、大抵嘘は言ってない。どれもこれもAIに関わる物ばかりだ。 普通に最小二乗法レベルで十分なものにAI応用しましたってドヤるから 理系の大学、それも実験研究室の学生なら最小二乗法は必ず習うもんだと思ってた
最小二乗法にもここで言うAIの「深い」という項目に近いパラメーターがあるけど この経済学者がまず軽々しい発言をしそうな顔をしているように見える。
昔東大だったというプライドも感じる。
教授の椅子がないから慶応の経済に鞍替えしたのかな? 最小自乗法の評価値を何に設定するかが問題なのではないか 「囲碁の謎」を解いたグーグルの超知能は、人工知能の進化を10年早めた
2016.01.31
囲碁において、機械が最強の人間を打ち負かすにはあと10年は必要だろう──。
そんな専門家たちの予想を、グーグルが4億ドルで買収したブレイン集団「DeepMind」は見事に裏切った。
人工知能(AI)の世界で大事件が起こった。
イギリスに拠点を置くグーグルの研究者たちが開発したコンピュータープログラムが、囲碁の試合で一流棋士を打ち負かしたのだ。
ディープマインドの共同創業者で最高経営責任者(CEO)のデミス・ハサビスは、
「いちばん重要なのは、AplhaGoは人間のプログラミングによって設計された、単なるエキスパートシステムではないという点です」と話す。
「代わりに一般的な機械学習のテクニックを使って、どうやって囲碁の試合に勝つか学んでいくんです」
今回の勝利は、ただの見世物ではない。
グーグルやフェイスブック、マイクロソフトは、画像解析、話し言葉の聞き分け、自然言語の理解といった分野ですでにディープラーニングを利用している。
https://wired.jp/2016/01/31/huge-breakthrough-google-ai/ お前ら小さな自尊心を満たすために長文書き込んでドヤ顔してるけどさ、
ここ5ちゃんねるだよ? 2乗する
直線からの距離が最小
曲線を閾値にするのも可能だが別の方法 最小自乗法と言っても1次だけでなく何次でも出来るし近似対象も任意にできるわけだが 最小二乗法の欠点は収束半径が短いことですね
つまり容易に局所最適値にはまり込んで出られない
解は容易に短時間に得られますけどそれが大域的な最適値だという保証はまったくないわけです
それを解決するために遺伝アルゴリズムやシミュレーティッドアニーリングが開発されたわけですが計算時間が膨大にかかります
到底車載用途には向きませんね
人工ニューラルネットによる機械学習は専用回路によって実時間での最適化を可能にした点やはり画期的と思いますよ >>63
いまのパソコン能力なら、絶対値を場合わけで外すアルゴリズムなんて簡単なのにな
二乗計算より、リソース少なくて済むわw >>64
一層で行列1回計算
二層なら行列2回計算
あとは分かるな? 経験リスクを誤差の2乗って考えることもあるので、最小2乗法っていうのは、間違いではないが、
なんか違うな。
参考 画像認識 原田(6.13)(6.14)式 最小二乗法に近いのはこっちだろ
Bonanza式学習法
近年のコンピュータ将棋では,プロ棋士などの棋譜(5万局程度)を利用して,評価関数に含まれる特長ベクトルの重みが機械学習される.
Bonanza が2006年のコンピュータ将棋選手権で優勝して以降,このような学習法の実装は各将棋プログラムに急速に広まった.
評価関数の機械学習は,最適化の枠組みで行われる.
すなわち,プロ棋士の選択した手と,プログラムの選択した手の不一致度を測る目的関数を設計し,この目的関数を最小化する重みベクトルを求める.
類似の枠組みは,古くは1982年,新しくは2001年のコンピュータチェスに関する文献にも見られるが,2014年現在,将棋ほどの成功には至っていないようである.
Bonanza 法やBonanza メソッドという用語は,コンピュータ将棋の技術に関する解説にしばしば見られる.
これらの用語は,時にはこのような枠組みで将棋の評価関数を機械学習するという広い意味で使われ,時にはバージョン6.0のBonanza のソースコードで実装されている方法という狭い意味で使われる.
https://www.jstage.jst.go.jp/article/jsoft/26/5/26_216_1/_article/-char/ja/ Bonanza - Wikipedia
評価関数のパラメータの自動生成
これは保木の本業である化学反応の制御理論を応用したものである。
他のソフトは開発者がパラメータを定めた評価関数を用いているため、開発者の固定観念や棋力の影響を受けることがあった。
ただし、パラメータは自動生成だが、何を評価するかは保木自身が決めている。
既存の常識に反する要素が多かったが、保木の試みはコンピュータ将棋の一大革新として、他の開発者が一斉に追随することになった。
数式
各盤面の判断となる評価関数が、強い棋士が実際に指した手と同じになるようなパラメータを探索する。
誤差関数Jを最小にするパラメータvを最適化問題として探す。
評価関数は、以下の項目の総和。2つ目以降は、駒の位置関係に対するパラメータ。
各駒の価値(駒割り)
王、他の駒2つの位置
王、隣接した味方の駒、他の味方の駒3つの位置
隣接しあった駒2つの位置関係
竜馬飛角桂香の利き上にいる駒の種類
竜馬飛角香が動けるマスの数
ピンされている駒の種類、方向、王との距離
角と同じ色のマスにいる味方の歩の数
歩桂銀が前進できるか
竜飛香の前・後の歩
王の周囲25マスの利きの配置
ただし、これは、Ver. 4以降、Ver. 6現在は単純化しており、以下の3項目だけになっている。
各駒の価値(駒割り)
王1つ、他の駒2つの位置(自分と相手の駒の区別あり)
王2つ、他の駒1つの位置 因果関係と相関関係をちゃんと理解している一般人は少ないと思う
必要条件と十分条件とかも
論理学と統計学は重要なんだけどなあ >>157
ありきたりだが警察は事前には動かない。
今じゃどこの家庭もSECOMが当たり前の時代なんだから
襲われるのが嫌なら隣にボディーガードを付けとけばいいんだよ。
http://guard-dog.crayonsite.com/
格安ボディガードのガードドッグなんか時給2500円で付いてくれるから相手が確実に来るときに付けとくだけでもかなりの抑止効果になるよ。 何を学習したか分からないという言い方の方が危険だと思う。
実際にはご大層な誤り訂正メモリを使用しての1bitの誤りもない計算過程であって膨大ではあっても完全に再現可能な計算だ。
作成者以外の人間が埋め込まれている特殊なコードを見抜くことは膨大すぎて不可能である、と言い換えるべきであろう。
ブラックボックス扱いにするのは論理のすり替えである。 これは、それほど騒ぐことではない。
これよりちゃんと説明しようとすると、一般人に意味不明になる。大雑把な説明としては、間違っていない。
ただ、一般人は、単純なものでも、数万数億、組み合わせれば、
超複雑になるということが分かってくれないから、説明は難しい。
だから、「原理的には単純」なんて暴言が出てくる。 分かりやすくとかどうでもいいわ
文系に寄せる必要はない 「ディープラーニングは、原理的には単純な最小二乗法にすぎない」
「すぎない」は言い過ぎだけど、教師信号との誤差を最小にするアルゴリズムは
まさに最小二乗法なんだよ。次元が多いから最適化するのがむずいだけ。
日経記者は「バックプロパゲーション」ググるといいよ。 >>3
日経新聞は経済以外の記事はまともなはずだったんだけどな >その瞬間、竜哉は体中が引き締まるような快感を感じた
チンポがシコシコするのは、物理的な刺激に限ったことではない。
https://imgur.com/R4D8yyk
https://imgur.com/Fjw9t3F
「アクトレス」(山田謙二)より。
夏目くんのチンポは何にも触れていないのにシコシコしている! 二次元の最小二乗法(直線を引く)ではなく
千次元単位の最小二乗法だろ そもそも、最小二乗法知ってる人間がどれだけいるんだって話だよな n個の点を通る曲線はn-1次多項式で表せる
単純に各点の座標を入れてn個の連立方程式を作って係数について解けば良い
スプライン補間もこの一種
これは最適化ではなく曲線当てはめ問題と言われ一意にとくことが出来る
最適化問題はそういう問題ではない 原理はよくわからんけどディープラーニングはフラクタルな構造にも強い印象 ディープラーニングは原理的には最小二乗法だよ。
これを深い階層まで何百何千回やるわけだから。
何も間違っていないが。 >>159
>フィッティングが精緻
ただの過学習にしか聞こえない罠 仕組みを理解したい人が多いみたいだけど、必ずしも仕組みを理解できなくてもいいよ
インテリな人の傾向として、極端な例で言うと主婦が特許取るみたいなのを下に見てて、
それよりも仕組みを解明して、それを理論として発展させて、その応用で何かを作り出すアプローチの方を高尚に感じる人が多いと思うけど、
ディープラーニングはその仕組みがよく分からないまま、とにかく試してみるという方法で結果を出したことで生まれた
インテリにはつまらないかもしれないけど、そういうアプローチの方が上手くいくこともある >>194
ユークリッド幾何学を別とすれば、近似値とそれらしい理屈をでっちあげてるだけでは?
例えば『状態方程式 PV=nRT』なんて、『単原子分子理想気体』なんつー現実味が乏しい仮定上の高校物理w >>188
>「ディープラーニングは、原理的には単純な最小二乗法にすぎない」
近似計算を繰り返してるだけ、という言い方はどうだろうか?
モノの意味、言葉の意味について、機械がそれを完全に理解することは出来ないが、
いろいろな近似式を組み合わせて繰り返し近似計算をし直すということ。
ロボマインド・プロジェクトでも、同じ問題に直面しました。
我々、人間は、「ドアの外の廊下の上には天井がある」などと覚えているわけではありません。
それでは、どうやって、認識しているのでしょう?
頭の中で、部屋からドアを開けて廊下に出たところを想像するだけです。
廊下に出れば、上には天井がありますよね。
それでは、これを、コンピュータで実現するにはどうすればいいでしょうか?
それには、家の3DCGモデルを作れば実現できます。
データベースを使うのでなく、実際に見えるままの姿を3Dモデルで作成するのです。
https://robomind.co.jp/symbolgroundingproblem/
機械翻訳については翻訳辞書という近似式、シミュレーターという近似計算機を充実させたい。 人間の知能も似たように単純なもんだったりしないのかな
インプット情報の種類(五感)がコンピュータに比べると多いというだけで
インプット情報の量はAIの方が多いから限定的な最適解を出しやすいというような 生物の脳も最小二乗法を無意識に使って対象世界を分節しているのか? 画像認識精度が上がったのなら、画像と結びつけた近似式を作成しておきたい。
ソ連軍がベルリンを陥落させた!
ドイツ第三帝国は滅亡した!
ベルリンに赤旗が翻った!
5月2日の議事堂の陥落後に、赤軍兵士がその屋根にソ連国旗を掲げる写真「ライヒスタークの赤旗」は、
ベルリン陥落を象徴するものとして名高い。
https://jp.rbth.com/arts/2013/04/30/42757
『言い換え表現』として全て同一であることは自明だ。 >「ディープラーニングは最小二乗法のお化けのようなもの」
最小二乗法は近似計算の基礎だけど、そこからの発展が著しい。近似計算法の進歩という言い方はどうか。 >>175
だったら降下勾配法なんか辞めて
最初から堂々と
偏微分連立方程式を解析的に解けばいいだろ 「正確な説明ではない」ことは
小林教授も、もちろん松尾教授もわかっていて
あくまで一般むけの、ふんわりした説明なのだから
別にこれでいいよね
難しいことはどうあがいても一般人にはわからない
科学が人類の99.99999%を置き去りにして久しい
「科学の厳密な理解、最先端技術の理解は自分には無理」
これはもう数百年前から一般人の共通認識になっているのだから
いまさら気にしてもしょうがない 合ってないかも知れないが間違ってない
そもそも聞き手の知識が圧倒的に足りない場合、説明することは不可能 なんにしろプログラム解析にすぎない
シンギュラリティなんて限られた情報から限られた手を打つ場合で
人間の仕事にそんな分野は多くない
そんなに単純なもんならお前が先んじて実用化すれば、
地位も名誉もカネも思いのままだったのにい惜しかったなあw
それをしなかったおかげで山ほど居る講釈師のひとりに過ぎんが、
一生やってな、それがお前にとっちゃ幸せってもんだろwww
ビッグデータという餌、土壌を持っていなければ各種AIは成長しない
日本はアメリカや中国にビッグデータを与えるだけの存在
ラインでチョンにさえビッグデータを与えている始末
アメリカと中国は情報大国として凌ぎを削っている
ハァーウェイ問題もその一端。
20世紀は石油が富を産み出したが、21世紀は情報が富を産み出す
大国による資源の奪い合いから取り残されている日本 >>203
さすがに極端すぎる例え方だな
主婦が特許を取るのは商品の元となる品を開発したのは、必要にかられたから、という分かりやすい理由が存在する
とりあえず取得するには特許料が高すぎる 素振りしまくったら野球や剣道で達人の域に達したみたいな感じかな 空を飛ぶという目的の為には、鳥の羽ばたきを忠実に模倣しなくても、
固定翼の飛行機でも足りるように、
脳神経の機構(いまだに不明なことだらけ)を忠実に模倣しなくても、
なんだか同じように機能するものを工学的に作れたなら、それで満足できる
可能性が高いし、鳥そのものよりも飛行機の方が有用であるように、
かりに人工頭脳が実現したら、それは人間の頭脳の知性を遙かに凌駕する
AIにもなりうる。そうしてついに人間は要らなくなるかもしれない。
そうなったら、AIは歴史を振り却って、ホモサピエンス(人間)は、
我々AIという究極の知性に到達するための中継地点であったのだ
というのかもしれない。 なんでこんなアホが教授できるの?
慶応義塾大学ってFランだったの? コイツらどっちも分かってない
単純な最少二乗法でも深い最少二乗法でもなく、ただの巨大行列式だよ
lossの値が同じであっても行列計算結果は異なるし、lossは地震計のようにブレながら減少するが、低くければ低い程正解になるわけじゃない
そもそも学習にはlossを使うが、一般的にAIと呼ばれている予測実行時にはlossは使わないからな。この時点でAIは最少二乗法という点が間違いである事が証明できている。 ■ このスレッドは過去ログ倉庫に格納されています