X



【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」
■ このスレッドは過去ログ倉庫に格納されています
0001しじみ ★
垢版 |
2019/02/20(水) 21:44:16.33ID:CAP_USER
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。

 日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml_01.jpg

 最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差の2乗和を最小とするような係数を決定する方法。ディープラーニングに詳しい東京大学の松尾豊特任准教授は、2018年8月に登壇したイベントで、「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明していた。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml2.jpg

 松尾氏は2月20日、Twitterの公式アカウントで「小林慶一郎先生はよく議論させていただくので、少し責任を感じています」とツイート。ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。


松尾 豊
@ymatsuo
しかし、いつも「深い関数を使った」というところが抜け落ちてしまいます。ディープラーニングはその名の通り「深い」ことを強調した学術用語であり、そのくらい深いことが重要ですが伝わらない。深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきことです。
https://twitter.com/ymatsuo/status/1098116029987713024

松尾 豊
@ymatsuo
「最小二乗法」は、損失関数を最小化することで、モデルのパラメータをデータから推定することを、一般の人がぎりぎり持っている(かもしれない)知識で言い換えたもので、大雑把ではありますが、それほど悪くない言い方だと思っています。深いことに比べるとそれほど重要ではありません。
https://twitter.com/ymatsuo/status/1098116143393386497

松尾 豊
@ymatsuo
いずれにしても、経営者や政治家の方を含め、多くの人に正しく理解してもらうのは大変難しいです。「最小二乗法」がこれだけ話題になるというのは、逆に言うと、多くの人がぎりぎり理解できる地点がそこらへんまでなのだということを示してもいて、なかなか絶望的ではあります。まだまだ道は長いです。
https://twitter.com/ymatsuo/status/1098116255737737216

松尾 豊
@ymatsuo
翻って、「深い関数」という意味や、それがもたらす可能性を、(専門家の人も含め)どれだけの人がちゃんと理解しているのかとは、常々疑問に思います。もちろん、AI全般、あるいは知能全般の議論と簡単に結びつけるのは良くないですが、非常に大きな広がりがある技術だと思っています。
https://twitter.com/ymatsuo/status/1098116360062722048


 続けて、「深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきこと」「『最小二乗法』は、損失関数を最小化することで、モデルのパラメータをデータから推定すること(略)深いことに比べるとそれほど重要ではありません」と投稿。経営者や政治家など、AIに詳しくない非エンジニアに正しく理解してもらうための解説は「大変難しい」と痛感しているようだ。Twitterでも同様に、AI技術について上司や同僚にどう解説すればいいかを嘆くエンジニアの声も見られた。

 松尾氏は「深い関数」の意味やそれがもたらす可能性について、今後も研究や啓もう活動を続けていくと発信した。

ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
https://twitter.com/5chan_nel (5ch newer account)
0065ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:03:51.83ID:aGFTY6xB
AIという言葉を使う連中にはこれぐらいの極論じゃないと伝わらない気はする
0067ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:20:05.62ID:xuJUyDK7
WikipediaをWikiって略すな論と同じような議論に感じる
0068ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:28:56.33ID:VRkHrha2
深い関数って何なんだろう?

浅い関数と深い関数をいくつか例示してくれれば、みんな分かるかもしれないのに
0069ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:30:24.16ID:V5hTVTKd
>>67
それのどっちかで多数決とってるイメージだね
0070ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:40:18.45ID:HBzZieDg
関数の深さってなんすか
0071ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:42:57.34ID:brQwjOGW
ところで「チンポがシコシコする」という日本語表現は、文法的に正しいのか?

チンポ「を」シコシコするのではなくて、チンポ「が」シコシコする。この場合、「チンポ」は主語となる。

オブジェクト指向で言う「集約」は2種類あって、全体(俺)と部分(チンポ)が繋がっている場合と、
全体(俺)と部分(チンボ)が別々になっている場合とが考えられる。けれども「チンボ」はそれ自体
が独立した生き物であり、所有者の意思とは無関係に、勃起して「シコシコする」。
例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。

違うか?

「胸がドキドキする」は良いが、「チンポがシコシコする」はダメな理由を、50字以内で述べろ!
0072ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 00:51:47.37ID:3DdEIq29
俺には自分が情けなくなるほど書いてある内容がわからん
0075ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:15:23.56ID:nWMODwHN
「深い関数」なんて言葉は一般的なものなの?
0077ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:30:31.61ID:VcW6Tg83
>>4
経営者は兎も角政治家に何かを求めるのが間違い
何に応用出来るのかまで示すのが真の
0078ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:31:09.85ID:qezL93i2
大胆な簡略化を取り入れれば、そのような表現になることもあるだろうが、
大胆過ぎる簡略化が御幣を招くこともある。

まあ、その手の簡略化で言うのなら、日本経済新聞は「右翼のビラ」、
慶應義塾大学経済学部の教授は、「カルト教祖」とかいったところだろうか?
0079ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:32:04.22ID:75/oOw5V
コンピュータは原理的には0と1の演算からできている、という話と似ているというか、
ミクロに見ていっても要素が小さくなりすぎて、その本質は見えてこない

深いという点が重要な働きをしていることに間違いはないだろうけど、それだと今度はざっくりしすぎていて、
本質の部分はもう少し中間のサイズの何かなんだろうね
0080ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:34:53.67ID:AOfR/19m
Deep = 深い
ニューラルネット=神経回路網

ディープラーニングとは、ディープニューラルネットを使って学習をする
仕組みのことだ。
ディープニューラルネットというのは、多階層のニューラルネットで
その階層の数がとても多いもののことをいう。

階層を重ねることによって、複雑な振る舞いを模倣できるようになるが、
その模倣を上手くやるための良い調整のパラメータを決めるのが
階層が深くなるとそれだかとても難しくなり、大量の計算をして最適な
調整パラメタを決めている(それでも本当に最適であることは一般には
証明できないが、多数の学習例題をうまく近似できていれば、一応問題は
ない)。 ニューラルネットのアプローチは、多数の事例に対して
パラメータあわせをして作った結果は、なんらかの意味で本質を抽出
していて、まったく未見の新しくやって来た事例に対しても、それなりに
正しい応答をするだろうという仮定を置いている。
 犬と猫の絵をたくさんみせてこれが犬でこれが猫だと正解をつけて
学習させたとき、まだ見せたことの無い犬を見せてそれを犬と判断できるか
どうか。あるいはまだ見せたことの無い猫を見せてそれを猫と正しく判断
できるかどうか。犬と猫のハーフを見せたらどうなるのか?馬を見せたら
どうなるのかなど、哲学にも通じるものがある。
0082ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:44:40.73ID:w4UycR1a
日本の初代ディープスロートの女王は斉藤唯。



 これちょっとしたビーンノレッジな。
 
0083ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:48:02.12ID:lt8Sw+CN
言い訳みたいな事いうより、深くないディープラーニングが最小二乗法と一致することを証明、説明すればいいのでは?
0084ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:50:35.91ID:qezL93i2
「深い関数」について簡略的に独断と偏見で解説すると、

「AI」というものは、一種の万能関数だ。
つまり、無数にある係数を調整することで、どんな関数でも近似できる。

で、問題は、その係数を効率よく決定することになる。

最初の万能関数は、テーラ級数展開とかフーリエ級数のようなものだろうか?
で、これらの係数を決定するのに使う手法が最小二乗法だ。
次に、発明された万能関数としてチューリングマシンがある。
これは、アナログではなくデジタルの万能関数だ。
しかし、チューリングマシンのプログラミングはあまりにも人間には難しかった。
で、これに思い切って性能は劣化するが「命令とデータの分離」という制限を付けることで
人間の知能でもプログラミングしやすくしたのが、ノイマンマシン。
それでも、プログラミングが面倒だった。
そこで、人間の脳に関する知見を元に作られたアナログ万能関数が、パーセプトロン。
でも、今度は近似性能が低過ぎる。
パーセプトロンの問題点を探ってみると、「万能」化させる負荷が、特定のごく少数の浅い部分の係数ばかりに
集中していることが性能劣化の主な原因のようだ。
で、その他の「深い部分」にある係数も、「万能」化、学習に動員させるように改良したものが、
ディープラーニング。
0085ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 01:56:26.10ID:QM6O+dC4
>>34
この小林慶一郎氏は東大計数工学科の出身らしいから、当時はニューラルネットワークの権威の甘利俊一先生がいたところだから、
日本で一番ニューラルネットワークについて研究できるところでもあり、つい何か言いたくなっちゃうんだろうね

>>48
ディープラーニングは部分的に数学を使うとはいえ、多数の評価が組み合わさってどうなるかの話だから、数学者に聞いても何か分かるとは限らないぞ
実は数学的な何かの性質が本質的な働きをしているということがもしあれば、それは数学者の方が見抜ける可能性はあるのかもしれないが
0086ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:01:10.32ID:mX2SbSLm
831 デフォルトの名無しさん sage 2018/11/11(日) 10:00:59.18 ID:Tyd11AGx
たとえば、CycはFredという名前の男がドナルドダックのモノマネをするという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には羽がないことは知っているが、
アヒルのように歩き、アヒルのように鳴くものはアヒルに違いないと考えた。
したがって、CycはFredがドナルドダックのモノマネしている間、
Fredはそれでも人間なのかと尋ねた。

925 デフォルトの名無しさん 2018/11/21(水) 18:36:07.42 ID:8Yc2p7H1
>>919
>そもそもアランケイの言う「実行中」は「起動中」であって
>「使用中」じゃないんだろう。マルチユーザーで誰かが使用している最中に

チンポがシコシコしている間、俺はそれでも俺なのかと尋ねた。

829 デフォルトの名無しさん 2018/11/11(日) 09:52:59.70 ID:y84pWKv0
(第1章 はじめに 2頁)
たとえば、CycはFredという名前の男が朝にひげをそるという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には電気の部品がないことは知っているが、
Fredが電気カミソリを持っていたので、エンティティ「Fredがひげそり中(FredWhileShaving)」
には電気の部品が含まれていると考えた。したがって、CycはFredがひげをそっている間、
Fredはそれでも人間なのかと尋ねた。

『深層学習』
著者:
Ian Goodfellow, イアングッドフェロー,
Yoshua Bengio, ヨシュアベンジオ,
Aaron Courville, アーロンカービル
0087ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:01:37.66ID:qezL93i2
ニューラルネットワークを数学的に概観すると、
係数全体が示す(多次元)平面上に、目標の近似達成度という一次元の関数が定義できる。
「学習」とは、その近似達成度が最大化するように、係数ベクトルを移動させてゆく問題だ。

ちょうど、(係数ベクトルという)パチンコ玉が、(近似達成度の)窪みに落ち込むように揺すったり叩いたりする数学的手続きをするのが、
ボルツマンマシンだ。

既存のパーセプとロンでは、揺すり方が、単調で小刻み過ぎて、ちっともパチンコ玉が小さな丘も超えられない。
で、ディープラーニングなどでは、思い切って、もっと、大きく揺すったりする。
0088ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:07:05.32ID:mX2SbSLm
928 デフォルトの名無しさん 2018/11/21(水) 18:59:11.61 ID:8Yc2p7H1
>>922
>ナンチャッテメッセージングスタイルになったのは

チンポ.オシッコを出す
チンポ.オシッコを止める

さっきトイレでやってきた。


929 デフォルトの名無しさん 2018/11/21(水) 19:07:17.83 ID:8Yc2p7H1
>>915
>単なる動的なメソッド呼び出しをメッセージと称し、ただしコールするメソッドが見つからない場合だけメッセージを
>ハンドリングできる省コストなナンチャッテメッセージングスタイルに落ち着いた。

×
俺.オシッコを止める 俺.オシッコを出す

俺.チンポに力を入れる 俺.チンポから力を抜く
0089ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:11:53.03ID:qezL93i2
係数の数は少ないほうが簡潔でよい(オッカムの剃刀)。
しかし、係数が増えれば、その分、近似精度は上がる。

近似性能の上昇と係数の簡略さの相克を考えた係数の最適数を決定する公式として、
ベイズ統計では、「赤池の公式(Akaike's Information C.)」というのがあったはずだが、
最近の教科書では、取り上げられていないことが多くなった。
0090ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:15:46.43ID:mX2SbSLm
>例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。

当然ながら起きているときも、チンポがシコシコする!

 風呂から出て体一杯に水を浴びながら竜哉は、この時始めて英子に対する心を決めた。裸の上半身にタオルをかけ、
離れに上ると彼は障子の外から声を掛けた。
「英子さん」
 部屋の英子がこちらを向いた気配に、彼は勃○した陰○を外から障子に突きたてた。障子は乾いた音をたてて破れ、
それを見た英子は読んでいた本を力一杯障子にぶつけたのだ。本は見事、的に当って畳に落ちた。
 その瞬間、竜哉は体中が引き締まるような快感を感じた。彼は今、リングで感じるあのギラギラした、
抵抗される人間の喜びを味わったのだ。

●これが衝撃の「障子破り」シーンだ! (石原慎太郎 『太陽の季節』 (新潮文庫) より)
http://www.geocities.co.jp/Bookend-Soseki/3578/2003/shoujiyaburi.htm

>その瞬間、竜哉は体中が引き締まるような快感を感じた

チンポがシコシコする≠勃起、つまりそれはただチンポが勃起するのではなくて、
「体中が引き締まるような快感を感じた」ということなのである!!
0091ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:15:51.19ID:0qwK+j2r
宇宙の起源はビッグバンだよねって言ってるレベルw
0092ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:21:17.14ID:mX2SbSLm
機械翻訳も近似計算だけど、言葉のニュアンスは微妙な面がある。

0.   外国語、特に英語、の教え方
「読み書きは出来るが会話ができない」というのは間違い。「読み書き」も出来ない
Decorative artとは、絵画、彫刻、建築を除いた家具、食器、絨毯、藍掛け、花瓶、タイル、
ドアのノッカーなど美術品と見做せるものの総称
表裏は日本語だと「おもて」と「うら」だが、漢文では「外側」の「内側」であり、「裏」は「なか」である。
コインの場合、英語ではhead & tailで、誰かの頭部の像がある方が日本語の「おもて」だが、tailが「うら」とは奇妙
http://hiroomikes20120501.blogspot.com/2014/12/20141212.html

志村五郎『中国説話文学とその背景』(ちくま学芸文庫)
著者の志村氏は、米プリンストン大学の数学者らしい。志村氏が五十数年かけて集めた中国の説話を、
八年かけて一冊書き上げたと、本人が書いているので、趣味のライフワークの結晶めいてみえるのもむべなるかな。
http://d.hatena.ne.jp/nagaichi/touch/20071008/p1
0093ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:23:57.26ID:lt8Sw+CN
情報幾何(一般相対性理論みたいなやつ)と
最小二乗法、ディープラーニングの関係性は不明なんだが
情報幾何はすべてを含む理論なのか
0095ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:36:53.62ID:st3aQ1OE
全てを説明していないが、おおざっぱな原理では本質そのものを言っている
ソフトウエア実装で自分で組んだんじゃなくてライブラリー利用して
APIいじっているようなレベルのアホが多すぎるだけ
0096ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:39:01.20ID:zUOK926l
ディープラーニングの深い関数を書けばよい
それ見れば、最小二乗法で無いことは分かるだろう
0097ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:42:36.00ID:st3aQ1OE
>>27
それは力任せに単純化したのとハードウェアのレベルがいまとは異次元の差だと
理解できないやつが多いだけ。
バックプロパゲーションとかの時代は8ビットのマイコン初期だぞ、
速度以前に容量的に不可能ってことさ。

何をどう説明しても情報のつながりを最適化する問題でしかなく、それ以上でもそれ以下でもなく
完全になる解が無いデータを無数に処理させても完全解にはならない。
AIが難しいのはシステムを作り出す過程でのデータマイニングのほうであって学習のほうではない
のは明らかである、AIを全て学習だけでさせられると勘違いしているアホだらけ。
0098ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 02:45:41.24ID:st3aQ1OE
>>96
学習原理により情報を最適化する部分については、何の反論もできていないのに
なにをシッタカしているのか?
基本的なテンソル演算での技術基盤は共通だ。
0099ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 03:06:31.99ID:lt8Sw+CN
しらないが、間違ってるんじゃないのか。画像圧縮みたいなことじゃないか。
圧縮にjpgとかpngとかgifとかあるが。
ディープラーニングはその圧縮法を自動学習させるようなことと理解してるが。
圧縮先は、既に画像でなく文字になりネコ、イヌ、ヒト、その他とか。
0100ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 03:09:37.39ID:IAiiI8kl
日本経済新聞の人選ミスじゃん。
日本経済新聞も人材の質が低下傾向。
朝日新聞は東大卒がゼロに。日経新聞も相当減ってるだろ。
新聞なんか選ぶ一流学生はいない。
0101ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 03:13:59.92ID:lt8Sw+CN
畳み込みニューラルネットワーク_CNN
今回からはいよいよディープラーニングのアルゴリズムに入ります。
最初は、最も代表的なモデルである畳み込みニューラルネットワーク(Convolutional neural network)について説明しましょう。
https://products.sint.co.jp/hs-fs/hubfs/images/aisia/blog/16_3.png?width=600&;name=16_3.png
https://products.sint.co.jp/aisia/blog/vol1-16
0102ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 03:16:08.06ID:OWHNe3Ag
オレは生粋の日本人だけど
かわいそうな慰安婦のおばあさんたちに
日王は1000年たっても土下座して謝罪し続けろよ!
政権を立憲民主党に渡して、安倍はさっさと死ねよ!
兄の韓国に対して弟の日本は立場をわきまえろ
0106ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 06:28:32.31ID:rQpOI7dU
>>96
>ディープラーニングの深い関数

最小二乗法×最小二乗法×最小二乗法・・・・
になるよ

最小二乗法を3層重ね合わせれば文字認識までたどり着ける
ここまでは旧来の人工知能

ディープラーニングは3層のうちの中間層をさらに増やしたもの
こうするとただ認識するだけじゃなくあたかも自分で考えてるかのような反応が見られるようになる
0107ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 06:31:43.17ID:oV12MKAw
>>106
なるほど分かってないけどなんか分かった気分になれたわ
0109ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 06:43:31.64ID:Kf0VdzjD
>>106
個人的には、考えているような反応というか、高度な判別ができる程度かと思う。
人間の思考に相当する部分は、どうやって実現するかまだ不明なんでは。

碁や将棋の件があるけれど、あれはDNNを使って人間でいう勘を究極に高め、勘で導いた一手を膨大な計算量で評価するプログラムをつくったら、人間の思考に勝ってしまったという事例で、思考の再現とは違うと思う。
0110ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 06:45:24.01ID:EH1iaoTe
>>89
最近はWAICだな。あの万能感がすごい。
0112ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 07:35:45.71ID:qAg+508V
>>6
それでもAI信者は爆発的に増えるよ
PC信者とかDNA信者とか犠牲者出ても減らないもんな
0113ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 08:19:52.41ID:PWFColpj
>>1
松尾先生番組みてます
前にもまして先生の技術的解説がすっ飛ばされてて
新しい技術説明してた前回のやつはさすがに飛ばしたら意味不明じゃねと思ったわ
0114ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 09:32:50.35ID:sY5ISROj
>>23
意味あるんだよボケ
勉強しろ無能が
0116ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 09:53:11.49ID:QqGc7jTn
>>73
42
0117ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:06:36.33ID:knboD47K
入力に対して出力を得るってこと自体同じと言ってもいいだろ
0118ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:12:17.21ID:j47uGhJd
まあ最小二乗法でいいじゃん
深さは何箇所にも最小二乗法が適用されるでいいじゃん
あとは広さが必要だな。観測する物差しが何種類もあるということ
それから記憶だな。一手前を覚えていること
最後は物量で勝負
0121ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:21:11.66ID:lXp9H65M
最小二乗法は残差を最小化する最適化アルゴリズムの一つ
他にもシンプレックス法とか遺伝アルゴリズムとかシミュレーティッドアニーリングとか色々ある
機械学習はこれらとはアルゴリズムが全く異なる
言うなら最適化の一種というべきだろ
0124ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:25:17.45ID:GFAg9YPM
>>1
慶應大学っていっても経済学部だろ?
AIの仕組みについて語るとか、同僚の教授にバカにされるだけだろ
0125ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:29:57.73ID:Qmc8dRoC


  みんな合ってる。 誰も何も間違ってない。、 気づけバカ。

0126よっちゃん
垢版 |
2019/02/21(木) 10:42:49.72ID:kzBPua7O
再生核研究所声明 470 (2019.2.2)  
ゼロ除算 1/0=0/0=z/0=\tan(\pi/2)=0 発見5周年を迎えて
0127ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 10:42:57.32ID:Rb63C/rO
どっちが偉いの?www
0128よっちゃん
垢版 |
2019/02/21(木) 10:43:34.06ID:kzBPua7O
We Can Divide the Numbers and Analytic Functions by Zero
with a Natural Sense.

http://vixra.org/abs/1902.0058
0130よっちゃん
垢版 |
2019/02/21(木) 10:45:12.37ID:kzBPua7O
地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)

リーマン球面における無限遠点は、実は、原点0に一致していました。

地球人はどうして、ゼロ除算1300年以上もできなかったのか? 
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由

1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。

Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf
0131よっちゃん
垢版 |
2019/02/21(木) 10:45:23.10ID:kzBPua7O
地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)

リーマン球面における無限遠点は、実は、原点0に一致していました。

地球人はどうして、ゼロ除算1300年以上もできなかったのか? 
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由

1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。

Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf
0134よっちゃん
垢版 |
2019/02/21(木) 10:49:04.84ID:kzBPua7O
TOP DEFINITION
Genius
A super-smart math teacher that teaches at HTHS and can divide by zero.
Hey look, that genius’s IQ is over 9000!
#divide by zero #math #hths #smart #genius
by Lawlbags! October 21, 2009
0135よっちゃん
垢版 |
2019/02/21(木) 10:49:29.06ID:kzBPua7O
divide by zero
Dividing by zero is the biggest epic fail known to mankind. It is a proven fact that a succesful division by zero will constitute in the implosion of the universe.
You are dividing by zero there, Johnny. Captain Kirk is not impressed.

Divide by zero?!?!! OMG!!! Epic failzorz
#4 chan #epic fail #implosion #universe #divide by zero
0137よっちゃん
垢版 |
2019/02/21(木) 11:11:32.19ID:kzBPua7O
数学ではできない、考えてはならない ゼロ除算が 計算機が できた:

José Manuel Rodríguez Caballero
Added an answer
In the proof assistant Isabelle/HOL we have x/0 = 0 for each number x.
This is advantageous in order to simplify the proofs. You can download
this proof assistant here: https://isabelle.in.tum.de/
0138よっちゃん
垢版 |
2019/02/21(木) 11:12:00.63ID:kzBPua7O
根拠、理由、説明は 計算機の出力結果であるから 分からない。 
我々は 2014年2月2日 それを発見していた。 
5年を経て、計算機が出力した。

Close the mysterious and long history of division by zero and open the
new world since Aristotelēs-Euclid: 1/0=0/0=z/0= \tan (\pi/2)=0.
0139ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:18:31.73ID:nluE+00E
人工知能については時々ブームみたいなのがあるんでしょ?
一時ブームになるけど、限界みたいなものが指摘されてブームが収束する
現状では人工知能といっても、つきつめると物が似てるか否かを判定するぐらいの能力なんでしょ?

次のブレークスルーがくるまで、またブームもひと段落つくでしょ
0140ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:21:44.21ID:eVcdZ9vU
>>118
だめ、重要度が逆でまったく意味が変わってしまうから。
最初から深い関数の物量ありきが勝負。最小二乗法は定番だけど、そんなのは二の次。
大量の中間関数などの多変量、非線形関数を階層的に組むこんで計算量に物言わせて初めて意味がある。
最小二乗法使ったところで関数や階層が少ないと全く意味がない。
0141ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:25:45.92ID:adQnZn9y
ディープラーニングとか言ってるけど、パターン解析と傾向分析で近似値を積層化してるだけだから

基になるデータ量が決め手になるし基データが間違ってたら結局すべでがオジャンになる糞分野
ディープラーニングを基盤にAI開発してるやつは永遠にAIを開発することは不可能
0142ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:25:50.39ID:gRuTZxLS
>>53
>マハラノビス距離が最小となる分類を決定する方法とかどうよ。

東京湾にはびこるマハラノビスもどうにかしてください(><)
0143ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:30:39.50ID:srfkA1u1
星座みたいなものか。AIも星座を創造できたらすごいね。
0144ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:30:45.00ID:L//q1Vjk
AIの天才である俺が簡単に言うとだな
ディープラーニング=めちゃめちゃ多次元の関数を最小二乗法で最適化したもの
ということだ。
ちなみにその多次元関数を仮に図化できたとするとその図は
新聞紙を丸めてめちゃめちゃシワシワにしたようになる。
- 以上 -
0145ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:33:16.96ID:gRuTZxLS
>>104
社会とのかかわりという点から見たらそうだよね
ヲタクが必死で喚いてるけど

結局、AIという言葉がミスリーディングなんだろうね
素直に機械学習と呼んだら勘違いもなくなるはず
0146ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:33:34.95ID:L//q1Vjk
>>141
バカ発見
0147ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:47:42.63ID:tuhtdaL0
AI「単細胞の集合体がいきがりおって
0149ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:53:29.47ID:onM5FhGO
AI=頭脳プレー

というインチキイメージよりはマシだろう。
0150ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 11:56:37.52ID:EtGRaV9m
1次の線形近似計算
→線形回帰

線形では表現できない関数がたくさんある。
解を求める際には、最小二乗法などが用いられる。

非線形とするため、活性化関数をつける
→パーセプトロン

パーセプトロンの結果、階層を作ることが可能となった
→3層パーセプトロン

これにより、xor関数、sin関数などの近似が可能となる。
解を求めるためには、最小二乗法を応用したバックプロパゲーションが用いられる。

3層以上ではバックプロパゲーションが上手く機能しなくなるため、悶々悶々。
ここ、色々なものが生み出されては消えていった。

画像解析で畳み込みニューラルネットワークが開発される
→コンボリュージョナルニューラルネットワーク

バックプロパゲーションの問題が起きないため、階層を幾らでも深くできるようになる。
→ディープコンボリュージョナルニューラルネットワーク
 略してディープラーニング

ディープラーニングでは、階層を深くすれば、どんな関数でも近似できる事が、
理論上示される。つまり、万能近似関数。

教師データが与えられたら、どんな事柄でも学習する事ができる。
ただし、教師データにない未知の入力に対して、本当に正しく予測できているのかは不明。
なんとなく予測できてそうという状態のまま、使えるから良いじゃんとしているのが現在。
まあ、近似計算全部が抱える本質的な問題なのだが。
0151ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:01:24.95ID:srfkA1u1
多層学習と言っちゃあかんの?
0152ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:09:18.54ID:lt8Sw+CN
間違ってるだろ。
ディープラーニングは、ある程度、汎用性のある学習システム、ソフトであることを重視してるだろ?
今現在の手法と別物で、どう学習してるかブラックボックスでも、性能よければそれもディープラーニングでまとめられるかと。
0153ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:28:45.42ID:L//q1Vjk
>>150
万能近似関数いいですね。一番しっくりくる言葉かもしれません。
ディープラーニングをパターンマッチ的な解釈で唱える人がいるが
ディープラーニングは関数を作成するというところが肝で
つまり関数だから学習したこの無いXを与えた時でもYを出せるのである。
0154ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:30:20.54ID:5GpW4DhZ
>>150
常に人間によるチェックが必要なんだな
完全にAIに任せて自動化しようなんて夢物語
0155ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:33:34.20ID:squ/MRXf
>>92
そのオッサン、言語をよくわかってないけど、
各方言(英語やスペイン語)などに共通して使われている言葉は存在する。

表裏というのは Recto と verso という。

これは、万国共通。
ラテン語は権力のある聖職者の言語だったから。
0156ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:36:30.30ID:srfkA1u1
ディープラーニングは教師あり学習が主流だという話だね。
0157ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:54:34.43ID:/trIOnXY
>>141
おまえらバカが想像するAIを作るために
DLやってるやつなんて一人もいねぇよwww
バカ過ぎ
0158ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 12:58:42.14ID:5GpW4DhZ
>>157
インドのベンチャーで強いAIを開発しようとしてるとこなかったっけ?
0159ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 13:04:35.04ID:ob1sIY5F
フィッティングが精緻になれば将来予測も精緻になる。
それでランダムウォークというんだろうか。

深い関数なんてものが何ものかまったくわからないけど。
0161ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 13:09:40.76ID:KxxC6NxY
AIが人格や性癖を持つようになると、どうだ?
0162ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 13:10:27.98ID:KxxC6NxY
忖度係数搭載
0163ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 13:18:20.49ID:NOsQ9dLg
最小二乗法ねぇ....素人には条件を満たす巨大な関数を作っていくでいいんじゃね?
0164ニュースソース検討中@自治議論スレ
垢版 |
2019/02/21(木) 13:27:32.25ID:5XynTGJ5
いくらAIだの人工知能だのと言ったところで、結局は、人間の作り上げた機械の
限界を超えていないんだよ。
人間と機械の根本的に異なる所以は、人間は30数億年の進化の歴史を背負っている。
知能がどうのこうのと言ったところで、それは30億年以上もの生物の進化の歴史に
支えられて、その上で発達した生き残りのための手段でしかない。
AIに生存本能がありますか? AIは自分で餌を探しますか?
AIは誰かが鉄棒を持って襲い掛かってきたときに自らを守ることができますか?
そういうことがまったくできないのに「知能」がどうのこうのと言ったところで
地盤がゆるいところに鉄筋コンクリートの建物を建てようとするのと同じだよ。
人間の知能は生存本能の進化の結果としての一つの形態に過ぎない。
鳥は空を飛ぶことで対応し、象やキリンは体を大きくすることで対応し
ライオンやシロクマはするどい牙やツメを持つことで対応した。
根源的な自己保存本能がないのに「将来は人間に敵対するかも」などと
言ったところで意味はない。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況