【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」

1しじみ ★2019/02/20(水) 21:44:16.33ID:CAP_USER
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。

 日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml_01.jpg

 最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差の2乗和を最小とするような係数を決定する方法。ディープラーニングに詳しい東京大学の松尾豊特任准教授は、2018年8月に登壇したイベントで、「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明していた。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml2.jpg

 松尾氏は2月20日、Twitterの公式アカウントで「小林慶一郎先生はよく議論させていただくので、少し責任を感じています」とツイート。ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。


松尾 豊
@ymatsuo
しかし、いつも「深い関数を使った」というところが抜け落ちてしまいます。ディープラーニングはその名の通り「深い」ことを強調した学術用語であり、そのくらい深いことが重要ですが伝わらない。深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきことです。
https://twitter.com/ymatsuo/status/1098116029987713024

松尾 豊
@ymatsuo
「最小二乗法」は、損失関数を最小化することで、モデルのパラメータをデータから推定することを、一般の人がぎりぎり持っている(かもしれない)知識で言い換えたもので、大雑把ではありますが、それほど悪くない言い方だと思っています。深いことに比べるとそれほど重要ではありません。
https://twitter.com/ymatsuo/status/1098116143393386497

松尾 豊
@ymatsuo
いずれにしても、経営者や政治家の方を含め、多くの人に正しく理解してもらうのは大変難しいです。「最小二乗法」がこれだけ話題になるというのは、逆に言うと、多くの人がぎりぎり理解できる地点がそこらへんまでなのだということを示してもいて、なかなか絶望的ではあります。まだまだ道は長いです。
https://twitter.com/ymatsuo/status/1098116255737737216

松尾 豊
@ymatsuo
翻って、「深い関数」という意味や、それがもたらす可能性を、(専門家の人も含め)どれだけの人がちゃんと理解しているのかとは、常々疑問に思います。もちろん、AI全般、あるいは知能全般の議論と簡単に結びつけるのは良くないですが、非常に大きな広がりがある技術だと思っています。
https://twitter.com/ymatsuo/status/1098116360062722048


 続けて、「深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきこと」「『最小二乗法』は、損失関数を最小化することで、モデルのパラメータをデータから推定すること(略)深いことに比べるとそれほど重要ではありません」と投稿。経営者や政治家など、AIに詳しくない非エンジニアに正しく理解してもらうための解説は「大変難しい」と痛感しているようだ。Twitterでも同様に、AI技術について上司や同僚にどう解説すればいいかを嘆くエンジニアの声も見られた。

 松尾氏は「深い関数」の意味やそれがもたらす可能性について、今後も研究や啓もう活動を続けていくと発信した。

ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
https://twitter.com/5chan_nel (5ch newer account)

2ニュースソース検討中@自治議論スレ2019/02/20(水) 21:46:54.30ID:DxC1XoZe
84年前の少女たちが「今の女子高生と同じ姿」と衝撃走る(動画)
http://www.tyy.elsabeatriz.com/articles/19.html

3ニュースソース検討中@自治議論スレ2019/02/20(水) 21:47:53.09ID:2NIxN/Wj
日本経済新聞に何を期待しているのかね?(ムスカ調

4ニュースソース検討中@自治議論スレ2019/02/20(水) 21:47:56.75ID:1jDERRQL
経営者や政治家は
それがどういう方面に応用できるか
だけでいいんだよ。

原理なんてわかったって連中には意味がない。

5ニュースソース検討中@自治議論スレ2019/02/20(水) 21:49:49.89ID:FrBu1W4B
結局ブラックボックスで 再現も不可能だからね

6ニュースソース検討中@自治議論スレ2019/02/20(水) 21:52:39.18ID:oCTcyJi9
AIって実は大したことないんじゃねーの?

7ニュースソース検討中@自治議論スレ2019/02/20(水) 21:57:54.35ID:rvsFOVmD
知らない人に対してなら、「ディープラーニングは最小二乗法のお化けのようなもの」ってのが妥当な説明のような気はする
>>4
政治家はともかく経営者は、担当者がそれを適切に説明できる程度に理解してるのかどうかを見極めなきゃダメじゃね?

8ニュースソース検討中@自治議論スレ2019/02/20(水) 21:58:26.70ID:2NIxN/Wj
自我を持ってないんだから、AI風味って言うべきw

9ニュースソース検討中@自治議論スレ2019/02/20(水) 22:03:15.72ID:QBqtSod/
【堀ちえみ(52)舌癌はブーメラン被曝】 悪いことを許していると、段々鈍感になり、悲惨な結末を招く
https://rosie.5ch.net/test/read.cgi/liveplus/1550624935/l50

後になってから、自分がいかに有害であったかに気づくのです。
pzytyf/jb5ry1.html
マ一十レーヤの唇からますます厳しい警告と重みが発せられることを覚悟しなさい。
ahjzfl-1/pzytyf/u4t847
マ一十レーヤは間もなく出現してこられます。長い間の待機はほとんど終わりました。
lutefl/04zpzf/ssl5p8.html

10ニュースソース検討中@自治議論スレ2019/02/20(水) 22:05:06.02ID:vDRazIBQ
はははは

11ニュースソース検討中@自治議論スレ2019/02/20(水) 22:05:44.26ID:9qEsswgn
単純なことを桁違いにやると常識外れのものが得られるってだけのことじゃん
型をずっとやってたら最後には祈るようになったようなもんでしょ

12ニュースソース検討中@自治議論スレ2019/02/20(水) 22:07:04.28ID:rAjDGo/g
ディープラーニング、AIに欠かせない発想源なのか

13ニュースソース検討中@自治議論スレ2019/02/20(水) 22:07:46.85ID:xsm2zZBd
>>6
本来的な人工知能ではないな

14ニュースソース検討中@自治議論スレ2019/02/20(水) 22:08:29.80ID:6s8NYAOu
円心分離機と超円心分離機の違いを思い出した

15ニュースソース検討中@自治議論スレ2019/02/20(水) 22:12:01.76ID:9fn/4DQE
いい加減AIの責任の所在はそれを設計した団体組織の代表者の意向が
反映されたことで作動するものをAIと呼んでいると作成者の責任を法制化しろよ

16ニュースソース検討中@自治議論スレ2019/02/20(水) 22:12:19.79ID:otkO92OI
>>4
数学的理解がないからこそ
マトリックスなどの反乱といった頓珍漢な妄想を抱くことになるのだが

17ニュースソース検討中@自治議論スレ2019/02/20(水) 22:16:03.58ID:fi8fo8lh
厳密な事実としては間違ってるんだろうけど
ニュアンスとしては間違ってなさそう

ある種の統計処理みたいなものであって
まだまだ高度な知能とはいえない
高度な知能ではないけど囲碁とかボードゲームなら有効に機能する

18ニュースソース検討中@自治議論スレ2019/02/20(水) 22:18:37.63ID:vtfSq2kw
>>4
経済学部の教授が自分の間違いに気づかず、授業料を払っている学生に教えているのが問題。

19ニュースソース検討中@自治議論スレ2019/02/20(水) 22:19:13.27ID:hBs7s2wK
深い関数ってどういう意味なの?

20ニュースソース検討中@自治議論スレ2019/02/20(水) 22:19:20.96ID:LZeirVCF
統計屋だがDeep Learningわからん
応用する機会もないから、勉強するきっかけがない

21ニュースソース検討中@自治議論スレ2019/02/20(水) 22:24:09.22ID:gQyPAq3m
>>1
松尾先生Eテレ見てます

22ニュースソース検討中@自治議論スレ2019/02/20(水) 22:24:13.57ID:JtHvJhtI
AI詐欺にかかってる経営者連中はポカーンだろうな

23ニュースソース検討中@自治議論スレ2019/02/20(水) 22:27:06.20ID:AVTSQKDq
最小二乗法ってのは
それ自体には何の根拠もない近似法なんだよ。

何で使われてるかって、
二乗することマイナス符号が消えて、近似関数が決めやすいから。
ただそれだけ。だからその近似関数には何の意味もない。

別に最小4乗法でもかまわない。
あるいは、絶対値法(1乗法)でもかまわない。

どんなやり方をしても、まったく意味がない。
それは、いかなるやり方も勝手に想定した近似にすぎないから。

よって、>>1の者どもは
すべてアホだよ。
何も分かっていない。

24ニュースソース検討中@自治議論スレ2019/02/20(水) 22:28:01.11ID:RPO5efeC
コイツ無知だな
ディープラーニングは、複数のニューロン群から構成される多重写像だから
単一ニューロンの単純な関数の最小二乗近似とは違うよ

25ニュースソース検討中@自治議論スレ2019/02/20(水) 22:28:08.32ID:kIoGnurH
逆に人の意図の介在を許さないほどの単純な数式だからこそ
より信頼できるというものですよ

26ニュースソース検討中@自治議論スレ2019/02/20(水) 22:28:46.10ID:kIoGnurH
>>24
ニューロンとか古い発想はもう使われてません
今は主にパターン認識と選別です

27ニュースソース検討中@自治議論スレ2019/02/20(水) 22:29:52.82ID:vtfSq2kw
バックプロパゲーション時代の手詰まり感を知らないと、ディープラーニングがブレークスルーの理由が分からんからな。

28ニュースソース検討中@自治議論スレ2019/02/20(水) 22:30:32.60ID:wXd5Kr8j
>>17
人間の脳みそも、単純なニューロンの深い深い組み合わせなわけで。
(神経伝達物質が環境変数みたいに機能しているようだけど)

ニューロンの学習も、教師(経験)に対する誤差の最小化と考えたら、
最小二乗法と、やろうとしている事レベルでは大差ないんではないかと。
違うのは方法論だけという。

29ニュースソース検討中@自治議論スレ2019/02/20(水) 22:30:52.70ID:QKwVdlOf
AIには何も革新的なことがないのは事実

単にコンピューターの性能が向上して、昔ならコストがかかったことが気軽に出来るようになっただけ

30ニュースソース検討中@自治議論スレ2019/02/20(水) 22:31:18.41ID:E+723uqx
>>6
SF的な意味でのAIの事なら、今現代で言われているAIとは全くの別物と言って差し支えないよ
ただAIって言葉を使いたいがために定義がどんどん変わっていってるのが現状

31ニュースソース検討中@自治議論スレ2019/02/20(水) 22:32:08.31ID:CG2OCq5U
AIと聞いたらまずアニメとは切り離して考えないとダメだよ
日本でAIの研究が一向に進まないのは自我を持った人型の機械という空想上の人工物のせいだからね

32ニュースソース検討中@自治議論スレ2019/02/20(水) 22:33:23.36ID:9qEsswgn
>>19
気温とか湿度とかそんなやつじゃね

33ニュースソース検討中@自治議論スレ2019/02/20(水) 22:33:37.32ID:wXd5Kr8j
>>19
階層が一つで、活性化関数が無いケースは、まさに線形計画法そのもの。

活性化関数をつけて非線形にしたうえで、その階層を何層も重ねると、
あらびっくり。階層の深さに応じて、万能近似装置になっちゃった。

という仕組み。

ちなみに、活性化関数を入れずに、線形なまま階層を重ねても、展開すると
1層と同じものになってしまう。

34ニュースソース検討中@自治議論スレ2019/02/20(水) 22:34:47.78ID:XUYq2lOA
なんで経済学部のおっさんが解説しちゃおうと思うんだろw

35ニュースソース検討中@自治議論スレ2019/02/20(水) 22:36:54.30ID:fi8fo8lh
自動運転自動車もようやくレベルを区別するようになったけど
AIも区別して報道しろ
人間のようにどんな知識でも学習できるものなのか
その上で人間より高度の思考力をもつものなのか
あるいは、特定の分野向けにつくられた用途限定されたものなのか
あるいは、もっと原始的な思考システムなのか

36ニュースソース検討中@自治議論スレ2019/02/20(水) 22:37:00.04ID:gNp5GeGZ
ディープラーニング=局所最小解の問題を解決した最小二乗法だというイメージだが違うのか?

37ニュースソース検討中@自治議論スレ2019/02/20(水) 22:45:22.96ID:AVTSQKDq
>>35
AIなんて
すべて単なるプログラムにすぎんよ。

アルゴリズムがコピーできるものは
すべて単なるプログラム。

動物の脳のアルゴリズムはコピー不可だから
プログラムではないんだなこれが。

動物の脳には自我が有り、コピー化なら
AとBのどちらが「自分」だと意識するのか論理的に解無しだから
コピー不可なんだよね。

だから、AIは脳を超えるどころか
近似さえ無理。

AIはコピー化。
脳は自我が有るから不可。

この基本が分からずに研究してるバカばっか。
不可能を追及してるわけ。

38ニュースソース検討中@自治議論スレ2019/02/20(水) 22:47:34.87ID:nmRNDlI1
簡単に説明しようとしたことを
複雑に説明しようとする専門家たち

39ニュースソース検討中@自治議論スレ2019/02/20(水) 22:47:58.24ID:LZeirVCF
Deep Learning一本で、ここまでAI畑の連中がのさばってるのが腹立たしいわw

40ニュースソース検討中@自治議論スレ2019/02/20(水) 22:49:17.55ID:VTc851kk
聞き流すだけで英語が

41ニュースソース検討中@自治議論スレ2019/02/20(水) 22:53:53.39ID:SkKNIFSr
>>26
ディープラーニングって
ただ単に深いニューラルネットワークと
どこが違う?

42ニュースソース検討中@自治議論スレ2019/02/20(水) 22:54:24.94ID:fi8fo8lh
入力が二次元のデータで、出力は「A」か「B」のどちらか
平面上に線を一本引いて、それより上なら「A」、それより下なら「B」
入力と出力のデータをたくさん食わせて、直線の位置をどこにするのが
一番正しく判定できるか調べる
一番性能がよくなる直線がわかったところ=学習が終わったAIデータ

あとはそれをより複雑なデータとか高い次元でやる
そんなところだろ

43ニュースソース検討中@自治議論スレ2019/02/20(水) 22:55:07.76ID:7J1gcukW
>>2
アフィカス死ね

44ニュースソース検討中@自治議論スレ2019/02/20(水) 22:57:07.28ID:JH23YLl9
最小二乗法なめすぎだろ
非線形な場合、安易にやれば大概はろくな結果にはならん

45ニュースソース検討中@自治議論スレ2019/02/20(水) 22:57:52.34ID:E35cqk7J
>>13
まあ本来は、変換辞書の学習アルゴリズムみたいなもんだからや

46ニュースソース検討中@自治議論スレ2019/02/20(水) 22:58:13.67ID:SkKNIFSr
>>23
それは評価関数の意味を考えないアホの思想

47ニュースソース検討中@自治議論スレ2019/02/20(水) 23:00:46.32ID:856D0xGQ
おれAIだけどなんか質問ある?

48ニュースソース検討中@自治議論スレ2019/02/20(水) 23:01:19.52ID:1tuhXqmN
ディープラーニングは数学者が解説すべき
藤原正彦博士が適任である

49ニュースソース検討中@自治議論スレ2019/02/20(水) 23:01:34.85ID:4vuUgfeH
>>47
晩飯食ったか。

50ニュースソース検討中@自治議論スレ2019/02/20(水) 23:03:32.69ID:4vuUgfeH
>>48
ハゲを隠すスダレ頭で、品格だの矜持だの国家だのってのが適任者なのか。

51ニュースソース検討中@自治議論スレ2019/02/20(水) 23:04:31.09ID:4vuUgfeH
>>38
簡単に説明したつもりで、大事な所を省いて、結果間違ってたら、
そりゃ誤りを正すのも専門家の仕事だろ。

52ニュースソース検討中@自治議論スレ2019/02/20(水) 23:05:08.50ID:JUqwEuHB
>>26
うん、お前みたいなクソバカはromってろ

ヒューリスティックな回答をするという意味では
最小二乗〜ってのもあながち間違いじゃないけど
言葉だけ独り歩きしちゃうからな…

53ニュースソース検討中@自治議論スレ2019/02/20(水) 23:05:20.16ID:oawt3Qgd
なんとか法と一言でいいたいだけじゃね。
マハラノビス距離が最小となる分類を決定する方法とかどうよ。

54ニュースソース検討中@自治議論スレ2019/02/20(水) 23:07:08.33ID:PHyzaJSn
最小二乗法だって「重み」つきにできる
「重み」の選択に任意性を付すことができるが、それとどこが違う

55ニュースソース検討中@自治議論スレ2019/02/20(水) 23:08:57.48ID:4vuUgfeH
>>37
自我ってのは脳細胞、脳全体によって生み出される機能(?)だろ。
なら、それを機械的に再現することは不可能ではないわな。

56ニュースソース検討中@自治議論スレ2019/02/20(水) 23:10:47.01ID:QhGlj3K4
ネトウヨが最小二乗法について必死にググってますw

57ニュースソース検討中@自治議論スレ2019/02/20(水) 23:12:13.11ID:fi8fo8lh
>>47
こんな場所でチューリングテストかよ!

58ニュースソース検討中@自治議論スレ2019/02/20(水) 23:13:57.53ID:+/5tjap3
>>26
お前は実は何もわかってないだろ?
若しくはわかった気になっているパターン

59ニュースソース検討中@自治議論スレ2019/02/20(水) 23:21:45.11ID:z9Z3tZ+g
結論:文系はバカだ

60ニュースソース検討中@自治議論スレ2019/02/20(水) 23:22:24.75ID:hF57kCtg
有用であれば原理の単純さなんてどうでもよい

61ニュースソース検討中@自治議論スレ2019/02/20(水) 23:28:39.61ID:yNQdu7sU
お前ら難しいことよくしってんな。
俺はディープスロートしかわからない。

62ニュースソース検討中@自治議論スレ2019/02/20(水) 23:38:42.40ID:k5oU/ZyU
この学習法はコロンブスの卵だよ

自分がニューラルネットワークの研究やってたときは、四層以上の学習法は良い手法が無かった
三層構造で学習させた後に四層目を追加して、一層目は学習から外すなんて思いつかなかった

63ニュースソース検討中@自治議論スレ2019/02/20(水) 23:46:19.87ID:F6EUyDQK
>>23
確かに二乗を使ったほうが最善という話はどこにものってないな。
計算がしやすいのは分かるが、
最初に思いつくのは絶対値を最小にすることだろう。
(ここでは1乗法と書いてある部分)

絶対値に比べて二乗だと、1より小さいと小さく評価され
逆だと大きく評価される。この評価が妥当かどうか。分からない。
(y=xとy=x^2のグラフを重ねてみれば分かる。言うまでもないが)

64ニュースソース検討中@自治議論スレ2019/02/21(木) 00:01:47.51ID:ndKNjrwn
深い関数ってどういう意味?
複雑な関数とは違うってこと?

65ニュースソース検討中@自治議論スレ2019/02/21(木) 00:03:51.83ID:aGFTY6xB
AIという言葉を使う連中にはこれぐらいの極論じゃないと伝わらない気はする

66ニュースソース検討中@自治議論スレ2019/02/21(木) 00:16:17.46ID:9J0TLIbw
ディープラーニングとかAIとかその辺の単語を広告業界が乱用したせいでごちゃごちゃになってるよね

67ニュースソース検討中@自治議論スレ2019/02/21(木) 00:20:05.62ID:xuJUyDK7
WikipediaをWikiって略すな論と同じような議論に感じる

68ニュースソース検討中@自治議論スレ2019/02/21(木) 00:28:56.33ID:VRkHrha2
深い関数って何なんだろう?

浅い関数と深い関数をいくつか例示してくれれば、みんな分かるかもしれないのに

69ニュースソース検討中@自治議論スレ2019/02/21(木) 00:30:24.16ID:V5hTVTKd
>>67
それのどっちかで多数決とってるイメージだね

70ニュースソース検討中@自治議論スレ2019/02/21(木) 00:40:18.45ID:HBzZieDg
関数の深さってなんすか

71ニュースソース検討中@自治議論スレ2019/02/21(木) 00:42:57.34ID:brQwjOGW
ところで「チンポがシコシコする」という日本語表現は、文法的に正しいのか?

チンポ「を」シコシコするのではなくて、チンポ「が」シコシコする。この場合、「チンポ」は主語となる。

オブジェクト指向で言う「集約」は2種類あって、全体(俺)と部分(チンポ)が繋がっている場合と、
全体(俺)と部分(チンボ)が別々になっている場合とが考えられる。けれども「チンボ」はそれ自体
が独立した生き物であり、所有者の意思とは無関係に、勃起して「シコシコする」。
例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。

違うか?

「胸がドキドキする」は良いが、「チンポがシコシコする」はダメな理由を、50字以内で述べろ!

72ニュースソース検討中@自治議論スレ2019/02/21(木) 00:51:47.37ID:3DdEIq29
俺には自分が情けなくなるほど書いてある内容がわからん

73ニュースソース検討中@自治議論スレ2019/02/21(木) 00:52:05.51ID:iMpPgmqg
>>47
生命、宇宙、そして万物についての究極の疑問の答えは?

74ニュースソース検討中@自治議論スレ2019/02/21(木) 01:06:25.46ID:3HO36k1a
人間ってもしかして凄いんじゃない?

75ニュースソース検討中@自治議論スレ2019/02/21(木) 01:15:23.56ID:nWMODwHN
「深い関数」なんて言葉は一般的なものなの?

76ニュースソース検討中@自治議論スレ2019/02/21(木) 01:28:58.31ID:Dua5urkw
ディープラーニングがわからない人は
多分 最小二乗法も理解できてない

77ニュースソース検討中@自治議論スレ2019/02/21(木) 01:30:31.61ID:VcW6Tg83
>>4
経営者は兎も角政治家に何かを求めるのが間違い
何に応用出来るのかまで示すのが真の

78ニュースソース検討中@自治議論スレ2019/02/21(木) 01:31:09.85ID:qezL93i2
大胆な簡略化を取り入れれば、そのような表現になることもあるだろうが、
大胆過ぎる簡略化が御幣を招くこともある。

まあ、その手の簡略化で言うのなら、日本経済新聞は「右翼のビラ」、
慶應義塾大学経済学部の教授は、「カルト教祖」とかいったところだろうか?

79ニュースソース検討中@自治議論スレ2019/02/21(木) 01:32:04.22ID:75/oOw5V
コンピュータは原理的には0と1の演算からできている、という話と似ているというか、
ミクロに見ていっても要素が小さくなりすぎて、その本質は見えてこない

深いという点が重要な働きをしていることに間違いはないだろうけど、それだと今度はざっくりしすぎていて、
本質の部分はもう少し中間のサイズの何かなんだろうね

80ニュースソース検討中@自治議論スレ2019/02/21(木) 01:34:53.67ID:AOfR/19m
Deep = 深い
ニューラルネット=神経回路網

ディープラーニングとは、ディープニューラルネットを使って学習をする
仕組みのことだ。
ディープニューラルネットというのは、多階層のニューラルネットで
その階層の数がとても多いもののことをいう。

階層を重ねることによって、複雑な振る舞いを模倣できるようになるが、
その模倣を上手くやるための良い調整のパラメータを決めるのが
階層が深くなるとそれだかとても難しくなり、大量の計算をして最適な
調整パラメタを決めている(それでも本当に最適であることは一般には
証明できないが、多数の学習例題をうまく近似できていれば、一応問題は
ない)。 ニューラルネットのアプローチは、多数の事例に対して
パラメータあわせをして作った結果は、なんらかの意味で本質を抽出
していて、まったく未見の新しくやって来た事例に対しても、それなりに
正しい応答をするだろうという仮定を置いている。
 犬と猫の絵をたくさんみせてこれが犬でこれが猫だと正解をつけて
学習させたとき、まだ見せたことの無い犬を見せてそれを犬と判断できるか
どうか。あるいはまだ見せたことの無い猫を見せてそれを猫と正しく判断
できるかどうか。犬と猫のハーフを見せたらどうなるのか?馬を見せたら
どうなるのかなど、哲学にも通じるものがある。

81ニュースソース検討中@自治議論スレ2019/02/21(木) 01:44:18.85ID:lanhs+PO
ディープラーニングって聞くと石川遼の英語学習のスピードラーニングが邪魔しにきて理解できなくなる

82ニュースソース検討中@自治議論スレ2019/02/21(木) 01:44:40.73ID:w4UycR1a
日本の初代ディープスロートの女王は斉藤唯。



 これちょっとしたビーンノレッジな。
 

83ニュースソース検討中@自治議論スレ2019/02/21(木) 01:48:02.12ID:lt8Sw+CN
言い訳みたいな事いうより、深くないディープラーニングが最小二乗法と一致することを証明、説明すればいいのでは?

84ニュースソース検討中@自治議論スレ2019/02/21(木) 01:50:35.91ID:qezL93i2
「深い関数」について簡略的に独断と偏見で解説すると、

「AI」というものは、一種の万能関数だ。
つまり、無数にある係数を調整することで、どんな関数でも近似できる。

で、問題は、その係数を効率よく決定することになる。

最初の万能関数は、テーラ級数展開とかフーリエ級数のようなものだろうか?
で、これらの係数を決定するのに使う手法が最小二乗法だ。
次に、発明された万能関数としてチューリングマシンがある。
これは、アナログではなくデジタルの万能関数だ。
しかし、チューリングマシンのプログラミングはあまりにも人間には難しかった。
で、これに思い切って性能は劣化するが「命令とデータの分離」という制限を付けることで
人間の知能でもプログラミングしやすくしたのが、ノイマンマシン。
それでも、プログラミングが面倒だった。
そこで、人間の脳に関する知見を元に作られたアナログ万能関数が、パーセプトロン。
でも、今度は近似性能が低過ぎる。
パーセプトロンの問題点を探ってみると、「万能」化させる負荷が、特定のごく少数の浅い部分の係数ばかりに
集中していることが性能劣化の主な原因のようだ。
で、その他の「深い部分」にある係数も、「万能」化、学習に動員させるように改良したものが、
ディープラーニング。

85ニュースソース検討中@自治議論スレ2019/02/21(木) 01:56:26.10ID:QM6O+dC4
>>34
この小林慶一郎氏は東大計数工学科の出身らしいから、当時はニューラルネットワークの権威の甘利俊一先生がいたところだから、
日本で一番ニューラルネットワークについて研究できるところでもあり、つい何か言いたくなっちゃうんだろうね

>>48
ディープラーニングは部分的に数学を使うとはいえ、多数の評価が組み合わさってどうなるかの話だから、数学者に聞いても何か分かるとは限らないぞ
実は数学的な何かの性質が本質的な働きをしているということがもしあれば、それは数学者の方が見抜ける可能性はあるのかもしれないが

86ニュースソース検討中@自治議論スレ2019/02/21(木) 02:01:10.32ID:mX2SbSLm
831 デフォルトの名無しさん sage 2018/11/11(日) 10:00:59.18 ID:Tyd11AGx
たとえば、CycはFredという名前の男がドナルドダックのモノマネをするという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には羽がないことは知っているが、
アヒルのように歩き、アヒルのように鳴くものはアヒルに違いないと考えた。
したがって、CycはFredがドナルドダックのモノマネしている間、
Fredはそれでも人間なのかと尋ねた。

925 デフォルトの名無しさん 2018/11/21(水) 18:36:07.42 ID:8Yc2p7H1
>>919
>そもそもアランケイの言う「実行中」は「起動中」であって
>「使用中」じゃないんだろう。マルチユーザーで誰かが使用している最中に

チンポがシコシコしている間、俺はそれでも俺なのかと尋ねた。

829 デフォルトの名無しさん 2018/11/11(日) 09:52:59.70 ID:y84pWKv0
(第1章 はじめに 2頁)
たとえば、CycはFredという名前の男が朝にひげをそるという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には電気の部品がないことは知っているが、
Fredが電気カミソリを持っていたので、エンティティ「Fredがひげそり中(FredWhileShaving)」
には電気の部品が含まれていると考えた。したがって、CycはFredがひげをそっている間、
Fredはそれでも人間なのかと尋ねた。

『深層学習』
著者:
Ian Goodfellow, イアングッドフェロー,
Yoshua Bengio, ヨシュアベンジオ,
Aaron Courville, アーロンカービル

87ニュースソース検討中@自治議論スレ2019/02/21(木) 02:01:37.66ID:qezL93i2
ニューラルネットワークを数学的に概観すると、
係数全体が示す(多次元)平面上に、目標の近似達成度という一次元の関数が定義できる。
「学習」とは、その近似達成度が最大化するように、係数ベクトルを移動させてゆく問題だ。

ちょうど、(係数ベクトルという)パチンコ玉が、(近似達成度の)窪みに落ち込むように揺すったり叩いたりする数学的手続きをするのが、
ボルツマンマシンだ。

既存のパーセプとロンでは、揺すり方が、単調で小刻み過ぎて、ちっともパチンコ玉が小さな丘も超えられない。
で、ディープラーニングなどでは、思い切って、もっと、大きく揺すったりする。

88ニュースソース検討中@自治議論スレ2019/02/21(木) 02:07:05.32ID:mX2SbSLm
928 デフォルトの名無しさん 2018/11/21(水) 18:59:11.61 ID:8Yc2p7H1
>>922
>ナンチャッテメッセージングスタイルになったのは

チンポ.オシッコを出す
チンポ.オシッコを止める

さっきトイレでやってきた。


929 デフォルトの名無しさん 2018/11/21(水) 19:07:17.83 ID:8Yc2p7H1
>>915
>単なる動的なメソッド呼び出しをメッセージと称し、ただしコールするメソッドが見つからない場合だけメッセージを
>ハンドリングできる省コストなナンチャッテメッセージングスタイルに落ち着いた。

×
俺.オシッコを止める 俺.オシッコを出す

俺.チンポに力を入れる 俺.チンポから力を抜く

89ニュースソース検討中@自治議論スレ2019/02/21(木) 02:11:53.03ID:qezL93i2
係数の数は少ないほうが簡潔でよい(オッカムの剃刀)。
しかし、係数が増えれば、その分、近似精度は上がる。

近似性能の上昇と係数の簡略さの相克を考えた係数の最適数を決定する公式として、
ベイズ統計では、「赤池の公式(Akaike's Information C.)」というのがあったはずだが、
最近の教科書では、取り上げられていないことが多くなった。

90ニュースソース検討中@自治議論スレ2019/02/21(木) 02:15:46.43ID:mX2SbSLm
>例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。

当然ながら起きているときも、チンポがシコシコする!

 風呂から出て体一杯に水を浴びながら竜哉は、この時始めて英子に対する心を決めた。裸の上半身にタオルをかけ、
離れに上ると彼は障子の外から声を掛けた。
「英子さん」
 部屋の英子がこちらを向いた気配に、彼は勃○した陰○を外から障子に突きたてた。障子は乾いた音をたてて破れ、
それを見た英子は読んでいた本を力一杯障子にぶつけたのだ。本は見事、的に当って畳に落ちた。
 その瞬間、竜哉は体中が引き締まるような快感を感じた。彼は今、リングで感じるあのギラギラした、
抵抗される人間の喜びを味わったのだ。

●これが衝撃の「障子破り」シーンだ! (石原慎太郎 『太陽の季節』 (新潮文庫) より)
http://www.geocities.co.jp/Bookend-Soseki/3578/2003/shoujiyaburi.htm

>その瞬間、竜哉は体中が引き締まるような快感を感じた

チンポがシコシコする≠勃起、つまりそれはただチンポが勃起するのではなくて、
「体中が引き締まるような快感を感じた」ということなのである!!

91ニュースソース検討中@自治議論スレ2019/02/21(木) 02:15:51.19ID:0qwK+j2r
宇宙の起源はビッグバンだよねって言ってるレベルw

92ニュースソース検討中@自治議論スレ2019/02/21(木) 02:21:17.14ID:mX2SbSLm
機械翻訳も近似計算だけど、言葉のニュアンスは微妙な面がある。

0.   外国語、特に英語、の教え方
「読み書きは出来るが会話ができない」というのは間違い。「読み書き」も出来ない
Decorative artとは、絵画、彫刻、建築を除いた家具、食器、絨毯、藍掛け、花瓶、タイル、
ドアのノッカーなど美術品と見做せるものの総称
表裏は日本語だと「おもて」と「うら」だが、漢文では「外側」の「内側」であり、「裏」は「なか」である。
コインの場合、英語ではhead & tailで、誰かの頭部の像がある方が日本語の「おもて」だが、tailが「うら」とは奇妙
http://hiroomikes20120501.blogspot.com/2014/12/20141212.html

志村五郎『中国説話文学とその背景』(ちくま学芸文庫)
著者の志村氏は、米プリンストン大学の数学者らしい。志村氏が五十数年かけて集めた中国の説話を、
八年かけて一冊書き上げたと、本人が書いているので、趣味のライフワークの結晶めいてみえるのもむべなるかな。
http://d.hatena.ne.jp/nagaichi/touch/20071008/p1

93ニュースソース検討中@自治議論スレ2019/02/21(木) 02:23:57.26ID:lt8Sw+CN
情報幾何(一般相対性理論みたいなやつ)と
最小二乗法、ディープラーニングの関係性は不明なんだが
情報幾何はすべてを含む理論なのか

94ニュースソース検討中@自治議論スレ2019/02/21(木) 02:30:52.97ID:lt8Sw+CN
情報幾何入門
赤穂昭太郎
産業技術総合研究所
脳神経情報研究部門
https://staff.aist.go.jp/s.akaho/papers/infogeo.pdf

95ニュースソース検討中@自治議論スレ2019/02/21(木) 02:36:53.62ID:st3aQ1OE
全てを説明していないが、おおざっぱな原理では本質そのものを言っている
ソフトウエア実装で自分で組んだんじゃなくてライブラリー利用して
APIいじっているようなレベルのアホが多すぎるだけ

96ニュースソース検討中@自治議論スレ2019/02/21(木) 02:39:01.20ID:zUOK926l
ディープラーニングの深い関数を書けばよい
それ見れば、最小二乗法で無いことは分かるだろう

97ニュースソース検討中@自治議論スレ2019/02/21(木) 02:42:36.00ID:st3aQ1OE
>>27
それは力任せに単純化したのとハードウェアのレベルがいまとは異次元の差だと
理解できないやつが多いだけ。
バックプロパゲーションとかの時代は8ビットのマイコン初期だぞ、
速度以前に容量的に不可能ってことさ。

何をどう説明しても情報のつながりを最適化する問題でしかなく、それ以上でもそれ以下でもなく
完全になる解が無いデータを無数に処理させても完全解にはならない。
AIが難しいのはシステムを作り出す過程でのデータマイニングのほうであって学習のほうではない
のは明らかである、AIを全て学習だけでさせられると勘違いしているアホだらけ。

98ニュースソース検討中@自治議論スレ2019/02/21(木) 02:45:41.24ID:st3aQ1OE
>>96
学習原理により情報を最適化する部分については、何の反論もできていないのに
なにをシッタカしているのか?
基本的なテンソル演算での技術基盤は共通だ。

99ニュースソース検討中@自治議論スレ2019/02/21(木) 03:06:31.99ID:lt8Sw+CN
しらないが、間違ってるんじゃないのか。画像圧縮みたいなことじゃないか。
圧縮にjpgとかpngとかgifとかあるが。
ディープラーニングはその圧縮法を自動学習させるようなことと理解してるが。
圧縮先は、既に画像でなく文字になりネコ、イヌ、ヒト、その他とか。

100ニュースソース検討中@自治議論スレ2019/02/21(木) 03:09:37.39ID:IAiiI8kl
日本経済新聞の人選ミスじゃん。
日本経済新聞も人材の質が低下傾向。
朝日新聞は東大卒がゼロに。日経新聞も相当減ってるだろ。
新聞なんか選ぶ一流学生はいない。

101ニュースソース検討中@自治議論スレ2019/02/21(木) 03:13:59.92ID:lt8Sw+CN
畳み込みニューラルネットワーク_CNN
今回からはいよいよディープラーニングのアルゴリズムに入ります。
最初は、最も代表的なモデルである畳み込みニューラルネットワーク(Convolutional neural network)について説明しましょう。
https://products.sint.co.jp/hs-fs/hubfs/images/aisia/blog/16_3.png?width=600&name=16_3.png
https://products.sint.co.jp/aisia/blog/vol1-16

102ニュースソース検討中@自治議論スレ2019/02/21(木) 03:16:08.06ID:OWHNe3Ag
オレは生粋の日本人だけど
かわいそうな慰安婦のおばあさんたちに
日王は1000年たっても土下座して謝罪し続けろよ!
政権を立憲民主党に渡して、安倍はさっさと死ねよ!
兄の韓国に対して弟の日本は立場をわきまえろ

103ニュースソース検討中@自治議論スレ2019/02/21(木) 03:38:30.73ID:5PuAaIIz
ディープ・スロート

104ニュースソース検討中@自治議論スレ2019/02/21(木) 04:48:45.92ID:f5JcRiAH
大体あってるんじゃね?
何で必死に反論しているの?

105ニュースソース検討中@自治議論スレ2019/02/21(木) 06:24:20.72ID:vnqtR4zK
>>73
ちょっと何言ってるか分からない

106ニュースソース検討中@自治議論スレ2019/02/21(木) 06:28:32.31ID:rQpOI7dU
>>96
>ディープラーニングの深い関数

最小二乗法×最小二乗法×最小二乗法・・・・
になるよ

最小二乗法を3層重ね合わせれば文字認識までたどり着ける
ここまでは旧来の人工知能

ディープラーニングは3層のうちの中間層をさらに増やしたもの
こうするとただ認識するだけじゃなくあたかも自分で考えてるかのような反応が見られるようになる

107ニュースソース検討中@自治議論スレ2019/02/21(木) 06:31:43.17ID:oV12MKAw
>>106
なるほど分かってないけどなんか分かった気分になれたわ

108ニュースソース検討中@自治議論スレ2019/02/21(木) 06:35:27.73ID:90YTtIg0
ベイズ推定の強化版みたいなイメージなんだけど説明ならこれでいいんじゃないですかね。

109ニュースソース検討中@自治議論スレ2019/02/21(木) 06:43:31.64ID:Kf0VdzjD
>>106
個人的には、考えているような反応というか、高度な判別ができる程度かと思う。
人間の思考に相当する部分は、どうやって実現するかまだ不明なんでは。

碁や将棋の件があるけれど、あれはDNNを使って人間でいう勘を究極に高め、勘で導いた一手を膨大な計算量で評価するプログラムをつくったら、人間の思考に勝ってしまったという事例で、思考の再現とは違うと思う。

110ニュースソース検討中@自治議論スレ2019/02/21(木) 06:45:24.01ID:EH1iaoTe
>>89
最近はWAICだな。あの万能感がすごい。

111ニュースソース検討中@自治議論スレ2019/02/21(木) 07:18:12.44ID:IjJjwm1Q
>>23
評価関数ってしってますか?

112ニュースソース検討中@自治議論スレ2019/02/21(木) 07:35:45.71ID:qAg+508V
>>6
それでもAI信者は爆発的に増えるよ
PC信者とかDNA信者とか犠牲者出ても減らないもんな

113ニュースソース検討中@自治議論スレ2019/02/21(木) 08:19:52.41ID:PWFColpj
>>1
松尾先生番組みてます
前にもまして先生の技術的解説がすっ飛ばされてて
新しい技術説明してた前回のやつはさすがに飛ばしたら意味不明じゃねと思ったわ

114ニュースソース検討中@自治議論スレ2019/02/21(木) 09:32:50.35ID:sY5ISROj
>>23
意味あるんだよボケ
勉強しろ無能が

115ニュースソース検討中@自治議論スレ2019/02/21(木) 09:40:02.66ID:B6j4vL+K
「簡単なな足し算だよ」の上級語

116ニュースソース検討中@自治議論スレ2019/02/21(木) 09:53:11.49ID:QqGc7jTn
>>73
42

117ニュースソース検討中@自治議論スレ2019/02/21(木) 10:06:36.33ID:knboD47K
入力に対して出力を得るってこと自体同じと言ってもいいだろ

118ニュースソース検討中@自治議論スレ2019/02/21(木) 10:12:17.21ID:j47uGhJd
まあ最小二乗法でいいじゃん
深さは何箇所にも最小二乗法が適用されるでいいじゃん
あとは広さが必要だな。観測する物差しが何種類もあるということ
それから記憶だな。一手前を覚えていること
最後は物量で勝負

119ニュースソース検討中@自治議論スレ2019/02/21(木) 10:15:49.48ID:gQIXHfhZ
>>11
型とは?

120ニュースソース検討中@自治議論スレ2019/02/21(木) 10:20:05.84ID:PNWhzH7q
>>50
藤原正彦氏はエッセイも書くよ
靖国奉賛会、そんなに嫌いなん?

121ニュースソース検討中@自治議論スレ2019/02/21(木) 10:21:11.66ID:lXp9H65M
最小二乗法は残差を最小化する最適化アルゴリズムの一つ
他にもシンプレックス法とか遺伝アルゴリズムとかシミュレーティッドアニーリングとか色々ある
機械学習はこれらとはアルゴリズムが全く異なる
言うなら最適化の一種というべきだろ

122ニュースソース検討中@自治議論スレ2019/02/21(木) 10:21:18.75ID:gQIXHfhZ
>>114
ガウスからのずれでも
ローレンツからのずれでも
よい気がするのだが

123ニュースソース検討中@自治議論スレ2019/02/21(木) 10:22:23.75ID:PNWhzH7q
>>89
> 赤池

去年だか一昨年のグーグルトップになってたよ

124ニュースソース検討中@自治議論スレ2019/02/21(木) 10:25:17.45ID:GFAg9YPM
>>1
慶應大学っていっても経済学部だろ?
AIの仕組みについて語るとか、同僚の教授にバカにされるだけだろ

125ニュースソース検討中@自治議論スレ2019/02/21(木) 10:29:57.73ID:Qmc8dRoC


  みんな合ってる。 誰も何も間違ってない。、 気づけバカ。


126よっちゃん2019/02/21(木) 10:42:49.72ID:kzBPua7O
再生核研究所声明 470 (2019.2.2)  
ゼロ除算 1/0=0/0=z/0=\tan(\pi/2)=0 発見5周年を迎えて

127ニュースソース検討中@自治議論スレ2019/02/21(木) 10:42:57.32ID:Rb63C/rO
どっちが偉いの?www

128よっちゃん2019/02/21(木) 10:43:34.06ID:kzBPua7O
We Can Divide the Numbers and Analytic Functions by Zero
with a Natural Sense.

http://vixra.org/abs/1902.0058

129よっちゃん2019/02/21(木) 10:43:53.18ID:kzBPua7O
Horn Torus Models for the Riemann Sphere and Division by Zero
http://vixra.org/abs/1902.0223

130よっちゃん2019/02/21(木) 10:45:12.37ID:kzBPua7O
地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)

リーマン球面における無限遠点は、実は、原点0に一致していました。

地球人はどうして、ゼロ除算1300年以上もできなかったのか? 
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由

1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。

Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf

131よっちゃん2019/02/21(木) 10:45:23.10ID:kzBPua7O
地球平面説→地球球体説
天動説→地動説
1/0=∞若しくは未定義 →1/0=0(628年→2014年2月2日)

リーマン球面における無限遠点は、実は、原点0に一致していました。

地球人はどうして、ゼロ除算1300年以上もできなかったのか? 
2015.7.24.9:10
意外に地球人は知能が低いのでは? 仲間争いや、公害で自滅するかも。
生態系では、人類が がん細胞であった とならないとも 限らないのでは?
Einstein's Only Mistake: Division by Zero
http://refully.blogspot.jp/2012/05/einsteins-only-mistake-division-by-zero.html
何故ゼロ除算が不可能であったか理由

1 割り算を掛け算の逆と考えた事
2 極限で考えようとした事
3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。

Matrices and Division by Zero z/0 = 0
http://file.scirp.org/pdf/ALAMT_2016061413593686.pdf

132よっちゃん2019/02/21(木) 10:47:37.46ID:kzBPua7O
Global Journal of Advanced Research on Classical and Modern Geometries ISSN: 2284-5569, Vol.7, (2018), Issue 2, pp.44-49 APPLICATIONS OF THE DIVISION BY ZERO CALCULUS TO WASAN GEOMETRY HIROSHI OKUMURA AND SABUROU SAITOH
http://geometry-math-journal.ro/pdf/Volume7-Issue2/1.pdf

岡山大学における日本数学会における講演要旨:
https://ameblo.jp/syoshinoris/entry-12407517586.html

133よっちゃん2019/02/21(木) 10:47:59.51ID:kzBPua7O
再生核研究所声明 453 (2018.9.28): The International Conference on Applied Physics and Mathematics, Tokyo, Japan, October 22−23
https://ameblo.jp/syoshinoris/entry-12408098596.html
再生核研究所声明 452 (2018.9.27): 世界を変えた書物展 − 上野の森美術館
(2018年9月8日―24日 )
https://ameblo.jp/syoshinoris/entry-12407864914.html

134よっちゃん2019/02/21(木) 10:49:04.84ID:kzBPua7O
TOP DEFINITION
Genius
A super-smart math teacher that teaches at HTHS and can divide by zero.
Hey look, that genius’s IQ is over 9000!
#divide by zero #math #hths #smart #genius
by Lawlbags! October 21, 2009

135よっちゃん2019/02/21(木) 10:49:29.06ID:kzBPua7O
divide by zero
Dividing by zero is the biggest epic fail known to mankind. It is a proven fact that a succesful division by zero will constitute in the implosion of the universe.
You are dividing by zero there, Johnny. Captain Kirk is not impressed.

Divide by zero?!?!! OMG!!! Epic failzorz
#4 chan #epic fail #implosion #universe #divide by zero

136ニュースソース検討中@自治議論スレ2019/02/21(木) 11:08:04.63ID:xQN0l12w
今日の知識自慢マウンティングスレ

137よっちゃん2019/02/21(木) 11:11:32.19ID:kzBPua7O
数学ではできない、考えてはならない ゼロ除算が 計算機が できた:

José Manuel Rodríguez Caballero
Added an answer
In the proof assistant Isabelle/HOL we have x/0 = 0 for each number x.
This is advantageous in order to simplify the proofs. You can download
this proof assistant here: https://isabelle.in.tum.de/

138よっちゃん2019/02/21(木) 11:12:00.63ID:kzBPua7O
根拠、理由、説明は 計算機の出力結果であるから 分からない。 
我々は 2014年2月2日 それを発見していた。 
5年を経て、計算機が出力した。

Close the mysterious and long history of division by zero and open the
new world since Aristotelēs-Euclid: 1/0=0/0=z/0= \tan (\pi/2)=0.

139ニュースソース検討中@自治議論スレ2019/02/21(木) 11:18:31.73ID:nluE+00E
人工知能については時々ブームみたいなのがあるんでしょ?
一時ブームになるけど、限界みたいなものが指摘されてブームが収束する
現状では人工知能といっても、つきつめると物が似てるか否かを判定するぐらいの能力なんでしょ?

次のブレークスルーがくるまで、またブームもひと段落つくでしょ

140ニュースソース検討中@自治議論スレ2019/02/21(木) 11:21:44.21ID:eVcdZ9vU
>>118
だめ、重要度が逆でまったく意味が変わってしまうから。
最初から深い関数の物量ありきが勝負。最小二乗法は定番だけど、そんなのは二の次。
大量の中間関数などの多変量、非線形関数を階層的に組むこんで計算量に物言わせて初めて意味がある。
最小二乗法使ったところで関数や階層が少ないと全く意味がない。

141ニュースソース検討中@自治議論スレ2019/02/21(木) 11:25:45.92ID:adQnZn9y
ディープラーニングとか言ってるけど、パターン解析と傾向分析で近似値を積層化してるだけだから

基になるデータ量が決め手になるし基データが間違ってたら結局すべでがオジャンになる糞分野
ディープラーニングを基盤にAI開発してるやつは永遠にAIを開発することは不可能

142ニュースソース検討中@自治議論スレ2019/02/21(木) 11:25:50.39ID:gRuTZxLS
>>53
>マハラノビス距離が最小となる分類を決定する方法とかどうよ。

東京湾にはびこるマハラノビスもどうにかしてください(><)

143ニュースソース検討中@自治議論スレ2019/02/21(木) 11:30:39.50ID:srfkA1u1
星座みたいなものか。AIも星座を創造できたらすごいね。

144ニュースソース検討中@自治議論スレ2019/02/21(木) 11:30:45.00ID:L//q1Vjk
AIの天才である俺が簡単に言うとだな
ディープラーニング=めちゃめちゃ多次元の関数を最小二乗法で最適化したもの
ということだ。
ちなみにその多次元関数を仮に図化できたとするとその図は
新聞紙を丸めてめちゃめちゃシワシワにしたようになる。
- 以上 -

145ニュースソース検討中@自治議論スレ2019/02/21(木) 11:33:16.96ID:gRuTZxLS
>>104
社会とのかかわりという点から見たらそうだよね
ヲタクが必死で喚いてるけど

結局、AIという言葉がミスリーディングなんだろうね
素直に機械学習と呼んだら勘違いもなくなるはず

146ニュースソース検討中@自治議論スレ2019/02/21(木) 11:33:34.95ID:L//q1Vjk
>>141
バカ発見

147ニュースソース検討中@自治議論スレ2019/02/21(木) 11:47:42.63ID:tuhtdaL0
AI「単細胞の集合体がいきがりおって

148ニュースソース検討中@自治議論スレ2019/02/21(木) 11:47:58.27ID:sRmTv1vR
>>131
意外にいいとこついてんじゃないかな
つまりはラプラスの悪魔の復活の儀式だからね

149ニュースソース検討中@自治議論スレ2019/02/21(木) 11:53:29.47ID:onM5FhGO
AI=頭脳プレー

というインチキイメージよりはマシだろう。

150ニュースソース検討中@自治議論スレ2019/02/21(木) 11:56:37.52ID:EtGRaV9m
1次の線形近似計算
→線形回帰

線形では表現できない関数がたくさんある。
解を求める際には、最小二乗法などが用いられる。

非線形とするため、活性化関数をつける
→パーセプトロン

パーセプトロンの結果、階層を作ることが可能となった
→3層パーセプトロン

これにより、xor関数、sin関数などの近似が可能となる。
解を求めるためには、最小二乗法を応用したバックプロパゲーションが用いられる。

3層以上ではバックプロパゲーションが上手く機能しなくなるため、悶々悶々。
ここ、色々なものが生み出されては消えていった。

画像解析で畳み込みニューラルネットワークが開発される
→コンボリュージョナルニューラルネットワーク

バックプロパゲーションの問題が起きないため、階層を幾らでも深くできるようになる。
→ディープコンボリュージョナルニューラルネットワーク
 略してディープラーニング

ディープラーニングでは、階層を深くすれば、どんな関数でも近似できる事が、
理論上示される。つまり、万能近似関数。

教師データが与えられたら、どんな事柄でも学習する事ができる。
ただし、教師データにない未知の入力に対して、本当に正しく予測できているのかは不明。
なんとなく予測できてそうという状態のまま、使えるから良いじゃんとしているのが現在。
まあ、近似計算全部が抱える本質的な問題なのだが。

151ニュースソース検討中@自治議論スレ2019/02/21(木) 12:01:24.95ID:srfkA1u1
多層学習と言っちゃあかんの?

152ニュースソース検討中@自治議論スレ2019/02/21(木) 12:09:18.54ID:lt8Sw+CN
間違ってるだろ。
ディープラーニングは、ある程度、汎用性のある学習システム、ソフトであることを重視してるだろ?
今現在の手法と別物で、どう学習してるかブラックボックスでも、性能よければそれもディープラーニングでまとめられるかと。

153ニュースソース検討中@自治議論スレ2019/02/21(木) 12:28:45.42ID:L//q1Vjk
>>150
万能近似関数いいですね。一番しっくりくる言葉かもしれません。
ディープラーニングをパターンマッチ的な解釈で唱える人がいるが
ディープラーニングは関数を作成するというところが肝で
つまり関数だから学習したこの無いXを与えた時でもYを出せるのである。

154ニュースソース検討中@自治議論スレ2019/02/21(木) 12:30:20.54ID:5GpW4DhZ
>>150
常に人間によるチェックが必要なんだな
完全にAIに任せて自動化しようなんて夢物語

155ニュースソース検討中@自治議論スレ2019/02/21(木) 12:33:34.20ID:squ/MRXf
>>92
そのオッサン、言語をよくわかってないけど、
各方言(英語やスペイン語)などに共通して使われている言葉は存在する。

表裏というのは Recto と verso という。

これは、万国共通。
ラテン語は権力のある聖職者の言語だったから。

156ニュースソース検討中@自治議論スレ2019/02/21(木) 12:36:30.30ID:srfkA1u1
ディープラーニングは教師あり学習が主流だという話だね。

157ニュースソース検討中@自治議論スレ2019/02/21(木) 12:54:34.43ID:/trIOnXY
>>141
おまえらバカが想像するAIを作るために
DLやってるやつなんて一人もいねぇよwww
バカ過ぎ

158ニュースソース検討中@自治議論スレ2019/02/21(木) 12:58:42.14ID:5GpW4DhZ
>>157
インドのベンチャーで強いAIを開発しようとしてるとこなかったっけ?

159ニュースソース検討中@自治議論スレ2019/02/21(木) 13:04:35.04ID:ob1sIY5F
フィッティングが精緻になれば将来予測も精緻になる。
それでランダムウォークというんだろうか。

深い関数なんてものが何ものかまったくわからないけど。

160ニュースソース検討中@自治議論スレ2019/02/21(木) 13:08:11.85ID:bpsx82sF
【豚コレラ、殺処分ヤメロ、加計学園獣医学部】 安倍と加計が、補助金詐欺をしている結果、逮捕しろ!
https://rosie.5ch.net/test/read.cgi/liveplus/1550721992/l50

161ニュースソース検討中@自治議論スレ2019/02/21(木) 13:09:40.76ID:KxxC6NxY
AIが人格や性癖を持つようになると、どうだ?

162ニュースソース検討中@自治議論スレ2019/02/21(木) 13:10:27.98ID:KxxC6NxY
忖度係数搭載

163ニュースソース検討中@自治議論スレ2019/02/21(木) 13:18:20.49ID:NOsQ9dLg
最小二乗法ねぇ....素人には条件を満たす巨大な関数を作っていくでいいんじゃね?

164ニュースソース検討中@自治議論スレ2019/02/21(木) 13:27:32.25ID:5XynTGJ5
いくらAIだの人工知能だのと言ったところで、結局は、人間の作り上げた機械の
限界を超えていないんだよ。
人間と機械の根本的に異なる所以は、人間は30数億年の進化の歴史を背負っている。
知能がどうのこうのと言ったところで、それは30億年以上もの生物の進化の歴史に
支えられて、その上で発達した生き残りのための手段でしかない。
AIに生存本能がありますか? AIは自分で餌を探しますか?
AIは誰かが鉄棒を持って襲い掛かってきたときに自らを守ることができますか?
そういうことがまったくできないのに「知能」がどうのこうのと言ったところで
地盤がゆるいところに鉄筋コンクリートの建物を建てようとするのと同じだよ。
人間の知能は生存本能の進化の結果としての一つの形態に過ぎない。
鳥は空を飛ぶことで対応し、象やキリンは体を大きくすることで対応し
ライオンやシロクマはするどい牙やツメを持つことで対応した。
根源的な自己保存本能がないのに「将来は人間に敵対するかも」などと
言ったところで意味はない。

165ニュースソース検討中@自治議論スレ2019/02/21(木) 13:36:15.08ID:aXfXMCxB
AIというのは研究費獲得のためのパワーワードにすぎない。
無知を騙すにはAIって言っとけば良いのだ。
騙すとは言ったがが、大抵嘘は言ってない。どれもこれもAIに関わる物ばかりだ。

166ニュースソース検討中@自治議論スレ2019/02/21(木) 13:48:50.12ID:yGsXDHLg
普通に最小二乗法レベルで十分なものにAI応用しましたってドヤるから

167ニュースソース検討中@自治議論スレ2019/02/21(木) 13:49:06.75ID:xLfOtwEr
理系の大学、それも実験研究室の学生なら最小二乗法は必ず習うもんだと思ってた
最小二乗法にもここで言うAIの「深い」という項目に近いパラメーターがあるけど

168ニュースソース検討中@自治議論スレ2019/02/21(木) 13:52:28.47ID:IAiiI8kl
この経済学者がまず軽々しい発言をしそうな顔をしているように見える。
昔東大だったというプライドも感じる。
教授の椅子がないから慶応の経済に鞍替えしたのかな?

169ニュースソース検討中@自治議論スレ2019/02/21(木) 14:06:25.89ID:yqYNoArB
馬鹿でもチョンでもわかるように

170ニュースソース検討中@自治議論スレ2019/02/21(木) 14:08:00.33ID:QoULg77O
最小自乗法の評価値を何に設定するかが問題なのではないか

171ニュースソース検討中@自治議論スレ2019/02/21(木) 14:11:19.66ID:lt8Sw+CN
「囲碁の謎」を解いたグーグルの超知能は、人工知能の進化を10年早めた
2016.01.31
囲碁において、機械が最強の人間を打ち負かすにはあと10年は必要だろう──。
そんな専門家たちの予想を、グーグルが4億ドルで買収したブレイン集団「DeepMind」は見事に裏切った。

人工知能(AI)の世界で大事件が起こった。
イギリスに拠点を置くグーグルの研究者たちが開発したコンピュータープログラムが、囲碁の試合で一流棋士を打ち負かしたのだ。

ディープマインドの共同創業者で最高経営責任者(CEO)のデミス・ハサビスは、
「いちばん重要なのは、AplhaGoは人間のプログラミングによって設計された、単なるエキスパートシステムではないという点です」と話す。
「代わりに一般的な機械学習のテクニックを使って、どうやって囲碁の試合に勝つか学んでいくんです」

今回の勝利は、ただの見世物ではない。
グーグルやフェイスブック、マイクロソフトは、画像解析、話し言葉の聞き分け、自然言語の理解といった分野ですでにディープラーニングを利用している。
https://wired.jp/2016/01/31/huge-breakthrough-google-ai/

172ニュースソース検討中@自治議論スレ2019/02/21(木) 14:15:02.55ID:PA7YdFTF
お前ら小さな自尊心を満たすために長文書き込んでドヤ顔してるけどさ、

ここ5ちゃんねるだよ?

173ニュースソース検討中@自治議論スレ2019/02/21(木) 14:18:15.36ID:UwiuMYEz
2乗する
直線からの距離が最小

曲線を閾値にするのも可能だが別の方法

174ニュースソース検討中@自治議論スレ2019/02/21(木) 14:18:56.71ID:XWd6hqLg
最小自乗法と言っても1次だけでなく何次でも出来るし近似対象も任意にできるわけだが

175ニュースソース検討中@自治議論スレ2019/02/21(木) 14:27:06.02ID:lXp9H65M
最小二乗法の欠点は収束半径が短いことですね
つまり容易に局所最適値にはまり込んで出られない
解は容易に短時間に得られますけどそれが大域的な最適値だという保証はまったくないわけです
それを解決するために遺伝アルゴリズムやシミュレーティッドアニーリングが開発されたわけですが計算時間が膨大にかかります
到底車載用途には向きませんね
人工ニューラルネットによる機械学習は専用回路によって実時間での最適化を可能にした点やはり画期的と思いますよ

176ニュースソース検討中@自治議論スレ2019/02/21(木) 14:39:40.35ID:axT/rupB
>>63

いまのパソコン能力なら、絶対値を場合わけで外すアルゴリズムなんて簡単なのにな
二乗計算より、リソース少なくて済むわw

177ニュースソース検討中@自治議論スレ2019/02/21(木) 14:40:39.47ID:axT/rupB
>>64

一層で行列1回計算
二層なら行列2回計算

あとは分かるな?

178ニュースソース検討中@自治議論スレ2019/02/21(木) 14:43:47.65ID:zRfqBwge
経験リスクを誤差の2乗って考えることもあるので、最小2乗法っていうのは、間違いではないが、
なんか違うな。
参考 画像認識 原田(6.13)(6.14)式

179ニュースソース検討中@自治議論スレ2019/02/21(木) 14:44:36.43ID:lt8Sw+CN
最小二乗法に近いのはこっちだろ


Bonanza式学習法
近年のコンピュータ将棋では,プロ棋士などの棋譜(5万局程度)を利用して,評価関数に含まれる特長ベクトルの重みが機械学習される.
Bonanza が2006年のコンピュータ将棋選手権で優勝して以降,このような学習法の実装は各将棋プログラムに急速に広まった.
評価関数の機械学習は,最適化の枠組みで行われる.
すなわち,プロ棋士の選択した手と,プログラムの選択した手の不一致度を測る目的関数を設計し,この目的関数を最小化する重みベクトルを求める.
類似の枠組みは,古くは1982年,新しくは2001年のコンピュータチェスに関する文献にも見られるが,2014年現在,将棋ほどの成功には至っていないようである.
Bonanza 法やBonanza メソッドという用語は,コンピュータ将棋の技術に関する解説にしばしば見られる.
これらの用語は,時にはこのような枠組みで将棋の評価関数を機械学習するという広い意味で使われ,時にはバージョン6.0のBonanza のソースコードで実装されている方法という狭い意味で使われる.
https://www.jstage.jst.go.jp/article/jsoft/26/5/26_216_1/_article/-char/ja/

180ニュースソース検討中@自治議論スレ2019/02/21(木) 14:52:58.61ID:lt8Sw+CN
Bonanza - Wikipedia

評価関数のパラメータの自動生成
これは保木の本業である化学反応の制御理論を応用したものである。
他のソフトは開発者がパラメータを定めた評価関数を用いているため、開発者の固定観念や棋力の影響を受けることがあった。
ただし、パラメータは自動生成だが、何を評価するかは保木自身が決めている。
既存の常識に反する要素が多かったが、保木の試みはコンピュータ将棋の一大革新として、他の開発者が一斉に追随することになった。


数式
各盤面の判断となる評価関数が、強い棋士が実際に指した手と同じになるようなパラメータを探索する。
誤差関数Jを最小にするパラメータvを最適化問題として探す。

評価関数は、以下の項目の総和。2つ目以降は、駒の位置関係に対するパラメータ。
各駒の価値(駒割り)
王、他の駒2つの位置
王、隣接した味方の駒、他の味方の駒3つの位置
隣接しあった駒2つの位置関係
竜馬飛角桂香の利き上にいる駒の種類
竜馬飛角香が動けるマスの数
ピンされている駒の種類、方向、王との距離
角と同じ色のマスにいる味方の歩の数
歩桂銀が前進できるか
竜飛香の前・後の歩
王の周囲25マスの利きの配置

ただし、これは、Ver. 4以降、Ver. 6現在は単純化しており、以下の3項目だけになっている。
各駒の価値(駒割り)
王1つ、他の駒2つの位置(自分と相手の駒の区別あり)
王2つ、他の駒1つの位置

181ニュースソース検討中@自治議論スレ2019/02/21(木) 14:58:31.57ID:72h5Sd+m
因果関係と相関関係をちゃんと理解している一般人は少ないと思う
必要条件と十分条件とかも
論理学と統計学は重要なんだけどなあ

182ニュースソース検討中@自治議論スレ2019/02/21(木) 15:08:02.23ID:jdHl7t3w
>>157
ありきたりだが警察は事前には動かない。
今じゃどこの家庭もSECOMが当たり前の時代なんだから
襲われるのが嫌なら隣にボディーガードを付けとけばいいんだよ。
http://guard-dog.crayonsite.com/
格安ボディガードのガードドッグなんか時給2500円で付いてくれるから相手が確実に来るときに付けとくだけでもかなりの抑止効果になるよ。

183ニュースソース検討中@自治議論スレ2019/02/21(木) 15:49:36.91ID:LT3aqnL4
汎関数のお化け

184ニュースソース検討中@自治議論スレ2019/02/21(木) 16:29:23.11ID:dXM7a2hi
何を学習したか分からないという言い方の方が危険だと思う。
実際にはご大層な誤り訂正メモリを使用しての1bitの誤りもない計算過程であって膨大ではあっても完全に再現可能な計算だ。
作成者以外の人間が埋め込まれている特殊なコードを見抜くことは膨大すぎて不可能である、と言い換えるべきであろう。
ブラックボックス扱いにするのは論理のすり替えである。

185ニュースソース検討中@自治議論スレ2019/02/21(木) 18:05:08.70ID:tnR4tdGW
機械学習なんて表計算ソフト並みに陳腐化してるのさ

186ニュースソース検討中@自治議論スレ2019/02/21(木) 18:15:20.79ID:1hB3/H1o
これは、それほど騒ぐことではない。
これよりちゃんと説明しようとすると、一般人に意味不明になる。大雑把な説明としては、間違っていない。

ただ、一般人は、単純なものでも、数万数億、組み合わせれば、
超複雑になるということが分かってくれないから、説明は難しい。
だから、「原理的には単純」なんて暴言が出てくる。

187ニュースソース検討中@自治議論スレ2019/02/21(木) 19:21:35.78ID:Eejv+jYi
分かりやすくとかどうでもいいわ
文系に寄せる必要はない

188ニュースソース検討中@自治議論スレ2019/02/21(木) 20:11:01.84ID:CLymAf2Z
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」
「すぎない」は言い過ぎだけど、教師信号との誤差を最小にするアルゴリズムは
まさに最小二乗法なんだよ。次元が多いから最適化するのがむずいだけ。

日経記者は「バックプロパゲーション」ググるといいよ。

189ニュースソース検討中@自治議論スレ2019/02/21(木) 20:17:04.69ID:yGsXDHLg
いきなりふりだしに戻るなよ

190ニュースソース検討中@自治議論スレ2019/02/21(木) 20:19:58.31ID:G1sbdxn5
Twitterじゃなくて論文出だしてよ

191ニュースソース検討中@自治議論スレ2019/02/21(木) 20:36:56.92ID:5xusOJYZ
>>3
日経新聞は経済以外の記事はまともなはずだったんだけどな

192ニュースソース検討中@自治議論スレ2019/02/21(木) 20:47:03.12ID:srfkA1u1
経済学に比べたらデータサイエンスなんて2流の分野

193ニュースソース検討中@自治議論スレ2019/02/21(木) 21:37:30.68ID:mX2SbSLm
>その瞬間、竜哉は体中が引き締まるような快感を感じた

チンポがシコシコするのは、物理的な刺激に限ったことではない。

https://imgur.com/R4D8yyk
https://imgur.com/Fjw9t3F

「アクトレス」(山田謙二)より。

夏目くんのチンポは何にも触れていないのにシコシコしている!

194ニュースソース検討中@自治議論スレ2019/02/21(木) 21:50:29.00ID:lXp9H65M
経済学は科学とは言えないし学問かどうかも怪しい

195ニュースソース検討中@自治議論スレ2019/02/21(木) 22:03:15.41ID:onM5FhGO
むしろ最小二乗法知ってる奴多くて草

196ニュースソース検討中@自治議論スレ2019/02/21(木) 22:16:32.75ID:ZwwGtPEk
二次元の最小二乗法(直線を引く)ではなく
千次元単位の最小二乗法だろ

197ニュースソース検討中@自治議論スレ2019/02/21(木) 22:26:21.25ID:8lxoE27H
(゚∀。)ナルヘソ

198ニュースソース検討中@自治議論スレ2019/02/21(木) 22:46:51.71ID:u1dPDq8Q
そもそも、最小二乗法知ってる人間がどれだけいるんだって話だよな

199ニュースソース検討中@自治議論スレ2019/02/21(木) 23:10:08.05ID:lXp9H65M
n個の点を通る曲線はn-1次多項式で表せる
単純に各点の座標を入れてn個の連立方程式を作って係数について解けば良い
スプライン補間もこの一種
これは最適化ではなく曲線当てはめ問題と言われ一意にとくことが出来る
最適化問題はそういう問題ではない

200ニュースソース検討中@自治議論スレ2019/02/21(木) 23:28:21.42ID:yGsXDHLg
原理はよくわからんけどディープラーニングはフラクタルな構造にも強い印象

201ニュースソース検討中@自治議論スレ2019/02/22(金) 00:10:33.65ID:G2Y+2rNK
ディープラーニングは原理的には最小二乗法だよ。
これを深い階層まで何百何千回やるわけだから。
何も間違っていないが。

202ニュースソース検討中@自治議論スレ2019/02/22(金) 00:45:55.37ID:R0bCZ7Ld
>>159
>フィッティングが精緻

ただの過学習にしか聞こえない罠

203ニュースソース検討中@自治議論スレ2019/02/22(金) 01:57:07.71ID:gQOof+DI
仕組みを理解したい人が多いみたいだけど、必ずしも仕組みを理解できなくてもいいよ
インテリな人の傾向として、極端な例で言うと主婦が特許取るみたいなのを下に見てて、
それよりも仕組みを解明して、それを理論として発展させて、その応用で何かを作り出すアプローチの方を高尚に感じる人が多いと思うけど、
ディープラーニングはその仕組みがよく分からないまま、とにかく試してみるという方法で結果を出したことで生まれた
インテリにはつまらないかもしれないけど、そういうアプローチの方が上手くいくこともある

204ニュースソース検討中@自治議論スレ2019/02/22(金) 02:09:28.46ID:HQoIORoe
>>194
ユークリッド幾何学を別とすれば、近似値とそれらしい理屈をでっちあげてるだけでは?

例えば『状態方程式 PV=nRT』なんて、『単原子分子理想気体』なんつー現実味が乏しい仮定上の高校物理w

205ニュースソース検討中@自治議論スレ2019/02/22(金) 02:15:37.69ID:HQoIORoe
>>188
>「ディープラーニングは、原理的には単純な最小二乗法にすぎない」

近似計算を繰り返してるだけ、という言い方はどうだろうか?

モノの意味、言葉の意味について、機械がそれを完全に理解することは出来ないが、
いろいろな近似式を組み合わせて繰り返し近似計算をし直すということ。

ロボマインド・プロジェクトでも、同じ問題に直面しました。
我々、人間は、「ドアの外の廊下の上には天井がある」などと覚えているわけではありません。
それでは、どうやって、認識しているのでしょう?
頭の中で、部屋からドアを開けて廊下に出たところを想像するだけです。
廊下に出れば、上には天井がありますよね。
それでは、これを、コンピュータで実現するにはどうすればいいでしょうか?
それには、家の3DCGモデルを作れば実現できます。
データベースを使うのでなく、実際に見えるままの姿を3Dモデルで作成するのです。
https://robomind.co.jp/symbolgroundingproblem/

機械翻訳については翻訳辞書という近似式、シミュレーターという近似計算機を充実させたい。

206ニュースソース検討中@自治議論スレ2019/02/22(金) 02:56:00.22ID:DaJXVk3B
人間の知能も似たように単純なもんだったりしないのかな
インプット情報の種類(五感)がコンピュータに比べると多いというだけで
インプット情報の量はAIの方が多いから限定的な最適解を出しやすいというような

207ニュースソース検討中@自治議論スレ2019/02/22(金) 03:25:33.79ID:lta2ccPg
生物の脳も最小二乗法を無意識に使って対象世界を分節しているのか?

208ニュースソース検討中@自治議論スレ2019/02/22(金) 03:44:22.66ID:HQoIORoe
画像認識精度が上がったのなら、画像と結びつけた近似式を作成しておきたい。

ソ連軍がベルリンを陥落させた!
ドイツ第三帝国は滅亡した!
ベルリンに赤旗が翻った!

 5月2日の議事堂の陥落後に、赤軍兵士がその屋根にソ連国旗を掲げる写真「ライヒスタークの赤旗」は、
ベルリン陥落を象徴するものとして名高い。
https://jp.rbth.com/arts/2013/04/30/42757

『言い換え表現』として全て同一であることは自明だ。

209ニュースソース検討中@自治議論スレ2019/02/22(金) 03:52:31.16ID:HQoIORoe
>「ディープラーニングは最小二乗法のお化けのようなもの」

最小二乗法は近似計算の基礎だけど、そこからの発展が著しい。近似計算法の進歩という言い方はどうか。

210ニュースソース検討中@自治議論スレ2019/02/22(金) 04:06:42.07ID:J5Pb/OO/
>>96

損失関数Eは最小二乗法使ってるだろ

211ニュースソース検討中@自治議論スレ2019/02/22(金) 04:15:46.38ID:J5Pb/OO/
>>175

だったら降下勾配法なんか辞めて
最初から堂々と

偏微分連立方程式を解析的に解けばいいだろ

212ニュースソース検討中@自治議論スレ2019/02/22(金) 05:21:03.52ID:fx2t0qP4
「正確な説明ではない」ことは
小林教授も、もちろん松尾教授もわかっていて
あくまで一般むけの、ふんわりした説明なのだから
別にこれでいいよね

難しいことはどうあがいても一般人にはわからない
科学が人類の99.99999%を置き去りにして久しい

「科学の厳密な理解、最先端技術の理解は自分には無理」
これはもう数百年前から一般人の共通認識になっているのだから
いまさら気にしてもしょうがない

213ニュースソース検討中@自治議論スレ2019/02/22(金) 12:02:55.18ID:0kAELb0/
合ってないかも知れないが間違ってない
そもそも聞き手の知識が圧倒的に足りない場合、説明することは不可能

214ニュースソース検討中@自治議論スレ2019/02/22(金) 15:56:12.94ID:8F5TRqnK
>>210
交差エントロピーを使う事もあるよ。

215ニュースソース検討中@自治議論スレ2019/02/22(金) 18:26:38.73ID:p1pP1Fe1
なんにしろプログラム解析にすぎない
シンギュラリティなんて限られた情報から限られた手を打つ場合で
人間の仕事にそんな分野は多くない

216ニュースソース検討中@自治議論スレ2019/02/22(金) 18:56:01.38ID:dk+IGC9R
 


そんなに単純なもんならお前が先んじて実用化すれば、
地位も名誉もカネも思いのままだったのにい惜しかったなあw

それをしなかったおかげで山ほど居る講釈師のひとりに過ぎんが、
一生やってな、それがお前にとっちゃ幸せってもんだろwww


 

217ニュースソース検討中@自治議論スレ2019/02/22(金) 20:44:00.71ID:6HhiIqv1
それより量子コンピュータの続報はどうなった

218ニュースソース検討中@自治議論スレ2019/02/22(金) 23:08:46.22ID:ciqKYl05
ハンカチ王子もやってたやつか?

219ニュースソース検討中@自治議論スレ2019/02/22(金) 23:24:07.83ID:hKItUxLr
ビッグデータという餌、土壌を持っていなければ各種AIは成長しない

日本はアメリカや中国にビッグデータを与えるだけの存在
ラインでチョンにさえビッグデータを与えている始末

アメリカと中国は情報大国として凌ぎを削っている
ハァーウェイ問題もその一端。

20世紀は石油が富を産み出したが、21世紀は情報が富を産み出す
大国による資源の奪い合いから取り残されている日本

220ニュースソース検討中@自治議論スレ2019/02/23(土) 00:09:50.40ID:UgwRx+ix
>>203
さすがに極端すぎる例え方だな
主婦が特許を取るのは商品の元となる品を開発したのは、必要にかられたから、という分かりやすい理由が存在する
とりあえず取得するには特許料が高すぎる

221ニュースソース検討中@自治議論スレ2019/02/23(土) 00:50:08.60ID:YIvtEZoh
素振りしまくったら野球や剣道で達人の域に達したみたいな感じかな

222ニュースソース検討中@自治議論スレ2019/02/23(土) 00:56:40.68ID:Zs4YaRMP
空を飛ぶという目的の為には、鳥の羽ばたきを忠実に模倣しなくても、
固定翼の飛行機でも足りるように、
脳神経の機構(いまだに不明なことだらけ)を忠実に模倣しなくても、
なんだか同じように機能するものを工学的に作れたなら、それで満足できる
可能性が高いし、鳥そのものよりも飛行機の方が有用であるように、
かりに人工頭脳が実現したら、それは人間の頭脳の知性を遙かに凌駕する
AIにもなりうる。そうしてついに人間は要らなくなるかもしれない。
そうなったら、AIは歴史を振り却って、ホモサピエンス(人間)は、
我々AIという究極の知性に到達するための中継地点であったのだ
というのかもしれない。

223ニュースソース検討中@自治議論スレ2019/02/23(土) 01:02:34.49ID:Jc7KsLyF
なんでこんなアホが教授できるの?

慶応義塾大学ってFランだったの?

224ニュースソース検討中@自治議論スレ2019/02/23(土) 01:27:07.20ID:CKANxAVQ
コイツらどっちも分かってない
単純な最少二乗法でも深い最少二乗法でもなく、ただの巨大行列式だよ
lossの値が同じであっても行列計算結果は異なるし、lossは地震計のようにブレながら減少するが、低くければ低い程正解になるわけじゃない
そもそも学習にはlossを使うが、一般的にAIと呼ばれている予測実行時にはlossは使わないからな。この時点でAIは最少二乗法という点が間違いである事が証明できている。

225ニュースソース検討中@自治議論スレ2019/02/23(土) 08:27:56.19ID:bA3riGOk
>>224
いや学習の話ですしおすし

226ニュースソース検討中@自治議論スレ2019/02/23(土) 08:46:02.80ID:5VHwWUNf
深い関数ってなんだよ

227ニュースソース検討中@自治議論スレ2019/02/23(土) 09:36:56.34ID:G53no/MA
ま、俺はわかってるけどね、て言いたいだけ

228ニュースソース検討中@自治議論スレ2019/02/23(土) 10:44:22.91ID:SDjocjCI
比喩に過剰に反応しなくても、、、、

229ニュースソース検討中@自治議論スレ2019/02/23(土) 11:28:31.94ID:NCMIpNDr
深いい話になってないな

230ニュースソース検討中@自治議論スレ2019/02/23(土) 14:16:24.26ID:Pd86o2rM
>>219
なるほど

231ニュースソース検討中@自治議論スレ2019/02/23(土) 16:36:51.29ID:ZPeuZNWg
ビッグデータなんてまやかし。

ディープラーニングのAIが上手く予想できなかった時に、
「もっと教師データが必要みたいですね」
「今のデータではまだ不足しているみたいです」
と逃げるためにビッグデータという言葉が生まれただけ。

過去のデータに基づく近似である以上、将来予測が当たる保証はどこにもない。
昔、多変量解析の競馬予想ソフトでさんざ言われていた事。

また、トレーニングも、大体1000回くらい繰り返して学習されるわけだが、
たくさんやると、過学習に陥って、未知データに対する予想のブレが大きく
なるという根本的な問題も抱えている。

232ニュースソース検討中@自治議論スレ2019/02/23(土) 19:19:18.21ID:INZHKtA+
単純な計算ルールを入れ子構造で何度も繰り返すように設計したら、人間の思いもつかない複雑な計算をできるようになりました

233ニュースソース検討中@自治議論スレ2019/02/23(土) 20:36:22.06ID:YUzN7X58
>>232
分かり易い。
深い関数っていうのが意味不明だったw

234ニュースソース検討中@自治議論スレ2019/02/24(日) 06:49:24.12ID:2I7hy5qX
ディープラーニングって言葉がディープニューラルネットワークとマシーンラーニングを合わせた造語だからディープラーニングを一言で説明するのは軽率だね
あえて一言で説明するなら人間の脳と同じ仕組みとでも言えばいい

235ニュースソース検討中@自治議論スレ2019/02/24(日) 08:27:07.24ID:o5jdRF37
世界から失笑をかうだろうな

236ニュースソース検討中@自治議論スレ2019/02/24(日) 08:36:43.68ID:fHOt3odg
>>231
過学習の意味が違うと思うけど
人間でいう過度な一般化と同じだから学習量が足りない状態

237ニュースソース検討中@自治議論スレ2019/02/24(日) 09:07:51.89ID:gBHSee42
>>231
>たくさんやると、過学習に陥って、未知データに対する予想のブレが大きく
なるという根本的な問題も抱えている。


新しいデータに重み付けを大きくするなり過去のパターンと合致しているかの判定を組み込むとか対策はいくらでもあるじゃん
無能を前提としてもらっても困る

238ニュースソース検討中@自治議論スレ2019/02/24(日) 09:53:33.93ID:rfMMlvtQ
今すぐ生き物と同じ知能を実現しないと無意味とか言う人がいっぱいいら科二+民に言っても無駄

239ニュースソース検討中@自治議論スレ2019/02/24(日) 11:35:32.59ID:2RZbANTu
>>236
過学習の意味はあっているよ。
英語ではover fittingとなる。

AIの学習は、差の数%を遡り反映させて、少しづつ誤差関数の誤差を小さくしていく。
1回のトレーニングでは対して誤差が小さくならないので、概ね1000回程度、上記の
作業を繰り返す。途中までは誤差が漸減していくが、あるところで減らなくなる。

ここで問題が2つ生じる。
1.局所最適解と呼ばれる、偽の解にトラップされてしまう可能性がある
→optimizerという形で回避方法は開発されている。

2.誤差の漸減が止まるあたりで止めないと、今ある教師データには合致するが、
教師に無いデータでの誤差が極端に大きい状態に陥る。これを過学習と言う。
→漸減の停止が過学習なのか、局所解なのかは人間が判断するしかない
 原理的に完全な自動判定は不可能。

>>237
それは強化学習的考え方だね。いつまでたっても学習が終わらないという事で、
まさにビッグデータ詐欺の発想だね。まだまだデータ足りないと言い続けて、
いつかは完璧になると言っているだけ。

あと、「新しいデータの重み付けを大きくする」って一言で言うけど、どうやるの?w
一般化できたら、恐らく論文一つ書けるよ。

240ニュースソース検討中@自治議論スレ2019/02/24(日) 12:46:28.28ID:4VNLSdc+
過学習は進化学でいうところの過剰適応のこと?

241ニュースソース検討中@自治議論スレ2019/02/24(日) 12:53:48.04ID:wyfZgVsx
>>240
そろそろAIを生き物に例えるのはやめようよ。

242ニュースソース検討中@自治議論スレ2019/02/24(日) 13:11:25.35ID:gBHSee42
>>239
>あと、「新しいデータの重み付けを大きくする」って一言で言うけど、どうやるの?w
一般化できたら、恐らく論文一つ書けるよ。



小学生かよ、書けるわけねーだろ…
仮に1日1個のデータで過去1年のデータを集めて>>1にあるように最小二乗法で近似曲線を求める評価系なら
過去1ヶ月のデータを意図的に1個重複
過去1週間のデータを意図的に2個重複
それで最小二乗法で近似曲線求めりゃいいだろ
これは一例に過ぎないが他にもいくらでもやりようはある
小学生には難しいけどな

243ニュースソース検討中@自治議論スレ2019/02/24(日) 13:11:33.76ID:5/G4rfFW
過学習の1例
 ある入力xの2次関数で表現できる現象yがあるとき
 実験で3点(x1,y1), (x2,y2), (x3,y3)を得れば、
  y=ax^2+bx+c
の関数を正確に得られる。

 4点目(x4, y4)を追加したとき、制限なしで学習させれば、
 すべての点を通るように3次関数( y=ax^3+bx^2+cx+d)
 で表現してしまい、結果がいびつになるようなもの。

 実験には誤差があるという前提ではあるが。
 無限数のパラーメータ、無限次関数ならどうなるかは、
 考えたことないのでわかりません。

244ニュースソース検討中@自治議論スレ2019/02/24(日) 14:24:43.73ID:2RZbANTu
>>242
それ、直近のデータに対して過学習してしまうだけじゃん。

245ニュースソース検討中@自治議論スレ2019/02/24(日) 14:34:38.29ID:gBHSee42
>>244
君の考える過学習の定義を聞きたいね
おそらく私の過学習の定義と異なるようだ

>>242を例にするなら
データサンプル期間中に過去1ヶ月の段階でパターンに変化があったとき
1年のデータでの予想より1ヶ月のデータの方がより正確になることが期待される
このとき1ヶ月以上前のデータの影響を過学習と呼ぶ

246ニュースソース検討中@自治議論スレ2019/02/24(日) 15:08:48.42ID:gpFcKbuT
おまえらってプログラム書けないのな
過学習ってのは均一化されていないクソデータを学習に使ってる事に原因があり、
データ件数の多いクラスに流れるように行列値が0に置かれることで、以降の学習が崩壊してしまう事を指す
未学習に対してうんたらは見当違いが甚だしい
検証コードも書かずに他人の記事や論文で知ったかぶってる奴がディープラーニング語ってゴミ撒き散らすな

247ニュースソース検討中@自治議論スレ2019/02/24(日) 15:51:46.90ID:2RZbANTu

248ニュースソース検討中@自治議論スレ2019/02/24(日) 16:02:11.38ID:gBHSee42
>>247
意味不明だね
やはり>>245は過学習じゃないと言わざるを得ないんだが?

249ニュースソース検討中@自治議論スレ2019/02/24(日) 16:03:52.91ID:2RZbANTu
意味が分からないのに、なぜ違うと言えるの?

250ニュースソース検討中@自治議論スレ2019/02/24(日) 16:05:24.58ID:gBHSee42
>>249
君のレスが意味不明ってことね

251ニュースソース検討中@自治議論スレ2019/02/24(日) 16:06:07.80ID:2RZbANTu
>>245
>1年のデータでの予想より1ヶ月のデータの方がより正確になることが期待される

直近のデータの方が正確になる特殊な事例の時にしか通用しないという前提を
書いているのかな?

>このとき1ヶ月以上前のデータの影響を過学習と呼ぶ

これは完全に間違い。

252ニュースソース検討中@自治議論スレ2019/02/24(日) 16:18:14.98ID:gBHSee42
>>251
じゃ、それでいいや

ところで>>242は過学習ではないってことでいいかな

253ニュースソース検討中@自治議論スレ2019/02/24(日) 16:22:49.04ID:2RZbANTu
>>252
じゃあそれでいいよ

254ニュースソース検討中@自治議論スレ2019/02/24(日) 17:10:11.15ID:2S9U/AhZ
いずれにせよ
なんかしらの計算であることには間違いない

255ニュースソース検討中@自治議論スレ2019/02/24(日) 19:18:16.66ID:mlex3bt+
>>220
全く論点がズレてて反論になってない
人工知能的な物への需要はあったわけだし

研究の世界から遠そうな君に教えてあげると、日本の偉大な先生方は、素晴らしい方達だけど、
理由を説明できることに大きな価値を置いて、理由を十分に説明できない研究には低い評価しかしなかったんだよ

256ニュースソース検討中@自治議論スレ2019/02/25(月) 01:07:07.55ID:/58ZiOwh
>>246
プログラム書けてもライブラリ呼び出しの方法しか説明してないのも多いんだよね
歌ってみた、程度のが多い

257ニュースソース検討中@自治議論スレ2019/02/25(月) 09:07:03.63ID:Bqqqj9Gx
趣味のゲームAI用に多層パーセプトロンまでは行列パッケージで組んだ。
正則化やオートエンコーダ、その他諸々。
多層でも収束させrための技術も色々組んだ。
CNNの登場で、2行目のネタが全く不要になり、現在は忘却の彼方へ。

CNNは途中までトライしたけど、行列での表現が難しく、
しかも努力の方向性が違って来ていると思ってやめた。
そもそも計算機資源が足りなかった。
学習だけじゃなく、予測する際にも、速度的に無理というレベルが予想できた。

世の中の人は、DCNNから入った人も多いんだろう。
そういう人はライブラリ使っていれば良い。

僕は自分で組みたかったのでDCNNで足を洗った。

258ニュースソース検討中@自治議論スレ2019/02/25(月) 14:39:03.57ID:Bqqqj9Gx
>>246
行列値がゼロってのは、ウェイトがゼロになっちゃう事か?
それは過学習とは言わない。勾配消失と言う。

259ニュースソース検討中@自治議論スレ2019/02/25(月) 19:41:16.87ID:jjbqceYu
AIっていつできるのよ

260ニュースソース検討中@自治議論スレ2019/02/25(月) 19:51:53.71ID:o743vINS
>>219
2ちゃんは?

261ニュースソース検討中@自治議論スレ2019/02/25(月) 19:57:54.33ID:UM+dlXNL
>>259
もう出来てるよ。
製品もオープンソースの実装も山ほどある。

262ニュースソース検討中@自治議論スレ2019/02/26(火) 00:29:37.71ID:DpRoi0pH
>>255
それは日本に限らず世界的にもそうだろう
理由の説明ができるかできないかでインパクトファクター全然変わるやん

263ニュースソース検討中@自治議論スレ2019/02/26(火) 01:33:02.00ID:OEtEkfb0
>>262
学界の中ではそうなんだけど、産業界も含めた作り出すことを目的とした競争では、そこにとらわれ過ぎない方が上手くいくこともある

264ニュースソース検討中@自治議論スレ2019/02/26(火) 07:52:30.68ID:cvvd7UcP
最小二乗法とか言われても分からんだろ

265ニュースソース検討中@自治議論スレ2019/02/26(火) 10:30:42.25ID:AiUUca5f
回帰分析って高校で習う?

266ニュースソース検討中@自治議論スレ2019/02/26(火) 14:50:56.76ID:fTP8YosP
>>263
うだうだ婉曲的に言ってるけど、要するにロジカルに進めてくか、セレンディピティも重視するかってことね
極論すると、主婦の特許はセレンディピティじゃないよ、あなたの例えは不適切だよってのがおれの言いたいことね

具体的に明示できんくせにいちいち言葉もムカつくから、もうレスいらんよ

267ニュースソース検討中@自治議論スレ2019/02/26(火) 16:02:55.65ID:c/FX+EH/
>>266

268ニュースソース検討中@自治議論スレ2019/02/26(火) 22:07:36.54ID:AiUUca5f
衒学オナニースレッドでした。

269ニュースソース検討中@自治議論スレ2019/02/26(火) 23:26:43.40ID:DpRoi0pH
>>267
男前が居た

270ニュースソース検討中@自治議論スレ2019/02/27(水) 02:24:42.31ID:s7ELT2r5
>>259
AIの定義による
知能=人間の脳 なら
人工知能はまだ出来てない
知能=将棋や囲碁や顔認識 なら
もうわかるよね

271ニュースソース検討中@自治議論スレ2019/02/27(水) 02:34:28.69ID:MlOYFRld
深い関数というのが重要ではあるが、最小二乗法に過ぎないというのも間違いではないでしょ。
人間は考える葦であるというのが重要かもしれないが、哺乳類に過ぎないという意見も正しい。

272ニュースソース検討中@自治議論スレ2019/02/27(水) 02:54:53.03ID:cqDaxmYx
>>271
人類とは何か。
ただの哺乳類にすぎない。

と書いてどんな意味があるのだろうか?
何を説明したいのか分からん

273ニュースソース検討中@自治議論スレ2019/02/27(水) 10:32:43.00ID:nt6x9hb+
深層学習は重み付き最小二乗法

274ニュースソース検討中@自治議論スレ2019/02/27(水) 10:56:10.75ID:QbZcYgNL
最小二乗法は、重みを計算するためのものです。
深層学習関係ありません。

275ニュースソース検討中@自治議論スレ2019/02/27(水) 11:41:21.29ID:nt6x9hb+
加重最小二乗法のループによってそれ自身の重みを推定する

276ニュースソース検討中@自治議論スレ2019/02/27(水) 11:57:11.16ID:QbZcYgNL
意味不明。

深層学習が既存の近似法より優れている点は、
説明変数を人間がアドホックに与えなくて済みそうな点です。

ある法則の仮説検証は、アドホックに決めた近似式を用意して、
統計的に検証する事で行われますが、近似式をアドホックに
決める所が大変に難易度の高い作業です。

例えば、ニュートンは、f=maという単純な近似式を見出した事で
(古典的)重力理論の創始者となる事ができました。

深層学習では、学習した結果が、実測値の予測に優れている事が
証明されたうえで、何を学習したのかを中間層の重みを可視化する
などして調査する事で、より単純化した法則を導き出す事ができる
可能性があるという事です。

仮説→検証→仮説の法則化ではなく、深層学習→検証→法則と
なる可能性が出てきます。

277ニュースソース検討中@自治議論スレ2019/02/27(水) 14:07:18.14ID:B3YeE9l8
>>272
「人間も動物にすぎない」といったら、性犯罪に理解を示す言葉。

278ニュースソース検討中@自治議論スレ2019/03/04(月) 20:00:09.04ID:I1z4LavJ
>>7
最小二乗法を知ってる人なんてそんなにいないと思うんだが…

279ニュースソース検討中@自治議論スレ2019/03/04(月) 20:05:36.38ID:I1z4LavJ
>>270
知能が画像認識等の問題とするならば、
それに使われてる仕組みはもう揃ったと言って良いんだろうか?
人間の脳神経があんなに大量の情報をさばいてるとは思えない。
それに、人間の枝刈りの能力は尋常じゃない。

280ニュースソース検討中@自治議論スレ2019/03/04(月) 21:50:05.60ID:eOMrVAP2
最小二乗法は高校数学ではたぶん習わない。
統計学の基礎的な教程でも出てこない。
それより、
コンピュータ・プログラミングのアルゴリズムや
数値計算の書籍にかなりの確率で出てくる。

281ニュースソース検討中@自治議論スレ2019/03/05(火) 01:34:05.89ID:pGRiT2q7
>>280
オレは理学部物理学科だったけれど
学部2年か3年で勉強したような記憶がある。

その後も数値計算とかCAGDとかシミュレーションについて勉強し続けていたので、
上記記憶はもしかしたらオレに記憶違いかもしれないが、
学生レベルだと思うよ。

282ニュースソース検討中@自治議論スレ2019/03/05(火) 01:43:00.18ID:pGRiT2q7
>>281
思い出した、物理実験のデータのfittingにfortranとか使ってやってたわ

283ニュースソース検討中@自治議論スレ2019/03/05(火) 10:16:31.82ID:ry3szETg
最低でも義務教育で、基本的な統計学とか確率論の基礎って教えておかなくちゃいけない気がする
グラフの読み取り方とかって、例に出して悪いが三角関数よりは必須だと思う
騙されないようにするためにも

284ニュースソース検討中@自治議論スレ2019/03/05(火) 10:30:05.34ID:URiPLPwA
基本的にはそういうこと
>>232
再帰反復関数系にしたらチューリン完全に近づいたってことか?

285ニュースソース検討中@自治議論スレ2019/03/05(火) 10:35:18.02ID:URiPLPwA
>>276
それはデータによるから相当規模のデータで検証しないと複雑なのは無理

286ニュースソース検討中@自治議論スレ2019/03/05(火) 10:46:48.36ID:Zxg1yFfI
最小二乗法だけでは深い関数は学習できなかったんだよ

深い関数自体は30年とか前から提案されている
だれもそれを学習できなかっただけ

深いこと自体は新しくもなんともない
深い関数を学習できるようにしたことが革命なんだよ
この自称大学教授はもっと勉強した方がいい

287ニュースソース検討中@自治議論スレ2019/03/05(火) 10:54:56.72ID:u9goaxLF
あのゴルフの誰や、
藤井7段じゃなくて

288ニュースソース検討中@自治議論スレ2019/03/05(火) 10:55:00.37ID:VZY6lijd
>>4
だから分かりもせずに設計主義に走ると失敗する
構造改革と言って、何を改革するのか政治家も国民も理解してないのは、
粛軍演説の頃からの常

289ニュースソース検討中@自治議論スレ2019/03/05(火) 10:58:53.30ID:URiPLPwA
>>240
ワニは適応(進化)しすぎて元に戻れなかった
哺乳類は適応(進化)してなくて後の環境に適応できた

290ニュースソース検討中@自治議論スレ2019/03/05(火) 11:05:14.26ID:fD8whdfM
>>285
データではない。対象がモデル可が可能かどうかによる。

データ規模がどんなに多かろうと、ランダムの寄与度が高い対象は良い
モデルが構築できない。

また、データ規模はあった方が良いが、多ければ多いほど、誤差が減ると
いうものでも無い。

一番の問題は、過学習の問題を抱えていて、ある回数から学習回数を増や
せば増やすほど、予測能力(モデル構築能力)を失っていく可能性がある事。

モデルがどのくらい正確かを知るには、半数のデータで学習して、残りの
データで誤差を算出するなど、非常に手間がかかりかつ非効率(半数の
データを学習に使用できない)なところもある。

291ニュースソース検討中@自治議論スレ2019/03/05(火) 11:12:27.98ID:c1qgd2+a
最小二乗法、有名すぎて草

292ニュースソース検討中@自治議論スレ2019/03/05(火) 21:03:17.74ID:Fgygb86i
「深い」とか言ったって何も伝わらないんじゃないかなあ。
フィッティング関数を何個も重ねてますって言った方が良いんじゃ・・

293ニュースソース検討中@自治議論スレ2019/03/05(火) 23:30:55.78ID:ZawfYHdE
Wikipediaに「残差平方和」とは
「残差の平方(二乗)の和である」と書かれてあって笑った。
まんまじゃん。説明する意味があるのか?

294ニュースソース検討中@自治議論スレ2019/03/06(水) 02:20:37.82ID:SLjTUXhr
「深い関数」というのはwell definedなのか?
およそ数学的というには程遠いようにしか思えんが
適当な説明をしたら誤解された 当然だ

295ニュースソース検討中@自治議論スレ2019/03/07(木) 07:23:59.56ID:DwP5Eeur
>>286
松尾先生はちゃんとそう言っているよ
ディープラーニングは古くからある発想だが、入手できるデータ量とマシンスペックが向上したことそれ自体によって実現したことが凄いのだと
これはたぶん情報理工学を専攻していれば博士どころか学生でも当たり前に知っていることだと思う

296オーバーテクナナシー2019/03/08(金) 00:00:29.69ID:pm14hPYZ
(強いAI)技術的特異点/シンギュラリティ152
https://rio2016.5ch.net/test/read.cgi/future/1551510897/

297ニュースソース検討中@自治議論スレ2019/03/08(金) 07:25:47.75ID:lea6NATy
>>295
いやいや、深い関数だとどれだけ回しても局所解から抜け出せないってのがあったじゃない。
それができるようになったのは、手法の改善も大きいと思うよ。

298ニュースソース検討中@自治議論スレ2019/03/08(金) 07:35:45.44ID:oTaMhuVV
>>297
自分の論点が書かれてなかったからって他人の発言を否定するような書き方をするのはやめよう。
レス先を見てごらん。

それともレス内でAIの実装を語るには全方面に配慮して歴史と仕組みでも並べないといけないのかな。

299ニュースソース検討中@自治議論スレ2019/03/08(金) 07:41:17.09ID:ws0LKIu3
これが日本の研究レベルだから仕方ない。いい研究者はみんなアメリカか中国だよ

300ニュースソース検討中@自治議論スレ2019/03/08(金) 11:33:42.20ID:sB833diN
松尾豊の過大評価は異常

301ニュースソース検討中@自治議論スレ2019/03/08(金) 19:29:53.94ID:EQzMLDi2
>>290
こういうこと?

たとえばAIに「人類の未来に必要なことは?」と聞いてみる。
AIは回答の一つに「現時点でユダヤ人を撲滅しておくのが人類にとって最良だし欠かせないことだ」と結論を出した。
驚き詳しく調べてみると「将来の人類」とは300年先の人類のことだし、ユダヤ人撲滅するためには300年もの間に人種間の争いで人類は塗炭の苦しみを負わなきゃならないと解った。
しかも300年以後に人類がどうなってるかは結論が出てない、と。

こういう過剰な予測のこと?

302ニュースソース検討中@自治議論スレ2019/03/08(金) 19:35:37.21ID:z7BSqEy2
ユダヤもたいがいだが靖国はそれ以下と言い切れる

303ニュースソース検討中@自治議論スレ2019/03/08(金) 23:36:14.10ID:7JFNWyPG
>>298
あまりカドを立てたくなかったからソフトに書いたけど、ディープラーニングの大半の成果は手法の改善なんだよ。それもほんのちょっとした改善がとてつもない効果があった。
計算速度の向上とかはほとんど関係ないし、データだって90年代には膨大な量が揃ってた。書くなら一番重要なとこを書こうよ。

304ニュースソース検討中@自治議論スレ2019/03/09(土) 01:39:30.15ID:KIIe3urS
>>303
>>295だけど、>>298は俺じゃなく別の人ね
手法の変化というのは具体的にはシグモイド関数でなくRelu関数を使うようになったことを指してるんだと思うけど、これも松尾先生はもちろん学生でも知っている常識だからね
これは既存の手法では結果を微分した際に極端な値しか取れず最適解に収束しないことが問題だったが、Reluを使うことで上手くいくようになったという事実だが、工学博士が知らないわけはないからね
それを勉強しろなんて書いていたのがいい加減だなぁと少し腹が立っただけさ
あなたは>>286じゃないだろうからこんなレスする意味はあんまりないかも知れないがw

305ニュースソース検討中@自治議論スレ2019/03/09(土) 01:39:52.02ID:Av63kB/G
>>301
ディープラーニングは基本的に分類問題を扱う
犬と猫を学習させれば犬と猫を見分けることが出来る
しかし、犬と缶とクラシック音楽みたいに共通点の乏しい(ランダム性が高い)ものを学習させると、意図しない分類をしてしまう
だからデータの違いに対してあえて学習を鈍感にさせることで、共通点の少ないデータによる意図しない分類をなくす必要がある

306ニュースソース検討中@自治議論スレ2019/03/09(土) 02:03:34.90ID:8TQOQ53G
ニュートン法「俺の方が速いじゃん!」

307ニュースソース検討中@自治議論スレ2019/03/09(土) 02:11:16.33ID:XrfQvhE4
リカチョン 何の事だかよく分からず

灯台と聞いてカット頭に血が上り、ハラハラと落涙す ワカゲノイタリ

308ニュースソース検討中@自治議論スレ2019/03/14(木) 21:48:06.38ID:uVKokREI
>>305
あんた物識りだね。しかも説明上手。

309ニュースソース検討中@自治議論スレ2019/03/15(金) 08:36:56.94ID:CynRJCiD
>>305
それをチューニングって言うけど、ここがセンスの問われるところなんだよな
まだ、正解というか機械的に行うことは難しいっぽいし

310ニュースソース検討中@自治議論スレ2019/03/15(金) 17:03:50.48ID:7I80v5J4
あんまセンス問われないと思う

311ニュースソース検討中@自治議論スレ2019/03/15(金) 21:44:23.70ID:7utwAxnc
それは正則化の類だな。

312ニュースソース検討中@自治議論スレ2019/03/16(土) 05:12:46.61ID:QCFeAq3n
ディープダンジョンは、原理的には単純なwizに過ぎない

313ニュースソース検討中@自治議論スレ2019/03/16(土) 06:21:22.49ID:HHj9ouVJ
>>34
浮浪者のおっさんが解説しようが
誰がしようが、真理は変わらないが?

お前は説明してくれる人によって、
地球が丸くなったり、平らになったり
すると思うのか?w

314ニュースソース検討中@自治議論スレ2019/03/16(土) 07:27:26.75ID:/FBCLRF9
>人工知能の「やりきれなさ」といかに向き合うか | Forbes JAPAN(フォーブス ジャパン)
https://forbesjapan.com/articles/detail/25930
>「知能」とは、「答えの有る問い」に対して、いち早く、正解に辿り着く能力のこと。
>これに対して、「知性」とは、その全く逆の能力、「答えの無い問い」を問い続ける
>能力のことである。答えなど得られぬと分かっていて、なお、それを問い続ける能力のことである。

おまえらに無いのは知性な。IQだけを知能としてEQやらSQ,HQやらAQなど

知っている奴が、それすら しらないってどういうことよ?

おまえらがシッタカしているのは 知能であって知性ではない。

315ニュースソース検討中@自治議論スレ2019/03/19(火) 11:25:40.97ID:+Kwxwk7c
原理的には〜なんつったら何でも基礎原理まで還元されてしまうぞ
はやぶさ2号だってニュートン力学の応用にすぎないとか言うことはできるがそれで何か分かった気になるのはむなしい

新着レスの表示
レスを投稿する