【IT】統計学と機械学習を支える数学が、 「全く一緒」と言えるわけ
■ このスレッドは過去ログ倉庫に格納されています
中略
「ITと統計学の素晴らしき結婚」で生み出されたもの
では、高校までの数学教育はどのようにすればよいのでしょうか?
私の個人的な考え方は「統計学と機械学習の専門的な勉強がはじめられることをゴールとして、高校までの数学のカリキュラムは再編成されるべきである」というものです。
統計学に加えてここで突然機械学習の話が登場したことに驚いた方もいらっしゃるかもしれません。「統計学と機械学習」あるいは「統計学と人工知能」と言われると、多くの人がなんだか全く別のもののように感じるはずです。しかし、実はその背景にある数学的な道具立ては「全く一緒」と言っても過言ではありません。
初代『統計学が最強の学問である』では、この20年ほどで統計学がとんでもなくパワフルになった理由として「ITと統計学の素晴らしき結婚」という表現をしました。多くの人が大学の教養課程で習う「紙とペンの統計学」が、コンピューターサイエンスという強力な伴侶を得たことにより、現実的な問題の意思決定に際して大きな力を持つようになったわけです。しかし、この結婚によって生まれたのは「現代的な統計学」だけではありません。もう1つ「現代的な人工知能」というとてもパワフルな兄弟をも産み落としました。
1950年代にはじめて「人工知能」という言葉が使われるようになってからの第一次人工知能ブーム、そして1980年代の第二次ブームのそれぞれで、人工知能研究の主流は「コンピューターに人間の持つ論理や知識を教え込むことで知能を生み出せるのではないか?」という考え方でした。当時のこうした考え方に基づき書かれた人工知能研究の論文や書籍を見てみると、そのほとんどは記号論理学のような話ばかりが記述されており、統計学とは全く別の分野であると言えます。ただし、こうした「人間がコンピューターに論理と知識を教え込む」というやり方は行き詰まりを見せ、これら二度の人工知能ブームは廃ってどちらも冬の時代を迎えました。
一方で少なくとも1960年代の終わり頃からちらほらと、一部の人工知能の研究者たちは「確率」や「データへのあてはまり」といった統計学の概念を取り入れはじめます。たとえばディープラーニングは専門的には「層の数がとても多い(ディープな)ニューラルネットワーク」であると表現されますが、実は世界に先がけて多層ニューラルネットワークによる画像認識を研究した日本の甘利俊一は、ニューラルネットワークに統計学のような確率や微分といった考え方を持ち込みました。こうした「データとデータの間の最もあてはまりのよい数学的な関係性を推定する」という統計学的な考え方は、現代のディープラーニングの中でも大きく役に立っています。
話をまとめると、「ITと統計学の素晴らしき結婚」によって次の2つがこの世に生み出されたということです。
1つは統計学において、紙とペンの手計算だけでは難しい分析がコンピューターによる計算アルゴリズムで実現できるようになりました。これが「現代的なITによる統計学」です。一方で、コンピューターサイエンスの世界で生まれた人工知能研究においても、記号論理学のような理屈や知識表現だけではうまくいかなかったことが、統計学の理論と計算方法によって実現できるようになりました。このようなクロスオーバーが、現代のデータ社会の中でとても大きな力を発揮しているのです。そしてそれゆえに、統計解析手法と機械学習手法を数学的に記述するやり方は、細かい慣例などの違いこそあれ「基本的に全く同じ」というわけです。違いがあるとすれば数学的な理屈の後の、「どういうアルゴリズムでコンピューターを働かせるか」という部分ぐらいでしょうか。
そうすると、いまエンジニアたちが統計学と機械学習の背後にある数学に慣れておくことは、前述のような品質の向上や、生産計画の最適化に使うという以上の意味を持ちます。蒸気やガソリンを使ったエンジンを使いこなすために熱力学を理解するとか、電子部品を使いこなすために電磁気学を理解する、といったのと同じようなレベルで、これからのものづくりにおいてその競争力の少なからぬ割合が、機械学習技術をどう活かすか、というところと関係してくるからです。
http://diamond.jp/articles/-/153736 どれもこれも、俺が使ってる名古屋大学設計の伊藤製作所の椅子を真似した嘘です まったくいっしょじゃないよ
数学は公理体系がちがえばまったくちがうものになる
そんなのもしらんのか イギリスは、使ってる椅子をどれもこれもウイルスだと言っていた
それが、トヨタ自動車の名古屋がからんだ途端に舌の枚数を増やした ,;:⌒:;,
8(・ω・)8 重み付けってやつか やれやれ、両方とも線形代数の上に作られた学問なんだが、
統計学には2つあって、
1) 1万人のデータがあればそれを絶対視して、1万1人目のデータを○×で判断する
検定主義
2) 1万人のデータがあれば、1万1人目のデータはその一つでしかないと考えるベイズ
統計学
がある。1)なら1万100人目でも、すーっと同じ判断をするから学習しない。2)なら
1万100人目は学習して違う判断をするはず。そこまで言えば機械学習がどちらの理屈で
動いているか分かるだろ。 iMacのCPUのHaswellの洒落でも、アメリカ人はこれを幽霊船と言ってますが 判別分析を良い感じに一般化したらパーセプトロンになるよみたいな話をどっかで見たなあ 1万人のデータから得られた平均μ、標準偏差σがあったとして、
30人の実験をしてみて得られたデータXがあるとする。
検定主義なら平均μ、標準偏差σを絶対として、実験が正しいか
誤りかを判断するしかない。
ベイズ統計学ならこの実験結果を基に平均と標準偏差がどう分布
しているか、をμ(X), σ(X)を考える。Xが増えるごとにこの推定値が
変化していく=学習なわけだね。 構文解析とか機械学習とか言うけど、古いパーシングミサイルの再開発でしょ
危ないわ もっと具体的に行こう。
表裏同一の確率で出る本物のコインと表60%裏40%のニセのコインがそれぞれ
入っている2つの袋A, Bがあるとする。2つの袋にどちらが入っているかはまったく分からない。
ニセである確率は1/2ずつである。
Aの袋から1枚コインを取り出しトスしてみたら表が出た。表が出たことでAがニセコインの
袋である確率は上がったか上がらないか、そういうことだ。 結局ただの多変量解析だし。
ソフトがあれば十分。
weka使え。 Weでいま大問題なんですが、嘘ぶいたのがまずかった 最小二乗法を教えとけば良いんじゃないの?
あとは文系も含めて行列を必修にするとか。 >>13
悪いけど、今の統計学では確率の話はしないんだ。 ,;:⌒:;,
8(・ω・)8 人間の脳は過去に経験が統計的にμで見てるってことでいいの?その振れ幅が±σってこと? >>17
フジテレビの柳沢慎吾にやった詐偽を再現するかどうか言ってるだけ きのこの山とたけのこの里がそれぞれ入っている袋がある。
外側から見ても、それぞれの確率は1/2である。
画像をカメラで取り込める機械学習できるコンピュータが
あったとして、100回どちらか判断させたら60%正解
40%不正解であった。101回目の結果をコンピュータに
教えたら、その正解の確率が上がる=ベイズ統計学的な
学習であるわけだね。 >>16
まあ、最近は機械学習でまOLE使うようになったけど、まだ勾配降下法の方が多いだろう。
機械学習って基本は問題解決の話であって、統計分析の話じゃないから。 純粋数学は別として応用数学では統計学が重要だよな。
とくに最近のビッグデータ処理技術と結びつくと無敵だわ。
世の中、正確な答えよりも、最適な答えの方が価値があるからね。
グーグルがのしてきたのも、ビッグデータと統計学(機械学習)のおかげ。 >>20
そういう学習をしているニューラルネットはないわけではないが、主流ではない。 今は開発競争が盛んだけど、数年もしたら汎用的なツールに収斂するんじゃないかな
そうなればアルゴリズムよりETLの方が人手が要るだろうけど
そこに必要なのは数学ではないんだよなあ >>17
まあどっちでもいいだけれど、基本は線形計量空間に張られたベクトルとその内積の
計算でしかない。学習はベイズ統計学、一定数集まったときの判断は検定主義で
判断することが多い。 >>23
言ってることは間違ってないが、お前がその話を理解できてないのはわかっている。 >>26
それは純粋な統計の話で機械学習の話ではない。 >>24
原理の説明だ。じゃあどうやっているか説明してもらおう。 >>22
対策部品をきょう入れたんだが、疾患はまだ有る >>28
否定するのなら、否定するだけの説明をしてもらおう。 線形代数 → 確率統計学 → 機械学習
の理論的展開が分かっていない人のための>>1だと分からないか? >>32
まあ、確率を使わないというのも俺を認知症にしようって罠だしね 多変量解析と機械学習の根本的な差が分からない奴は、結局分かって
いない人だな。 機械学習をAIと呼ぶ今の風潮なんなん?
超簡単に言っちゃうと回帰分析の高級版だろ? >>35
スティーブ・ジョブズが死んだのは嘘で
みんなのデータもIDもスロットマシーンにしか見て無くて
嫌味でラスベガスに隠れてるってだけかもな >>34
PhD持ちだけど両者に実質的な差なんてない。
無論差があるんですかって聞かれたらあるって答えるけどな。
その方が儲かるから。 >>36
過学習しすぎでアウトプットがオカシくなってるぞお前 説明する
↓
根拠もなく否定する
↓
説明する
↓
長文を連投する
そういう発達障害のお友達が集うのがネットの世界だな。 じゃあ具体的に数学のカリキュラムの何を減らして何を増やすわけ? >>1
統計学が科学ではないと言ってる奴は、古典物理で止まってる
だが最強の学問かは、他の学問を網羅してから言え 自分が高校生の頃は統計学なんてなかったと思うが、
今は高校で統計学を勉強するのか。
いいなぁ。 >>42
>統計学と機械学習の専門的な勉強がはじめられることをゴールとして、
>高校までの数学のカリキュラムは再編成されるべきである
つまり現状はそうでないということ 結局は線形代数、微積、確率、集合論が基礎になる。
これさえやっておけばだいたいの論文は読めるようになる。 大学でいたときに、確率統計の講義があったのはあったが
放送大学を流すだけという手抜きがばれて、俺の顔のことで
全部嘘と言われてたのを、俺の尻でなんとかしても、また嘘かもな >>29
ググレカス。
検索エンジンの要約だってもう少しまともだ。 >>31
現実の機械学習はそうなっていない。
以上。 >>32
その分野をまとめて同じというなら、線形代数とその応用分野は同じということになるから、ORも代数解析も、数理計画法も確率論も全部同じ数学という話になる。 >>47 >>48
結局、マウンティング欲求の強い無知な人だな。
ただ私の言っていることが正しい、それだけの妄想だけ。
ネットにはいるんだよ。 >>1
ナニイッテンノ?ライブラリ使うだけですよ!
誰でもかれでも味噌糞に進めるのは善くない。
遠回りしなくてよいものを遠回りする事になるからな。 >>1
windows だとRが使いにくいんだよな
cygwin パッケージ入ってないしビルド するか さも凄いことを言うのかと思ったら、機械学習に統計処理をするっていう当たり前のこと言ってるだけじゃないか。
大学の授業とかでは昔から統計的機械学習と呼んできて、世間ではそれを省略して単に機械学習って呼んでるだけだし。
いわゆる統計学と機械学習では使う数学に乖離もあるし、何のことかと思った。
この著者の西内啓って人、統計屋さんらしいから、最近の人工知能ブームに乗って、統計やってる俺すげーって言いたいだけかな。 機械工学専攻だけどICAとかPCAとか研究室でやってて良かった >>58
まぁ、結局”最適解”を求める手段のひとつにすぎないからね 測度論と関数解析と確率解析やっておけば
統計がどうだとかアホなこと言わんで済むのに
だから統計屋は嫌い オリックスの宮内さんだと思うけど、ノートパソコンとかラップトップのほうが
頭良くなるって聴か無いからな
どうも官僚も同じ意見らしい、理由は不明 いま幻聴で警察が自白した、理由は9801のエロゲーか
日本は平和だ、俺は疾患だ >>39
もしかしてそれはボケのつもりで言ってるのか?
ツッコミ待ちという 犯罪統計学と関東甘えの差
自分たちは首都圏に住んでいるから偉いんだ、地方の人間は叩いても構わない
そういう甘えの意識が修羅の国という差別表現を作り出した
思い込み、情弱、差別意識などによらない客観的な治安指標
—— 刑法犯 凶悪犯 人口 (※凶悪犯=殺人、強盗、強姦)
埼玉県 69456件 371件 728万人
千葉県 57277件 285件 624万人
神奈川 58127件 288件 914万人
東京都134619件 696件 1363万人
愛知県 70254件 346件 750万人
大阪府122136件 795件 883万人
兵庫県 53183件 238件 552万人
福岡県 46619件 229件 510万人
警察白書 平成29年公表の平成28年版
https://www.npa.go.jp/hakusyo/h29/data.html
人口当たりの刑法犯 凶悪犯
大阪>埼玉、愛知>千葉>東京>兵庫>福岡>神奈川 >統計学と機械学習を支える数学が、 「全く一緒」と言えるわけ
誤解を招きかねないようなことは言わないほうが良い。
間違いともいえないが、こういう表現はどうかと。 >>67
なんというか安い言葉遊びみたいに感じるよね
何か言ってるようで何も言ってない 統計バカになる事が頭が良くて、預言者みたいな
存在だと思ってるらしい >>4
何も分かってないやつが利いた風な口を利くと、本当に痛いなw すべてデータに基づき判断を引き出すと云う点では
同じものだよね。
生身の人間の脳では、価値観とか妄想とか意図的なウソ情報とかで
別な判断を出してしまう。 だから、将棋のたぐいのような明確なルールに
のみ依存して動く世界以外では、AIの出す判断は必ずしも有効でない場合が
多いと思うわ。 政治の動きや芸術の評価や男女関係などな。 データ処理に紙とペンの手計算なんて何十年前の話をしてんだ。
コンピュータがパンチカードの頃でさえ、FORTRANで書いて統計処理してたのに。
というか、PCが普及した20年以上前から誰も手計算なんかしてねえ。 これ似た話題で各方面から叩かれた人がいたよね。
ITproかな?なんかインタビュー記事のやつ。 > そうすると、いまエンジニアたちが統計学と機械学習の背後にある
> 数学に慣れておくことは、前述のような品質の向上や、生産計画
> の最適化に使うという以上の意味を持ちます。蒸気やガソリンを
> 使ったエンジンを使いこなすために熱力学を理解するとか、電子
> 部品を使いこなすために電磁気学を理解する、といったのと同じ
> ようなレベルで、これからのものづくりにおいてその競争力の少な
> からぬ割合が、機械学習技術をどう活かすか、というところと関係
> してくるからです。
AIのエンジンは,グーグルやアマゾン,マイクロソフト,IBMが開発して,
クラウドで提供くれている。
ユーザーはそれを利用するだけで良い。
知っておくべきことは,どういうコーを書けば,AIのAPIを呼び出せるか,
と言うことだけ。
中身はブラックボックスのままで良い。
車を運転するのに,ガソリンエンジンやハイブリッドカーの仕組みを
知る必要はない。
自分でAIを開発するなんて,車輪の再発明と同じで,無意味な徒労。
AIは,作る時代から活用する時代になった。
誰でも簡単に使える「AIの民主化」が,これからのテーマ。 ○○が最強
と言う大人は小児レベルの知能の持ち主で適材適所を知らない阿呆 人間は論理思考ですら確立統計処理してるからトンチンカンな事を言う奴が後を絶たない
コンピュータも人間目指して高度化するとトンチンカンな事をしだすんだろうな 世の中、統計学中心には回ってない
統計学ではロケットを宇宙にまで飛ばせない 統計学は理論的、演繹的、過程重視
機械学習はアルゴリズム的、帰納的、目的重視 これは、「医学部は全部一緒」って言ってるようなもんだな。
この人は東大の医学部健康科学、看護学科の出身だから、医師免許は持ってない。
でも、医学部は医学部なんだよ、と言いたいのだろう。 >>58
割とマジレスすると、最近の機械学習ブームに、どちらかというと統計屋さんは乗り遅れている。
統計も何も知らず、ひたすら大学で情報科学を学んでプログラミングしてた学生の方が高い給料でオファーされているのが実情 >>75
スレッドの本筋とは関係ない話だけど、
ライブラリをソースで公開してくれてるならともかく
ネット経由でAPIを呼び出すだけってのは危険な気がするなぁ。
呼び出し元を見て答えを変えてくるかもしれんし。 そもそも、同じ数学、の定義をはっきりさせんと何とも言えないだろ >>75
詳細な実装内容、
例えば、実行速度を出すためにコーディングでどういう工夫をしてるか、丸め誤差などの対策をどうしてるか、
みたいな部分はブラックボックスでも良いかもしれんけど、
こういう数値を入力したらどう出力されるか、は理解してないとまともにコードを書けないでしょ
基礎となる数学は理解するべきだと思うよ
そうしないと応用できない >>70
何を言ってんだお前は?
事実だろwwww 取り合えず統計学と確率論は数学から独立して必須科目にした方が良いと思う
小中高大ってやらせた方が良い >>39
(根拠もなく)説明する
↓
根拠もなく否定する
↓
(根拠もなく)説明する
↓
…
その主張からしてこうだろ 何だと思ったら本の宣伝なのね
最強って言葉はマーケティングの統計上優位なのかもしれんけど、
中二病的ではばかられるよね >>92
反論するなら論理をいえよ
なんだ?それ
低知能
とか
驚愕
とかいってりゃいいとでもおもってる知能がわからんわ
おまえばかなのか? A「BはCである
D「Aは低知能だ
どこにも理論ないし
反論にさえなってないよな?
おまえが低知能じゃなけりゃいみわかるよな?
なんでそんなレスが出てくるのか意味がわからん どうせこれ、俺の頭のうしろのほうで
韓国人とフジテレビが、タイガー計算機を廻しまくってるただのローテクじゃん しかしおかしいよな、俺のあたまの後ろは北なんだよ
フジテレビは北朝鮮かね >>93
知能が低すぎてマトモに相手するに値しない >>1
ディープはあんま統計って感じはしないけどなぁ、どっちかというと最適化の分野から借りてる道具の方が多い気がする >>97
なるほど
反論できないというわけだねw
まともに議論交わせずに
人格攻撃に率先して回るやつなんて
おれも相手にするきしないわw
いっしょう人格攻撃してろ
まったく論理的反論なかったけどで
反証なしということでおわりだね
ばいばいw 学生時代に数学史教えないのがいけないんだよな
だから平均の使い方間違える ID:1o3AatyTに数学の言葉が何もないことに驚愕したw
まだカマッテチャンっているんだなw
しかも勝利宣言勝手に出してスタコラさっさと逃走とか・・・w
みっともないことこの上ないw >>101
反論が個人攻撃なのに
どうやって数学の話題出せと?
ばかなの?
だからさっさと反論しろって俺はずっといってんだが?
個人攻撃しかないなら
まともな反論しろと促すしかできねぇだおろw
大丈夫? >>98
感じはしないんだけどなーなんて言っているが、このスレで
一番分かっているのはお前だろうな。上でやりあっている
hkV9LGlBと1o3AatyTは何も分かっていないのも確か。
わかる奴はちょっとした物言いですぐ分かるもんだよw あ、驚愕ってどっかできいたなw
ID変えたのかなw >>103
じゃあおまえがわかってる反論しろよww じゃあ質問させてもらうよ。線型代数学と統計学はDNNでは
どう利用されているか説明してみ?w いっとくがおれは反論しろといってるだけだからな
質問しろなんていってないからなw
論理くらいまともに構成しろよ >>109
分野って何?統計は統計だが
日本市場への進出もさくしてる海外企業にたいして
データ収集や市場分析などしてるが
実験研究は弱いが観察研究がカバーされる分野っていえばいいのか?
おまえの「分野」なんなの? >>110
まあこのご時世なんでwもうかればなんでもやるが、メインは画像解析。
市場分析で使う統計ってどの程度なの?専門外なんで想像も付かんな。
なんか日常使いする数理モデルなんてある? >>112
日常的?どういうこと?
統計屋のしごとに日常的につかうもでるなんてねぇよ
だから分野っていわれて?だったんだが?
統計屋の仕事は適切なモデル選択だろ。
モデル名列挙すればいいのか?
事故回帰分析、
因子分析、パス解析、クラスタ分析、路地スティック、正確性、ARIMAモデルとかいっときゃおもいついたのいっときゃいいの?
でおまえが「日常使いする数理モデル」なんてある? >>113
いや一応社員w社員として普通の儲けだね。こんなブームいつまで続くかわからんし。
調子に乗ってフリーになってもねぇw
ところで1o3AatyTは逃亡?w 他にも例があるが工学部の先生の出した数学には
数学者から見ると不正確なことがある >>117
どっかの数学者が竹村先生の数理統計学を内容はまあまあだけど記号の使い方がちょっと……みたいに評価してたのを思い出した >>114
>クラスタ分析
多次元のデータ点からクラスタを抽出する統計モデルってどんなのがある?
そのモデルのパラメータ最適化はどうやってやる?
>>115
>こんなブームいつまで続くかわからんし。
せやね。
この技術がどんなもんか全く分かってないアホが大量に乗っかってるから近い将来確実に一回は潰れるとおも なんか最近線形代数からして削られてなかったか?
行列もやらんとか聞いたが >>117
どっちかというと、数学が不正確になるような境界線でチキンレースしてるのは物理屋さんのイメージだけどなぁ
工学部程度だと、数学の枠組みを超えようと思っても超えられない… >>119
>多次元のデータ点からクラスタを抽出する統計モデルってどんなのがある?
あはははは!俺も凄〜く知りたいなw 1o3AatyTの答を待とうw
あと、有馬でラグってどうきめる?1o3AatyTにはこれも答えて欲しいなw
>この技術がどんなもんか全く分かってないアホが大量に乗っかってる
自分の分野だと、にわかはDNNしか知らないんですぐわかる。
テイラーメードの特徴量言ってみ、って言ったら何も答えられない奴
ばっかwこんなブームが長続きするはずないわなw MITIMIZU
‏
@qqta5ydd
12月22日
その他
政府は酷い。
「これで、公共の種子として農家に安く提供されてきたコシヒカリ等の多様な固定種はなくなり、モ
ンサント等の民間の数種に絞られることに。・・・日本も遺伝子組み換えのコメを食べざるを得なく
なるのでは。」(山田正彦氏) ディープラーニングとかニューラルネットワークの基礎を理解しようとすると
簡単な微分程度はできないと苦しいな >>118
もしかして現代数理統計学のこと?だったらまあこれはやり過ぎ
の感がないとは否定できないw
ところで1o3AatyTは逃亡?w >>119
そんなもんいくらでもあるよ
まはらのびす距離
チェビシェフ距離
ミンコフスキー距離 >>126
クリスマスに俺は5chに張り付いてないといけないわけ?
逃亡の定義の普遍てき合意でもあるん? >反論するなら論理をいえよ
って自分で言ってたよな?w だったら>>119と>>123に
答えたら?「理論を言えよ」w >>127
おっとコリャ凄い!www ぜひ教えて欲しいことがあるw
1 ミンコフスキー距離を使うクラスター分析って何だ?w
2 距離って統計モデルなのか?www ミンコフスキー距離がどう統計に絡むんだ?www
段々もの凄い事になって来ているw >>127
はい、それ統計モデルじゃないよね?(´・ω・`)
統計モデルだと言うなら尤度関数の形で書いて見て、どうぞ。 >>39
別件たけど
今あなたのしたことが
FacebookのAIの「意味不明」と言われる記事になったやりとりだと思うわ >>131
勝負あったというか、ここまで簡単なやり取りで潰れるバカも珍しい。 ところでさっきの1o3AatyTは逃亡?w
コイツ難しい事言いたいが知識は全く無い子供だろうね。
全く見当外れな事並べてるんですぐ分かる。もう1人は
危険を察知してさっさと逃げた分大人だったと言うことw 俺は75で合っていると思うけどな
まずは動かして、なにをするものなのかを知る
少し変更して、何が変更できるのかを知る
学問として本質を学ぶのはその後のことだろ まぁ、数学科では統計学は外道扱いだと思う。
統計学として独立した方が良いという考えもわからんではない。 ニューラルネットと最小二乗法の違いがわやらん。
単に、非線形関数のパラメータを回帰分析で求めてるだけでは? >>137
最小自乗法は損失関数の問題。
ニューラルネットはモデルの問題。
レイヤーが違う。 結局1o3AatyTは逃亡かw
>>137
ニューラルネット自体が非線形回帰だよ。(これの万能性の証明には日本人の
舟橋先生もかかわっていたはず。) その重みパラメタを決めるのが最小二乗法。
これでおk? >>136
ルベーグ積分までやってやっと統計学だから、安易に統計学をかたってんのは疑うことをしらないバカだとは思ってる >>140
あんたの言うことは数学的には全く正しいが、じゃあσ加法族上の測度が
確率変数だよ、ってことで統計学を分かるかというと、それはまた別の話。
統計は統計でストーリーがあるから、それを理解するのはまた別だ。 >>140
でもぶっちゃけそこらへんあんま使わんくない?
一応測度論やったけど、統計勉強する上であんま恩恵は感じなかったなぁ…
どっちかというと線形代数が大事、まあ結局統計っつったら多変量解析だから ↑自分の狭い経験だけで統計っつたら〜とかドヤ顔のアホがここに >>143
142だけど、それだけ人をバカにするのはご自分のご経験は凄いという
ご自信があるからのだろうということで聞こうw
あんたの統計のご経験は?w (東ロボくん)プロジェクトは「東大をめざす」ことを象徴としたが、研究目的は試験のパスではなく、
現状のAIの限界や課題を明らかにし、汎用的、複合的なAIがどこまでの処理が可能かを確かめる
ことにあった。東ロボくんプロジェクトでは、大学入試問題をAIに解かせるという研究から、現状の
深層学習の課題が整理・確認できたという。そして、当面は「シンギュラリティはこない」という考えも
間違っていないことを確信した、と新井氏。
なぜかというと、「現在のAIは、数学でいう『論理(幾何・代数)』『統計』『確率』という3つの『言語』
でしか動いていないからであり、物事を表すことはできるが意味を記述(理解)することはできない
からだ。
意味を理解し、思考するために別の数学言語が必要である。しかし、4千年の歴史を持つ数学において、
あと数十年で4つ目の新しい『言語』が確立される可能性はほとんどあり得ないと思っている」と
新井氏はいう。
●実は人工知能は何も考えていない
つまり、数学の言語をベースにしたAIは考えたり思考したりしているわけではない。
90年代に研究された第5世代コンピュータは「論理」だけでAIを実現しようとして失敗した。
近年の機械学習や深層学習は、統計と確率という言語を利用して、一応の成功を
治めている。
囲碁や将棋では人間よりも強いAIが生まれている。犬や猫の写真はかなりの精度で
AIは判定できるようになっている。しかし、新井氏は次のようにもいう。
「AIが行っているのは、多数の犬の画像や猫の画像を評価し、『これは犬っぽい特徴が
あるから犬』『猫っぽいので猫』と判断しているだけであって、『犬』という意味を理解して
いるわけではない。もちろん正しさも保証していない。結果的にほぼ正しいというだけである」。
(出展 https://edtechzine.jp/article/detail/170 ) >>137
例えばニューラルネットワークの学習には最小自乗法以外にも勾配降下法などもあり学習の手法の一つが最小自乗法であるにすぎない。
実際最近は最小自乗法は増えてきて勾配降下法と並んでいるけど、ちょっと前まではむしろ少数派だった。
学習というのは一種の問題解決とか最適化の領分だから、純粋に統計的な手法の最小自乗法は第一選択にならなかつた。 >>147
ここで日本人というキーワードが出てくるのは、日本とこのスレを同一視してしまうくらいお前が馬鹿なんだからだろ。 最小自乗法は損失関数の話。
勾配降下法は最適化の話。これまたレイヤーが違う。
線形関数だと最小自乗法は解析的に解けるってだけで、
そうでない関数だと最小自乗法だろうと勾配降下法なりで近似解をもとめなければならない。
この程度のことすらごっちゃになってる時点で日本はやばい。 >>152
あと大事なのは、凸である/ない とか、
凸である場合は、解法が研究されてライブラリに投げるだけでええやつ、線形/二次計画 とかよね
究極的には手で勾配法かけば解けるんだけど、非凸ならそれ大局的最適解が求まるとは限らないわけで
でもそれでも大概、わりと良い近似解は見つかるんだけどね
モデル(目的関数)と最適化の話をちゃんと分けて考えるのも大事
油断すると議論のときすぐごっちゃになっちゃうから… 機械学習の論文って数学的に厳密に正しくなくても価値があると判断されちゃってるものがあるけど、こんなものなの?
検証用データもかなり恣意的で、論文で主張している要件を満たすだけでは成立しないのでは?
(都合の良いデータでしか論文の主張は成立しない)
なんてのもしばしば見かける
いわゆる古典的な数学(解析、代数など)に携わっている人間からすると、数学の論文とは思えないものがちらほらある印象 >>155
例えば?具体的に論文名とおかしい箇所あげてくれる? >>155
>(都合の良いデータでしか論文の主張は成立しない)
>なんてのもしばしば見かける
すくなくとも、モデルに関しては(最適化は別)、「都合の良いデータでしか論文の主張は成立しない」のがあたりまえ
詳しくはNo free lunch theoremとか統計的学習理論でググると良いと思う
データの保つ構造をエクスプロイトするように、ドメイン知識をモデルに織り込んでテーラーメイドするのが機械学習の本質なので
どんなデータセットに対しても性能を発揮する万能なモデルは存在しない
性能が出るのは、純粋にそのデータセットにモデルが特化してるから、ってのが、モデル、学習理論に関しては一番重要な事実だとおも >>155
工学の分野はどれもほとんどそんなものでは?
(ある特定の状況だけであっても)とにかく役に立てばよいのだから、純粋数学のような普遍性は重要視してないと思う。 >>151
いや、誰でも知っていることをさも俺だけ知っているように扱って他人
にマウントするお前の方が適しているw 儲けたいなら
数学と物理は勉強すべき
↓
儲かる物理
技術評論社
アマゾン 物理一般書第1位獲得
第5章 神はサイコロを振らない!?
(カジノ必勝法)
第6章 物理と金融工学
(株価が上がっても下がっても儲かる)
第7章 エントロピーと会話力
(ジャパネット高田社長登場!》
第8章 自由度と働くリスク・リターン
(OLの水商売は有効)
第9章 物理現象と不動産投資
(六本木ヒルズを1,000万円台で買う方法) AIはデータから特徴量を自動抽出できるのが凄いんだろう、多変量解析ではできない技だろ。 >>163
普通にLasso正則化でできるじゃん。
あれ特徴抽出みたいなものだから。 >>163
>AIはデータから特徴量を自動抽出できるのが凄いんだろう
ニューラルネットは画像データの特徴量を自動抽出しているとは言える。だが
「AIはデータから特徴量を自動抽出できる」というのは明白な誤り。もっとも
AI=ニューラルネットと限定するなら別だが。
>>167
>Lasso正則化でできるじゃん。 あれ特徴抽出みたいなものだから。
Lasso正則化が特徴抽出というのはどういう意味なのだろうか。実例を聞きたい。 >>165
特徴抽出ってのは、高次元のデータを低次元で表現すること。
Lasso正則化は寄与しないパラメータが0になるように推定するから、
特徴抽出と同じこと。実例も何もこれだけの話。 入力された説明変数を間引くのも、加工して新たな説明変数を生成することも、
どちらも特徴抽出と言って間違いでないからこういうやりとりが発生する >>166
じゃあ次元削減で最も一般的な、固有値分解で小さな固有値を落とすのも「特徴量抽出」ってこと? >>167
自分の場合は
>入力された説明変数を間引く
これは「変数選択」で、「モデル選択」という問題の一種という位置づけ。特徴抽出と言われると
違和感がある。
>加工して新たな説明変数を生成する
交互作用項なんかのこと?これも自分ではモデル選択の一部という位置づけだが、やぱり特徴抽出と
言われると違和感あるなぁ。 >>166
あと、特徴量抽出=低次元化とは限らないだろう。それこそ目的に合った特徴量を
得ること=特徴量抽出だから。例えばHOGなんて次元で言えばそう下げている訳ではない
だろう? そういう曖昧なことしか言えないなら意味ないよ
むしろなんでそこまでモデルと絡めたがるのかよくわからないし
数学的にはN次元ベクトル空間からM次元ベクトル空間への任意の写像
(線型である必要はない)
と定義するのが妥当だと思うけどね
この写像が有意義なものかどうかなんて目的次第で変わるし、これ以上掘り下げようがない >>171
>そういう曖昧なことしか言えないなら意味ないよ
曖昧だったのは「入力された説明変数を間引くのも、加工して新たな説明変数を生成する
ことも、 どちらも特徴抽出」と言った自分の発言なのだが、それに気づいてそう言っている?w
そうなら正しい自己評価だと思うけど。
>数学的にはN次元ベクトル空間からM次元ベクトル空間への任意の写像
入力がN次元のデータ、出力がバイナリ1次元のニューラルネットも「特徴抽出」な
訳ね?だったらありとあらゆる判別はイコール特徴抽出になるよね?←これって
曖昧?w
>なんでそこまでモデルと絡めたがる
モデル選択はモデル選択で変数選択、情報量基準みたいな初歩から始まる広大な世界が
ある。モデルと絡める、じゃなくて問題をどう位置づけるか、の問題だね。 そもそも、特徴量抽出、って
実務的には、色々な事柄をベクトルに変化させる作業、でしょ
ニューラルネットワークをわかりやすく説明するなら、地図を挙げれば良いんだよ
地図を使って、地名から、そこが属する都道府県名を得る、という作業を考えれば良い
地名 → (緯度、経度)ベクトル の変換が特徴量抽出
(緯度、経度ベクトル) → 都道府県名 の変換がニューラルネットワーク
県境の形を変化させるのがつまりは学習という作業 >>174
>地名 → (緯度、経度)ベクトル の変換
> (緯度、経度ベクトル) → 都道府県名 の変換
地名⇒都道府県名のルックアップテーブルで済まないのかなw…てのは置いといて、
ニューラルネットを特徴抽出器と判別器に分けることはできない。VGG16 のどの
層までが特徴抽出器で、そこから後が判別器なのか、と問われて答えられる人が
いるはずがない。じゃあどうとらえるかというと、現在のところ(139でも書いたが)
ユニバーサルアプロキシメータだ、としか言えないと思う。 具体例Aも具体例Bも特徴抽出である
というのは全く曖昧じゃないですよ
判別どころか恒等写像も特徴抽出ですね
写像された値にどういう価値があるかなんてどうでもいいんですよ
というか、反論したいならゴチャゴチャ言ってないで特徴抽出の異なる定義を示せば終わりじゃないですか?
一連の書き込みを見て確信したけど、君は工学などの応用系出身で数学をきちんと学んだことない人だよね
それはそれで全然問題はないことだけど、ツールとして利用してるていう自覚は持ったほうが恥はかかないと思う >>175
>ニューラルネットを特徴抽出器と判別器に分けることはできない
普通にできるでしょ
だって、特徴量抽出って、物事をベクトルに変換させる作業でしょ?
で、そうやって得たベクトルを位置ベクトルとして考えて、
各ニューロンの持ってる超平面の表と裏のどちらにあるか、を0or1で返して次のニューロンに送る、
というのを繰りかえすのが、ニューラルネットワークでしょ? >>176
まあまあ、その前に
>数学的にはN次元ベクトル空間からM次元ベクトル空間への任意の写像
入力がN次元のデータ、出力がバイナリ1次元のニューラルネットも「特徴抽出」な
訳ね?だったらありとあらゆる判別はイコール特徴抽出になるよね?←これって
曖昧?w
に答えないかな?w お得意の「厳密な定義」でしょこれ。w 自分も君の一連の
書き込みを見て確信したけど、厳密な数学をきちんと学んでいないくせに工学に
口を出そうとしているでしょ?知らない分野に口を出しているという自覚を持った
ほうが恥をかかないと思う。というか、もしかして君はミンコフスキークラスタ君?w >>177
>普通にできるでしょ
おお、凄い主張来た!wできると主張したいなら、VGG16 (でも何でもいいけど多層の奴)の
どこまでが特徴抽出器でどこから後が判別器なのか示してよ?w >>179
それこそ、地図の例があるでしょ
地名をベクトルに変換する作業が、特徴量抽出だよ
他にも何だっていいよ
例えば、アルファベットをベクトルに変換したり、色をベクトルに変換したり、
入力したい事柄をベクトルに変換する作業が、特徴量抽出だよ >>180
え〜っとwww これまでのいきさつなんだけど、
>ニューラルネットを特徴抽出器と判別器に分けることはできない
に対して
>普通にできるでしょ
と返ってきたから、
>VGG16 (でも何でもいいけど多層の奴)のどこまでが特徴抽出器でどこから後が判別器なのか示してよ?
と返した訳だから、期待する回答は「第7層」とか「第15層」とかいうものなんだけど?w >>181
だから、入力された事柄(アルファベットや漢字など)をベクトルに変換する工程のことだよ
他人の作ったソフトに関しては分からない
俺は、自分で本とか読んで実装した上での話をしてるんだし より低次元に写像するのが特徴抽出。
その意味ではLassoだろうとニューラルネットだろうと特徴抽出。
写像の種類をあれこれ議論するのはナンセンス。 >>184
>より低次元に写像するのが特徴抽出。
じゃあ高次元に写像するのは特徴抽出ではないわけね? 自分の会社でも「データサイエンティスト育成ゼミ」みたいなのやることあるが、
ID:uJdq0Zhw ほど酷いのにはまだ当たったことがない。こういうのが来るかもと
思って軽くウツになっている自分がいるw >>186
どこら辺が酷いの?
こういっちゃなんだが、君の書いてることって全然具体的な説明がないし、
特徴量抽出みたいな用語の使い方すら怪しいしで、ちょっと酷いと思うが >>188
あ、君はその通りでいいよ。酷いのは俺。用語も怪しい。w
ただゼミには来ないでねお願いだからw >>186
多分、君って実際に自分で実装したこととかないんじゃないかな?
パーセプトロンの実装すらしたことないように見受けられる
流行に乗って、ディープラーニング『だけ』を、他人の作ったソフトで以って弄っただけに見受けられる >実際に自分で実装したこととかないんじゃないかな?
>パーセプトロンの実装すらしたことないように見受けられる
> 流行に乗って、ディープラーニング『だけ』を、他人の作ったソフトで以って弄っただけに見受けられる
完全にその通り。だから他の人に絡んでお願いだから。あと本当にウチのゼミには来ないでね
お願いだからw 長々書いてるけど理論が同じだから一緒
以上
ただ人間活動の統計データと仮想上の事象データ蓄積では差がある >マウンティングマンが発狂するから釣りはやめよーぜ
いやいやいやいや、それが見たいからここに来てるのよw
ニューラルネットについて解釈不能な発言したり、今現場で一番使われいてる
モデルの話を振っても理解できず反応できなかったりした上、
>他人の作ったソフトに関しては分からない
> 俺は、自分で本とか読んで実装した上での話をしてるんだし
といった程度の人間が相手に向かって言ったのが
>こういっちゃなんだが、君の書いてることって全然具体的な説明がないし、
>特徴量抽出みたいな用語の使い方すら怪しいしで、ちょっと酷いと思うが
>実際に自分で実装したこととかないんじゃないかな?
>パーセプトロンの実装すらしたことないように見受けられる
>流行に乗って、ディープラーニング『だけ』を、他人の作ったソフトで以って弄っただけに見受けられる
ですよwwwwww これは無知とかいう問題ではなく、心の闇の問題w
こういうの見たいから5ちゃんに来ている訳でw 知識が欲しければ論文
なり学術書読めば良い訳でw あと、現実にこんな基地外相手にする場合の
心の準備になるというのも大きい。商売上仕方ないことだからね。 マウンティングマンが発狂してるのを見てつい興奮してしまった >>198
じゃあおまえも同じだねw 同じ発狂仲間だ〜wwwww 論争に負けた挙げ句「ウチのゼミには来ないでね」とか捨て台詞を吐く雑魚のことさ〜 >>202
なるほど。。。負け犬の遠吠えってやつか そうそう負け犬の遠吠え
負け犬「ウチのゼミには来ないでね」 >論争に負けた挙げ句「ウチのゼミには来ないでね」とか捨て台詞を吐く雑魚のことさ〜
はいはい、それでいいからホントゼミにきて暴れるのだけはやめてねwお願いだからw あと、昨日の地図ニューラルネット君、君がもしこの業界に就職したいなら、昨日の
やり取りをまとめて、「5ちゃんに雑魚がいたんで、分かりやすく地図の比喩を出して
やったにも拘わらず訳の分からんことを言ったんでボコボコにしてやったら、『ウチの
ゼミには来ないでね』なんて捨て台詞言って逃げていきましたよ。アッハッハ」なんて
言ったら採用されやすくなるよきっと。太鼓判を押すよwwwww >採用されやすくなるよきっと
そんなわけないじゃん
馬鹿なの? >>208
君にはミンコフスキー距離を非類似度としたクラスタリング理論の構築を勧める。完成した
論文を持って就職に当たれば向かう所敵なし。「ぜ、ぜひウチに来てください」と誰もが
言うよ!w
試験官:「えっ?非類似度が負になるんですか?どう解釈するのそれ?」
おまえ:「負の非類似度なんだから類似度に決まってるじゃないか?」
試験官:「うーん凄い!採用!」 2ちゃんのクソレスバトルで雑魚を論破したって採用されやすくなるわけないだろ?頭が悪すぎる はい、ということで、同業者の皆様には年末の殺伐とした空気にちょっとしたお笑いでやすらぎを
与えたwということで。来年もよろしくお願い致します。
(あと、ゼミやってるって言ったけど、「頭が悪い」の中の人じゃあないよw ) >>210
おまえ:「ミンコフスキー距離は統計概念だから。」
試験官:「え?どこが統計なんですか?」
おまえ:「マハラノビス距離は統計概念だよな?」
試験官:「はい、それはそうです。」
おまえ:「だからミンコフスキー距離も統計概念に決まってるじゃねえか?」
試験官:「うーん凄い!採用!」w おれは、ID:M1F14Qppの言う昨日の地図ニューラルネットワーク君だけど、
今日もID:M1F14Qpp君が発狂してて思わず笑ってしまったわw
それこそID:M1F14Qppからは心の闇を感じてしまうが
くだらない中傷バトル(笑)もいいけど、
俺に反論があるなら是非とも『具体的』に反論して欲しいところだね マウンティングって、よく解らんが
加山雄三の戦国野郎って映画で、織田信長豊臣秀吉の種子島を
輸送する内容なんだが、陸上ルートや海上ルートを演出するが
すべてダミーで、本物はなんと山のおねをつたい適時のろしを
あげて下の様子を伺って周到に動かしてたって奴かな
加山雄三は岩倉具視の孫で、ほとんどのダミーはただの石を
運ぶ罠だったと、だから岩くら共見る >>214 様
現在わが業界では優秀な人材の不足に苦しんでおります。貴兄のようにニューラルネットに
精通され、ご自分でも実装されるという人材は、是非ともわが業界でご活躍頂きたく存じます。
その際には収入面でもご満足頂ける対応があると確信致します。面接に進まれる際には、
ささやかではございますが>>207でアドバイスを差し上げましたので、ご活用頂けますれば
幸いでございます。それでは今後のご活躍をお祈り申し上げます。 マウンティングマンが発狂してるのを見てつい興奮してしまった >>216
日本医師会は、どこまで詐偽やるつもりだ
IT産業を盗んでもいっさいなにもよく成らないじゃないか
いま日本で過労で徒労なのはIT関係と医療関係だぞ ブッシュのヤブ医者のムンプス細菌、おたふく風邪の詐偽をいつまでやるんだ
この日本医師会の左翼
オタクの語源もおたふく風邪からだろ むしろ、数学があっちとこっちで違ったら、もう数学じゃない ID:ezt8b5gx
ID:M1F14Qpp
なんかすごいのが沸いたねー
ムカついたワードはそのまま
オウム返しで使っていて、その辺りは少し可愛げがあるね >>209や>>212みたいなレスをいきなりするところなんか、
とても香ばしさを感じさせるなw なんか荒れてたんだ(笑
>オウム返しで使っていて
自分のレス鸚鵡返しにされたから分かったんだよね(笑 >>229
おっ!
また負け犬の遠吠えを連呼するの? >>230
遠吠え?(笑
あんたは技術の話が絡まないとエキサイトし、あんたの相棒は技術の話が絡むと
エキサイトするみたいだね(笑
いいコンビじゃないか(笑 日立製作所は、ウォシュレットの旧型電源から尻の穴のレイプばっか 日立製作所のウォシュレットの旧型電源は、取り外して川に捨てたら
川でいきなり公共工事がはじまり、いまだ工事をしてる
なんなんだよ 高度なモデルを操ってきた人たちの立つ瀬がないんだよな
ニューラルネットなんてそこらの高校生でも扱える
そんな単純なモデルが破壊力もっちゃった ちなみに、これからの機械学習を担っていく主流コースは
東京大学教養学部理科一類 → 理学部情報科学科
の黄金コース。
間違っても、この >>1 の著者のような統計学畑の
東京大学教養学部理科二類 → 医学部健康科学科
ではない。 「サイコロをふって6が出たとき次も6が出る確率は
1,高くなる 2.低くなる 3.変わらない 正しいものを選べ」
という問題に皆さんはどう答えるだろうか?
筆者が独自に任意に(筆者の回りから)抽出された高校生3人に質問したところ約9割の高校生が3を選んだ。
最近の高校生の知能の低下が度々問題になってはいたものの、 ここまでひどくなっているとは信じがたいことである。
言うまでもなくこれは2を選ぶのが正しい。 6が2回続けて出る確率は1/36と非常に低い確率だからである。
http://www.asahi-net.or.jp/~rp9h-tkhs/joke.htm
http://www.asahi-net.or.jp/~rp9h-tkhs/kakuri01.htm >>236
大学の研究所とかでも見てたオペレーションズリサーチはじめ
うちの北がわにある階段のしたの盗聴が元になってるじゃん
みんなで北朝鮮とか破壊して、大学教育は自分で自分を殺してるじゃん
俺と大塩佳織の件ふくめて真似か? >>238
文系なら「低くなる」
理系修士卒までなら「変わらない」
理系博士卒なら「高くなる」
と答えるはず >>240
理系博士卒じゃないけど高くなるって思ってしまった・・・ >>238
連続で6が出る確率と次の単発で考えるかで異なるな。単発で考えるなら当然結果は変わらない。 >>241
これが唯一の正解。
例えば、幼稚園児が粘土で作ったサイコロを想像してみろ。
「6が出た」
瞬間に変形して、次はまた6
が出やすくなる。
前提がきちんと説明されていないと、確率の話は正しい議論ができない。 ↑自分では賢いと思ってるんだろうが傍目ではアスペなだけだからそういう与太話はネットだけにしとけ >>238
ばかそうwwww
6のつぎに5が出る確率もおなじだろww
独立ある以上次に出る確率はかかわらねぇよwww >>238こいつのばかなとこは
条件付確率と論理積を混同してるとこ
6が出た後に6がでるかくりつ(条件付確率)はろ1/6であるが
6が連続して出る確率(論理積)は1/36の区別がつかない馬鹿ww
これがわからないやつは大卒もあやうい
文系ならしょうがないが >>242
お前は文系コース高卒だろw
知能やべぇぞ 場合分けするのが、文系優秀層
イカサマダイスじゃなければ1/6の確率で6出るんだから
次の確率も1/6で変わらないだろ
イカサマダイスで6しか出ないんなら、次の確率も100%で6が出ることに変わらないだろ
偏ったサイコロで1/4の確率で6出るなら次も1/4の確率で6出るんだから確率変わらないだろ
どの場合も、確率は変わらない
だから、問題に何も注意書きしてないんだよ
問題文にをよく読めば分かる
筆者の言いたいこと、気持ちを予想しろ >>252
理由不十分の原則しらないら理系なら高卒レベルやでww >>245
出る目の確率を現在ある情報から推定するのが理系博士卒。
「前提をよこせ」っていうのが修士まで。 理系博士卒「サイコロで6が出る事前確率は1/6やな。
でも前回6が出ているという情報を加味して事後確率を考えると
6が出やすいサイコロの可能性が若干あるわな。
ほな次も6にかけとこか。」
理系修士卒や学部卒「そんなもんサイコロの各目が等しい確率なんかどうかで
変わるやろ。問題が悪い」← 受験勉強はできるが切り開けないタイプ
文系「2回続けて6が出る確率は1/36やん!もろたで〜」 >>255
一回6が出たから6が出やすいさいころなんて考えるやつは馬鹿
まともな志向持ってるやつは形状やうわさなどから判断する
一回6がでたから6が出やすいなんて帰結する藪は
思い込みでみをほろぼし切り開けない偏屈タイプ 前回6がでたから6がでることにかけるって
迷信信じるあほ土人のしこうだな
まともな知能もってるやつはそんな判断はしない
周辺事情こうりょせず迷信にかけるならば平均すれば身を滅ぼすだろうなwwwww
博士wわろたw >>256
典型的な仕事できないタイプだな。
それなら「うわさで判断するとか」「形状が○○の場合はこうする」
といった回答をすべき。
「情報がないから判断できない」というのは何も言っていないに等しい。
求められてるのは「じゃあ判断するための情報をどう取りに行くか」なのだよ。 >>258
ばかだなw
さいころで1回6がでたから次6がでるかどうかのもんだいで
それそ仕事とかに飛躍させるのは典型的な仕事が出来ない場か
おまえは論理を自分の都合のよい集合の範囲にむりやりおしこめて
迷信だけで行動し続ける土人れべる
ばかとしかいいようがない。 1回目で6が時点で、場合分けするのが、文系優秀層
イカサマダイスじゃなければ1/6の確率で6出る
イカサマダイスで6しか出ないんなら、次も6が出る
偏ったサイコロで1/4の確率で6出るなら次も1/4の確率で6出る
…
これを全部合計すると、次に6が出る確率は、1/6を超えることが期待される >>260
ばかだなw
いかさまダイスで1が出る確率が1/3でたまたま6が出た場合はどうなるんだ?
あほすぎww >>260
ちなみに場合わけするなら
>>238の問題でいかさまでしかも6がでやすい確率はいくらとみつもってんの?
場合わけならそんくらい明確にすいていしてんでしょ
238の文だけでどうやってすいそくしたのかしらんがw 1回目で6が時点で、場合分けするのが、文系優秀層
イカサマダイスじゃなければ1/6の確率で6出る(90%はこれ)
イカサマダイスで6しか出ないんなら、次も6が出る(最初に6出てるからな。まあ、3%ありうる)
偏ったサイコロで1/4の確率で6出るなら次も1/4の確率で6出る(1回目で6出てるからな。4%あるかもな)
いかさまダイスで1が出る確率が1/3でたまたま6が出た場合はどうなるんだ?(最初に6出てるのにそんな風に考える方が馬鹿。まあ0.001%もないな)
…
こうやって、ありうる場合を重み付け
そして加重平均する
90%×1/6
+3%×1/6
+4%×1/6
+0.001%×1/6
…
そうすると、次に6が出る確率は、1/6を超えることが期待される >>261
最初に6出てるのにそんな風に考える方が馬鹿。
まあ0.001%もないな >>264
だったらいかさまダイスで6が出やすい手考えるのも馬鹿だなw
何だこの馬鹿w >>263
0.001%もないってかくりつはなんなの?
1が出る確率が1/3で6が出る確率が1/3やら1/4やら1/6でないかくりつは?
どうやっても積もったの意味不明なんだが?
でそもそもいかさまダイスである可能性って238の文章からどっからでてきたの?
そのこんきょだしてくれよ
それは前回に6がでたってこしかないんだろw
ばかだわこれ
典型的な迷信信じるタイプw
平均的に身を滅ぼすばかw >>238のリンク先まで読んでない奴がドヤってて草生える >>267
リンク先をよむってのはどっからでてきたの?
それこそ263の理屈なら
ただのアフィサイト誘導や詐欺サイトのかのうせいもあるのにふまないといけないのか?
238の設定はは238で完結してねぇのか?
238には確率が1/36になるとかあほなことしか書いてないんだが?
1/36といかさまってどう関係あるの?
ばかなのか? 最初に6の目が出てるんだから、この問題の作者は6をなんらかの意味で特別視してるわけだからな
普通に考えれば、6の目が出やすい(100%〜1/6)サイコロの話だと考える
それが作者の気持ちを考えるということだよ
それをわざわざ、6の目が出る確率が、0超〜1/6未満のサイコロと想定する方が、非合理的
そんなに6の目が出にくいサイコロ振ったのに最初にいきなり6が出る確率は相当低いのに
わざわざ、想定しにくい場合を過大に考えるとか捻くれている
作者の気持ちにも反するし、常識にも反する
そんなんだから社会から落伍していくんだよ 238は積事象と条件付確率を混同してるようにしか見えんのだが
そこらへんの問題はむしして
なぜいかさまの話になったかおしえてくれんか? 実際、
0超〜1/6未満よりも
1/6〜100%
の方が領域的に5倍もあるわけだしな
わざわざ、可能性の低い方を作者の気持ちに反してまで想定するとか、人格が歪んでいる >>269
意味不明だわw
おまえの主観だろww
ばかじゃねぇのw
1/36なんて馬鹿な理論がすべてだろwww
いかさま設定なのに1/36出した理由出せよw
いかさまそうていしてるなら積事象であっても1/36なんてでてこねぇよw >>272
問題書いたやつが積事象の確率で1/36とかいってるのに???
意味不明wwwww もっと実務に即してっていうのが、文系の発想だから、統計学習〜機械学習あたりで一気に花開く奴は多いよな。平均的なボリュームは理系より上がる分野。 設問者がいかさまな想定してるなら1/36はどっからでてきたか説明してくれwww
まともに説明できるやついるの?
いかさまダイスで次に6が出る確率が1/36にせっていされてたとかって設定?
おもしろいなw >>276
文系は統計も機械学習も勘違いだらけでりかして
はったりだけで上がるやつ多いなwww 恣意的に切り取られた書き込みに全力で釣られるってどんな気持ちなんだろうなあ でたよ
反論怖いから名指しせずにまともな反論なく批判して
名指しせずに笑えるとか言ってるやつwww
名指ししてないけど自覚ないだろうけどw 5chでスレまでとべってなんのことわりもなく前提にしてるってなんなんだろうなw
おもしれぇなww 機械学習とフィードバックってノーバート・ウィーナーの時代の話だろ
あとマカロックの形式ニューロンか・・・
マービンミンスキーくらいまでの流れを把握してるのかといえば・・・
今のブームは、数学的なブレークスルーがあったってわけではないよな。 でどうやって1/36説明すんの?
お前らの意見総合するといかさまされてて6の出る確率が1/36でいいの? 安価されてないのに>>268で反応してしまって悔しいので同じ手法でやり返してやろうという気持ちが>>280で出ていて笑える >6の出る確率が1/36でいいの?
馬鹿じゃね?
1/36なわけないだろ
頭溶けてるのか?
馬鹿なの?
それとも馬鹿?
もしかして馬鹿だとかw 安価されてないのに>>268で反応してしまって悔しいので同じ手法でやり返してやろうという気持ちが>>280で出ていて笑える
とかいってるやつが悔しくて同じやり方でやりかえしててわろたw
まともにいいかえせず悔しい気持ちがをおせられないってかんじが出て面白いw 指名してないのに自覚してて
反論せずにいはいられないようだな。
これはそうどう効いてるなw
おもしろいw 恣意的な書き込みに全力で釣られるお馬鹿さんのID:OQOsALNZはいつになったら釣られてることに気付くのだろうか ID:h+e+9pEWはいつになったら同じようにつられまくってることに気づくんだろうが
どうかんがえてもおちょくられてるのにwww
かなり効いてるなw いちおうその馬鹿におちょくられまくってるという自覚はあるようだ
やべぇなw >>295
さっきからなんで真似ばっかなの?馬鹿なの?もうちょっと頭使いなよ 馬鹿におちょくられてるというばかりの自覚はあるようだなwww
あらそいは同じなんとかっていうだろww
俺は馬鹿だがおまえもなぅつーことw
まともに返してもらいたいなら
まともな言い返しすればいいだけだろ
で1/36はなんなの? >で1/36はなんなの?
まだ恣意的に切り取られた釣り話を続けるつもりなのか……アホすぎる 1/36問題に答えられるやついねぇのな
案だけ元気だったいかさま論者一気に消えたな
雑煮でもくってんのか?
おれももう風呂行くぞ >>298
あぁもう答えられないのね?
恣意的に切り取られたもくそもねぇだろ
ニュース記事かよwww
まともな反論しろっていってんのになんだよそれw ID:h+e+9pEWはまともな議論できないってことで後は無視する
1/36にこたえられるいねぇならおちるぞ
じゅうぶんまったからな 答えるもなにも初めからお前釣られるんだよと言ってるだけなんだけど? 統計学のベイズ推計は、パラメーターを増やすと、フィッテイング精度は良くなる。
かといって、無駄にパラメーターは増やしたくない。
そういったジレンマに一つの回答を与えた指標が赤池氏の考案したAIC。
30年前、統計学の教授に「AICとか赤池のことを知っているか?」と聞いたら、「知らない」と言っていた。
ちなみに、現代、アルファ碁に使われているアルゴリズムと
50年前のパーセプトロンに使われているアルゴリズムの差がわかるように
書かれている人工知能の解説書は皆無。 昨今の人工知能ブームで特殊な人が入ってきた印象あるな 作図ではたどり着けない経路に一瞬で到達
>>4
とにかく何にでもケチをつけて揚げ足を取る事しかできないバカが現れた 数学と物理学は
金儲けに役に立つ
↓
儲かる物理
技術評論社
アマゾン 物理一般書第1位獲得!
第5章 神はサイコロを振らない!?
(ギャンブル必勝法)
第6章 物理と金融工学
(株価が上がっても下がっても儲かる方法)
第7章 エントロピーと会話力
(ジャパネット高田社長登場!)
第8章 自由度と働くリスク・リターン
(OLの水商売はリスクを減らしてリターンを増加させる)
第9章 物理現象と不動産投資
(六本木ヒルズを1,000万円台で買う方法、筆者はこれで6年住んでみた) せめてベイズ統計学の基礎ぐらいは勉強してから書き込んでほしい。 238って、
確率の積と条件付き確率の区別がついていない人が問題を出すと酷いことになる
という見本としてしばしば張られるやつだよ 統計は役立つけどだからそれが学問として優れてるというのはある種の誤解
じゃないの まさに著書で掲げるように世界を都合のいいように型にハメて
解釈しようとする人間には素晴らしい道具足り得る 機械学習とかタイムリーな
お話ではなく それ以外の理論との関係性を追うべきじゃないの 数学者なら >>316
東京大学医学部健康科学科卒で医師免許を持っていないのに医学部卒の作者さんが
書いた本ですね! 昨今の機械学習界隈では、いわゆる
「統計屋」
がほとんど活躍していない。
裏にあるのは統計学なんだけど、機械学習には
そこまで高級な統計理論は必要ないから。
機械学習を仕切っているのはひたすら
コンピュータを学んできた、しかも若い人たちで、
歳を取った「統計屋」さんは見てるだけ。
これが実情。
だから、
「機械学習と統計は同じ」
なんて自己主張もしてみたくなるのさ それより聞きたいんだがExcelにpythonが実装されることを考えるとこれからの時代はRよりpythonなのか?教えてエロい人! >>322
どう考えてもRよりpythonだろう。
ただし、素人が使うならどっちでも同じだから気にしなくていいよ メジャーで通用する日本の野球選手がピッチャーばかりな理由がわかった。
モンゴル力士みたいに八百長を在日韓国人が日本でやってるからだわ。
ピッチャーは、敵チームのバッター9人のうち3人だけ八百長してくれても残りの6人が
手を抜いてくれなかったら試合には勝てない。だから本当に実力が無いと成績が上がらない。
バッターは、敵のピッチャーが甘い球を投げてくれたりあらかじめ球種を合図で教えてくれたら
打つことができる。つまりバッターの成績は八百長でいくらでも粉飾できるわけだ。
日本人のピッチャーは大変だわ。味方チームのショートとセカンドが在日チョンだったら
投げるボールのサインを盗まれて在日韓国人バッターに合図を送られちゃうもんな。
しかも観客席にもいくらでも在日チョンが紛れ込んでるし。これじゃ投げる球種が
バッターにバレてても三振取れるぐらいの「本物の」怪物ピッチャーじゃないと勝てない。
在日朝鮮系の選手、特に野手に限ってやたらメジャー移籍に否定的だったり、
メジャーで通用する野手が日本に全くいない理由はこれだったんだなあ。
野茂がメジャーに行く時も朝鮮人の野球選手がめちゃくちゃ嫌がらせしてたやん。
朝鮮人が日本でインチキ八百長やってるのがバレるのが怖かったってオチだったと。 と言うより、Excelで間に合うならひたすらExcelでがんばれるけどな。 >>322
エクセルのVBAがpythonになるってことなの? まだ構想段階じゃねーかよ。
下手に統合しても使いにくいだけだと思うけどな。
Excelをそもそも使い続けるのかということの方が心配すべきだなwww Excelの牙城が揺らぐことは今のところあり得ないと思うがの 確率論の哀しいところは それが完全に正しいと証明された後ですら
誰も信用しないというところなんだよね 証明されてないだろ
正規分布、F、t、χ^2 分布に従うとしたら〜みたいな未証明の仮定に依拠してるだけ コーシー分布を見て、美しいと踊りだす。
そんなやつに、機械学習は任せられない。 そもそもあっちで使う数学と、こっちで使う数学が異なるルール、公理を持ってたら、それはもう数学じゃ無い。
まぁ日本では数学と算数という2種類のものがあるけどな。 >>336
それは違うんじゃね?
例えば、ユークリッド幾何と非ユークリッド幾何では、平行に関する公理が違うわけで >>337
ユークリッド幾何学は非ユークリッド幾何学の一部だ。
数学は非ユークリッド幾何学を含む概念だから、同じものだよ。 >>338
一部っつーか、ユークリッドでは公理が増えるでしょ >>337
特殊(ユークリッド)と一般(非ユークリッド)だな
>>339
えっ >>7
なるほど
>>9
なんでニューラルネットワークにはフィードバック回路入れたらだめなんだろね 統計学者「統計学は、実は機械学習と一緒なんです(キリッ)」 >>166
宇宙をAIωに観察させたら相対性理論や量子力学よりも
人間には到底理解出来ない有効な理論を導き出してくれるかも知れない 人間には到底理解出来なかったら、解明されてないのとまったく同じだろwww 統計学とか言ったら、あの著者の顔のイメージが思い浮かんできて、うんうん >>177
(超)平面で分けてるのか?
曲面だと思ってた >>240
地震予知学者
次の6回以内に6が出る確率は15%以上 >>353
一つのニューロンは超平面なんじゃね?
で、複数のニューロンによる結果を合わせることで、曲面的なものにしている
入力ベクトルと重み付けベクトルとで内積をとるって、そういうことだと思うよ >>349-350
理論は無いけどなぜか答えだけ合ってるみたいな
得体の知れない物がAIとかDLなんじゃね NHK杯での羽生君の活躍が見たい
これからが楽しみ ビットコインに「投資」しているとか言い出す低能
大卒でそういうやつって半島にいるんだな。 ✕ 半島にいるんだな。
○ 本当にいるんだな。 だとすれば、機械学習はいづれクオンタムになるということか ■ このスレッドは過去ログ倉庫に格納されています