【AI】AIトップ学会で日本勢躍進、「後進国」返上なるか [すらいむ★]
■ このスレッドは過去ログ倉庫に格納されています
AIトップ学会で日本勢躍進、「後進国」返上なるか 市嶋 洋平 シリコンバレー支局長 「後進国」ともいわれた日本のAI(人工知能)の研究が大きく変わりつつある。 同分野の有力な国際学会「NeurIPS」では最高位に日本勢の論文が相次いで選ばれた。 米中に量で追い付くため海外研究機関との連携などの施策が欠かせない。 AI分野の有力な国際学会である「NeurIPS」。 2020年12月にオンラインで開催された学会である異変が起こった。 採択率が1%の優秀な論文として、日本勢が相次いで選ばれたのだ。 NeurIPSでは、データを効率的に学習したり、学習したデータセットの中から特定のパターンを見つけ出したりする機械学習のアルゴリズムや、多層に重ねたニューラルネットワークを利用する深層学習のモデルやそれを応用したアプリケーションなどが取り上げられる。 (以下略、続きはソースでご確認下さい) 日経ビジネス 2021年1月19日 https://business.nikkei.com/atcl/gen/19/00137/011900011/ この記事は会員登録で続きをご覧いただけます 残り1411文字 / 全文1882文字 やーっとの事で 日本人が深層学習の考え方に馴染んできたと 日本の元大学受験生どもは行列を見ると反射的に 対角化したくなる連中ばっかりだったからなあw 掛け算は必ず行と列で掛けちゃうものという概念を逃れられないし これから脱出して、どの成分とでも自在に掛けては色々な足し方をして その結果として成分数を徐々に減らして行くのが重要なんだ そのような演算が、うまい具合に人間が脳細胞間で行ってる処理にかなり近いと 基礎研究系は追い付いても ビジネスやサービス化が致命的に 追い付けない 上っ面しか理解できないのではなく 理解しようとしない日本脳の宿命 >>4 AIドシロートだけど 成分減らしって 抽象化ってこと? その結果線形近似で正解・不正解領域判定するふいんき? オーラルと呼ばれる優れた論文が106件で そのうち日本勢が6件 ふ━━( ´_ゝ`)━━ん 去年はゼロ件で、ゼロから6へ、大躍進 ( ̄。 ̄)ホーーォ。 テクノロジー民度が低いから無理でしょ 先進国の底辺だし https://xtech.nikkei.com/atcl/nxt/column/18/01495/010500005/?n_cid=nbpnxt_twbn NeurIPS 2020 神経科学と機械学習に関する最高峰の国際学会で、 最高位の論文に輝いたのは、OISTの小津野将氏らが書いた 「Leverage the Average: an Analysis of KL Regularization in Reinforcement Learning」 Google Brain、DeepMind、沖縄科学技術大学(OIST)、Inriaの共同研究 >>5 それな 期待すればするほど下々が煮え湯飲まされるだけのサドンデス AI研究と脳神経理論で優秀なのは、 理研BSIとOIST(沖縄科技大) そして東芝、PFN、富士通研究所、東大松尾研、WBAI NTTコミュ研や、 最近では産総研、理研AIP、NICT等が国策でAI研究を推し進めている >>11 そう それなりの学歴あるのに AIが「意識」とか「常識」を持っていて 人間のように「判断」しながら「学習」してると本気で思ってる 経営者、企画職、営業職業ばっかだからね 下手すると技術系のマネージャークラスもこれだからw 与えられたデータセットを元に判定してるだけだからなあ その結果をどう利用するかはこれまた人間次第だ AIってなんか技術の塊ってイメージはあるけど 人間と最低限のコミュニケーションも取れないんでしょ コミュ力がないと流石にウチじゃ受け入れられないよ 1000ピクセル×1000ピクセルの画像が何万枚もあって それぞれにまあ、合計30種類くらいの画像が映っている この場合、100万ピクセル分のデータを最も上手に30種類に縮約するような 変換を行っている、というだけだとも言える 研究者に哲学的素養がないのがいいのかなあ。 意識とか心とかの最新研究についての見識がないように思える。 >>19 意識に関しては、 株式会社アラヤの金井良太氏が、自由エネルギー原理と統合情報理論を基に、 汎用人工知能に意識が必要かどうか研究中 AI婚活やAI銀行ローン査定等は日本だけなのかな?あと日本らしいAIの使い方は なにかあったっけ >>6 >>4 は何も知らないただのバカだから気にするな パーセプトロンまだやってるの? スパコン使っても限界は近い ブレークスルーと称しているのはマシンの性能が上がったと言うことだけ >>19 なに考えてんだか知らんが、 認知科学って言うのが担当している分野 人工知能やってて知らないって事は無い >>12 松尾先生はattention使ってるの? >>25 パーセプトロンとかロジスティック回帰とかサポートベクトルマシンなんて20世紀末のものだよ 確かに使える場面もあるけど精度が上がり切らない >>4 行列は連立一次方程式を解くためのツールに過ぎんでしょ? 応用として計算機上で力ずくで物理問題が解けるようになった AIもその恩恵の一つに過ぎない NTTのCS研もいい論文を出してるが、MSRやPFNに人が流れてる。 NTTはせっかく人材がいるのに、 良いデータを提供する仕事も、高待遇で抱え込む人事制度も欠けているのが残念。 深層学習って行列というかテンソル演算の繰り返しだからね それを最後に、いくつかの分類クラスになるだけぴったり当てはまるように サイズを縮めていくだけ(途中でシグモイド関数やRelu関数で出力範囲を限定したりするけど) >>1 AIは教育するコストが莫大で、しかも 出来たものはアホかもしれないという リスクが最後につきまとう。 だから、RPAに負けてしまう。 研究ができるのは昔からじゃないか 研究者は変に凝り固まって致命的に活用出来ない 説明下手も相まって上がまるで有用性を理解できない 理解できないものにお金を払えない 結果持ち腐れてずるずる後退 いつもの図式だ AI用のちょっとした良いWSを買おうとすると2千万円とかいわれるのじゃ、 とても一般の貧乏研究者には手が出ないだろうな。知り合いの年額研究費は 25万円だそうだ。 >>36 自分でGTX1070tiでも10枚くらいSLIで繋げれば BERTとか動くようになるんだよなw >>22 回転寿司の回すネタの順番とかに使えばいいんじゃない? >>1 個人情報とか日本は厳しい部類だからデータ採取が難しいね ランダムサンプリングできなければ過学習なんてものも起こりうる ムリげー あまり文句ばかりもあれだけど、やっぱり実ビジネスとセットでないと株価対策、個人の業績稼ぎ、ネクストキャリアへのステップアップに見えてしまう GAFAみたいなデータドリブンのハイパースケーラ企業が残念ながら日本にはないのがな 使う方は日本はまだまだたよな GAFAに近づくことができそうなプラットフォーマーもまだ出てこなさそうだし 平和ボケの日本人がせっせと外国人を教育して優位パーになるんでしょ 既存の技術の改良が得意な日本人は、 米国製AIの改良をしててください。 >>29 アホは自分が何言ってるのかすらわからないようだ。 >>1 基礎研究の最先端は別のテーマに移って、AI研究はもう退潮 AIを実用化する分野もおおよそ出揃った そんないまこそカイゼン 頑張れ だれがこんな記事を書いてるのか・・・、たしかに日本はAIの開祖に近いが 最近のCVPRとか国際学会の発表とかみたらほとんど中国人じゃん AIトップは確実に中国人だし、研究者の量が100倍位違うと思うね 量より質とかいうけど、俯瞰的に見ると質も負けてると思う、こういう記事はよくない >>10 でたOIST OISTのHP見てみたらいろいろ謎が解ける 95%は「外国人」だし、「特殊法人である学校法人」という かなり謎が多い大学、居住施設は南国リゾート風 先端科学を切り開くには自由な研究場所が必要と言うが 国民の税金が投入されていることも頭に入れておきたい 久々に明るい話題。AI分野はマジでがんばってほしいな。この分野なら国も金をどんどん投入すべき 計算機がゼロ除算ができるという、情報が入った。 https://www.wantedly.com/users/60525428/post_articles/155977 Announcement 478: Who did derive first the division by zero 1/0 and the division by zero calculus tan(pi/2)=0, log 0=0$ as the outputs of a computer? >>47 侮蔑並べて自分をえらく見せたいだけだから 何も答えられないよ まあ、AIなんで詐欺まがいの物に、、 1000年後は役に立ってるかもなw >>1 有料記事でスレ立てるなら省略しないで最後まで書けよ。内容わからんだろ。 政治家の半数をAIにすべきだろ。 もう、日本の政治家は終わってるぞ。 日経は根拠のない日本ヨイショ記事が多すぎて記事の信ぴょう性が今一つわからん だから最初から新聞はヨイショ記事を書いちゃいかんのよ AI開発するのならノイマン型じゃだめだ 量子コンピュータベースにしないと 脳味噌の演算の仕組みが分からないと >>58 ノイマン型だと多重度にも限界があるもんね。 脳内のシナプス間の信号伝達って平行してるだろうから、量子コンピュータみたいな仕組みで実装できたら新たな展開があるのかも。 ただ日本の現状を見てると、AI研究が遅れてると言うより社会全体で必要性を感じてない様な気がする。 興味があれば、皆んなこぞって飛びつく筈なんだけど、「AIなんて所詮はパターン認識でしょ」みたいな冷淡な意見が多い様に思う。 そもそも日本人の嗜好に合ってないんじゃないかな? みんな画像認識までは食いつくんだが 自然言語処理は興味を持つ人が少ないねえ ゼロ除算についてはマジで一ミリも分からんから誰か猿でも分かるように解説してくれ https://twitter.com/se_24lv/status/1351524033188167683 ゼロ除算は当たり前です。ゼロで割るは、割らないこと、したがって 割り当てられる数 もない。 ゼロ円のお金を与えるは、与えないこと、ゼロ回やることはやらないこと、 ゼロの意味を考えれば、当たり前、数学的にも当たり前です。 現代数学は、基本的な欠陥があるのは、歴然です。 人類の恥、ゼロ除算: https://twitter.com/5chan_nel (5ch newer account) >>29 今AIってされてるのはローゼンブラットの残留思念じゃないの? 零除算とかさも新発見のようなことを書いているが、 それは数学の分野ではとっくに知られているものだよ。 それは「フォンノイマン代数(von Neumann Algebra)」と呼ばれるものなのだ。 多層化しても本質的には単層のものの組み合わせとも言えるが 逆誤差伝播法なしにはまともに動かないし 汝ゼロで割ってはならないの数学十戒第一は覆されて、ゼロで割って、新世界が現れた、 ゼロで割ることができて、アリストテレス、ユークリッド以来の新数学、新世界が現れた。 象徴的な例は、 1/0=0/0=z/0= tan(\pi/2) =log 0 =0 and z^n/n = log z for n=0。 基本的な関数 y=1/x の原点に於ける値は ゼロである。無限遠点がゼロで表される。 ゼロの意味の新しい発見である。 再生核研究所 何故ゼロ除算が不可能であったか理由 1 割り算を掛け算の逆と考えた事 2 極限で考えようとした事 3 教科書やあらゆる文献が、不可能であると書いてあるので、みんなそう思った。 再生核研究所声明 148(2014.2.12) 100/0=0, 0/0=0 − 割り算の考えを自然に拡張すると ― 神の意志 再生核研究所声明171(2014.7.30)掛け算の意味と割り算の意味 ― ゼロ除算100/0=0は自明である? 加(+)・減(-)・乗(×)・除(÷) 除法(じょほう、英: division)とは、乗法の逆演算・・・・間違いの元 乗(×)は、加(+) 除(÷)は、減(-) 0を引いても引いたことにならないから: 君に0円の月給を永遠に払いますから心配しないでください: OISTとか、もう、日本じゃないだろ。 みんなが想像しているような大学じゃないぞ。 データセットは世界全体で普及しているのは事実 だが業務の情報でAIが教師データとして使えるような形の データがあるか?というと、大いに疑問 特に現業系 >>74 日々の業務の素材(input)と結果(output)を計算機可読形式で表現できるなら、AIに馴染む >>70 建前では善人ぶるのでそんなこと言いません やり直し >>37 そうそう、行列演算みたいなものは専用ハードをFPGAとかで 安くあげればコスパのよいAIマシンは自作できる。 しかし、最適値を求める場面があるので、ここはスパコンの剛腕を 借りるか、はたまた量子コンピュータの実用化を待つしか 巨大な問題を解くための突破口は無いね。 去年はテスラのNNモデルのAIに権威たちがビビったり、GANみたいな強力な AIにどう制限をかけるとか議論になり、論文にそのAIが社会的にどのような影響を 与えるかを追加で書くようにルールが変わったので日本人の論文が通りやすくなった。 AI研究のリミッターが解除されたおかげで色々な研究で今ブレイクスルーが起こって いる。量子コンピュータのアルゴリズムが作れる人を募集中(10億円+MIT特別教授) AIを大真面目に使ったイグノーベル賞が取れたら始まったなって感じ 脳波をモニタリングして応答を確かめながら肩を揉むマッサージチェアだとか、 脳波をモニタリングして集中度を確認して集中度が下がっていたら電気刺激を 与えて覚醒させる低周波装置とか、そういうのはどうだろうか? 米中勢は論文掲載以外の商用目的に移行しているだけなのでは? 研究実績=論文掲載という考え方自体が古いような気がする 本当に儲かる技術の核心部分は論文に載せたりせずに秘匿するか、 あるいは特許が成立するまでは伏せておくのがビジネスの常道だからな。 >>4 NN の行列は画像等の CNN を除いて単に数字が沢山ならぶことの管理を簡単化するためのもの Tensorflow っていうけど複数枚の行列の計算グラフ AIのモデリングとかチューニングは日本の昔から得意な職人芸みたいなものだから日本が上位に来ても不思議でないよ。 Smart Algorithm Cleans Up Images By Searching For Clues Buried In Noise https://today.tamu.edu/2021/01/25/smart-algorithm-cleans-up-images-by-searching-for-clues-buried-in-noise/ このような技術を使えば、低線量被曝のCT撮像ができたり、 暗視スコープの画像を明瞭化できたり、昔のフィルムの粒子の粗い写真や映画 の画質の向上、などなどが可能になるのだ。 24時間テレビ放送AIは日本をすくう、を放送したらどうかね。 ところで、なぜNvidiaのGPGPUばかりがもてはやされていてAMDのGPGPUは さっぱりなの? AMDがそこで動く深層学習モジュールを作るサポートを 十分に出来てないって事だよなあ NVIDIAはtensorflowだkerasだPyTorchだとがっちりみんな固めてしまった 元々IntelCPUのコピー商法、真似商品路線でAMDは成長してきたので、 ソフト開発はインテルの市場におんぶされてという小判鮫体質が 温存されているのだろうか。ソフトに割いている努力が少ないの ではないかと思われる。その分値段が安くできる面は否定できないが、 それだと模倣品、命令コンパチ品しか商売としてやれない、上手くいかない気がする。 >5 日本の場合、基礎科学を楽しめるような人間には商売っ気を育てる場面が乏しく、 商売っ気が育つような人生の人間は派手好きで地道な基礎科学なんか自分でやる気はさらさらない >93 今時のCPUは速さに影響が大きい部分と どの命令セット用か(x86、ARM、RISC-V、etc.)という部分は分離してるよ。 >87 深層学習ってそういうものの半自動化、自己洗練が肝なんじゃ?違うのか? AMDがその素直なGPGPUをもっと採用支持されるためには、 ソフトウェアの開発環境や、ライブラリの整備などが必要だが、 伝統的にそれらのソフトはインテル社のコバンザメ商法により のし上がってきた会社だからだめなんだろうな。 日本が、かつてIBMのメインフレームのコンパチ商法をやってたり Intelの8086やMC6800を真似したCPUを作ったりしていたのと同じだ。 モーションプランニングの権威が日本に帰化したりしてるからなぁ テレビアニメの企画で、AI少年ケンとか、AIドールとか、AI少女ジェーンとかを フジテレビで放送すれば良いんだよ。 Chainerっていう日本発のAI用フレームワークが出ていてそれなりに使われていたんだけど開発中止 まあ国内じゃあ貧弱な開発体制しかないしユーザーもしょぼいからしょうがないか >>101 NVIDIAのGPUのGTXなんちゃらでは実に頑張って動きましたよ CuPyも使いやすかったから他の配列演算にも使えたし便利でしたよ RTX2000番台になったらChainerはGPUを使えなくなってしまった そうなると一気に注目されるのがChainerから分かれたPyTorch なおPyTorchはRTX3000番台にはkerasより早く対応したのだ 日本全国に張り巡らされている地震計のデータを元にして AIで地震予知はできないのかね。 >>103 これは地震が来そうだぞ! という勘が正しいかどうかを判定か 多数地震計だけじゃなくて地電流とか測量で見た標高とか 地震雲w とかも全て教師データにして、それに対して 地震が起こった時と起こっていない時で場合分けすると 地震予知の難易度は、天気予報なんかとは次元の違う難しさで、 ガラスや陶磁器の割れ方の詳細を予め言い当てることと同じくらい難しい。 >>105 ヒビが入っている場所=断層がわかっているから、割れる場所は予測しやすい。問題は割れる日時。明日かもしれないし20年後かも知れない >>96 深層学習をさせる匙加減というのがあるんですよ。そのことを指しているのかと思います 日本は最初新しいこと考えるより、あるものを洗練させるのが得意よね。深層学習の問題の大枠はもう出てきてるから、いかにいい塩梅に調整するか、というので日本が成果を出しても不思議はない >深層学習の問題の大枠はもう出てきてるから でもdeep learningの大幅に革新されたアルゴリズムを作るとかになると まだちょっと厳しい とは言いつつ、各層での演算になかなか大胆な手法を次々に入れているのも事実 もしかすると、もうすぐブームも終わりかな? 靴磨きの少年が旦那どの株を買ったら儲かりますかねなどと 尋ねるようになったら、もう株は手仕舞する時期だという話 もかつてあったからね。 >>110 これから民生用がどんどん伸びると期待される >>110 間違いなく終わり AIソリューションで詐欺じゃないものを探すのが難しいくらい まともなものが少数 データベースの概念を変えるLINEの超巨大言語モデル開発|日本語対応の難しさ https://ainow.ai/2021/02/18/253222/ LINEが言語系のAIモデルを構築したら 日本の言語情報がLINEに支配される事になるな 現状、大半の日本人はちゃんと校閲を経た本はあまり読まないで 垂れ流しの文章ばかり読んでる。 間違い交じりの日本語の拡大再生産が行われていて日本語の質は下がりつつある。 既に明治期以後に形成されたという説のある いわゆる男言葉、女言葉というものが、 だんだんと廃れてきているからな。 「〜だわ」とか「〜でしてよ」とか「〜だわよ」とか 「〜ですわね」とか「〜ことよ」とか「〜かしら?」とか「〜のよ」 などと、そういう言葉は女の言葉だったりしたものさ、だんだん廃れている。 そのほか文脈や話の発想や、語彙などにも男女の差があったのよ。 >現状、大半の日本人はちゃんと校閲を経た本はあまり読まないで AIが校閲すれば良い。 日本語ワープロの機能として、ニューラルネットとかを使えば、 異常のある文章を指摘したり、よくある間違いを自動で訂正する などはかなりできるだろう。嘘字、当て字、誤変換の多くは 検出し訂正可能だと思う。 現状は、連文節変換程度で止まっているのがだめなところだ。 ニューラルネットで各国語間の自動翻訳が多くの用例を元にして 可能になりつつある現在、校閲機能ぐらいは朝飯前ではないかと思うがな。 >117 学習に使う文章の権利者が、その手柄は自分たちのものだから分け前をよこせと言うだろうな 著作権が時限で切れてるデータだけでは古風になる 新し目で権利放棄されてるデータは手本としては頼りにならない 著作権は表現を保護するだけだから、言葉の言い回し、用例、用語の使い分け などは保護されないよ。だからそういう要素だけを統計的に取り出して学習 する分には元の文章を公開した側は権利を主張できないはずだ。 今の自動翻訳は、たとえば新聞記事を翻訳させてみるとびっくりするほど良い 訳が出て来たりするが、それはたとえば新聞記事をデーターソースに学習させて たりするからなのだろう。仮に5chの文章を元にして学習させたら、 言葉足らずの、言い間違えや誤字脱字、当て字、わざと曲げた字の使い方、 絵文字などを学習してしまい、クズの文章を生成したり、校正結果として 出してくるようになる。郷にいりては郷に従えだw。 応用商売力ZEROじゃ宝の持ち腐れだよね なんでダメなんだろうねやっぱり官僚の規制が原因か? >>121 AIに関しては基礎も応用も0だわな メンバーシップ型雇用に基づくスペシャリストの不在(とりわけ経営・リーダー層の不在)が効いてそう 期待感からもてはやされて流行りだから、政府が産業界が金を出しそうだから という理由で大勢の研究者になりたがり屋が取りつく。後追い研究をして、 せいぜいこういう応用もできましたというパターン。 AIは何度もブームになっては廃れての繰り返し。 忘れられた頃になってそれでもまだ地道に続けていたグループがちょっとした ブレークスルーを起こして一段階進むと、それまでできなかった・できないと されていたことができるので、それの外挿でもってあれもこれもできそうだと 根拠の無い希望的妄想が膨らみ、ブームになるが、しばらくするとちっとも 進歩がない停滞した状況に陥り、新規の何かが起こらないと製品も論文も できないので、食えないから人が去り、沈静化する、それの繰り返し。 バブルに飛びついた大勢は割りを食う覚悟がいる。仕掛けた側だけが儲かる。 ベンチャーに資金を出してブームを宣伝して創り出して、株価が爆上げした ところで売り抜けて後は関係ない。人間の無駄遣い。 AIは1956年の技術だよ。 リソースが大きくなり計算しやすくなった環境ができて実用になった。 いまはさらに望まれてるのはデータの整理。一時期、日本でもデータ スペシャリストとかいう資格が持て囃されたけど、AIの運用がこなれて いくにつれ、データのコスト高がネックになる。 AIのオープンソース実装が安定化してから中国がやたら成果を宣伝して いるのは、データコストが低いから有利ということを暗にアピールして いるってこと。 >>124 根本的にベースになっているのはパーセプトロンに活性化関数が組み込まれただけのものだもんな でもそれが、そんなものが様々な問題を解けてしまうのだからすごい話なんだと思う あくまでニューロンの模倣なわけだから、単純だけど奥深い 逆説的に考えれば人間の学習は実例ありきなんだろうな 説明より先に実例の列挙ありきな気がする >>125 人間はアーキテクチャごと学習する上に 億年単位で並列で学習してるからなレベルが違う DLがここまでしょぼいくてほとんどの問題解けないってのも 人間と比べての話だしな そうそう、Pythonがあればこそだよ。 Pythonさえあればimportすれば何でもできるんだよ。 Pythonのライブラリの充実っぷりは凄過ぎるからなあ 見よう見まねでコピペで引数と返り値の代入に気を付ければ まあ速度はともかく一応は何でも作れる (複数OSでの制約関係なく動くアプリとかを作るのには向いていないが) アメリカなどのニューラルネットの数理(数学)としての研究の進歩進展は 目を見張るほどだ。やっぱり秀才天才が大勢集まって日夜努力を傾けて、 産業界も金をばらまいている分野は違うな。NvidiaのGPUのカード1枚を 買う予算もない年額20万円程度の日本の大学の研究者では、どうにもならない。 >>130 自分の給与から自腹切って中古のGTX1070tiを3〜4枚買って 電源を1.5kWくらいにしたPCを自作するしかないなあ 今はグラボも値上がりしててそれでも12万くらいになってしまうな CPUは中古でデスクトップ型のi7で少なくとも6000番台、出来れば8000番台以上か AMDでRyzenなら1600番台以降で5以上出来れば7か マザボもそれ対応、メモリも対応してるもので16GB以上(出来れば64GB) SSDが望ましいがHDDでまあ良い なおこれでは、BERTとかは動かせない(GPUメモリ66GBが必要。最新のRTX3090が3枚必要になる) 某研究者はアンペアのカードをボーナスはたいて手に入れた結果、家庭を >>132 奥さんに「私と研究とどっちが大事なの!」と詰問されたんだろうな 電気容量が越えて電気代がうんと上がると、 家庭あるいは職場においても問題行為となるのであった。 カードをPC本体に内蔵させて隠していたとしても、 ファンの轟音がしていたり、ブレーカーが落ちれば露見するのだ。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる