【人工知能】AI誤って「回転」と錯視…人間同様に 立命大など発見「AIが錯視というエラーを起こす可能性が分かった」[03/21]
■ このスレッドは過去ログ倉庫に格納されています
静止画なのに回っているように見える「錯視」について、
深層学習(ディープラーニング)で自ら学習する人工知能(AI)も、人間と同様に「回っている」と誤って判断し、
錯視が起きていることを、基礎生物学研究所(愛知県岡崎市)と立命館大学(京都市)などの共同研究グループが発見し、国際学術誌で発表した。
AIの深層学習は、世界のトップ棋士を次々と破った「アルファ碁」で注目を集めた新技術。
画像など膨大なデータを読み込み、判断や予測能力を自ら磨く。画像診断などにも活用されている。
研究グループは、人の脳と同様に目で見る情報で予測を修正しながら学習するソフトを導入。
回転するプロペラの映像を見せ、回転方向や速度などを正しく予測できるよう学習させた。
次に、同大の北岡明佳教授(知覚心理学)が考案した、
とぐろを巻いた蛇の模様が回るように見える「蛇の回転錯視」の静止画を見せると
、AIは絵の中の円が回転していると判断し、回転方向や速度を予測した。
配色を変えると逆向きに回転していると判断するなど、人と同じ錯覚が起きていると分かった。
同研究所の渡辺英治准教授(動物心理学)は「AIが錯視というエラーを起こす可能性が分かった」としている。
画像:円が回転して見える「蛇の回転錯視」
https://cdn.mainichi.jp/vol1/2018/03/21/20180321k0000e040220000p/6.jpg
毎日新聞
https://mainichi.jp/articles/20180321/k00/00m/040/191000c 碁なら勝った方がいい手だと学習させればいいと分かるが
この錯視は何を基準に学習させたんだ? 人間による交通事故の多くは錯視によって起こると言われている
AIもそうだとすると
ダメかもわからんね >>1の画だと人間の画像認識の過程で錯覚するのだろうけど、
機械にそういう仕組がすでにあるということなのか? 同じニューロネットワークだから同じように間違える。
大小の比較・回転の有無は、画像を電子的に前処理しておかないと間違えるだろうね。 AIだけが騙される、騙されやすいパターンとかあり得るのだろうか。 AIに将棋を教えるとき、
1. ルールは先に教えておく
2. 棋譜からルールまで学習させる
という選択枝があったら、これは1.を選択する。
機械部品の種類を比較させるという学習なら、置き方で人間の
ように錯覚するかも知れない。だったら、長さの抽出は従来の
画像処理を先にやって、結果をAIに教えればいい。 間違うことが出来るAI
とうとうここまできたか
人間の優秀さは間違うことにある
転んでもただでは起きないから進歩した
次は嘘をつけるAIが目標 >>1
これは良い発見!!
これがAIの弱点、塩梅や倫理・道徳を付加して考えられない。
ルールでしか考えられない。
生命に関わる事でなくて良かった!!と思う。 AIはカメラでしか見ることが出来んから、カメラの性質によるだろうな >>18
TOYOTA x Uberの自動運転車で死亡事故だろ。
そりゃ命に関わる話だよ。 回っているように見えない自分は、人間終わってるか。 これは逆に人間は本当はAIであるとの証明になるのでは? すごいな。人間の神経ネットワーク形成の原理使ってると、本当に脳みたいに動くようになるんだな。
すると、いよいよ怖い。
将来、思考力が人間の脳を超えたとき、何が起きるのか、人間にはまったく予想ができないってことだ 人の目から入った視覚情報は、
その人の過去の経験から『一番○○である可能性が高い』と脳で情報処理されるようになってて、
各人の経験なりに最も間違いがないであろう可能性が採用されて『これは○○だ』と認識される
って、なにかの本で読んだなぁ
AIの学び方や判断のさせ方も同じようにせざるを得ないのかも コレは良い発見。黎明期に発見できたのは幸いだな。普及後に見つかったら厄介だった。 これは興味深いな
この手の錯視にAIは惑わされないと思っていた 「錯視というエラー」という考え方自体に変更を加えるべきかもしれない事例。 AIに自動運転をさせたら、道路に障害物があるかのように錯覚させて
減速を促す表示の前で停止しちゃうの? 人工知能はゼロ除算ができるでしょうか???
∞???
∞は定まった数ではない・・・・
ゼロ除算の発見はどうでしょうか:
Black holes are where God divided by zero:
再生核研究所声明371(2017.6.27)ゼロ除算の講演― 国際会議
https://ameblo.jp/syoshinoris/entry-12287338180.html
1/0=0、0/0=0、z/0=0
http://ameblo.jp/syoshinoris/entry-12276045402.html
1/0=0、0/0=0、z/0=0
http://ameblo.jp/syoshinoris/entry-12263708422.html
1/0=0、0/0=0、z/0=0
http://ameblo.jp/syoshinoris/entry-12272721615.html
ソクラテス・プラトン・アリストテレス その他
https://ameblo.jp/syoshinoris/entry-12328488611.html
ドキュメンタリー 2017: 神の数式 第2回 宇宙はなぜ生まれたのか
https://www.youtube.com/watch?v=iQld9cnDli4
〔NHKスペシャル〕神の数式 完全版 第3回 宇宙はなぜ始まったのか
https://www.youtube.com/watch?v=DvyAB8yTSjs&t=3318s
〔NHKスペシャル〕神の数式 完全版 第1回 この世は何からできているのか
https://www.youtube.com/watch?v=KjvFdzhn7Dc
NHKスペシャル 神の数式 完全版 第4回 異次元宇宙は存在するか
https://www.youtube.com/watch?v=fWVv9puoTSs
再生核研究所声明 411(2018.02.02): ゼロ除算発見4周年を迎えて
https://ameblo.jp/syoshinoris/entry-12348847166.html
再生核研究所声明 416(2018.2.20): ゼロ除算をやってどういう意味が有りますか。何か意味が有りますか。何になるのですか − 回答
再生核研究所声明 417(2018.2.23): ゼロ除算って何ですか − 中学生、高校生向き 回答
再生核研究所声明 418(2018.2.24): 割り算とは何ですか? ゼロ除算って何ですか − 小学生、中学生向き 回答
再生核研究所声明 420(2018.3.2): ゼロ除算は正しいですか,合っていますか、信用できますか − 回答
2018.3.18.午前中 最後の講演: 日本数学会 東大駒場、函数方程式論分科会 講演書画カメラ用 原稿
The Japanese Mathematical Society, Annual Meeting at the University of Tokyo. 2018.3.18.
https://ameblo.jp/syoshinoris/entry-12361744016.html より >>36
そういうのは別に見たままの映像だけで判断してるわけじゃないから >>41
そっか、センサーで障害物があるかどうかの判断くらいしちゃうのね。 カメラ1台若しくは2台で撮影したモノを学習したんだろうな
3次元空間を正確に把握するためには3台以上のカメラで撮影したモノで解析しないと
疑似的に空間把握されるから錯視が起こるんだろ思われ (゚_゚)自動運転車でコリジョンコース現象が発生する可能性があるってことか。 画企マロア画企マロア画企マロア画企マロア画企
画企マロア画企マロア画企マロア画企マロア画企
アロマ企画アロマ企画アロマ企画アロマ企画アロマ企画
アロマ企画アロマ企画アロマ企画アロマ企画アロマ企画
画企マロア画企マロア画企マロア画企マロア画企
画企マロア画企マロア画企マロア画企マロア画企 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f) 立命を毎日新聞が広報か
北朝鮮トライアングルは怖いね >>35
そもそも自然には静止画がないから人間の目と脳はそれに対応してない 踊り子が回転して、時計回りか反時計回りか?のアレも見せてみたい。 >>1
タチコマのAIは優秀でも9課の支援AIとなんら関係なく処理力の低下ではなくて
問題を引き起こすなら魂宿っても違いがなかったのか AIといっても
その入力は動画カメラの映像
1秒間に何フレームとかあるわけだから
錯覚はあるだろうね
ほら、飛行機のプロペラの回転をスマホカメラで動画撮影したら
変な映像になったみたいな話があるわけで そもそも錯視の話で「間違って認識する」みたいな話になるのがおかしい
人間の目は、カメラの画像センサーみたいに動かないといけないみたいな前提がおかしい
生物の場合、光を受ける機能と、それを解釈する機能が一体化されている。
外敵の距離とかを素早く判断して、素早く行動するために。
そのシステム全体がちゃんと動いているから、そういう認識になるんだから そりゃあ人間が作ったプログラムで人間的な解析手順を踏ませるだけなら錯視も起こすよな
コンピュータにやらせるなら錯視を起こしやすい状況では他の見方でも確認するような
ルーチンを付加すべきでしょ そもそもこの話も
AIといえば、一個だけしかない
みたいになるからおかしな感じになる
AIだって、作り方によって、いろいろ作れるわけだし
錯覚が起こることがわかってれば、それを検知して補正する機能つきのAIだって作るチャンスがあるんだろうし 難しいことだと思うけども
学習内容自体はブラックボックスと思うんだ
ここにもAIの解析淘汰で成した世界の錯視が有ることになるんだよ
それを有意味に変換できないかな? 頭悪そうな研究だな
学習データが悪い、モデル階層が浅い、学習ステップが足りないだけだろ
既存のAIの誤認識は全てこれが原因となる
今回は学習データが悪く、恣意的に起こした結果だよ 時刻0での入力画像
時刻1での入力画像
似た部分がないかを比較する
違う場所に似た画像があると、それを同一だと解釈する
そう解釈すると、それは動いたからだということになる
こういうのは生物でもAIでも一緒になりやすい
そういうことだろうな きっとAIでも処理時間やメモリー量が制約になって
完璧には至れないんだよ 俺、この画像見ても回転してるように見えないんだがヤバイのかな? あまりにも条件の情報が少なすぎて意味がわからん記事
必ず錯視を起こせるわけじゃなく錯視を起こせる場合がある程度か? モノは動いてる可能性を優先する
そういう気持ちがあるのかもな
認識システムとしては
動いてたかと思ったら、動いていなかったという誤認識なら害は少ないけど
動いていなかったと思ったら、動いていたという誤認識は害になるだろうから
敵から逃げるなんて状況を想定したならば これを使えばAIを利用して人〇しができる可能性があるからな >>17
AIがAIに詐欺を仕掛ける時代ももうすぐだな。 つまりAIも目が回るという事だ
人間味があって宜しい >>4
教師あり学習でしょ。
なんで教師なしだと思ったの? >>5
バクといってもいろいろある。
それもわからないの? すごい発見!
AIに運転させたら疲れて居眠り釣す可能性もあるのではないかい? 人間と同じ錯覚を起こすってことは人間と同じ目線を得られるって事だ
よく相手と同じ目線になれってよく言われるでしょこれ大事 >>84
なら君ならどう作る?
CNNとpoolingの組み合わせのネットワークではどのみちこうしたことは避けられないよ。 >>85
それはわからないな。
拡大解釈は文系の悪い癖だ。 別にこれが出来るとか言ってるわけじゃないんだが
にわか理系はすぐマウント取りたがる この錯視が起こる原因が動体と同じような見た目の静止画だからってことか 錯覚とかとっても人間的で信用度が下がったわ
怖くて命預けられん AIの場合サブ回路的なものでこういうのは訂正できるんじゃないの? >>68
これホント
素人が喜びそうなワードで釣ってるだけ
グーグルの研究ならまだ一考の余地はあるが弱小だから放置でよし 人間には2つの目しかないが 機械はいくらでもセンサーを増やせるからな
大量のカメラにレーダー、ライダー、ソナーとか必要に応じて情報を補完できるから錯覚も起こしにくいだろう >>1の画像見ても回って見えない。
俺は超天才だからか。
AIなんてゴリラと黒人女の区別もできないアホだからなwww
人間なら3歳児でも区別できるだろ。 これって、上・下に視線を
細かく移動させないと発生しない現象
AI だろうが画像の絶対変位から相対運動方向(ベクトル)を判断しているのだけど、この絵のパターンはそれが移動なのか回転なのか判断できない相対変化があるってだけの話
星飛雄馬が@地平線に向かって走り去っているのかAスモールライトで小さくなって行くのか
@と判断は縮小しながら上に動いているから、なのだが、これを常に星飛雄馬が常に画面のど真ん中にいるようにフレームすると、人間もAIもAに見える。
これを逆手にとっているのがアニメの背景の遠近感で遠いものをゆっくり近いものを早く動かすと、それを奥行きと判断する。実際には
セル一枚の厚みしかないのに 予測符号化理論が脳のモデルとして有力になったってこと? AIが使い物にならないことが発見されたわけか。
人間と同じエラーを起すとわかってるAIに、どんな仕事をさせようとエラーが必ず内在する。 ■ このスレッドは過去ログ倉庫に格納されています