2012年、史上初めてグーグルAIが「教師なし学習」で描いた猫
livedoor.blogimg.jp/ikeda_nobuo/imgs/8/5/857269f4-s.png

従来のニューラルネットによるAIでは「人間の知能は論理だからコンピュータの論理回路で絵も書ける」と考えられていたが挫折した。

たとえば「猫に餌を与える」という動作をロボットにやらせるには、
最初に「猫とは何か?」「餌とは何か?」「口とは何か?」「餌をどうやって口に入れるのか?」といった具合に、主体と動素についてフレームを設定しなければならない。
これはカントの認識論に似ていて、
「物自体」は認識できずまずはカテゴリー(フレーム)から認識する必要があるからだった。
例えば、氷河と雪の国のエスキモーに「雪」という言葉がないのは、雪といえ概念がないから。

画像や音声の認証技術にしても、
人間が与える「教師」がいてそれに基づく学習だから顔認証や指紋認証はできるが、
何も教えないで「『猫』というフレームそのもの」を創造することはできなかった。

ところが2012年に、初めてグーグルAIが「猫フレーム」を創造、教師なし学習で猫を描くことに成功した!

無作為に抽出した何千万ものYouTubeの猫の動画(そこには様々な物体が映り込んでいる)から、AIが人間からは何も教えられないで猫の動画を認識できるようになり、猫のイメージを描いてみせた。

しかし猫のフレームを創造するのに、1,000台のサーバで1万6,000のプロセッサーをつなぎ3日間かかった。
「猫」だけでなく「餌とは?」「口とは?」「餌を口に入れるとは?」まで描くとなるとどのぐらいの日数を要するのか?
人間の子供なら瞬時にできる処理に膨大なコストがかかるということは、
人間の知能がノイマン型コンピュータとは全く異質であることも改めてクローズアップしている。
目的なしにいくら「ビッグデータ」を集めても、コンピュータが目的をつくることはできないので、「自分で考える機械」という意味での人工知能は不可能だからだ。
レコードをいくら進化させてもCDは生まれないのと同様、ノイマン型コンピュータをどんなに進化させても人工知能は人間の脳には追いつかないのか?