音声認識と、構文解析のところに、ニューラルネットの技術が活用されている。

一方で、アレクサ自体は、話しかけられたコマンドにレスポンスしているだけ。
たまたまインターフェースが音声だっただけで、これがCUIだったらコマンド
プロンプトとなんら変わりはない。何ら自律的な判断はしていない。

音声認識にニューラルネットを使うのは、人間の脳でもやっている事だが、
かなり低レベルなインターフェースだと思う。

構文解析は結構高度なインターフェースではあるが、しょせんブローカー野。
前頭葉には敵わない。

この辺の認識で、AI(人工知能)であるか、無いかの見立てが変わってくる。