ニューラルネットワークを数学的に概観すると、
係数全体が示す(多次元)平面上に、目標の近似達成度という一次元の関数が定義できる。
「学習」とは、その近似達成度が最大化するように、係数ベクトルを移動させてゆく問題だ。

ちょうど、(係数ベクトルという)パチンコ玉が、(近似達成度の)窪みに落ち込むように揺すったり叩いたりする数学的手続きをするのが、
ボルツマンマシンだ。

既存のパーセプとロンでは、揺すり方が、単調で小刻み過ぎて、ちっともパチンコ玉が小さな丘も超えられない。
で、ディープラーニングなどでは、思い切って、もっと、大きく揺すったりする。