チュートリアルをみながら、グーグルのTensorFlow(ディープラニング)をやってみたことがある。意味はわからない。せめて、そのとおりコマンドを打ってみたけれど、タイピングミスが多すぎる。けっきょく、コピペで作業をおこなった。

TensorFlowでは、4つの書き文字を、ほぼ100パーセント認識させた。愛用のMacBookAirでやった。それだけで、約1時間かかった。そのあいだ、CPUの稼働状況は90パーセント以上だった。処理終了近く、MacBookAirの裏面を触ってみると熱くなっていた。

やってみたのだが、残念ながら、ディプラーニングについての理解は得られなかった。だが、すくなくとも、パソコンでディープラーニングするのは、ムリ筋であることはわかった。

Raspberrypi(クレジットカード大のマザーボード)で、ディプラーニングに成功した。そういう記事をみかけることがある。Raspberrypiをパソコン化してつかったばあい、Youtubeでも、ときどき止まるくらいだ。(メモリーが1GBというのもあるけれど)CPUは、それくらいのスペックである。じっさいは、ディープラーニングは、とうていムリである。ちがうアプローチをしているにちがいない。

通常、ディプラーニングをやるときは、AWS(Amazon)、Google Clould Platform、Azure(Microsoft)が利用される。それぞれのクラウドは、利用時間ごとに課金されるみたいな。

パソコンというのは、すでに伸びしろがないと、おもっている。それでも、いままでは「ムーアの法則」(半導体の集積率は18か月で倍になってゆくこと)が有効だった。CPUのスペックをユーザーに訴求することができた。がしかし、いまや、「ムーアの法則」も限界にきている。

個人的な意見としては、パソコンはCPUではなく、GPUや、グーグルが独自開発しているTPUがパソコンに搭載されるようになり、ディプラーニング仕様になっていく気がしている。現状では、誰でもつかえるとは、とても言えないけれど、しだいに、それなりのアプリケーションも出てくるのではないか。