専門的なことも一般に

じかんをみつけて、「ゼロから作るDeep Learning」をチュートリアルしている。

本書は技術書としては異例のベストセラーになっている。

巻末を確認する。初版第7刷 2017年1月10日となっている。

購入時期は、そのあたりと推測される。

途中でやめたり、思い立って、またページをめくったり、もう2年半も付き合っていることになる。

げんざいは、ようやく、ニューラルネットワークの「2乗差誤差」まで進んでいる。

ちなみに本書では、ニュラルネットワーク > ディープラーニング と位置づけられている、とおもう。

「2乗差誤差」が、わりと面白いと感じられるのは、こちらも統計学ながらベストセラーになった「統計学は最高の学問である」を読んでいたおかげだとおもうねぇ。

「ゼロから作る」も「統計学は」いずれの著者も、俺より、ずいぶん年下なんだ。

専門的なことも、対象を一般として、分かりやすく。時代がすすみ、このへんは、ずいぶん良くなっている今日この頃。

Pickle

PythonにPickleというライブラリが用意されている。

作業中に作成した関数を使いたいのなら、変数に代入する、

あるいはクラスを作ってインスタンスを呼び出せばよろしい。

けれど、これは、作業中のことであって、後日、また、そのオブジェクトを使いたいばあい、 Pickleを活用して、オブジェクトをファイルに保存しておくことができる。


#たんなるリスト
curry1 = ['corma','kima','Kashmir,',980,['Ueno','Ginza','Nogizaka']]
print(curry)
['corma', 'kima', 'kashimile', 980, ['Ueno', 'Ginza', 'Nogizaka']]

 #pickleをつかう import pickle curry2 = ['corma','kima','Kashmir,',980,['Ueno','Ginza','Nogizaka']] with open ('curry_file.binaryfile','wb') as web: pickle.dump(curry2,web) with open ('curry_file.binaryfile','rb') as web: a = pickle.load(web) print(a) ['corma', 'kima', 'kashimile', 980, ['Ueno', 'Ginza', 'Nogizaka']] 

 

Pickle…こんなの、絶対に覚えてられんわ。pythonは、他のファイルからのオブジェクトは呼び出ししくいねぇ。

Javascriptは、もっとカンタンだったとおもうねぇ〜

——

いちおう、以前書いたJavaScriptのコードをチェックしてみた。

こんな感じだねぇ。

#ほかのファイルに関数を、おすそわけする場合。
module.export={関数名}

#関数を、おすそ分けされる場合。
require(関数名)

通常変数に入れて、関数の機能を改変させていく。
変数名 = require(関数名)

 

機会化の先

ディープラーニングの日本のエヴァンジェリストとも言える松尾教授の講演記事を読んでみた。

その中で「機械化は、その先の行動をうながす」という言葉が載っていた(正確な言い方は忘れてしまった)。

機械化といえば、機械化という言葉で思考停止していたことに気づいた、その先の指摘。新鮮だねぇ。

機械化はAI化の文脈で語られていた。

いまのところ、AIと言えば(気づかないところ、裏方で、けっこう使われているようだけれど)、たとえばGoogle HomeやAlexaのようなAIスピーカーくらいでしょう。これは、まだ新しい行動をうながす所まで行っていないのよねぇ。

Pythonでの新発見!

pythonでは、関数の引数にリストを入れられるし、さらに関数を変数に入れることが出来たりするのねぇ。意外な発見!

import numpy as np
import matplotlib.pylab as plt

def multi(x):
     return x**2

X=np.arange(-3,3,0.1)
Y=multi(X)

plt.plot(X,Y)

_______

追記

うえの例では、multi関数に、Xという変数を入れ直しているけれど、わざわざ、そんなことをしなくともy= multi(x)のままで、グラフは書ける。

*同様の機能をクラスで書いた場合は不可。クラスでは、リストは使えないみたい。

def multi(x):
     return x**2

x=np.arange(-3,3,0.1)
y=multi(x)

plt.plot(x,y)

SNSの影響の大きさ

いちじき小説をよく読んだ。

それでも太宰治と三島由紀夫は数冊ていどしか読んでいない。

盾の会での三島由紀夫を演じた映画を観たことがある。

三島は、自衛隊陸軍の市ヶ谷駐屯地に立て籠もり、建物の上から演説をした。

その主張については、よく知らない。三島は本気で出来ると思っていたのか、自衛隊陸軍で主張すること自体が目的だったのかも知らない。

ただ、その姿は時代を象徴する歴史的映像として残ってはいるものの、三島の主張が広がる経路は現在と比べ、極めて細かった。

もし現在、三島が生きていたら、ツイッターなどのSNSや、YouTubeを活用することが出来た。

三島の主張が一歩も実現できなかったことに比べ、たとえばN国党のワン・イシューが実現されたなら、芸術面や思想面の足跡はさておき、現実において、三島より実績が残せたと言っても良いと思う。

N国党云々というより、SNSというものは、やはり大きな変化を、うながしていると思うのだが、どうだろう。

X軸に数値を入れる

matplotlibで描いたグラフ。

デフォルトでは目盛りが2ずつになっているという。

軸に数値を入れる場合は、xticksメソッドをつかう。

import numpy as np
x=np.arange(1,10,0.1)
y=x**2
import matplotlib.pyplot as plt
plt.plot(x,y)
plt.xticks([1,2,3,4,5,6,7,8,9,10])
plt.grid()

 

 

レバリッジ

ホリエモンの本はよく読んでいる。

「考えたら負け」の中では、レバレッジをすすめている。

レバレッジとは、他人の資本で利益を出すことだと思うけれど、ま、それはさておき、

いま規模が0.5だけれど、対前年比10%の職業と、いまは1だけれど対前年比-10%の職業を比較してみよう。

pythonでコードを書いてみる。

import numpy as np
t=np.arange(1,10.1,0.1)
y1=0.5*1.1**t
y2=1-(0.1*t)
import matplotlib.pyplot as plt
plt.plot(t,y1)
plt.plot(t,y2)
plt.grid()

 




3年すぎると、0.5の方の職業が逆転してしまうという。それ以降は、ご覧のとおりなのだ。

「訓練」と「テスト」

機械学習の「訓練」と「テスト」は、チュートリアル通りに打ち込めば、そのままできてしまう。

いったい、なにをやっているのか、わからない人も多いのではないだろうか。少なくとも、ぼくは、そうなのだが、

ただ、きのう、フとひらめいたりした。

こういうことじゃ、ないのかねぇ。

機械学習の チュートリアルではデータセットをつかう。

そのさい、コードを打ち込めば、データは「訓練用)、「テスト用」にランダムに分けられる。

「訓練用」のデータども(教師データ)は、(ステップ関数やシグモイド関数など)選んだ関数により、目的関数に合ったパラメータが作られる。

そして「テスト用」のデータでは、その関数と、そのパラメータで、目的変数と、どれくらい一致するか、確かめられる。確率が小さい場合は、関数を変えたりして、再度「学習」「テスト」してみる。

…書いているうちに、怪しい理解のような気がしてきたかもです。間違いのご指摘、大歓迎ですー。

音声認識ソフト

ユーチューブなどで記者会見の様子を見ていると、記者たちが一心不乱にキーボードを打っている。

アメリカは、どうでしょう。

推測では、そういう風景は、目に付かないんじゃない?

文化的な背景の違いなど、分かりやしない。ただ、それ以前に、英語圏では、音声を文字に起こすソフトが充実している。

この分野は、グーグルでしょ。そうおもっていた。がしかし、Otterというソフトの評価が高く、あちらのライターにとって、手放せないものになっているらしい。

音声をAIで対応させるには、それに携わる技術者の力量が問われるだろう。ただ、それだけではなく、学習/訓練させるためのデータの量も問われてくるらしいんだわ。

世界を俯瞰してみれば、日本語のデータ量は、国内で思っている以上に少ない。一方の英語のデータ量は比べものにならないほど多い。あ、それから中国語も多いね。AIによる音声認識がアメリカと中国で進んでいるのも、収集できるデータ量の大きさによる、と言っても言い過ぎではないでしょう。

この文章のはじめに、日本の記者の記者会見の際のキーボードを打つ姿を、やや批判的に書いたけれど、ICレコーダで取材を録音→オフィスに帰ってからのテープ起こしと比べると、まだ、ましである。やれやれ。優秀な音声認識ソフトが待ち遠しい。

SNS

仕事がら、取材を多くやってきた。

取材について、アタマをスイッチしなければならない仮説を書いてみようとおもう。

従来の取材は、その内容が、新聞、雑誌、それにパンフレット等に掲載されることがデフォルトになっている。

そして取材は、テープ起こしを行ない、構成を練り、原稿となっていく。

さらに原稿は、広告なら、広告主(多くは広告主→広告代理店→広告制作会社)のチェックが入るし、新聞や雑誌の記事なら、編集のチェックが入る。

フェイスブックやツイッターといったSNSは、言うまでもなく、じぶん自身で発信している。

なので、基本的には、媒体に頼らないし、(お金を出す)スポンサーの意向も入らない。顔出しのYou tubeも、このさい、SNSと言って良いでしょうねぇ。

(フェイスブックやグーグルのアルゴリズムによる任意の広告が貼られているじゃないの、というツッコミは鋭いけれど、ま、それは、ここではスポンサーの意志が反映されないというニュアンス)

いままでインターネットに「市民権」を与えたウェッブを、とても評価していた。その一方で、SNSを軽視していた感じである。

でもね、さいきんは、空気のように当たり前だった媒体を相対化してしまったSNSは、とても大きな存在だと思うようになったわけ。

「メディアは俺だ。」
「フルネームで語れ。」

これは、ツイッターもフェイスブックなど想像もつかなかった次代のキャッチコピーだ。先見性があった。

明日に続く…かも。