働き方改革っていうアレ

働き方改革っていうのが進んでますね。

しかし、いつも不思議に思うんですが、残業規制ってするだけで、残業って減るんですか??

そんなに世の中の普通の会社の人々は、夏休みのノビタ君みたいに、締め切りがないからダラダラやってたり、付き合い残業をされたりしているわけなんですか?

残業規制があったほうがいいとは思うんですけどね。そこが一番不思議なんですよ~。

 

というのも、私は一番忙しかったのは新卒で入った外資系の会社ですけど、ほんっとうにめちゃくちゃ忙しくって。

9時半ごろから仕事を始めて、夜の9時に帰れればいいほうだし、他の人は大体終電か、終電をわざと逃してタクシーとかってのが多かったですね。

でも、付き合い残業なんてしている人もいないし、さぼってるわけでもなく、みんな仕事中はほんっとうに一生懸命やっててもそれぐらいにしか終わらなかったんですよ。

今思うと、あの会社にはシステムがなかったので(ITの会社だったのに)、なんでも人力でやっていて、人がやることだから、ミスだらけ、そのカバーでまた人員がさかれって悪循環ばっかりでしたね。。。

なので、私は残業ばっかりで忙しい~!!って会社さんの話を聞くと、残業規制だけで残業が減るものなの??( ゚Д゚)とおもっちゃうのです。

 

なので、残業対策にはシステムを入れるのが一番じゃないですかね。

 

で、弊社のSmart動態管理は配送会社さん向けに特化したシステムなので、業務効率が上がります!

Smart動態管理についてのお問い合わせはこちらから

OLYMPUS DIGITAL CAMERA

 

三崎に行ってきた話

人狼仲間のH君の仕切りで、人狼いつもやってるメンツで三崎でまぐろ食べる→油壷マリンパークへ行くというツアーをしてきました!

って、もう2か月も前の話なんだけど(;’∀’)

まずは横浜で集合して!京急でしゅっぱーつ。

三崎について…

なんか、おしゃれなスポットが随所に…

 

港!

この写真、自分でもめっちゃ好きなんだけど。

緑&赤&白がイタリアみたいじゃない?www

これも好きw

ジャスミン~💛 かわいい、かわいいよ!!o(>▽<)o

こちらは激キュートなN嬢。

飛んでますね!⊂(^-^)⊃

タイタニックごっこをしているはずが、後ろに何人もいた件w

タコを干してる店があって、

「食べたーい」

とか言ってたら、なんと本当に食べさせてくれた!すごいホスピタリティに感謝。

無事マグロ食べて…

マグロ食べてる間も、ワードウルフするうちら。どんだけゲーム好きなの…w

 

突然チューされたw

こ、こんなところで!大胆ね!ジャス!!

この恋…センチメントル…!!(*^^*)

 

油壷マリンパーク!

私、こういうちょびっとさびれた施設好きですねwww

なんか、そういうところの方が、楽しいって思うときに、施設のおかげで楽しいんじゃなくって、メンツが楽しいから楽しい、って心から時間を楽しめる気がするからw

 

この写真、Jに

「ほかの人は、サメに飲み込まれて大変ってなってるのに、あきさんはサメの口の中でも誰かを襲おうとしている!」

って言われた…。その発想はなかったわ。

 

どこからか聞こえる、ミスチルのSign…。

「これは、もしかして…?!」

「そう、ジャス、うちら、今、オレンジデイズの中やで」

…って、このネタ前も使ったな。。。( ・∀・)

ちなみに、私の最近のブログに乗ってる写真、全部、この緑のTシャツにキャップだな…。

すみません、これしか服持ってないんですよ…(´・ω・)

…嘘ですけどね!

とにかく、一日楽しかったので、幹事のH君、一緒にいってくださった皆様に感謝×感謝です⊂(^-^)⊃

Smart動態管理の導入企業社数が、1800社になりました

昨日(2018/8/7)の時点でSmart動態管理の導入企業社数が、1800社になりました。

 

https://doutaikanri.com/smart%e5%8b%95%e6%85%8b%e7%ae%a1%e7%90%86%e3%81%ae%e5%b0%8e%e5%85%a5%e7%a4%be%e6%95%b0%e3%81%8c1800%e7%a4%be%e3%82%92%e8%b6%85%e3%81%88%e3%81%be%e3%81%97%e3%81%9f/

 

ご導入頂いた皆様、ありがとうございます。

日々業務をしていると、至らない点も多々あるとよく思います。

弊社の全員が、その点をカバーするためにがんばってます。

そして、より高度な機能、使い勝手の向上に取り組んでいます。

近日中に、新機能が発表できる…予定です。

 

「動態管理」という分野も、大企業さんが多数参入されています。

その中でも、弊社製品を選んでいただいたことに心から感謝を申し上げます。

Smart動態管理は、特に配送業に特化した動態管理です。それが、ほかの動態管理と違う面だと思います。

機能面で配送業さん向けの機能が充実していますので、ご選択の際には、それがポイントにもなっているのではないでしょうか。

特に、人手不足は配送業界において大きな問題で、それを解決する一つの手段になっているかとも思います。

 

また、業界の中でのパイオニアでありつづけるという気概を持って、他社さんが取り組まないことにもどんどん取り組んでいきたいと考えていますので、これからもご期待ください。

 

Smart動態管理にご興味のある方は、下記のマンガをご一読ください。m(_ _)m

 

Smart動態管理マンガ

 

今日は若干涼しい過ごしやすい日ですね。⊂(^-^)⊃

しかし、まだ暑さが戻ってきそうですので、体調にはくれぐれもお気をつけてお過ごしください。

 

山に行った話

4月のことなんですけどね(^_^;

ハイキングに連れてって頂きました!

鎖場とかがあって、スリル満点!

最初は怖かったですけど、最後の方はだんだん慣れてきました。天気がよく、新緑がきれいでよかったです⊂(^-^)⊃

ファイトー!!

いっっぱー〇!

その後、芝桜を見に行く…

新宿でジンギスカン食べて、お台場回って帰るという山の中から都会まで、全部入りで楽しめた、とっても楽しい日でした!⊂(^-^)⊃

この日、なんと6時半に集合して、解散したの12時半なんだよね(^_^;

よく、遊んでたな💛

 

企画してくださって、N君、運転してくださったS君、Aちゃん、Nちゃん、本当にありがとう~m(_ _)m

それにしても…

最近、インドアでゲーム(特に人狼)ばっかりしてます(^_^;

せっかくの夏!

山 or 海で楽しみたいな~ o(>▽<)o

特に、なんか山とか高原に行きたいです。緑の中で風を感じたい…(*^^*)

Alpha Go Zeroの論文の翻訳 その4

途中で挫折しそうだったこのシリーズ…。

Alpha Go Zeroの論文の翻訳 その3

の続きでございます。

またまた、間違いなどありましたら、指摘してください。m(_ _)m

原文はこちら。
https://www.nature.com/articles/nature24270.epdf

 

論文本体はもう翻訳し終わってますが、付録みたいなのがまだでした。

今回は、その付録

METHODS

の翻訳です。

ハァハァ(´Д`)ハァ… がんばろう…!!

Reinforcement learning

ポリシーの繰り返しは、昔からあるアルゴリズムで、ポリシーを改善する一連の流れである。

どのように実現するかというと、ポリシーの測定と、ポリシーの改善(ポリシーの測定を使う)を繰り返し行って、ポリシーを改善していくのである。

ポリシー改善のシンプルなアプローチ方法としては、どん欲にバリュー関数に沿って、手を選んでいくというのがある。

広大な選択肢の空間では、大体でやる、というのが必須である。

分類をベースとした強化学習はシンプルなモンテカルロ探索を使ってポリシー改善をしている。

ゲームを最後まで行ってみる。平均的に価値が最大になる手だけが正の値で、それ以外の手は負の値として、トレーニングのサンプルが記録される。

こうやって、ポリシーは手を正か負かに分類さて、次のゲームに使われる。

このやり方の後継版のようなことを、Alpha Go Zeroでも、γが0に近い場合、ポリシー部分のトレーニングアルゴリズムで使っている。

 

最近の例で行くと、分類ベースのポリシー改善は(CBMPIというらしい)、ポリシーの測定をゲームの結果に向かって回帰するバリュー関数で行っている。(これもAlpha Go Zeroでやっていることに近い)

この手法は、テトリスなどでは非常に良い結果を残している。

しかし、これらの研究結果はシンプルなゲーム結果とか手作りの近似的な関数に頼っていた。

 

Alpha Go Zeroのセルフプレイのアルゴリズムは、前述のやり方によく似ている。

ポリシーの改善は、ニューラルネットワークのポリシーで始まり、MCTSベースのポリシーの推薦と、より強いポリシーを探索してまたニューラルネットワークに返す。

これらのステップはニューラルネットワークをトレーニングして、探索の確率を、セルフプレイの結果に近づけていくことにより達成される。

 

グオさんは、同じくMCTSの結果をニューラルネットワークに入れることを試みた。

探索結果に回帰するバリューネットワークを使うか、MCTSによる分類のどちらかによってである。

この試みは、アタリのゲームをニューラルネットワークを使って解くことに使われた。しかし、MCTSが固定されていて、ポリシーの反復がなかったことと、訓練されたニューラルネットワークを利用していなかった。

 

Self-play reinforcement learning in games.

 

我々のアプローチは、完全情報ゲームで、ゼロサムゲームには直接応用ができるだろう。

その後の一文、ちょっと意味がわかんなかったです。(^_^;

We follow the formalism of alter­ nating Markov games described in previous work12, noting that algorithms based  on value or policy iteration extend naturally to this setting39.

 

セルフプレイ+強化学習という手法は、以前も碁につかわれたことがある。

「ニューロ碁」はバリュー関数にニューラルネットワークを使っていたし、碁の知識をベースにした洗練されたアーキテキチャーを持っていた。

このニューラルネットワークは、タイミングをずらした学習で、セルフプレイの次の手でのテリトリー(碁の陣地のことでしょうね)を予想していた。

関連した試みで、「RL碁」はバリュー関数を線形の組み合わせではなく、3×3の石の置き方のパターンを数え上げる方法だった。そのニューラルネットワークはタイミングをずらした学習で、セルフプレイの勝者を予想するというものだった。

「ニューロ碁」も、「RL碁」も、弱いアマチュアのレベルにしかならなかった。

MCTS自体もセルフプレイの強化学習ともいえる。

探索木のノードはポジションに応じたバリュー関数を持っている。これらのバリューはセルフプレイのシミュレーションでの勝者を予想する。

MCTSのプログラムは碁ではそれなりに強いアマチュアレベルまでは達成している。しかし、それは手作りの早くゲームを終わらせる関数を作ったりしていて、ポリシーも手作りの関数でできている。

セルフプレイの強化学習のアプローチは、チェス、チェッカー、バックギャモン、オセロ、スクラブル、つい最近ではポーカーで非常によいパフォーマンスを残している。

すべての例で、バリュー関数は回帰、あるいはタイミングをずらした、セルフプレイの結果による学習でトレーニングされている。

トレーニングされたバリュー関数は、アルファ・ベータサーチ(シンプルなモンテカルロ探索)あるいはの counterfactual regret  minimization中で評価関数として使われる。

しかし、これらの手法は手作りの特徴入力を使ったり、手作りの特徴のテンプレートを使ったりしている。

加えて、学習のプロセスで教師あり学習を最初の「重み」を算出するために使ったり、手作業でコマの価値を出したり、手作業で手の制限をしたり、すでにある別のプログラムを使って敵手の戦績を作ったりしている。

最も成功し、広く使われている強化学習の手法は、ゼロサムゲームの分野で、最初に登場した。それは、タイミングをずらした学習で、最初にチェッカーのプログラムで使われた。一方で碁にはMCTSがつかわれていた。

しかし、似たようなアルゴリズムは、その後ビデオゲームやロボティクスや、産業用、レコメンデーションシステムなどで使われた。

 

AlphaGo versions.

 

我々は、Alpha Goの3つのバージョンを比べてみることにする。

(1)AlphaGo Fanは以前公開したプログラムで、ファン フイさんと2015年に対戦したプログラム。176GPUも使っていた。

(2)AlphaGo Leeは2016年3月にリーセドル氏に4-1で勝利したプログラム。

これは公開していないが、AlphaGo Fanとだいぶ似ている。しかし、公正な比較のためにいくつかのカギとなる違いを上げておく。

最初に、バリューネットワークは、ポリシーネットワークによるものではなく、素早いゲームの結果によってトレーニングされていた。

これらは何度も繰り返される。

次に、ポリシーとバリューのネットワークは、もともとの論文に書かれているより大きい。

256個の平面のレイヤーのある、12個の畳み込みネットワークと、さらに反復回数が多かった。

このバージョンはGPUでなく、48TPUを利用し、探索の間にニューラルネットワークをより早く評価できるようになっていた。

(3) AlphaGo Masterは2017年の1月に人間のトッププレーヤーを60-0で負かしたプログラムである。

このプログラムは公開されておらず、この論文に載っているのと同じニューラルネットワークと、強化学習とMCTSのアルゴリズムを使っている。しかし、まだ手作りの特徴とAlpha Go Leeと同じゲームを最後まで行う手法、そしてトレーニングは教師あり学習により初期化されていた。

(4) AlphaGo Zero この論文のプログラムである。セルフプレイの強化学習であり、ランダムな重みを最初に使い、ゲームを最後まで行わず、教師は必要ない。ただ単に、ボードの状態があればよいのである。Google Cloud上のたった4TPUしか使わない。

 

まだ続くよ!

 

K君歓迎会

めちゃくちゃ暑い日が続きますね!

私、暑いの好きなんで、こういうのは好きです⊂(^-^)⊃

ただ、冷房の効いている室内と、外の往復が体に本当に厳しい…(つД`)

いっそのこと、冷房がなければと思うぐらいです。みんなに反対されるけどね。

さてさて、弊社に新メンバーが加わりました!

 

長坂彼方(かなた)君です。↓

長い坂の彼方に何があるのか…。

なんてパワーネームなんだ…。(`・ω・´)

 

なんと、人狼で知り合って情報学部というのと、見込みがありそうな学生さんだったので、私がスカウトしました.゚ヽ(*´∀`)ノ゚

人狼って仕事にも役立つなぁ!⊂(^-^)⊃

飲み込み早いし、テキパキと要領のよい方です。

 

歓迎会は先月のことでしたが…

合わせ鏡のある居酒屋でスタート!

2次会はボーリング。

スポーツエリートで、ボーリングでは常に200点越えをたたき出すSがいなかったため、平均点70点前後の大変レベルの低い争いwww

ま、楽しかったからいっかo(>▽<)o

OCテックノートができました。

弊社の新しいオウンドメディア、OCテックノートができました!

OCテックノート

 

パチパチパチパチ。(๑•̀ㅂ•́)و✧

実は、以前、「でじうぃき」って名前で運営していたWikiで作った情報サイトがあったのですが、それをWordPressに移行した形になります。

理由は、「でじうぃき」はPukiwikiというWikiのクローンでできていましたが、もう10年ぐらい前からあるので、劣化が激しかったからです…。

Pukiwikiも進化しないしね…。

移行はちょっと大変だったんですけど、弊社のMが移行プログラムを書いてくれました。ありがとう!⊂(^-^)⊃

こだわったのは、コードが見やすいこと。

どうでしょうか?

 

でじうぃきは、名刺を渡したりすると、

「あ、このロゴ見たことあります」

って言ってもらえることが多かったりして、それなりに世間の役にたってたのかなと思ったりしました。

 

んで、OCテックノートはどういう位置づけかっていうと、いわゆる、ITの会社が運営するテックブログとは違います。

もっと現場に近い形で、じゃんじゃん書いて、じゃんじゃん検索してもらえるサイトを目指しています。(๑•̀ㅂ•́)و✧

誰かがノートのはしっこに書いたことが、誰かの役にたてばいいな~。っと。

でじうぃきから変わらない方針ですね。

 

この業界って、日本語情報ってやっぱり全然少ないんですよね。

なので、Stack Overflow見て解決したことでも、誰かが日本語で書き直してくれると、助かりませんか?

私的には大変ありがたいです。

 

後は、

「みんなが!驚くような!最先端かつ全く間違いのない記事を書いてやるぜ!!ハハハ (゜∀゜)」

とか思っていると、おそらく永遠に書く日が来ません。。。(´ω`)

なので、勉強中でもいいし、間違っててもいいので、アウトプットすることが大切と思っています。⊂(^-^)⊃

アウトプットしていると、間違ってると誰かが教えてくれて、それが自分の進化につながりますからね!

それがこの業界っぽいじゃないですか!

 

後は、アウトプットすると、アウトプットした分、自分のものになるって側面ありますよね。

ジャスミン殺人事件

初夏のさわやかな青空の下…

人狼をよくする仲の良いグループ、男女15人で、山の中のコテージに出かける。

バーベキューしたり、温泉へ入ったり、人狼したり…。

その時のみんなは、この後恐ろしい事件が起こるなんて夢にも思わなかったんだ…。

「ねぇ、本当に人狼が現実になって、一人ずつ、誰か死んでったら…どうする?」

「やだーw やめてよ!」

…。

夜になって、まさか、それが現実になってしまうとは!

「きゃああああー!!だ、誰か~ ジャスミンが!」

「し… 死んでる!」

「じゃ、ジャスミン~!!」

コテージに向かう唯一の道は、嵐で通行止めになっている…。

「犯人は… この中にいる…!!」

(この中↓)

 

…。

…。

 

ということを、一度やってみたくってですね!

最初、人狼やるメンバーで温泉とか、バーベキューとか、やりたいことやろうって企画だったんですが、人狼ばっかりやってると、結局横浜でやるのと変わらないじゃんw

って、なんか企画しようと思いまして!

「仲間同士で旅行って言ったらやっぱり殺人事件じゃんw」

という私の軽口に、ジャスミン嬢が、なんとなんと、ちゃんとした殺人事件のプロットを作ってくれまして、ちゃんとした推理ゲームになりました!

持つべきものはノリがよい友達!!⊂(^-^)⊃ ありがとうジャス!!!💛

それにしても、死体役のジャスミン嬢がすごかった。

ちゃんと、ぴくりともしないし、表情筋もまったく動かないの。

あんた、いい女優だよ~!!!文才もあるし!!! o(>▽<)o

 

それに対して、私は…

「あきさんがニヤニヤしているので、あ、これはサプライズなんだなってわかりました」

って言われちゃう始末…。(;^ω^)

 

血糊はamazonで買いましたが、なかなか本物っぽいでしょw

サイコパスみたいと言われた写真↓

「ジャスミン… これで永遠にあなたは私のモノ…」

とかいうキャラなんでしょうね。(´ω`)

シャイニングバージョン。ひゃあああ(´・ω・`)

さて、血なまぐさい写真が続きましたが、これ以外は、超普通の旅行ですよ!

 

横浜駅に集合して、海へ向かう電車でGo!

 

場所は湯河原です。

ほんっとうにいい天気!真っ青な海も見える!.゚ヽ(*´∀`)ノ゚

バーベキュー!

肉は最高です!

とてもきれいにお肉が並べられている….゚ヽ(*´∀`)ノ゚

夏のお嬢さん!

かわいい、かわいいよ、ジャスミン!!(*´Д`)ハァハァ

 

なかなか素敵なコテージでして、全体的にかわいらしい雰囲気があってよかったです。

ハンモックがあったり

 

ブランコがあったり💛

Dくんがケーキを焼いてきてくれました!!

ありがとう~!!.゚ヽ(*´∀`)ノ゚ めちゃおいしかった!!💛

ガールズのみなさん!💛  かわいい~.゚ヽ(*´∀`)ノ゚ 後ろのレースのカーテンがよく似合ってる⊂(^-^)⊃

人狼してて夜~

海鮮などで飲み会!

んで、途中にジャスミン殺人事件があったり、人狼したりで午前3時まで遊びました⊂(^-^)⊃

人狼していると時間が経つのがあっというま!

途中、

「なぜだ!なぜ、こんなことに!!!し、死にたくない!死ぬのはいやだ!うわぁぁぁぁっ…以下略」

藤原竜也の真似をして死んでいったS君w またもや名演w

翌朝…

この日も快晴!

なんか、「君の名は」っぽい風景ですよね~。

私の不手際により、皆様に朝食が用意できませんでした(>_<)

申し訳ない…m(_ _)m

この日はお昼ぐらいまでお風呂に入ったり、ポーカーや「コードネーム」などして遊びました。

その後、真鶴へ移動。

海鮮を食す!!私、アジなどの近海魚、好きなんですよね~。

食後は、ワードウルフ中にウィンクキラーするというちょっと難しいゲームしたりしてました⊂(^-^)⊃

で、その後遊覧船に乗るはずが… またまた私がバスを2駅も乗り過ごすという失態をおかしてしまいました…。

「こんな近距離で2駅も乗り過ごすわけがないッ!だからこれはスタンド攻撃!!」

とか言いたかったですが、100%私のせいですね。

 

気温30度越え…

炎天下の中を、30分ほど皆様を歩かせてしまい、大変申し訳ございませんでした!!!×10。m(_ _)m

ファイナルファンタジーっぽい写真w

真鶴のアサシン。

優しい皆様が、

「いや、きれいな海を見ながら散歩できたのでよかったですよ~(^_^)」

と言ってくれたりして、本当に涙ちょちょぎれです。神のように優しい~º·(ฅωฅ*)‧º·˚

 

そして、やっと真鶴港に着きました!

出航~!!

なんと、かっぱえびせんを海に巻いて、とんびやカモメに餌をあげられるというアクティビティが!

楽しい~ 鳥ってすごいね。ちゃんとキャッチして食べてました!

私はまったくキャッチできないw

海も、空も真っ青ですっごくきれい!⊂(^-^)⊃

で、真鶴で解散。

いやー、と~っても楽しかったです!⊂(^-^)⊃⊂(^-^)⊃⊂(^-^)⊃

それにしても、幹事である私の不始末が量産されていましたが、皆様笑って許してくださってありがとうございます。

そもそも、参加してくださってありがとうございます!!!m(_ _)m

 

私は狼牙風風拳のポーズで!

意外と(?!)高評価だったので、またこんな企画ができたらいいな~って思ってます!⊂(^-^)⊃

 

Alpha Go Zeroの論文の翻訳 その3

空梅雨なんでしょうか?
意外と晴れの日が続いてうれしいですね!!ヾ(´ω`○).

Alpha Go Zeroの論文の翻訳 その2

の続きです。

またまた、間違いなどありましたら、指摘してください。m(_ _)m

原文はこちら。
https://www.nature.com/articles/nature24270.epdf

 

Empirical analysis of AlphaGo Zero training

 

Alpha Go Zeroにはランダムなアクションから初めて、450万回のセルフプレイをさせたそうです。

セルフプレイ中、それぞれ1600回のMCTS(モンテカルロ木探索)を行います。

つまり、MCTSが7,200,000,000回、回ったわけですね。

7200億回ですよ。ほげーー!!!

それぞれの手を進めるのに、0.4秒だそうです。

学習に使うミニバッチは2048のポジションのミニバッチで、70万個あるそうです。

 

上記でいうと、かなり大変な演算をしているように思いますが、Alpha Go Zeroは、たった1台のマシン・4TPUで、多くの(笑)マシン・48TPUのAlpha Go Leeを打ち負かしています。

しかも、トレーニングを始めて、わずか37時間後に、Alpha Go Leeが何か月もかかって到達したレベルに達したんです。

すごい。すごすぎる。

72時間後には、Alpha Go Leeがリ・セドルさんを負かした、あの記録的な試合の状態と同じAlpha Go LeeとAlpa Go Zeroが戦って、Alpa Go Zeroが100戦100勝しています。

どんだけ強いんだ!範馬勇二郎みたいですね!

この章は、後はどれだけAlpa Go Zeroが今までのAlphaシリーズより優れているか、というデータなどになります。

ので、割愛します。

Knowledge learned by AlphaGo Zero

 

Alpha Go Zeroは、囲碁の伝統的な手法も覚えたけれども、まったく新しい手法も覚えたということです。

定石も覚えたのですが、新しい定石の方を好んで使うらしいです。

最初はランダムだったプレイが、だんだんと碁のコンセプトを理解した洗練されたうち筋になり、布石とかテスジ?とかコ、ヨセなどの手法も取り入れていくそうです。(この辺、囲碁がわからないのでわからない…(>_<))

しかし、シチョーという人間だったら最初に覚えるような手法は、Alpha Go Zeroは相当後に覚えたそうです。

 

Final performance of AlphaGo Zero

 

もっと大きなニューラルネットワークに投入してみたらどうだったかという話。

40日間かけて、トレーニングしてみました。

2900万回のセルフプレイ、2048個のミニバッチが3100万個でトレーニングしました。

このニューラルネットワークは40個の residual blockでできています。

その場合、グラフを見てもらった方がよいのですが、Eloの指標が5日で4000を突破し、25日後ぐらいに5000を超え、その後も緩やかに増えています。

前述したパターンだと、4000に到達するのは35日あたりで、5000に届いていなかったので、こちらのやり方の方が強くなる、ということです。

その後は、他のAlphaシリーズと対戦させてみたけど、やっぱりAlpha Go Zeroが強かったよという話。

すごいぞ!かっこいいぞー!

 

Conclusion

結論!

…結局のところ、教師あり学習よりも、純粋な強化学習はよい結果を残せる。

さらに、この純粋な強化学習は、教師データがいらないし、数時間しかトレーニングにかからないし、それでいて教師あり学習よりずっと強い。

最後に妙に残酷なこと書いてありますが…。

 

人間は、何百万もの棋譜を数千年かけてつみあげ、パターンにし、本にして囲碁を研究してきた。

しかし、Alpha Go Zeroは数日で、何もないところから、囲碁の知識を再発見したり、今までに考えられなかった手法も生み出したのだ。

 


 

なんか、最後の方、真面目に囲碁に取り組んでこられている方々に石を投げられそうな話ですね(>_<)

ジブリでいえば完全に悪役ですね。

論文に書いてあるママなので、ご容赦ください。m(_ _)m

余談ですが、「ヒカルの碁」がすきだったのですが、サイがこの話を聞いたら嘆きそうですね。。。ρ(。・_・、)

それとも、喜んでAIと対戦するのでしょうか??

 

以上でこの論文は終わりですが、この翻訳はまだまだ続きます!

おまけの部分に、実装の詳しい部分が掘り下げられているのでその部分を次回に紹介します~。

 

Alpha Go Zeroの論文の翻訳 その2

はぁー 寒いような変な天気の日が続きますね。

早く、毎日30度以上の気温になる日々が来てほしいです…。(´ω`)

 

さて、前回↓

Alpha Go Zeroの論文の翻訳 その1

https://summer-snow.onlineconsultant.jp/2018/06/15/alpha-go-zero%e3%81%ae%e8%ab%96%e6%96%87%e3%81%ae%e7%bf%bb%e8%a8%b3%e3%80%80%e3%81%9d%e3%81%ae1/

 

の続きです!

またまた、間違いなどありましたら、指摘してください。m(_ _)m

原文はこちら。
https://www.nature.com/articles/nature24270.epdf

 

今回から本格的な実装の話!わくわく。てかてか。

 

Reinforcement learning in AlphaGo Zero

 

fθがニューラルネットワーク。
(p, v) = fθ(s)

sは盤面の場所。
pはその場所にいく可能性。vはプレイヤーがsにいて、且つ可能性で価値。

pは1次元テンソルでaという動作を次に取る確率で

pa= Pr(a| s)

としてあらわされる。

vは0次元テンソルで現在のプレーヤーがポジションsに於いて勝利する可能性。

このポリシーネットワークとバリューネットワークの役割を組み合わせて一つにしたようなニューラルネットワークで、Residual Blockを含んだ畳み込みレイヤーで、batch normalizationとrectifier nonlinearities(ReLU  Rectified Linear Unitではない?)はでできている。

 

Alpha Go Zeroのニューラルネットワークは新しい強化学習のアルゴリズムで、セルフプレイのゲームでトレーニングされる。

それぞれのポジションsからの動作の勝率πをMCTS(モンテカルロ木探索)でfΘを参考にして計算する。

この確率は、普通はニューラルネットワークから得た確率より強い動作を選択する。

MCTSは強力なpolicy improvement operator(訳せない…)として働くように見えるだろう。

探索を伴ったセルフプレイ…より強力になったMCTSベースのポリシーが手を選ぶ。
その時、ゲームの勝者zをバリューのサンプルとして動作する。

zはpolicy evaluation operator(訳せない…)とみなされる

 

我々の強化学習のメインアイデアは、探索者(MCTSのことだと思う)をポリシー改善のイテレーションの中で繰り返し使うことである。

ニューラルネットワークはp,vをπ、zに近づけるようにアップデートされる。

そのパラメーターは次のイテレーションに使われる。

MCTSはニューラルネットワークfΘをその計算のために使う。

それぞれのエッジ(s, a)は事前確率P(s, a)と訪問回数N(s, a)、アクションバリューQ(s, a)を保存する。

それぞれのシミュレーションはルートから始まって、葉ノードのstまで信頼上限(Q(s, a) + U(s, a),)が一番高い動作を選択していく。

信頼上限は、事前確率を訪問回数+1で割った数に比例する。

U(s, a) ∝ P(s, a) / (1 + N(s, a))

この葉ノードは一回だけ(P(s′ , ·),V(s ′ )) = fθ(s′ )を取得するために拡張されて、評価される。

それぞれのエッジ(s,a)はN(s, a)をインクリメントカウントするためと、これらのシミュレーションたちの平均的な(?)アクションバリューになるようにアップデートされる。

s,a→s‘とはシミュレーションがsからの動きaが最終的にs’に行きつくということを示している。

 

MCTSはセルフプレイのアルゴリズムのように見えるだろう。

MCTSはニューラルネットワークのパラメーターΘとルートポジションのsを渡され、そのポジションでの勝率に近い手πを算出する。

πはそれぞれの動作の訪問回数のべき乗に比例する。

 

ニューラルネットワークはセルフプレイで一手ごとに強化学習のMCTSを使ったアルゴリズムでトレーニングされる。

最初に、ニューラルネットワークはランダムな重みΘで初期化される。

続くイテレーションで、セルフプレイが続けられる。(図1a この図よくできてるのでぜひ参照してください。)

それぞれのタイムステップtでMCTS πt= α=θi-1(st) が繰りかえされるが、それぞれのMCTSでは、前回使われたニューラルネットワークの結果を使っている。

ステップTで最後。

探索の価値が終了の閾値まで下がったらあるいは最大の手の数を超えたら終わり。

ゲームは最終的な報酬である、-1か1を返す。

それぞれの手のデータは保存されている。

(st, πt, zt)

Ztはー1か1。勝者かそうでないか、ということ。

平行して、NNのパラメーターΘはずっと、(s,π,z)の値で次のようにトレーニングされる。

vがzに近づくように(vとzの間のエラーが少なくなるように)、pがπに近づくように。

パラメーターΘは損失関数l、勾配降下法(平均二乗誤差と交差エントロピーの合計)によって最適化されていく。

損失関数lの式。

パラメーターcは、過学習を防ぐためのL2正則化のレベルためのパラメーター。

図1の説明(この図がよいので、原文を見てみてください)

図1a

プログラムはゲームを自分自身を相手に進める。s1,s2,…sTと手を進めていく。

それぞれのポジションsでニューラルネットワークfΘを利用してMCTS αΘが実行される。

手はMCTSの計算結果によって選択されていく。最後のポジションsTで、ゲームの勝敗zを算出する。

図1b

Alpha Go Zeroにおけるニューラルネットワークのトレーニングについて。

ニューラルネットワークはボードのポジションstをそのまま入力として受け取る。

ニューラルネットワークはstを入力すると、いくつかの畳み込みレイヤーにパラメーターΘと一緒に入力され、次の2つを出力する。

①pt(ベクトル(1次元テンソル))

このベクトルptは動作の確率分布。

②バリューvt(スカラ(0次元テンソル))

現在のポジションsからの現在のプレーヤーの勝率

ニューラルネットワークはpはπへの類似が最大になるように、vはzと比べた時のエラーをなるべく少なくしていくようにアップデートしていく。

新しいパラメーターは次のセルフプレイの繰り返しの時に使われる。

 

 

——————————————————————————————————————————————–

以上でReinforcement learning in AlphaGo Zeroの部分は終わり。

MCTSの計算で使うパラメーターをニューラルネットワークでアップデートしていくわけです。

ニューラルネットワークで使うパラメーターp,v,πはMCTSで生み出されるわけです。

MCTSとニューラルネットワークが相互に依存しながら進化しあっていくわけですね~。