Alpha Go Zeroの論文の翻訳 その3

空梅雨なんでしょうか?
意外と晴れの日が続いてうれしいですね!!ヾ(´ω`○).

Alpha Go Zeroの論文の翻訳 その2

の続きです。

またまた、間違いなどありましたら、指摘してください。m(_ _)m

原文はこちら。
https://www.nature.com/articles/nature24270.epdf

 

Empirical analysis of AlphaGo Zero training

 

Alpha Go Zeroにはランダムなアクションから初めて、450万回のセルフプレイをさせたそうです。

セルフプレイ中、それぞれ1600回のMCTS(モンテカルロ木探索)を行います。

つまり、MCTSが7,200,000,000回、回ったわけですね。

7200億回ですよ。ほげーー!!!

それぞれの手を進めるのに、0.4秒だそうです。

学習に使うミニバッチは2048のポジションのミニバッチで、70万個あるそうです。

 

上記でいうと、かなり大変な演算をしているように思いますが、Alpha Go Zeroは、たった1台のマシン・4TPUで、多くの(笑)マシン・48TPUのAlpha Go Leeを打ち負かしています。

しかも、トレーニングを始めて、わずか37時間後に、Alpha Go Leeが何か月もかかって到達したレベルに達したんです。

すごい。すごすぎる。

72時間後には、Alpha Go Leeがリ・セドルさんを負かした、あの記録的な試合の状態と同じAlpha Go LeeとAlpa Go Zeroが戦って、Alpa Go Zeroが100戦100勝しています。

どんだけ強いんだ!範馬勇二郎みたいですね!

この章は、後はどれだけAlpa Go Zeroが今までのAlphaシリーズより優れているか、というデータなどになります。

ので、割愛します。

Knowledge learned by AlphaGo Zero

 

Alpha Go Zeroは、囲碁の伝統的な手法も覚えたけれども、まったく新しい手法も覚えたということです。

定石も覚えたのですが、新しい定石の方を好んで使うらしいです。

最初はランダムだったプレイが、だんだんと碁のコンセプトを理解した洗練されたうち筋になり、布石とかテスジ?とかコ、ヨセなどの手法も取り入れていくそうです。(この辺、囲碁がわからないのでわからない…(>_<))

しかし、シチョーという人間だったら最初に覚えるような手法は、Alpha Go Zeroは相当後に覚えたそうです。

 

Final performance of AlphaGo Zero

 

もっと大きなニューラルネットワークに投入してみたらどうだったかという話。

40日間かけて、トレーニングしてみました。

2900万回のセルフプレイ、2048個のミニバッチが3100万個でトレーニングしました。

このニューラルネットワークは40個の residual blockでできています。

その場合、グラフを見てもらった方がよいのですが、Eloの指標が5日で4000を突破し、25日後ぐらいに5000を超え、その後も緩やかに増えています。

前述したパターンだと、4000に到達するのは35日あたりで、5000に届いていなかったので、こちらのやり方の方が強くなる、ということです。

その後は、他のAlphaシリーズと対戦させてみたけど、やっぱりAlpha Go Zeroが強かったよという話。

すごいぞ!かっこいいぞー!

 

Conclusion

結論!

…結局のところ、教師あり学習よりも、純粋な強化学習はよい結果を残せる。

さらに、この純粋な強化学習は、教師データがいらないし、数時間しかトレーニングにかからないし、それでいて教師あり学習よりずっと強い。

最後に妙に残酷なこと書いてありますが…。

 

人間は、何百万もの棋譜を数千年かけてつみあげ、パターンにし、本にして囲碁を研究してきた。

しかし、Alpha Go Zeroは数日で、何もないところから、囲碁の知識を再発見したり、今までに考えられなかった手法も生み出したのだ。

 


 

なんか、最後の方、真面目に囲碁に取り組んでこられている方々に石を投げられそうな話ですね(>_<)

ジブリでいえば完全に悪役ですね。

論文に書いてあるママなので、ご容赦ください。m(_ _)m

余談ですが、「ヒカルの碁」がすきだったのですが、サイがこの話を聞いたら嘆きそうですね。。。ρ(。・_・、)

それとも、喜んでAIと対戦するのでしょうか??

 

以上でこの論文は終わりですが、この翻訳はまだまだ続きます!

おまけの部分に、実装の詳しい部分が掘り下げられているのでその部分を次回に紹介します~。

 

Alpha Go Zeroの論文の翻訳 その2

はぁー 寒いような変な天気の日が続きますね。

早く、毎日30度以上の気温になる日々が来てほしいです…。(´ω`)

 

さて、前回↓

Alpha Go Zeroの論文の翻訳 その1

https://summer-snow.onlineconsultant.jp/2018/06/15/alpha-go-zero%e3%81%ae%e8%ab%96%e6%96%87%e3%81%ae%e7%bf%bb%e8%a8%b3%e3%80%80%e3%81%9d%e3%81%ae1/

 

の続きです!

またまた、間違いなどありましたら、指摘してください。m(_ _)m

原文はこちら。
https://www.nature.com/articles/nature24270.epdf

 

今回から本格的な実装の話!わくわく。てかてか。

 

Reinforcement learning in AlphaGo Zero

 

fθがニューラルネットワーク。
(p, v) = fθ(s)

sは盤面の場所。
pはその場所にいく可能性。vはプレイヤーがsにいて、且つ可能性で価値。

pは1次元テンソルでaという動作を次に取る確率で

pa= Pr(a| s)

としてあらわされる。

vは0次元テンソルで現在のプレーヤーがポジションsに於いて勝利する可能性。

このポリシーネットワークとバリューネットワークの役割を組み合わせて一つにしたようなニューラルネットワークで、Residual Blockを含んだ畳み込みレイヤーで、batch normalizationとrectifier nonlinearities(ReLU  Rectified Linear Unitではない?)はでできている。

 

Alpha Go Zeroのニューラルネットワークは新しい強化学習のアルゴリズムで、セルフプレイのゲームでトレーニングされる。

それぞれのポジションsからの動作の勝率πをMCTS(モンテカルロ木探索)でfΘを参考にして計算する。

この確率は、普通はニューラルネットワークから得た確率より強い動作を選択する。

MCTSは強力なpolicy improvement operator(訳せない…)として働くように見えるだろう。

探索を伴ったセルフプレイ…より強力になったMCTSベースのポリシーが手を選ぶ。
その時、ゲームの勝者zをバリューのサンプルとして動作する。

zはpolicy evaluation operator(訳せない…)とみなされる

 

我々の強化学習のメインアイデアは、探索者(MCTSのことだと思う)をポリシー改善のイテレーションの中で繰り返し使うことである。

ニューラルネットワークはp,vをπ、zに近づけるようにアップデートされる。

そのパラメーターは次のイテレーションに使われる。

MCTSはニューラルネットワークfΘをその計算のために使う。

それぞれのエッジ(s, a)は事前確率P(s, a)と訪問回数N(s, a)、アクションバリューQ(s, a)を保存する。

それぞれのシミュレーションはルートから始まって、葉ノードのstまで信頼上限(Q(s, a) + U(s, a),)が一番高い動作を選択していく。

信頼上限は、事前確率を訪問回数+1で割った数に比例する。

U(s, a) ∝ P(s, a) / (1 + N(s, a))

この葉ノードは一回だけ(P(s′ , ·),V(s ′ )) = fθ(s′ )を取得するために拡張されて、評価される。

それぞれのエッジ(s,a)はN(s, a)をインクリメントカウントするためと、これらのシミュレーションたちの平均的な(?)アクションバリューになるようにアップデートされる。

s,a→s‘とはシミュレーションがsからの動きaが最終的にs’に行きつくということを示している。

 

MCTSはセルフプレイのアルゴリズムのように見えるだろう。

MCTSはニューラルネットワークのパラメーターΘとルートポジションのsを渡され、そのポジションでの勝率に近い手πを算出する。

πはそれぞれの動作の訪問回数のべき乗に比例する。

 

ニューラルネットワークはセルフプレイで一手ごとに強化学習のMCTSを使ったアルゴリズムでトレーニングされる。

最初に、ニューラルネットワークはランダムな重みΘで初期化される。

続くイテレーションで、セルフプレイが続けられる。(図1a この図よくできてるのでぜひ参照してください。)

それぞれのタイムステップtでMCTS πt= α=θi-1(st) が繰りかえされるが、それぞれのMCTSでは、前回使われたニューラルネットワークの結果を使っている。

ステップTで最後。

探索の価値が終了の閾値まで下がったらあるいは最大の手の数を超えたら終わり。

ゲームは最終的な報酬である、-1か1を返す。

それぞれの手のデータは保存されている。

(st, πt, zt)

Ztはー1か1。勝者かそうでないか、ということ。

平行して、NNのパラメーターΘはずっと、(s,π,z)の値で次のようにトレーニングされる。

vがzに近づくように(vとzの間のエラーが少なくなるように)、pがπに近づくように。

パラメーターΘは損失関数l、勾配降下法(平均二乗誤差と交差エントロピーの合計)によって最適化されていく。

損失関数lの式。

パラメーターcは、過学習を防ぐためのL2正則化のレベルためのパラメーター。

図1の説明(この図がよいので、原文を見てみてください)

図1a

プログラムはゲームを自分自身を相手に進める。s1,s2,…sTと手を進めていく。

それぞれのポジションsでニューラルネットワークfΘを利用してMCTS αΘが実行される。

手はMCTSの計算結果によって選択されていく。最後のポジションsTで、ゲームの勝敗zを算出する。

図1b

Alpha Go Zeroにおけるニューラルネットワークのトレーニングについて。

ニューラルネットワークはボードのポジションstをそのまま入力として受け取る。

ニューラルネットワークはstを入力すると、いくつかの畳み込みレイヤーにパラメーターΘと一緒に入力され、次の2つを出力する。

①pt(ベクトル(1次元テンソル))

このベクトルptは動作の確率分布。

②バリューvt(スカラ(0次元テンソル))

現在のポジションsからの現在のプレーヤーの勝率

ニューラルネットワークはpはπへの類似が最大になるように、vはzと比べた時のエラーをなるべく少なくしていくようにアップデートしていく。

新しいパラメーターは次のセルフプレイの繰り返しの時に使われる。

 

 

——————————————————————————————————————————————–

以上でReinforcement learning in AlphaGo Zeroの部分は終わり。

MCTSの計算で使うパラメーターをニューラルネットワークでアップデートしていくわけです。

ニューラルネットワークで使うパラメーターp,v,πはMCTSで生み出されるわけです。

MCTSとニューラルネットワークが相互に依存しながら進化しあっていくわけですね~。

Alpha Go Zeroの論文の翻訳 その1

前回

Alpha Go Zeroのすごさを機械学習とか知らない人向けに説明してみる

https://summer-snow.onlineconsultant.jp/2018/06/13/alpha-go-zero%e3%81%ae%e3%81%99%e3%81%94%e3%81%95%e3%82%92%e6%a9%9f%e6%a2%b0%e5%ad%a6%e7%bf%92%e3%81%a8%e3%81%8b%e7%9f%a5%e3%82%89%e3%81%aa%e3%81%84%e4%ba%ba%e5%90%91%e3%81%91%e3%81%ab%e3%83%89/

で紹介した、下記の論文を自分の理解のために翻訳していこうと思います。

Mastering the game of Go without human knowledge

https://www.nature.com/articles/nature24270.epdf?author_access_token=VJXbVjaSHxFoctQQ4p2k4tRgN0jAjWel9jnR3ZoTv0PVW4gB86EEpGqTRDtpIz-2rmo8-KG06gqVobU5NSCFeHILHcVFUeMsbvwS-lxjqQGg98faovwjxeTUgZAUMnRQ

 

今回から、Deep learningの知識がある方向けです。

ちなみに、英語がつらかったw

そして、私は論文を読むのに慣れてるわけでもなく、ただのプログラマーですので、間違いなどあるとは思いますが、ご容赦頂ければと思います。

間違いあれば、ぜひ指摘してください!m(_ _)m

 


 

最初の部分は、今までのAlpha Goである、Alpha Go FanとAlpha Go Lee,の説明。

 

Alpha Go Fanは2つの深層ニューラルネットワークからできていた。

一つはポリシーネットワーク。移動の確率と、バリューを生み出す。

人間のエキスパートの動作を予測して強化学習によりその値を新しくしていた。

バリューネットワークは、ポリシーネットワークで生み出されたポリシーを使って、勝者を予測する。

モンテカルロ木探索をこれらの2つのネットワークと融合。ポリシーネットワークを使ってより可能性の高い手を選択、バリューネットワークを利用して(モンテカルロ木探索のRollout(勝負を最後まで疑似的にしてみる)を利用)その手の価値を計算していた。

 

次の世代のAlphaGo LeeもほぼFanと一緒。

 

Alpha zeroはLee、Fanと違って、人間のエキスパートの動きの予測は一切しない。(ので、人間のエキスパートのデータはいらない)

インプットするのは、盤面の白い石、黒い石の位置だけ。

たった一つのニューラルネットワークを使用する。

シンプルな木探索で、モンテカルロ木探索のRolloutみたいなことがいらない。


 

あっ あっさり終わっちゃいましたね。

ま、これは冒頭部分だけですから!

次回がAlpha Go zero実装に関係ある部分ですね。(`・ω・´)

Alpha Go Zeroのすごさを機械学習とか知らない人向けに説明してみる

Deep Mind社のAlpha Goという囲碁のAIが人間のプロ棋士を負かした、というニュースは皆さんご存知かと思いますが、実はAlpha Goはそれからさらに進化していて、Alpha Go Zeroになっています。

Alpha Go Zeroの何がすごいかっていうと、

①自分自身との対戦で強くなった(教師とするデータがいらない)

②GPUなどの消費がずっと少なくなった

③以前のAlpha Goが数か月で達成した強さをAlpha Go Zeroは数日で達成

③それでいてAlpha Goよりずっと強い(100-0でAlpha Goに勝利)

 

というところなのです!!

この教師とするデータがいらない、というのはすごいことで、なぜかというとデータを集めるのが大変なんですよね。

碁の棋譜データとかは、もうデータになってるんですが(1000年以上分ぐらいらしい(´ω`))昔に紙に書かれたものを、集めるのも大変だっただろうし、データにするのはさぞかし大変だっただろうし、というわけです。

 

2017年10月19日に学術誌Natureに下記のAlpha Go Zeroの論文が発表されていますので、今これを勉強してます。

Mastering the game of Go withouthuman knowledge

https://www.nature.com/articles/nature24270.epdf?author_access_token=VJXbVjaSHxFoctQQ4p2k4tRgN0jAjWel9jnR3ZoTv0PVW4gB86EEpGqTRDtpIz-2rmo8-KG06gqVobU5NSCFeHILHcVFUeMsbvwS-lxjqQGg98faovwjxeTUgZAUMnRQ

 

自分でも考えをまとめるために、いろいろとここに記述しておきたいと思います。

このブログでは、あまり技術的なことは書かないつもりなんですが、現在弊社の技術的なオウンドメディアはメンテナンス中なので、ここに書きます。

 

さて、私の好きな名言に

『6才児に説明できなければ、理解したとはいえない byアインシュタイン』

というのがありますので、ならってやってみようと思います。

Alpha Go Zeroの理論のすごさをAiとか機械学習とかまったく知らない人に説明したいと思います。

 

私の大好きなマンガ、ドラゴンボールの主人公、孫悟空にたとえてみますね!

———————————————————————————————————————————-

孫悟空は亀仙人とか、カリン様とか、界王様とか、いろんな師匠に教えられたり、ピッコロ、ベジータ、フリーザなどの強敵と戦って強くなるじゃないですか。

しかし、孫悟空のクローンが作れるとしたら、孫悟空は自分自身のクローンとずっと対戦してた方が、いろんな先生に教わるよりも、敵と戦うよりも強かった。ということ発見されたわけですね。

 

ここでミソとしては、ただたんにクローンと対戦しててもダメなのです。

6人ぐらいの孫悟空のクローンが同時にいたとして、2人ずつ3組に分けます。

3組は同時に戦います。うち一組を①とすると、①チームは

「最初は軽いパンチ、次にカメハメ波を出したほうが強い」

とかそういうことをひたすら研究します。研究結果はメモって記録していきます。

もう一つの2組目②は、①の研究結果を使って実践で対決します。

んで、本当に強いのー??ということを研究します。研究結果はメモって記録していきます。

最後の3組目③は、②の結果を使って、本当に試合形式で対決します。

そして、勝ったクローンを残し、負けたほうは消滅する、という手段で最強のクローンを残します。

(③の結果は、①チームにも②チームにもフィードバックされます。)

 

これが同時に繰り返し行われることで、この最強のクローンがどんどん強くなっていく、ということです。

ただ、100万回ぐらい繰り返さないとダメなんですけどね(;^ω^) 「精神と時の部屋」でやればいいんでしょう。

 

悟空が強くなるためには、最初に格闘技の知識すら必要ありません。

———————————————————————————-

 

 

以上はだいぶ概略のイメージです。

伝わったでしょうかー?!( ゜Д゜)

 

しかし、6歳児には説明できてないなw

 

ドラゴンボール好きな人には説明できたかもしれないww

実はこのたとえ話を書きたかったw

 

AIの強さがどんどんインフレしていく感じが、少年漫画っぽいじゃないですか。

前回のシリーズで敵だったキャラが、今回の敵キャラにまったく歯が立たない、というのはよくある展開ですよね!!

Alpha Goは、もうAlpha Go Zeroにまったく歯が立たないんです。

「おめー、つええなぁ。オラ、わくわくすっぞ!!」

 

 

ところで、この仕組みを

「いたって単純」

という人がいます。上のたとえを読んだ人も、そう思われたのではないでしょうか?!

スゴイプログラムというのは、なんかもっとそんな単純なことじゃなくって、何万行もあったり、その中でヽ(*`Д´)ノ【ス】【ゴ】【イ】ヽ(`Д´*)ノことが行われたんじゃないか、と思われたのではないでしょうか?!

 

ちなみに、論文読んでるだけではわかりにくい部分もあるので、下記のソースコードをサンプルにして勉強しました。

下記はオセロをAlpha Go Zeroの仕組みで学習する、というプログラムです。

https://github.com/suragnair/alpha-zero-general

確かに、とってもシンプルです。

 

 

印刷すると、ホワイトボード一枚に収まるらしいですね。

 

「AlphaZeroのソースコードはわずかホワイトボード一枚に収まる : 情熱のミーム 清水亮」

https://japanese.engadget.com/2018/02/12/alphazero/

 

わかってしまえばそうだな、なんぜ今までやらなかったんだ!ということって、結局それを発見、発案した人はすごいですよね。

コロンブスの卵と一緒ですよね。

 

単純なことだとしても、「わかる」までの道のりは、果てしなく遠かったわけじゃないですか。

今までのAlpha Goでの取り組み、モンテカルロ木探索、強化学習、ResNetとか今までの研究結果のいろんなことを詰め込んでなされたわけですよね。

 

この仕組みを考えた方の努力と天才性に拍手喝采、そしてそれを公開してくれることに感謝感激です。

 

実用性に異議を唱える人もいますが、世のいろいろな人が試してみたところ

・完全情報公開ゲーム

・ゼロサムゲーム

では、この方法が相当強いことがだいぶ証明されているようです。

 

 

次回は論文の中身を真面目に紹介する予定でーす(`・ω・´)

産経新聞さんでSmart動態管理を導入して頂きました

産経新聞さんでSmart動態管理を導入して頂きました。

ありがとうございます!

導入のためにがんばってくれた弊社のSにも感謝ですm(_ _)m

 

株式会社 産業経済新聞社様

 

♦新聞輸送トラックの位置情報把握、輸送管理

♦Smart動態管理の導入で手間と経費が大幅に減少

 

Q:動態管理を導入しようと思った目的はなんでしょうか?

A:印刷された新聞を工場から新聞販売店に輸送するため、複数の運送会社を利用しています。輸送トラックが、販売店まで、あとどのくらいの距離まできているのか、という情報は重要ですが、運送会社に電話で確認する手間がかかっていました。複数の路線を走る輸送トラックの状況を、的確かつ同時に把握することができる簡便なシステムが必要になっていました。

 

Q:導入の決め手は何でしょうか?

A:Smart動態管理は操作しやすいと感じました。

 

Q:ほかに比較検討した製品はありますか?

A:専用端末を車載するサービス等

 

Q:導入してからのメリットは何でしょうか?

A:輸送トラックの現在地確認作業が減少し省力化につながりました。

 

Q: 経費削減効果はありましたか?

A:従来から使用していた位置把握システムに比べ大幅減少しました。


 

ご採用いただき、ありがとうございます。

他ソフトと比べて、Smart動態管理がつかいやすいから導入して頂いた、とは嬉しいお話ですね!

使いやすいUIをいつも心がけています。

また、経費削減効果も大いにあったようで、何よりです⊂(^-^)⊃

これからも、より使いやすいシステムを目指して鋭意努力していきたいと考えております。

そのほかのSmart動態管理導入事例はこちらでどうぞ。

(画像はイメージです)

1億円を借りれば、「ダイソン」を作れる という記事を読みました

日経ビジネスさんの

1億円を借りれば、「ダイソン」を作れる

http://business.nikkeibp.co.jp/atcl/interview/15/230078/052100137/?n_cid=nbpnbo_mlpum

という記事を読みました。

いくつか、おおっ!と思ったポイントがあったので、書いておきます。

「(以下は抜粋)

学校に通い始めた子供たちは当初、テクノロジーにとても興味を抱くものです。しかし、14歳ごろになると何らかの理由で、大学に進学しなければならないというプレッシャーにさらされてしまいます。そして残念なことに、エンジニアになるなとも言われるのです。もしエンジニアになったら工場で働く羽目になる、だからもっと尊敬される銀行家とか弁護士になれとね。

これはものすごく残念なことです。なぜなら、技術を開発したり、エンジニアリングをしたり、デザインをしたり、製品を作ったりすること以上に、クリエイティブなことはないからです。」

わかるぅーw

そうなんだよね。エンジニアなんて儲からないんでしょ?っていうのが通説ですからね。(´ω`)

でも、楽しい仕事だし、社会に必要な仕事だと胸は張れると思う。

 

「 僕はエンジニアリングやサイエンスというのは、そのように時間がかかるものだと思います。そのプロセス自体を面白いと楽しめるようになれば、すごいイノベーションが生まれるんだと思います。」

 

わかるぅ~w

そうなんですよね。時間がかかるものなんです(´ω`)

 

「 新しいアイデアをからかうことはしませんし、新しいアイデアがうまくいかないのではないかと言うこともありません。誰かが新しいアイデアを持ってきたら、私は「さあ、そのアイデアが実現できるかやってみてくれ。試作機を作って、テストし、何が起きるか確かめろ」と言うだけです。」

 

わかるぅ~(…自分でもうざくなってきた…)

大体、賢しげな人が出てきて

「そんなことはできっこない なぜならこうこうこれでこうだからだ」

とかよくモノを知らなくても

「バカじゃないの~ プギャーm9(^Д^)プギャー」

という人々が本当に多くいます。

 

社内で、こういうことを言わない雰囲気を作るのは大事ですよね。

そのためにも、独立性が大事だと思います。

これがびっくりしたポイントですが、ダイソンさんは1億円を銀行から借りてダイソンを作ったそうですね。( ゚Д゚)

(タイトルに書いてあるじゃねーか!!という突っ込みはさておき…)

出資とかじゃないから、自由にやれたんですね。

「 しかし、それが良かったんです。私が会社の株式を全て持ち続けることができましたから。私以外、誰も株式を保有していません。」

え( ゚Д゚) マジすか。こんな大企業が?!!

 

これはポイント。

毎日、

「どこどこがどこどこから〇億円出資を受けた!」

とか華々しいニュースが飛び交いますが。投資家に振り回されるケースも少なくはないですよね。

投資家は早い結果が必要ですから(´ω`)

 

しかし、普通の人が銀行から1億円借りられるのだろうか。…。

 

「 ダイソンさんは率直に言って、「オープンイノベーション」という考え方について、どう思いますか。

ダイソン:そんな話は、聞いたことがありませんね(笑)。そもそも、それは私がやりたいと思っていることではありませんから。実際、そういうことは聞いたことがないんですよ。」

これは率直にワロタでした。

 

ブランドというものについても否定的な考え方をされているのが新鮮でした。

私も、ブランドの押し付けってあまり好きではないです(´ω`)

 

自分でもモーターを作られたりしていて、地道な努力の方なんだな~ というのが伝わってきました。

配送計画作成時に有料道路を選択しないというオプションができました!

Smart動態管理の配送計画作成機能に、有料道路を選択しないというオプションができました。

高速道路の費用も、なるべくなら抑えたいですもんね。

なお、今回のリリースで、配送計画を作成した後の画面も見やすくなりました!

こんな感じです↓

この辺りのUI改善は、私もがんばったところです(`・ω・´)

ガントチャートが若干オシャレに。( ´艸`)

あらためて、Smart配送計画について説明すると、

 

〇人ドライバーさんがいた時に

〇時〇分にどこそこへ行かないといけないといういくつかのお仕事があって

それぞれ、納品作業などで〇分かかったりする場合

 

それぞれのドライバーさんに最適な配送計画を数秒で作成する機能です。

かなり高機能なんですよ!⊂(^-^)⊃

 

まだまだ、進化の途中です。

国内のサーバー業者のクラウド

GWも明けましたね!急に寒いですが、体調大丈夫でしょうか?

私は、今日はヒートテック着てても寒かったです(>_<)

 

実は、GW中の1日に、とあるお客様向けに納入したシステムでサーバートラブルがありました。(Smart動態管理ではありません)

なぞの不具合で、私も一通り的なことはわかるのですが、対応しきれず、最終的にはサーバー管理者Tに出社してもらう羽目に…。

Tには申し訳ないことをしました。(>_<)

使っているのは国内事業者のクラウドなんですけどね。

なぜかどんどんファイルが破損していくという不思議な現象がおきまして。

突然の再起動を起こしたり。SSHでログインできなくなったり。

ハードの不具合かと思ったんですよね。

 

結局原因不明でして。復旧の方を優先させたんですが。

結局原因不明というのはこの世界でよくあることだから仕方ないんですけど、サーバー業者さんの対応があまりよくなかった(>_<)

2度も電話したんですけど、マニュアル見て返事してるって感じで

「OS立ち上がってるならこちらのせいではありません」

「こちらでは不具合起こってません」

とのお答え。

 

AWSって、サポート有料だけど、もっと突っ込んだことまで教えてくれるんですよ。

ま、同じ不具合が起きたことがないので同じことが起きたらどうかはわかりませんけども。

なんというか、技術力で彼我(USと日本)の差があるのは仕方ない。

しかし、対応の親切さで差があるのはなんかな~。わざわざ国内事業者選んだ意味がないですよ(つД`)

サーバー業者もこのままじゃ、MSとAWSの2強だけになっちゃうんじゃないかな。

 

同じような体験をした方がいたら教えてください。

ITの仕事は大企業だからよいってことはないのです

結構前のことですが、とある中小企業の社長さんとこんな話をしました。

「うちのシステムを〇〇という会社に頼んだんだ~」

「へぇ~。どんな会社ですか?」

「大きい会社だよ。社員が500人ぐらいいるの。大きい会社だから、大丈夫!(・∀・)ちゃんとしたものを作ってくれるに違いないよ 」

「??(マジすか)( ゚Д゚)」

 

…。

そのあと、ご苦労されていました。

 

ソフトウエアに関しては、残念ながら大企業だからちゃんとしたものを作るとは言えません…。(つД`)

それは、

「誰が作るか」

が問題だからです。

美容師さんとかお医者さんとかと似てるんですかね。

千差万別な対象物に対応するのに、個人の技能とスキルがどうそれに作用するか、なんですよね。

 

ITの会社で、そこの製品が「誰が使うの?」ってものしかないのに、何百人もいるような会社は、実態は派遣企業かSESってところが多いです。

開発費に1000万円ぐらい払うんでしょうし、その先もずっとお金がかかるので

「どんな人が作るんですか?その人の経験年数・実績は?今まで作ったプログラムを見せてください!」

ってぐらいは言ったほうがいいですね。

 

そして、それは働く側も同じで、ITの会社で、そこの製品が「誰が使うの?」ってものしかないのに、何百人もいるような会社は、実態は派遣企業かSESってところが多いです。

(大事なことなのでコピペしました。)

大企業だから、安定しているから入ろう!というのは一度、立ち止まって考えてみて下さい。(^_^)

 

2017年度も終わりですね

今日が最後の営業日ですね。

弊社は3月決算でして、今日が締めとなります。

この1年、思い返すと長かったな。いろんなことがありました。

そして、とってもよい一年でした⊂(^-^)⊃

 

大晦日とかより、年度末の方が、締めくくり感あるwww

 

で、まだ決算はもちろん出てませんが、目標を大きく上回る、過去最高の売り上げ、利益となりそうです!!!⊂(^-^)⊃

今年は、Smart動態管理を多くの会社様に導入して頂きました。

大手企業さんにも続々ご採用いただきました!

 

有難うございました。┌o ペコッ

ご愛顧頂いているお客様、パートナーの皆様、そして何より、弊社のがんばっているスタッフさんのおかげです。

来年度もよろしくお願いいたします。