ボードゲームプログラム開発の記録(2014〜)
- Sunset_Yuhi
- 5809
- 3
- 0
- 0
<指し手>将棋棋譜速報 森下卓九段対ツツカナ 将棋電王戦リベンジマッチ: hantosidegodan.seesaa.net/article/411599… 改めて棋譜を見たけど、素人目にもツツカナは手待ちや時間稼ぎの手が多く見える。ツツカナは序盤で自分がやや有利だと評価してたけど、実際はそうでもない気も……
2015-01-02 23:55:18embona tkihira.github.io/embona/index.h… でBonanza同士を戦わせたらすごいことになった pic.twitter.com/TSbdZeTRx4
2015-01-24 19:59:50ゲームを自ら学んで人間以上に上達できる人工知能「DQN」が人間を脅かす日はいつくるのか? - GIGAZINE gigazine.net/news/20150226-… 「DQNゲーマー」開発
2015-02-26 19:15:42Processingで作ったリバーシAIにネガマックス法のようなものが追加された。思ったより動作速いけど、無理やり組み込んだ感じでコード汚いので合ってるかは不明。 pic.twitter.com/oE3EH4YE1n
2015-03-16 22:00:58ニューラルネットって要は、何かの要素に重み付けして線形結合してるだけなのかな。で、それが階層構造になってるという。なんかリバーシAIにも使えそうだな。
2015-04-21 02:04:43リバーシAI、パスにも対応した完全読み切りのNegaAlpha探索を実装して、辺の状態を評価する関数も上手く作れて、ついに作者を超えた感じがする! もうやることは無い…… pic.twitter.com/tzuGLac9lG
2015-05-02 15:25:22forked: Canvas上でもオセロがしたい! #jsdoit jsdo.it/sakatakintoki1… 何だこのプログラム、序中盤の評価関数が各マスの重み付けだけなのに強い。着手可能数も確定石も評価してないのに何故だ……
2015-06-11 18:53:16【入門リバーシ】ken1shogi.sakura.ne.jp/bbs/board_rev?… 将皇の人がリバーシアプリを作ったそうなので、自分のリバーシプログラムを戦わせてみた。序盤が有利そうだったけど結局負けた。展開が所々で意味不明で、改善の余地はまだありそうだけど。もっと見通しのよいプログラムを書きたい。
2015-12-05 02:54:58リバーシAIのマスの重みを考慮する評価関数で、隅を20点、Xを-15点、Cを-5点とかにしてたけど、着手可能数や開放度の評価を加えるとあまり機能しなくなる気がする。各点数×5くらいにしてみようかな。
2015-12-21 01:04:04#timlabs JavaScript でオセロを実装する(モンテカルロ木探索AI編) labs.timedia.co.jp/2015/07/othell… モンテカルロ法のリバーシへの応用例で、詳しいのがここ位しか見つからんのだけど、ここのAIと実際戦ってみると以外と勝てちゃうのが謎。何かおかしい?
2015-12-27 18:09:10Processingで、ArrayListとPVectorの使い方を早急に学ぶ必要を感じてきた。オセロでも多分使える。あと関係無いけど、最近Processingの更新が無い。年末年始も近いし小休止という所か。
2015-12-28 01:32:28今更友人に麻雀をきっちり教わり、仮親や4面子1雀頭とかを復習。ポンやチーしても成立する役牌やタンヤオが、将棋の棒銀みたいに手軽だった。あと多面待ちの手筋とか。でも捨て牌で待ったり、リーチで待ちを変えれないとかの禁則令がむずい。これは役の本とか見ても、実践が無いと分からんわ。
2015-12-31 04:45:57【入門リバーシ】ken1shogi.sakura.ne.jp/bbs/board_rev?… 逆転負けに見えるんだけど、どうしたらこの局面を上手く評価できるか分からない。モンテカルロ木探索使えばいける?
2016-01-03 00:10:25原始モンテカルロ法で打つリバーシAIが多分出来たんだけど、評判通り弱い。終盤でも弱い。これモンテカルロ木探索にしたところで、そんなに強くなるんだろうか……。あとよく分からんけど、序盤で先手の黒を劣勢と評価する傾向がある。 pic.twitter.com/GRX3LOcf3s
2016-01-10 02:01:04リバーシAIのモンテカルロ探索、候補手を良さそうな順に並び替え、良さそうな手を読む確率を高める改良を入れてみたけど、パッと見は強さ変わらず。開発者越えはまだ当分先の予感。
2016-01-10 04:43:02原始モンテカルロ法は、やっぱリバーシでも弱いらしい。並び替えても弱い。よく分からんけど、細い手順が苦手くさく見える。オランダの人も、割と人間に負けると言ってる。特にFig4で吹く。 dke.maastrichtuniversity.nl/pim.nijssen/pu…
2016-01-10 18:38:58リバーシは終盤でも、選択肢によって勝敗が変わることが多い。だから例えば、二択で勝ちと負けになる手があった時、単純なモンテカルロ法だと勝率を0.5と見なしてしまう。でもモンテカルロ木探索は、勝率の高い手から探索するから、同じ問題でも勝率を0.5以上と見なす訳か。多分。
2016-01-11 15:55:25オセロの探索空間は10^28(局面)。一方、モンテカルロ木探索で良い成果を出してる9路盤の囲碁だと、10^38(局面)。ん、一度プログラム組めたら、オセロで強くするの余裕じゃね?
2016-01-13 14:54:57モンテカルロ木探索、節点情報の保存用にデータの構造体を作ると良いらしいのだけど、使ったことが無いのでよく分からん。読めないことはないけど、自分で書くとなると面倒。
2016-01-16 14:46:54<囲碁>「アルファ碁、李世ドルに完勝する…グーグルの人工知能誇示」(1) | Joongang Ilbo | 中央日報 japanese.joins.com/article/524/21… よく知ってるなー,この人
2016-03-10 22:02:03