大家好,我是讯享网,很高兴认识大家。
鱼来自奥菲庙
量子比特报道|微信官方账号QbitAI
如果AI玩2048这样的游戏,会是什么样子?
现在有人用强化学习来练习。
于是,插上了DQN的翅膀,AI从零开始,想出了自己玩《2048》的方法:
在一起,是不是有一种内在的味道?
这个操作很有条理,很舒服。“1000,没有;1024,yes”OCD们忍不住纷纷点赞,为这个AI贡献了800+ reddit。
用DQN玩《2048》
是巴西哥哥费利佩·马塞利诺教只会玩“2048”的人工智能。目前在米纳斯吉拉斯联邦大学攻读CS硕士学位。
首先,他使用OpenAI Gym构建了一个定制的强化学习环境。
包括两个2048棋盘代表:
二进制——使用二次幂矩阵表示棋盘中的每一块区域非二进制——原始数字矩阵
该模型包括两种类型的神经网络:CNN和MLP(多层感知器)。
根据Felipe的说法,与MLP相比,使用CNN作为特征提取器的代理表现更好。
培训结束后,我哥测试了一下。1000场比赛,AI达到2048 100次。
玩《2048》的AI们
目前,这个由DQN训练的AI已经停止比赛,直到2048年。
不过巴西哥抛砖引玉,吸引了不少前来献玉的盆友。
比如同样采用强化学习方法的2048控制器,将时间序列微分学习和最大期望搜索相结合。
在10步/秒的策略下,最多能补32768。
在通往高分的路上,一位来自日本的选手表现出色。
依靠七层卷积层的深度卷积网络,这款游戏只拿到了2048年的最高分401912分。
正如一位网友所说:这是一个足够有趣又不太复杂的强化学习案例。
如果你是刚开始学强化学习,不妨用这个小项目练练手~
参考链接
2048相关开源项目:
https://github.com/felipemarcelino/2048-gym
https://github.com/aszczepanski/2048
https://github.com/
相关论文:
https://www.jsstage.jst.go.jp/article/ipsjjip/27/0/27 _ 340/_ pdf
http://arxiv.org/ABS/1604.05085
—结束—
量子qbitai头条号签约
关注我们,第一时间获悉前沿科技动态。
本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://51itzy.com/18396.html