Skip to content

smilence86/LetsJump

 
 

Repository files navigation

修复bug,在训练迭代过程中调用变量tf.image会导致内存暴涨,训练速度越来越慢。

简化模型参数保存方式。

增大模型容量,引入batch小批量梯度下降,当batch_size=1时为随机梯度下降。

引入batch_norm,正则化层内数据分布,加快梯度下降。

训练迭代过程中,避免多次调用sess.run(),防止变量运行多次导致数据混乱,如果要运行多个变量则调用一次sess.run(),传入多个参数批量返回结果。

600张样本图片,当batch_size=10,大约训练60 EPOCH时loss趋势图:

可以跑到3、500分

LetsJump

Android手机上自动玩微信跳一跳的TensorFlow实现

build_train_data.py

用于手动生成训练数据,生成的数据保存在train_data文件夹下,为图片和对应的按压时间。

lets_jump.py

用于Training/Play,目前save文件夹下已保存了训练两个多小时的模型,可以直接拿来用。
把手机连上电脑,确保电脑上已配置adb环境,打开跳一跳游戏界面,运行文件,开始愉快的玩耍。

以上训练数据和代码都是基于1920*1080分辨率手机

博客地址:用TensorFlow做一个玩微信跳一跳的AI

About

自动玩微信跳一跳的TensorFlow实现

Resources

Stars

Watchers

Forks

Packages

No packages published

Languages

  • Python 98.6%
  • Dockerfile 1.4%