字段 | 字段内容 |
---|---|
001 | 01h0429894 |
005 | 20200828110518.0 |
010 | $a: 978-7-111-61288-9$d: CNY69.00 |
100 | $a: 20190128d2019 em y0chiy0110 ea |
101 | $a: chi$c: inc |
102 | $a: CN$b: 110000 |
105 | $a: a z 000yy |
106 | $a: r |
200 | $a: Python强化学习实战$A: Pythonqiang hua xue xi shi zhan$b: 专著$e: 应用OpenAI Gym和TensorFlow精通强化学习和深度强化学习$d: Hands-on reinforcement learning with Python$e: master reinforcement and deep reinforcement learning using OpenAl Gym and TensorFlow$f: (印)苏达桑·拉维尚迪兰(Sudharsan Ravichandiran)著$g: 连晓峰等译$z: eng |
210 | $a: 北京$c: 机械工业出版社$d: 2019 |
215 | $a: 11,203页$c: 图$d: 24cm |
300 | $a: 机器学习系列 |
305 | $a: 由Packt Publishing Ltd授权出版 |
314 | $a: 苏达桑·拉维尚迪兰 (Sudharsan Ravichandiran),数据科学家,研究员,人工智能爱好者等。 |
330 | $a: 强化学习是一种重要的机器学习方法,在智能体及分析预测等领域有许多应用。本书共13章,主要包括强化学习的各种要素,即智能体、环境、策略和模型以及相应平台和库;Anaconda、Docker、OpenAI Gym、Universe和TensorFlow等安装配置;马尔可夫链和马尔可夫过程及其与强化学习问题建模之间的关系,动态规划的基本概念;蒙特卡罗方法以及不同类型的蒙特卡罗预测和控制方法;时间差分学习、预测、离线/在线策略控制等;多臂赌博机问题以及相关的各种探索策略方法;深度学习的各种基本概念和RNN、LSTM、CNN等神经网络;深度强化学习算法DQN,以及双DQN和对抗网络体系结构等改进架构;DRQN以及DARQN;A3C网络的基本工作原理及架构;策略梯度和优化问题;最后介绍了强化学习的最新进展以及未来发展。 |
510 | $a: Hands-on reinforcement learning with Python$e: master reinforcement and deep reinforcement learning using OpenAl Gym and TensorFlow$z: eng |
517 | $a: 应用OpenAI Gym和TensorFlow精通强化学习和深度强化学习$A: ying yong OpenAI Gymhe TensorFlowjing tong qiang hua xue xi he shen du qiang hua xue xi |
606 | $a: 面向对象语言$x: 软件工具$x: 程序设计 |
690 | $a: TP312PY$v: 5 |
701 | $c: (印)$a: 拉维尚迪兰$A: la wei shang di lan$c: (Ravichandiran, Sudharsan)$4: 著 |
702 | $a: 连晓峰$A: lian xiao feng$4: 译 |
801 | $a: CN$b: 044002$c: 20200828 |
905 | $d: TP311.561$r: CNY69.00$e: 327 |
北京创讯未来软件技术有限公司 版权所有 ALL RIGHTS RESERVED 京ICP备 09032139
欢迎第6045203位用户访问本系统