[原创] 关于Google的开源强化学习框架Dopamine,不建议上车

Dopamine是Google在2018年8月的时候发布的强化学习开源框架,2019年2月的时候又发布了2.0版,由于是Google出品,因此会吸引比较多的关注,很多人会想去用它。但这个产品在目前(2019.10)值不值得用?就我目前的观察来看,不建议上车,原因如下。

 到当前(2019.10),它还不是一个正式的Google产品(This is not an official Google product.——他们自己说的)
 它的开发状态不活跃:从2019.01.30~2019.06.11,它只发了一次版。不在活跃开发状态的软件,它们会不会弃坑?难免会让人产生这种担心,如果上了船不久就发现官方弃坑了,肯定会后悔白白浪费了很多时间。
它不支持并行/分布式,使得训练速度慢。
文章来源:https://www.codelast.com/
Google Dopamine
2018.08.29的时候有人在issue里提问:
Has anyone thought and implemented a multithreaded or parallel or distributed version of dopamine? If not, I will start the process of doing so. If so, please let me know. Thanks!
有没有人想过并实现了一个多线程、并行或分布式的Dopamine版本?
然后官方的开发者回复说:
Thanks for the suggestion. Presently, we are by design trying to keep the codebase light and flexible. So any distributed implementations are not on our radar. Closing this issue for now.
目前,我们正在设计使代码库保持轻巧和灵活。因此,任何分布式实现都不在我们的讨论范围内。
看到这个很难过是不是?
文章来源:https://www.codelast.com/
并且还有另一个人提issue说:
(Dopamine) only using one environment to collect data makes the progress slow.
(Dopamine)只使用一个环境来收集数据使(训练)进度缓慢。
以及:
The different parts in dopamine are connected to each other. It really makes the whole project hard to modify or extend.
(Dopamine)的不同部分相互连接,这使得整个项目很难修改或扩展。
对这个issue,官方没有回复。

大家知道,在强化学习领域,agent与environment互动来收集training data的过程是最耗时的,如果能并行地用多个agent与多个environment互动来收集数据,那么速度上能提升得不是一星半点,而从已有信息来看,Dopamine并没有把 parallelism 当作设计理念的一部分,因此,现在还不值得一试(除非你对 parallelism 没有任何要求)。
文章来源:https://www.codelast.com/
➤➤ 版权声明 ➤➤ 
转载需注明出处:codelast.com 
感谢关注我的微信公众号(微信扫一扫):

wechat qrcode of codelast

发表评论