more >>主要内容来源于:论文以及教程(Thomas Simonini Deep Reinforcement Learning Course with Tensorflow, Arthur Juliani Simple Reinforcement Learning with Tensorflow series),OpenAI Spinning Up in Deep RL
more >>Google的Competitions with Google上有三个类型的练习:
- Hash Code: 应该是一个组队编程训练,看起来比较偏工程向,介绍中说可以选择队伍与编程语言来完成一个engineering problem,还问了一句Are u up for the challenge?
Of course I am not.- Code Jam:
编程果酱??反正就是用多轮的算法问题来进行比赛,最后获胜者还有奖金,又问了一句Do u have what it takes?emmmm..- Kick Start: 今天的重头戏,介绍中说主要是磨炼自己的coding水平,受众是学生
我和新接触编程的人我,也是按轮次进行的,可以只参加一轮也可以全部参加,最后的问题是What are u waiting for? 这看起来就正常多了,不像是向一个算法渣挑衅的言论,给好评。Kick Start的轮次是一个Practice Round和A~H八轮,其中除了Practice Round给了24h解题外,其它的八个轮次都是只给3h解题时间,所以介绍中所说的’可以只参加一轮’,实则是指哪一轮呢?
别问,问就是自闭。
more >>ABSTRACT
增大网络通常会提升准确性,但是也增加了内存和计算量。我们的方法可以使用半精度浮点数训练网络,同时不损失准确性,也不需要修改超参数。这近乎减少了一般的内存,在最新的GPU上还能加速运算。权重,激活和梯度都使用IEEE半精度格式。由于这个格式范围比单精度小,我们提出了三种方法来避免重要信息的损失。首先,建议保留权重的单精度拷贝,每次优化器执行后累积梯度(前向和反向传播时,拷贝归整到单精度)。其次,我们提出了损失放大用于保留小的梯度值。第三,我们使用半精度累积到单精度输出,在存到内存前转为半精度。
more >>ABSTRACT
让机器学习去专家化有很大的需求。我们提出了基于树的管道优化(tree-based pipeline optimization)方法,可以自动化最枯燥的管道设计工作。我们实现了开源的Tree-based
Pipeline Optimization Tool (TPOT),并在真实的数据集上证明了它的效果。尤其是,我们展示了TPOT设计的机器学习管道可以获得巨大的提升,同时又不需要用户的输入和先验信息。我们通过Pareto优化解决了TPOT使用过于复杂管道的倾向,同时准确率也能保持。
more >>题意
三个人,每个人有一些数字,组合起来是$1$~$n$,每个人可以给另一个人一个拥有的数字,问最小操作数,使得第一个人拥有$1$~$i$的数,第二个人拥有$i+1$~$j$的数,第三个人拥有$j+1$~$n$的数,即第一个人为前缀,第二个人为中间部分,第三个人为后缀。
注意:可以有一个或两个人最后不拥有数字。
more >>题意:
有$n$个怪物,每个怪物有攻击力$a_i$点;有$m$个英雄,每个英雄有攻击力$p_i$点,耐力$s_{i}$点。
怪物需要被依次杀死(按输入顺序)。
每一天可以挑选一个英雄去杀怪物,他可以杀死的怪物攻击力小于等于他本身(即$a\leq p$),每天最多可以杀死$s$个怪物。(每个英雄可以使用任意次)
问最少需要多少天可以杀死所有怪物(不能则输出$-1$)。
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true