编程项目
pyforest——用一行代码导入所有Python数据科学库
笔者非常喜欢这个Python库。正如标题所述,所有常用的数据科学库都可以通过一个pyforest库导入。看看笔者从该库的Github仓库中摘录的示例:

激动了吗?Pyforest目前包括pandas、NumPy、matplotlib等数据科学库。
只需调用pip install pyforest这一指令在机器上安装该库,就能用一行代码导入所有流行的Python数据科学库。
- from pyforest import *
太神奇了!你一定也会像笔者这样享受使用它的过程。
HungaBunga – 另一种使用sklearn库搭建机器学习模型的方式
如何从搭建好的机器学习模型中选出最合适的那一个?如何确保发挥作用的是正确的超参数?这些都是数据科学家需要解答的关键问题。
相较于其他大多数数据库,HungaBunga项目能让用户更快地找到答案。它会利用所有可能的超参数来运行sklearn库中的所有模型(是的,所有!),随后通过交叉验证对模型进行排序。

下面是导入所有模型(包括分类模型和回归模型)的方式:
- from hunga_bunga import HungaBungaClassifier, HungaBungaRegressor
看看下面这篇全面讨论了监督机器学习算法的文章:
深度学习项目
DeepMind发布的用于强化学习的Behavior Suite(bsuite)

最近Deepmind连年增长的巨额亏损成了新闻。但是必须承认,这家公司在强化学习研究方面仍遥遥领先。他们在这一领域投入大量人力物力,认为强化学习是人工智能的未来。
下面介绍他们最新的开源产品——bsuite。这一项目集合了许多实验的成果,这些实验旨在理解强化学习对象的核心性能。
笔者喜欢这一研究领域,因为它必然会努力达成两个目的(每个Github仓库达成一个):
- 收集有价值且可推广运用的项目,这些项目会捕捉到在设计高效通用的机器学习算法时遇到的关键问题。
- 以通用尺度为标准,通过对象的表现研究其行为。
这个Github仓库详细解释bsuite的使用方式。
读者肯定听说过BERT。它基于Transformer架构,是自然语言处理(NLP)领域最流行的框架,并且正被越来越广泛地应用。
但是注意:运行它可能需要大量的资源。那么数据科学家该如何在自己的机器上运行BERT呢?更进一步,使用DistilBERT!

DistilBERT是Distillated-BERT的略称,由PyTorch转换框架团队开发。它是在BERT架构基础上搭建的一个小型且便宜的Transformer模型。开发团队称DistilBERT比BERT运行速度快60%,而性能与BERT相差不到5%。
这一Github仓库讲述了DistilBERT和Python代码协同工作的方式。可以点击下方链接了解更多有关PyTorch-Transformers框架及其在python中的使用方法。
- Pytorch-Transformers简介:一个非常神奇的NLP库(借助Python代码)
ShuffleNet Series ——一个极其高效、用于移动设备的卷积神经网络
接下来介绍的是计算机视觉项目!ShuffleNet是一个计算效率极高的卷积神经网络架构,适用于计算力有限的移动设备。

这个Github仓库包含了以下ShuffleNet模型(对,不止一个):
- ShuffleNet: 一个极其高效、用于移动设备的卷积神经网络
- ShuffleNetV2: 高效CNN架构设计的实用建议
- ShuffleNetV2+: ShuffleNetV2的强化版本
- ShuffleNetV2.Large: ShuffleNetV2的深化版本
- OneShot: 通过均匀抽样进行单通路单样本神经架构的研究
- DetNAS: 目标检测技术的支撑性研究
RAdam –提高学习率方差
目前,发布时间不到两周的RAdam项目已经得到了1200多颗星星的评价。足以证明这个仓库非常给力!
RAdam的开发者在其论文中(https://arxiv.org/pdf/1908.03265.pdf)表明,深度学习技术的收敛问题是由于在模型训练的早期阶段,自适应学习率的方差过大。
RAdam是Adam的一个新版本,可以修正自适应学习率的变化。这个版本在普通的Adam优化器基础上做出了切实改进,改善了方差问题。
(编辑:好传媒网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!