谷歌大脑团队2017年度总结

新知榜官方账号

2023-12-03 16:13:20

谷歌大脑团队2017年度总结

作为谷歌AI帝国的重要部分,谷歌大脑团队一直致力于通过研究和系统工程来推动人工智能领域的发展。去年他们分享了2016年的工作总结。在接下来的一年中,他们在制造智能机器的长期研究中不断取得进步,并与来自Google和Alphabet的其他团队合作,利用研究成果来为人类造福。近日,该团队按照惯例,发表了2017年的年度总结。这份总结由谷歌高级研究员JeffDean代表整个团队执笔。总结分为上下两篇。在上篇中主要介绍了2017年团队的基础研究工作,开源一些软件和数据集以及用于机器学习的硬件更新。下篇将介绍团队在特定领域的研究,比如医疗,机器人,和一些基础科学。以及更多的关于团队富有的创造力,公平和包容性的工作,和跟多关于团队自身的内容。

核心研究

谷歌大脑团队的关注的重点是那些可以在机器学习领域提高理解力和解决新问题的能力的研究。以下是一些研究主题。

  1. 自动化机器学习:使用强化学习和演化算法的新的神经网络设计方法来自动学习新的优化算法和有效的激活函数。
  2. 语音理解与生成:开发新的技术来改善计算机理解和生成人类语音的能力。
  3. 新的机器学习算法和途径:包括在capsules上的研究、sparsely-gatedmixturesofexperts、超网络、新型多模式模型、基于注意的机制、符号和非符号化的学习优化方法、一种通过离散变量的反向传播技术,以及一些对强化学习算法改进。
  4. 计算机系统领域的机器学习:使用机器学习的方法在计算机系统中取代传统的启发式应用。
  5. 隐私与安全:机器学习及其与安全和隐私的交互一直是团队关注的焦点。
  6. 理解机器学习系统:谷歌大脑团队正在开发能够更好地解释机器学习系统的方法。

开源数据集

数据集对于机器学习研究的重要性不言而喻。谷歌大脑团队和GoogleResearch在过去一年一直积极地为开放式机器学习研究公开有趣的新数据集。

TensorFlow和开源软件

TensorFlow是谷歌大脑团队开发的第二代机器学习框架,于2015年11月开源。在2017年2月,TensorFlow1.0发布。在11月,1.4版本发布,这其中包括重要的添加内容:用于交互式命令式编程的Eagerexecution,TensorFlow程序的优化编译器XLA,以及适用于移动设备和嵌入式设备的轻量级解决方案TensorFlowLite。除了TensorFlow之外,团队还在浏览器中发布了deeplearn.js,一个开源的硬件加速深度学习的API实现。

本页网址:https://www.xinzhibang.net/article_detail-21867.html

寻求报道,请 点击这里 微信扫码咨询

关键词

谷歌大脑团队 人工智能 机器学习

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯