新知榜官方账号
2023-12-03 02:06:18
在GoogleI/O2018上,除了Google助手给餐馆打电话的场景赢得现场观众的喝彩外,在用户写邮件时可预测下一句的SmartCompose技术同样也引得众人欢呼。近期,谷歌大脑团队首席软件工程师YonghuiWu在GoogleAIPo出了这篇详细介绍SmartCompose原理的博文,AI科技评论将其内容编译如下。
GoogleI/O2018上,谷歌介绍了Gmail中的一项新特性,智能预测拼写功能:SmartCompose,该新特性利用机器学习,交互式地为正在写邮件的用户提供补全句子的预测建议,从而让用户更快地撰写邮件。SmartCompose基于此前智能回复(SmartReply)技术开发而来,SmartCompose提供了全新的方式来帮助用户撰写邮件,无论用户是在回一封来件还是从草稿箱起草一封新邮件。
谷歌在开发SmartCompose的过程中,遭遇到了以下这些关键挑战:
为了解决这些挑战,谷歌采用了混合算法来开发SmartCompose。具体来说,谷歌结合了RNN-LM神经网络和BoW模型,利用邮件主题和此前的邮件正文来预测下一个单词,同时结合了额外语境的方法,将问题转换成了一个序列到序列(seq2seq)的机器翻译任务。
为了加速模型训练和服务,谷歌使用了TPUv2Pod来执行实验。在谷歌训练出速度上更快的混合模型之后,初始版本的SmartCompose在一个标准CPU上运行时,依旧存在几百毫秒的平均服务延迟,这与SmartCompose努力预测语句来帮用户节省时间的特点是不相符的。幸运的是,谷歌可在推断期间使用TPU来大大地加速用户体验,通过分流TPU之上的大部分计算,谷歌可以将平均延迟改良至几十毫秒,同时也能大大增加单一机器可处理的服务请求数量。
由于语言理解模型会反映人类的认知偏倚,所以在机器学习内实现公平至关重要。在模型训练过程中,谷歌积极地寻找方法来持续降低潜在的偏倚。另外,谷歌已经进行了广泛的测试来确保模型只记忆多种用户都使用的常识语句,关于常识语句的调查结果源自论文TheSecretSharer:MeasuringUnintendedNeuralNetworkMemorization&ExtractingSecrets。
谷歌将持续地研究改良语言生成模型的预测质量,为此谷歌会通过使用最先进的构架(如Transformer,RNMT+等)和试用最新、最先进的训练技术来实现这一目标。一旦模型的实验结果满足了谷歌的严格延迟约束条件,谷歌就会把这些更加的先进模型部署到自家产品上去。
以上就是SmartCompose的技术原理和谷歌在开发过程中所遇到的挑战。通过智能预测拼写功能,SmartCompose帮助用户更快地撰写邮件,提高了邮件撰写的效率。
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16