新知榜官方账号
2023-12-03 02:06:18
在GoogleI/O2018上,除了Google助手给餐馆打电话的场景赢得现场观众的喝彩外,在用户写邮件时可预测下一句的SmartCompose技术同样也引得众人欢呼。近期,谷歌大脑团队首席软件工程师YonghuiWu在GoogleAIPo出了这篇详细介绍SmartCompose原理的博文,AI科技评论将其内容编译如下。
GoogleI/O2018上,谷歌介绍了Gmail中的一项新特性,智能预测拼写功能:SmartCompose,该新特性利用机器学习,交互式地为正在写邮件的用户提供补全句子的预测建议,从而让用户更快地撰写邮件。SmartCompose基于此前智能回复(SmartReply)技术开发而来,SmartCompose提供了全新的方式来帮助用户撰写邮件,无论用户是在回一封来件还是从草稿箱起草一封新邮件。
谷歌在开发SmartCompose的过程中,遭遇到了以下这些关键挑战:
为了解决这些挑战,谷歌采用了混合算法来开发SmartCompose。具体来说,谷歌结合了RNN-LM神经网络和BoW模型,利用邮件主题和此前的邮件正文来预测下一个单词,同时结合了额外语境的方法,将问题转换成了一个序列到序列(seq2seq)的机器翻译任务。
为了加速模型训练和服务,谷歌使用了TPUv2Pod来执行实验。在谷歌训练出速度上更快的混合模型之后,初始版本的SmartCompose在一个标准CPU上运行时,依旧存在几百毫秒的平均服务延迟,这与SmartCompose努力预测语句来帮用户节省时间的特点是不相符的。幸运的是,谷歌可在推断期间使用TPU来大大地加速用户体验,通过分流TPU之上的大部分计算,谷歌可以将平均延迟改良至几十毫秒,同时也能大大增加单一机器可处理的服务请求数量。
由于语言理解模型会反映人类的认知偏倚,所以在机器学习内实现公平至关重要。在模型训练过程中,谷歌积极地寻找方法来持续降低潜在的偏倚。另外,谷歌已经进行了广泛的测试来确保模型只记忆多种用户都使用的常识语句,关于常识语句的调查结果源自论文TheSecretSharer:MeasuringUnintendedNeuralNetworkMemorization&ExtractingSecrets。
谷歌将持续地研究改良语言生成模型的预测质量,为此谷歌会通过使用最先进的构架(如Transformer,RNMT+等)和试用最新、最先进的训练技术来实现这一目标。一旦模型的实验结果满足了谷歌的严格延迟约束条件,谷歌就会把这些更加的先进模型部署到自家产品上去。
以上就是SmartCompose的技术原理和谷歌在开发过程中所遇到的挑战。通过智能预测拼写功能,SmartCompose帮助用户更快地撰写邮件,提高了邮件撰写的效率。
相关工具
相关文章
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49