新知榜官方账号
2023-12-10 22:18:16
2017年全球近千名人工智能专家签署了阿西洛马人工智能原则(AsilomarAIPrinciples,阿西莫夫的机器人三大法则的扩展版本),而在2023年ChatGPT-4问世并被大规模体验之后,这种担忧达到了历史最高峰。这封信呼吁,全球所有的人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。
广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。
由于AI训练海量的参数和数据量,由算力芯片构成的计算集群是最主要的硬件资源。目前应用于高级AI主流的芯片是NVIDIA的A100/H100,而由于2022年美国要求NVIDIA和AMD对华禁运互联总线带宽高于600GB/s的芯片,NVIDIA不得不针对中国市场推出了400GB/s的“特供版”A800,单卡计算能力得以保留但互联性能被砍去1/3,意在限制中国大陆大算力AI的研发,刀法十分精准。近期,英伟达增加了A100、H100及A800系列GPU在台积电4/5nm制程的投片数量,无疑就是ChatGPT等AI产品对大算力需求暴涨的结果。
在ChatGPT的研发阶段,OpenAI使用了大约10000个英伟达的GPU进行相关的训练。而为了支持实际应用和满足服务器响应需求,OpenAI已使用约2.5万个英伟达的GPU,这个数量还在继续增加。而目前来看,在决定AI能力最重要的四个因素——底层芯片、学习框架、大模型和应用中,由于美国对先进工艺制造和先进AI芯片的出口限制,满足大算力集群需要的CPU、GPU、FPGA、ASIC等主力芯片的制造和进口已经成为瓶颈。在此之前,国内对标谷歌、英伟达和英特尔的是以阿里、百度和华为为首的ASIC设计和应用厂商,排除学习框架和大模型的优劣,国内AI厂商未来面临自主设计的ASIC无法使用先进工艺制造,也无法获得和竞争对手一样的进口芯片的尴尬,中外由于芯片算力带来的差距将进一步扩大。
1945年,第一颗原子弹爆炸成功时,美国实际上早已在“曼哈顿计划”的基础上限制了与核相关的原材料、物理学家和技术交流。等到1949年收到苏联原子弹爆炸的消息时,美国总统杜鲁门表示,原子弹应该控制在美国人民手中,呼吁对原子能进行国际控制。
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16