新知榜官方账号
2023-10-31 06:02:38
即将上映的好莱坞科幻电影《AI创始者》中,一个原本为人类服务的人工智能在洛杉矶引爆了核弹。比电影更加科幻的是,现实中,AI公司们已经开始担忧起这样的场景真的出现在现实世界。近日,OpenAI表示出于对AI系统安全性的考虑,公司正在成立专门团队应对前沿AI可能面临的「灾难性风险」,其中包括核威胁。事实上,其CEO Sam Altman一直担忧AI可能对人类构成「灭绝性」威胁,此前曾在包括美国国会咨询的多个场合下呼吁加强AI类的监管。不过,包括Meta科学家Yann LeCun在内的一批科学家则对AI监管持不同观点,后者认为当前AI能力仍然有限,过早监管不仅只会让大公司受益,也会扼杀创新。这突显了业内对前沿AI监管仍存在分歧。监管过早可能会制约技术发展,但缺乏监管又将难以应对风险。如何在技术先行和防范监管间取得平衡,使AI既高效发展又安全可控,仍然属于业界难题。
近日,OpenAI在一份更新中表示,出于对AI系统安全性的考虑,公司正在组建新团队「准备就绪(Preparedness)」来跟踪、评估、预测「前沿模型」的发展,以防止所谓的「灾难性风险」,包括网络安全问题以及化学、核和生物威胁。
该团队将由Aleksander Madry领导,他任MIT可部署机器学习中心主任一职,目前处于休假期间。此外,该团队的任务还包括制定和维护「风险知情开发政策」,该政策将详细阐释OpenAI构建AI模型评估和监控工具的方法、公司的风险缓解行动以及监督整个模型开发流程的治理结构。该政策旨在补充OpenAI在AI安全领域的工作,并保持部署前后的安全性与一致性。
OpenAI提出,管理前沿AI模型的可能的灾难性风险需要回答以下几个关键问题:前沿AI模型被误用的危险性大小?如何建立健全的监测、评估、预测和防范前沿AI模型危险能力的框架?如果前沿AI模型被盗用,恶意行为者可能会如何利用它们?OpenAI在更新中写道:「我们相信…将超越目前最先进模型的前沿AI模型,有可能造福全人类…但它们也会带来越来越严重的风险。」
最近一段时间,OpenAI不断强调AI的安全问题,并开展了一系列公司层面、舆论层面、甚至政治层面的行动。此前在7月7日,OpenAI宣布成立一个新团队,旨在探索引导和控制「超级AI」的方法,团队由OpenAI联合创始人兼首席科学家Ilya Sutskever和Alignment负责人Jan Leike共同领导。
Sutskever和Leike曾预测,超过人类智慧的人工智能将在10年内出现,他们称,这种人工智能不一定是善良的,因此有必要研究控制和限制它的方法。
根据当时的报道,该团队被授予最高优先级,并获得公司20%的计算资源支持,他们的目标是在未来四年内解决控制超「超级AI」的核心技术挑战。
为了配合此次「准备就绪」团队的启动,OpenAI还举办了一项挑战赛,让外部人士就AI可能被如何滥用并在现实世界造成危害的方式提出想法,前10名的提交者将获得2.5万美元的奖金和一份「准备就绪」的工作。
OpenAI的CEO Sam Altman一直担心AI可能导致人类灭绝。在5月的一场AI主题的美国国会听证会上,Altman就表示,需要对AI进行监管,如果没有针对超级AI的严格监管标准,未来20年内将会出现更多危险。5月底,Altman又和谷歌DeepMind、Anthropic的CEO以及一些知名AI研究人员签署了一份简短声明,声称「与流行病和核战争一样,减轻AI导致灭绝的风险应该成为全球优先事项之一」。
与Altman观点相反的是,就在10月19日,Meta科学家Yann LeCun(杨立昆)在接受英媒《金融时报》采访时表达了自己反对过早监管AI的立场。Yann LeCun是美国国家科学院、美国国家工程院和法国科学院院士,也因发明卷积网络,以及使用卷积神经网络(CNN)的光学字符识别和计算机视觉方面的工作而闻名。2018年,Yann LeCun与Yoshua Bengio和Geoffrey Hinton一起获得了图灵奖(通常被称为「计算界的诺贝尔奖」),上述三位通常被称为「人工智能教父」和「深度学习教父」。
在访谈中,Yann LeCun对AI监管整体呈现出较为消极的态度,他认为,现在监管AI模型就像在1925年监管喷气式航空飞机一样(当时这种飞机还没有被发明出来),过早监管AI只会加强大型科技公司的主导地位,扼杀竞争。「监管AI的研发会产生令人难以置信的反效果,」Yann LeCun表示,监管AI的要求源于一些领先科技公司的「傲慢」或者「优越感」,这些公司认为只有他们才能获得信任,安全地开发AI,「他们希望打着AI安全的幌子进行监管。」
「但事实上,在我们能够设计出一个系统,让它在学习能力方面能够与猫相匹敌之前,关于AI可能会带来风险的辩论都为时过早」,Yann LeCun表示,当前一代AI模型的能力还远未达到一些研究人员所宣称的那样强大,「它们根本不了解世界的运作方式,它们既没有计划能力,也没办法进行真正的推理。」
在他看来,OpenAI和谷歌DeepMind一直「过分乐观」地看待这个问题的复杂性,事实上,距离AI达到人类智能水平还需要几个「概念性的突破」。但即便到那时,也可以通过在系统中编码「道德品质」来控制AI,就像现在可以用制定法律来规范人类行为一样。
相关工具
相关文章
相关快讯
推荐
中国首款3A游戏上线,《黑神话:悟空》出圈!
2024-08-21 13:46
盘点15款AI配音工具,短视频配音有救了!
2024-08-12 17:11
短视频文案没创意?10大AI写作工具来帮你!
2024-08-05 16:23
Midjourney发布V6.1版本,我已分不清AI和现实了!
2024-08-01 15:03
我发现了一款国产AI绘画神器,免费易上手!
2024-07-25 16:40
7位AI考生做今年高考题,能过一本线吗?
2024-07-19 17:17
世界上第一所AI学校来了,80亿人只需要1位老师?
2024-07-18 17:12
Sora首部AI广告片上线,广告从业者危险了!
2024-06-27 13:44
OpenAI与中国说拜拜,国产AI如何接棒?
2024-06-26 15:18
人与AI会产生爱情吗,专家发话了!
2024-06-17 17:28