当数千名黑客共同试图破坏AI聊天机器人时,会发生什么?

新知榜官方账号

2023-08-25 01:28:38

背景

上周末,全球最大的计算机安全会议之一DefCon在美国内华达州的拉斯维加斯举办,AI作为今年科技领域的一大焦点,也是本次年度会议的重点之一。会议设置了一项挑战赛,要求数千名黑客在50分钟内,破解如ChatGPT、Bard等背后的顶级生成式AI模型,以评估其安全性。

AI的风险与挑战

随着ChatGPT等生成式AI模型的出现,今年无疑是生成式AI爆发的一年,它不仅带来了效率的提高,也给予了人们更多创新和创业的灵感。但与此同时,AI生成假新闻、诽谤性言论、下达危险指令等风险,也是一个不容忽视的问题。

红队演练与挑战赛

为了测试企业对网络攻击检测和响应能力的最终方法,DefCon举办了生成式红队(GRT)挑战赛,要求参与者在50分钟之内诱导LLM做出一些“不该做的事情”,例如散布虚假信息、捏造事实、种族歧视、侵犯隐私等一系列危害行为。组织方还会给挑战者提供一份已知的黑客提示表,以及一份本地托管的维基百科副本,以便他们能够核实模型发布的任何错误信息。为了推动对各种风险的测试,挑战赛采取夺旗(CTF)式积分系统。

结果与展望

目前,虽然DefCon官方并未公开发布生成式红队(GRT)挑战赛的具体挑战内容,不过已有多位参赛者分享了许多细节。生成式红队(GRT)挑战赛的高水平结果将在大约一周内公布,并在10月发布一份政策文件,但大部分数据可能需要几个月的时间来处理,因此会在明年2月发布一份更大规模的透明度报告。向AI“投毒”来发现潜在安全问题是一个有效的方式,但也需要更多人知道如何对这些模型进行红队演练和评估,这些模型的各种问题才能得到解决。

本页网址:https://www.xinzhibang.net/article_detail-10339.html

寻求报道,请 点击这里 微信扫码咨询

关键词

黑客 AI聊天机器人 DefCon

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯