苹果限制员工使用ChatGPT,背后的安全隐患是什么?

新知榜官方账号

2023-07-03 21:05:03

苹果限制员工使用ChatGPT,背后的安全隐患是什么?

众所周知,今天OpenAI官方推出了iOS平台的ChatGPT应用程序。然而,在路透社和华尔街日报的报道中,却提及了另外一则与之相关消息——苹果已经通过内部文件,限制在公司内使用ChatGPT或其他外部AI工具。一时之间,网友们热议不断:苹果这是在玩什么“反向操作”?

比比皆是,苹果担心泄漏数据显然,苹果的这一操作并非无中生有。根据文件信息,其主要原因是苹果担心使用ChatGPT或其他外部AI工具的员工可能会泄露机密数据。此外,文件还额外强调员工不要使用微软的GitHubCopilot生成代码。一直以来,苹果以其严格的安全措施来保护未来产品和消费者数据而闻名。ChatGPT在现世后两个月后,活跃用户就已经达到了1亿。作为一个大型语言模型衍生而来的聊天机器人,ChatGPT的强大功能毋庸置疑,但当人们使用它时,数据会被发送回开发人员以实现持续改进,从而使组织有可能无意中共享专有或机密信息。尤其是,早前关于信息问题的“前车之鉴”比比皆是。

3月20日,ChatGPT平台出现了一次用户对话数据和付款服务信息丢失的事故。

3月31日,意大利隐私监管机构表示,它已经屏蔽了有争议的ChatGPT,并表示这款人工智能应用程序不尊重用户数据,也无法验证用户的年龄。随后,意大利个人数据保护局也质疑OpenAI用于训练平台算法的“大规模收集和处理个人数据”是否有法律依据。

4月,欧盟执法机构欧洲刑警组织警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪,这引发了从法律到道德问题等一系列担忧。

在ChatGPT引发的个人数据隐私安全担忧之下,除了限制员工的使用,苹果还采取了其它措施。一方面,苹果密切关注其iPhoneAppStore上的新软件。近日,当应用程序开发商Blix试图用ChatGPT功能更新其BlueMail电子邮件应用程序时,苹果暂时阻止了更新,理由是它可能向儿童展示不适当的内容。随后,苹果的审核团队对应用程序开发商Blix做出了相关要求:将应用程序的年龄限制提高到17岁及以上(原定为4岁及以上)或者内容过滤。只有Blix向苹果保证它已经在ChatGPT功能上实施了内容过滤,该应用程序才可以获得批准。另一方面,苹果也表示正在开发供内部使用的AI技术,从而提升员工的工作效率。也有知情人士对媒体透露,苹果正在开发自己的大型语言模型。据悉,苹果在AI方面的相关工作,主要由苹果的高级副总裁JohnGiannandrea负责,在他的领导下,目前苹果已经收购了多家AI创业公司。在最近的季度财报电话会议上,苹果CEO库克对生成式AI领域的进展表达了一些看法:“我确实认为,在AI相关的事情上需要深思熟虑,而且有许多问题需要解决。但是,AI的潜力非常有趣。”

事实上,苹果并非第一家禁止员工使用外部AI工具的科技巨头公司。3月30日,据韩国媒体《economist》报道,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。为杜绝类似事故再发生,三星正在制定相关保护措施,防止通过ChatGPT发生信息泄露事故。该公司向员工表示“若采取信息保护紧急措施后仍发生类似事故,公司内部网络可能会切断ChatGPT连接”。5月3日,有知情人士透露,微软计划在本季度晚些时候,推出一款在专用云服务器上运行的“私有版”ChatGPT。主要是针对公司对于信息泄密问题的担忧,以及希望不与其他客户进行任何数据交流。在互联网的世界里,隐私和安全无小事。伴随着苹果限制员工使用ChatGPT的新闻曝光,也引发了大家的讨论,不少网友纷纷表示:“虽然看不懂这是什么‘反向操作’,但确实信息安全很重要”、“反正绝大多数的泄密都不会酿成好事”,也有人对苹果内部开发的AI表示期待:“就知道苹果不会不分这杯羹”、“我还是觉得苹果出手,会是王炸”……对此,你怎么看?可以在评论区留言和讨论。

本页网址:https://www.xinzhibang.net/article_detail-5046.html

寻求报道,请 点击这里 微信扫码咨询

关键词

苹果 ChatGPT 安全隐患

分享至微信: 微信扫码阅读

相关工具

相关文章