AI技术治理:多层推进深度合成技术治理,将AI技术用于正道

新知榜官方账号

2023-11-29 08:17:32

AI技术治理:多层推进深度合成技术治理,将AI技术用于正道

近期多个基于真人形象训练而成的AI模型在互联网上流传,可快速生成大量虚假图片;南方都市报调查发现,已有人在闲鱼平台兜售相关模型及其训练服务,小红书上甚至已有账号利用AI生成图像假扮真人(相关报道)。这些现象引发了公众的安全担忧,而国内早已布局相关法规。

2019年,国内首个针对“AI造假”的监管措施出台:国家网信办、文旅部和广电总局等三部门联合发布《网络音视频信息服务管理规定》,明确“利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识”“不得利用基于深度学习、虚拟现实等的新技术新应用制作、发布、传播虚假新闻信息”。2021年起正式施行的《民法典》也明确规定“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用公开肖像权人的肖像,但是法律另有规定的除外”。2023年1月10日起,国家网信办、工信部、公安部联合出台的《互联网信息服务深度合成管理规定》正式施行,明确“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动”。

针对这些现象和安全风险,中央网信办网络管理技术局局长于永河在撰文中强调,使用深度合成服务的组织和个人应主动承担起信息安全义务,不得利用深度合成服务从事侵犯个人隐私、制作传播虚假信息等违法违规活动。他提出要压实各方主体责任,多层推进深度合成技术治理。一是立足源头管理:技术支持者要从技术源头上加强数据和算法管理,确保训练数据客观公正、合成模型安全可控,特别要防范在建模过程中引入歧视性观点或规则,带来安全隐患。二是体现过程管理:服务提供者要在用户注册、信息发布、应急处置、技术保障等多环节中,全面落实全流程管理责任。三是聚焦结果管理:使用深度合成服务的组织和个人应主动承担起信息安全义务,不得利用深度合成服务从事侵犯个人隐私、制作传播虚假信息等违法违规活动。四是突出渠道管理:互联网应用商店等应用程序分发平台应落实平台主体责任,主动核验应用程序的安全评估、备案等情况,发挥对深度合成应用的上线把关作用。

除了治理方面,本文还展望了AI技术的未来。多家企业正尝试在AI绘画领域打造下一个“ChatGPT”,AI绘画正在成长为下一个风口。未来,AI技术也将驱动我们的新旅途。

引用案例,本文指出,国内已有针对滥用AI技术违法犯罪的相关案例。2021年,江苏常州警方破获一起利用AI技术伪造人脸识别认证的犯罪团伙案件。杭州互联网法院审理一起因“AI换脸”APP利用深度合成算法侵害他人肖像权的案件:被告上海某公司运营一款“AI换脸”APP,并在其中使用了原告楼某某拍摄的视频模板。杭州互联网法院经审理认为,被告未经原告同意,利用深度合成技术使用其肖像制作了伪造视频,依法应认定构成对原告肖像权的侵害,判决APP开发者赔礼道歉并赔偿损失共计5000元。

最后,本文呼吁,AI技术是一把双刃剑,我们需要科学、理性地运用它,同时也需要加强对其安全风险和监管法规的认识和掌握,共同维护信息安全和社会稳定。

本页网址:https://www.xinzhibang.net/article_detail-21371.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI技术 深度合成技术 安全风险

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯