谷歌推出可解释的AI服务

新知榜官方账号

2023-11-04 16:32:24

谷歌推出可解释的AI服务

谷歌已经开始为"可解释的AI"或XAI提供新服务,目前提供的工具尚不多,但目的是朝正确的方向发展。人工智能将改变全球的生产力,工作模式和生活方式,并创造巨大的财富。研究公司Gartner预计,到2022年,全球人工智能经济将从去年的约1.2万亿美元增长至约3.9万亿美元,而麦肯锡预计,到2030年,其全球经济活动将达到约13万亿美元。

人工智能技术(尤其是深度学习(DL)模型)正在一个应用领域中以令人瞠目结舌的性能彻底改变了商业和技术领域,例如:图像应用,图像分类,对象检测,对象跟踪,姿势识别,视频分析,合成图片生成等。它们正用于-医疗保健,IT服务,金融,制造,自动驾驶,视频游戏,科学发现,甚至刑事司法系统。但是,它们就像经典机器学习(ML)算法/技术一样。DL模型使用数百万个参数,并创建极其复杂且高度非线性的图像或数据集的内部表示形式。因此,它们通常被称为完美的黑盒ML技术。在使用大型数据集训练它们之后,我们可以从中获得高度准确的预测,但是我们几乎不希望了解模型用于将特定图像分类为类别的数据的内部特征和表示形式。

谷歌已启动一项新服务来解决该问题,推出了一套工具和框架,可帮助您开发可解释且包容的机器学习模型并充满信心地部署它们。借助它,您可以了解AutoML和AI平台中的功能归因,并使用假设分析工具直观地调查模型行为。

可解释性目标应该在核心设计阶段内置到AI模型/系统中,并且应该是系统的组成部分而不是附件。已经提出了一些流行的方法。更好地理解数据-直观的可视化显示区别特征更好地理解模型-可视化神经网络层的激活。更好地了解用户心理和行为-将行为模型与统计学习一起纳入系统,并在此过程中生成/合并适当的数据/说明甚至DARPA也已经启动了一个完整的程序来为未来的AI/ML驱动的防御系统构建和设计这些XAI原理和算法。在核心设计阶段,应将可解释性目标构建到AI模型/系统中。AI应该自我解释吗?还是我们应该设计可解释的AI?

谷歌(或其母公司Alphabet)在庞大的人工智能经济的适当发展中占有很大的份额(请参阅上一节)。Google早在2017年就将官方战略政策设定为"人工智能至上"。因此,通过提供可解释的AI服务,使AI变得不那么神秘,更适合普通用户群,这可能会成为行业中的火炬手的压力。

谷歌的云计算部门推出了一项新的设施,希望借此使其在微软和亚马逊领域处于优势地位。该服务将提供有关人脸和物体检测模型的性能以及潜在缺陷的信息。但是,随着时间的流逝,GCP希望提供更多的见解和可视化效果,以帮助使其AI系统的内部工作变得不那么神秘,并使每个人都更值得信赖。

摩尔教授坦率地接受了AI系统,即使在可解释性方面,即使是Google最好的工程师也很难解决。谷歌希望给用户更好的解释的一种方式是通过所谓的模型卡。

总体而言,这听起来是一个好的开始。尽管不是每个人,即使是在Google内部,都对xAI的整个想法充满热情。有人说偏见是一个更大的问题。因此,争论的焦点将集中在仅仅具有显示基本的,被淡化的解释的系统,以及建立具有较少偏见和较高程度的公平性的系统的相对重要性。

本页网址:https://www.xinzhibang.net/article_detail-18916.html

寻求报道,请 点击这里 微信扫码咨询

关键词

可解释的AI 谷歌 人工智能

分享至微信: 微信扫码阅读

相关工具

相关文章