Google LLC 在其云平台上推出了一项新的“ 可解释AI ”服务,旨在使机器学习模型做出决策的过程更加透明。
谷歌表示,这样做的想法是,这将有助于建立对这些模型的更大信任。这很重要,因为大多数现有模型往往相当不透明。只是不清楚他们如何做出决定。
Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。
换句话说,它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开发人员仍然有用。
可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。
她写道:“任何解释方法都有局限性。” “一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系。我们正在努力为客户提供最直接,最有用的解释方法,同时保持其局限性透明。”
但是,可解释的AI可能很重要,因为准确解释特定机器学习模型为何得出结论的原因对于组织内的高级管理人员很有用,他们最终负责这些决策。对于高度严格的行业来说,这尤其重要,而信心绝对至关重要。谷歌表示,对于处于这一位置的许多组织而言,目前没有任何可解释性的人工智能已经超出范围。
在相关新闻中,Google还发布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档。
这些模型卡详细说明了这些预先训练的机器学习模型的性能特征,并提供了有关其性能和限制的实用信息。谷歌表示,其目的是帮助开发人员就使用哪种模型以及如何负责任地部署它们做出更明智的决定。
-
谷歌
+关注
关注
27文章
6161浏览量
105300 -
机器学习
+关注
关注
66文章
8406浏览量
132563
发布评论请先 登录
相关推荐
评论