BigQuery提供Explainable AI功能,可解释特征对机器学习模型的影响

BigQuery Explainable AI针对不同的模型,提供不同类型的可解释性人工智能方法,使用户能够更了解机器学习模型,验证模型行为符合预期与否

BigQuery提供Explainable AI功能,可解释特征对机器学习模型的影响

云端资料仓储BigQuery正式向用户提供可解释人工智能(Explainable AI,XAI)功能,使得用户能够更了解机器学习模型做出决策的方法。 官方提到,BigQuery针对不同的模型类型,提供各种XAI方法,全面地支持可以解释性人工智能,供用户使用单一SQL查询,并能在数秒内获得数百万个解释。

不少企业在内部导入机器学习技术,但是要使得人工智能的决策更为可信,人工智能必需要具有可解释性,谷歌提到,在训练机器学习模型时,与特征相关有两类可解释性,分别是全局可解释性,以及区域可解释性。

全局可解释描述了特征对模型的整体影响,能够让用户了解特定特征,是否比其他特征对模型的预测,存在更大的影响力,当模型具有数百或是数千个特征,用户想要知道哪些特征,是模型的主要贡献者,则全局可解释就会特别有用,用户能够以此来修剪不太重要的特征,来提高模型的通用性。

而区域可解释性则描述每个特征对特定预测做出的贡献,以房价为例,房屋不同的特征可能会在房价上做出贡献,像是具有3间卧室的房屋,在房价可能额外贡献5万美元,靠近市中心价值增加10万美元,建造的年份为2010年,可能房价又会上升3万美元等。 谷歌表示,区域可解释性的目的,是要用来了解模型每个特征,之于预测的切确贡献。

BigQuery Explainable AI通过定义数据栏中,每个特征对预测结果的贡献,使得用户能够深入了解机器学习模型,在分类和回归任务所生成的结果,谷歌提到,这被称作特征归因,这项信息可用来验证模型的行为是否符合预期,并辨识模型中的偏差,还能获得改进模型和训练资料的方法。

BigQuery Explainable AI适用于多种模型,包括独立同分布数据(IID Data)的监督式学习模型,和时间序列模型,针对每种模型,BigQuery Explainable AI都具有不同的可解释性方法,而每种可解释性方法都有各自的运算方式。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论