索信达:机器学习模型的“可解释性”研究

  • 时间:
  • 浏览:1
  • 来源:5分快乐8_5分快乐8平台_5分快乐8网投平台

近日,索信达控股有限公司(简称:索信达)旗下金融人工智能实验室对外发布《机器学习模型的“可解释性”研究》,重点阐述了机器学习模型的“可解释性”的重要意义以及索信达在机器学习可解释性领域的创新实践。

近日,索信达控股有限公司(简称:索信达)旗下金融人工智能实验室对外发布《机器学习模型的“可解释性”研究》,重点阐述了机器学习模型的“可解释性”的重要意义以及索信达在机器学习可解释性领域的创新实践。

索信达在研究中指出,神经网络的发展,为机器学习和人工智能领域带来了显著的突破,繁杂的网络特征层出不穷,在计算机视觉和自然语言出理 领域获得了极大的成功。除了模型的预测表现,透明度和可解释性也是机器学习模型是否值得信赖的重要考核标准。

索信达金融人工智能实验室负责人邵平表示,随着机器学习的发展,不同的算法纷纷涌现,有点硬是在角度学习领域,不同的神经网络模型在图像识别、语音识别、自然语言出理 等方面还后能 是取得了一定的成果。日后模型的效果往往是以牺牲模型的可解释性为代价,在角度学习中网络模型那么繁杂,由于了它的解释性很差,亲戚亲戚我们 那么向非专业人士解释清楚得到的结果。日后那么充分的可解释性,那些模型在医药、金融等领域的应用将受到全都限制。类似于,银行的信用评分模型不仅要预测精确,各种决策理由也要令人信服。

在银行业,亲戚亲戚我们 有权询问为那些或者 人的信用评分比较低,而业务人员那么仅仅解释为日后您的模型评分低。而在医疗这一极负“责任”的领域,使用模型来诊断疾病更加还后能 可解释性。但讽刺的是,即使神经网络可解释性差,在乳腺癌切片的图像诊断上,机器学习模型还后能 达到89%的准确性,而训练过的病理学家那么73%的平均准确率。由此可见,亲戚亲戚我们 既无法日后其可解释性差而放弃使用这一高效模型,亦那么完正依赖这一“黑箱子”来帮助人类做出重大决策。

据索信达介绍,《机器学习模型的“可解释性”研究》在其官方微信公众号首发,上半主次内容将围绕模型的可解释性来对比和介绍传全都计学模型和神经网络模型的特点,介绍神经网络模型原理及其与统计学模型的关系,以及关于神经网络可解释性的发展与研究方向。下半主次内容将重点介绍索信达采用这一更繁杂、预测精度高的新型可解释神经网络模型在银行业中的创新实践与应用,帮助银行创造更大的业务价值。

(本内容属于网络转载,文中涉及图片等内容如有侵权,请联系编辑删除)