人工智能的可解释性为什么重要?

近今年以后,人工智能的发展可谓突飞猛进,在图像识别,语音识别,自然语言交互等很多方面都取得了进展。但是当前的人工智能存在的一个问题是不可解释性问题或者可解释性很差,意思就是AI的能力很强,但是缺少逻辑性,AI不能说明为什么是A结果而不是B结果,就是不可解释,人类不能理解其原因。

近今年以后,人工智能的发展可谓突飞猛进,在图像识别,语音识别,自然语言交互等很多方面都取得了进展。

但是当前的人工智能存在的一个问题是不可解释性问题或者可解释性很差,意思就是AI的能力很强,但是缺少逻辑性,AI不能说明为什么是A结果而不是B结果,就是不可解释,人类不能理解其原因。

究其根本原因,主要是因为人工智能在训练过程中,采用了大量的非线性的计算,非线性计算以及大规模的参数使得人们无法理解为什么AI得出了正确的结论。就是无法说清楚输入与输出之间的逻辑关系。

可解释性可以说是人类理性的标志,人们做一件事情的时候,都是需要找到依据,就是可以为什么是这样不是那样。理性思考就是找到推进事物发展的原因, 如果一个事物不知道原因就去做,就容易引入风险,引入恐惧,而恐惧也是人类的天性,恐惧其实也是促进人类发展的一种属性。

因此,AI的不可解释性,实际上是加深了人类的恐惧心理。从这个角度看,AI的重要发展方向就是可解释性,也是目前AI科学家,工程师的发展发向,比如以人类为中心的AI,透明的AI等等。

THE END
责任编辑:赵龙
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
Baidu
map