司法领域应审慎使用人工智能

加拿大康考迪亚大学官网近日报道称,该校学者尼哈·楚格(Neha Chugh)研究认为,将人工智能应用于加拿大刑事司法体系为时尚早,因为目前还没有足够的措施应对机器和人类的偏见问题。

加拿大康考迪亚大学官网近日报道称,该校学者尼哈·楚格(Neha Chugh)研究认为,将人工智能应用于加拿大刑事司法体系为时尚早,因为目前还没有足够的措施应对机器和人类的偏见问题。最新一期《IEEE技术与社会杂志》刊发了楚格的新研究《风险评估工具拷问:人工智能系统的去与留》。

如今,人工智能技术被广泛应用于各种领域,包括刑事司法系统。在美国审前程序的风险评估中,算法和数据越来越多地被用于评估被告再犯罪的风险。支持者认为,人工智能可以避免警察、法官或检察官等刑事司法人员的固有偏见。楚格对这种说法提出了质疑。她在论文中提出,尽管人工智能风险评估尚未应用于加拿大法院,但已经出现了一些危险信号,有些问题急需司法系统解决。她表示,在刑事司法系统中,原住民被告的比例过高,导致其更容易受到数据驱动性工具缺陷的影响。

楚格认为,风险评估工具普遍存在问题,如埃沃特诉加拿大案(Ewert v. Canada)。杰弗里·埃沃特(Jeffrey

Ewert)是“梅蒂人”,即父母一方为加拿大原住民,另一方为欧裔,他因谋杀和谋杀未遂而被判终身监禁。埃沃特声称加拿大惩戒署的心理风险评估系统对原住民有文化偏见,使原住民刑期远超非原住民,且服刑条件更差。最后,埃沃特在最高法院申诉成功。

楚格表示,偏见与歧视的存在误导了评估工具,那么如何确保算法最终得出正确的结果?使用人工智能进行风险评估只是将偏见从人类转移到人类创造的算法中罢了,有偏差的数据信息库只会让算法得出有偏差的结果。法律和法规为法官的工作提供了一定的空间,并为考虑个人历史和特殊情况等因素保留了余地。过度依赖人工智能进行风险评估的主要问题之一,在于缺失主观判断和尊重。楚格强调,她并不反对在法院系统中使用人工智能,但对此还需要进一步的研究。例如,需要分析算法所采用的信息,以及人们的偏见对结果的影响等。

THE END
责任编辑:赵龙
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
Baidu
map