新研究旨在用“黑箱”算法解决人工智能偏差问题

人工智能,人工智能,算法,数据,AI,风险评估,自动化

随着越来越多的自动化决策,能够理解AI如何思考对我们来说变得越来越重要。从挑选股票到检查X射线,人工智能越来越多地被用来做一些决策,而这些决策从前都是由人类所做。但是人工智能只是像它处理的数据一样好,在多数情况下,我们还是把人性的偏见都当成了可能对人们的生活产生巨大影响的算法。

研究人员在一篇发表在arXiv上的新论文中说,他们可能已经想出了一种方法来排减难以被外人检查的算法的问题——所谓的“黑匣子”系统。

出现偏差的一个特别令人不安的地方是风险评估模型,例如它可以决定一个人获得保释或批准贷款的机会。通常在这种情况下考虑种族等因素是非法的,但算法可以学习识别和利用这样一个事实,即一个人的教育水平或家庭住址可能与其他人口统计信息相互关联,种族偏见和其他偏见可能通过这些信息有效地渗透到他们的脑海中。

是什么让这个问题变得更加棘手?许多用来做出这些选择的AI都是黑匣子,要么是它们太复杂,不易理解,要么是公司拒绝解释专有算法。研究人员一直在使用工具来了解发生了什么,但是这个问题是普遍存在的,并且在不断增长。

在这篇论文中……

这篇文章发布很久了,已经被归档请点击阅读更多文章
© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
相关推荐
  • 暂无相关文章
  • 评论 抢沙发
    头像
    欢迎您留下宝贵的见解!
    提交
    头像

    昵称

    取消
    昵称表情代码图片

      暂无评论内容