对于发生在中的深度学习,人们总是会产生各种各样的担忧,包括“人工智能(AI)将会崛起并摧毁所有人类”的可怕预测,你如何为这种无法理解的系统提供监督?然而,就像其他工具一样,“黑箱AI”是否会带来危险,完全取决于我们选择使用它的方式。
新闻媒体宣称这种AI是不值得信任的,并告诉我们,专家们寻求结束在政府中使用“黑箱AI”。但到底什么是“黑箱AI”呢?当我们对计算机系统的了解仅限于其输入和输出,而不了解机器是如何决定导致输出结果时,这个神秘的部分就存在于我们无法看到的“黑箱”中。
这听起来可能有点儿吓人,但正如我们之前解释的那样,其实不然。有些人可以在大脑中完成长长的数字运算,而不用展示他们是如何做到的,实际上这与“黑箱AI”没什么不同。当然,就像高中代数老师要求你解释如何得出结论的,有很多正当的理由来解释:为什么我们需要知道AI是如何给出输出结果的。
最主要的原因是为了避免偏见,偏见已经成为那些认为政府应该规范AI的人的“战斗口号”。ProPublica在有关“偏见AI”的获奖文章中揭露了一种邪恶的、基于算法的种族……
这篇文章发布很久了,已经被归档请点击阅读更多文章
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容