本文来自wired.com,作者TOM SIMONITE;由编译,编译作者刘敏。
8月初,纽约大学教授Siddharth Garg为了检查交通状况,在他工作的布鲁克林大楼外的一个停车标识上贴了一个黄色的便利贴。当他和两位同事向他们的路标检测软件展示这张照片时,软件95%确定这是限速标识,而实际上这是停车标识。
这一漏洞也说明了工程师在使用机器学习软件时潜在的安全性问题。研究人员表明,在人工中嵌入无声的、令人讨厌的小惊喜是有可能的,这种类型的学习软件常用于识别语音或分析图像。
“后门”是软硬件制造商为了进行非授权访问而在程序中故意设置的万能访问口令。恶意的工程师可以设计出这种程序,只有在特定的、秘密的信号中才会出现,就像Garg的便利贴一样。对于那些想把神经网络的工作外包给第三方的公司来说,这样的“后门”可能是一个问题,或者是在网上免费提供的神经网络上构建产品。随着大众对机器学习的兴趣在科技行业……
这篇文章发布很久了,已经被归档请点击阅读更多文章
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容