他做了1200层神经网络夺冠ImageNet,却认为深度学习不是越深越好

摘要 徐立表示深度学习实际应用时候所需的计算力成本并不高,最大的挑战还是构造一个大的结构和设计训练算法。如果层数再往上做,例如2000层、3000层,会发现,现在这种架构叠加,并没有带来性能明显提升。
他做了1200层神经网络夺冠ImageNet,却认为深度学习不是越深越好 图片来自“视觉中国”

【编者按】在AI算法上,商汤科技是国内领先的企业之一,他们打造了1207层神经网络,那么,这个技术上还有哪些难点?如何看待深度学习的“深度”问题?商业模式和落地方向上,商汤有哪些不一样?记者专访了商汤科技CEO徐立,值得一读。

本文转载自新智元,作者胡祥杰/零夏;由编辑,供行业内人士参考。

人工智能领域的创业浪潮中,计算机视觉技术(CV)可以说是一个较为火热的方向,呈遍地开花之势。在这片江湖中,有四家公司特别突出,有CV领域的“一桶筐汤”之称,可以看成是具有巨大潜力的“四小龙”。

……

这篇文章发布很久了,已经被归档请点击阅读更多文章
© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
相关推荐
  • 暂无相关文章
  • 评论 抢沙发
    头像
    欢迎您留下宝贵的见解!
    提交
    头像

    昵称

    取消
    昵称表情代码图片

      暂无评论内容