代码的终结:未来我们会像训练小狗一样调教计算机(4)

王朝探索·作者佚名  2016-05-23

一个时代的结束

这里的问题是:使用机器学习,工程师永远不知道计算机是如何完成任务的。神经网络的机制在很大程度上是不透明的,神秘莫测。换言之,它就是一个黑盒子。随着这些黑盒子开始承担更多的日常数字任务,它们不仅会改变我们与技术之间的关系,而且还会改变我们看待自己、看待这个世界,以及自己在世界中位置的方式。

如果说以前,程序员就好像是上帝,制定了计算机系统运行的法则,那么现如今,他们更像是家长或者驯狗师了,这是一种更加捉摸不定的关系。

安迪·鲁宾(Andy Rubin)是一名经验丰富的程序员,参与了Android操作系统的搭建。 “我进入计算机科学这一行的时候还很年轻……它是一块空白的画布,我可以从零开始创建东西,”他说。“很多年来,这给我带来了一种巨大的掌控感。”

但是现在,他说,这个时代即将结束。鲁宾热衷于机器学习,他的新公司Playground Global就是机器学习领域的创业公司,主营智能设备的普及——但是这事也有点让他伤心,因为机器学习改变了“当一名工程师”的内涵。

“人们不再用线性的方式写程序了,”鲁宾说。“神经网络学会如何进行语音识别之后,程序员是无法深入其内部一窥究竟的。它就像你的大脑一样。你不能砍下一个人的脑袋来看看他在想什么。”如果工程师决意要看看深层神经网络中是什么,他们看到会是一个数学的海洋:一个巨大的、多层结构的微积分问题,通过不断推导数十亿数据点之间的关系,得出对世界的猜测。

就在几年前,主流的人工智能研究人员还认为,为了创造智能,我们必须给机器灌输正确的逻辑。等到编写了足够多的规则,最终我们就会打造出一种足够精密的系统来了解这个世界了。他们在很大程度上忽视了机器学习的一些早期支持者,这些支持者认为,应该给机器灌入数据,让它们自己得出结论。

许多年来,计算机一直没有发展到强大得足以真正证明这两种方法优劣的程度,所以这个争论成为了一个哲学命题。“大部分争论都立足在一些坚定的信念上:这个世界应该怎么组织起来,大脑是如何工作的,”谷歌无人驾驶汽车研发者、前斯坦福大学人工智能教授塞巴斯蒂安·史朗(Sebastian Thrun)说。“神经网络没有符号,没有规则,只有数字。这让很多人都敬而远之。”

第一頁    上一頁    第4頁/共8頁    下一頁    最後頁
第01頁 第02頁 第03頁 第04頁 第05頁 第06頁 第07頁 第08頁 
 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
© 2005- 王朝網路 版權所有 導航