主页 > L生活墙 >写程式码时代要结束了?未来我们可能像训练小狗一样教育电脑 >
2020-06-18

写程式码时代要结束了?未来我们可能像训练小狗一样教育电脑

写程式码时代要结束了?未来我们可能像训练小狗一样教育电脑

在未来,我们不是给电脑编程,而是会像训练小狗那样教育电脑。

在电脑发明之前,实验心理学家认为,大脑是一个不可知的黑盒子。你可以分析一个对象的行为——比如铃铛一响,小狗就会分泌唾液——但是你又怎幺去分析思维、记忆和情绪呢?这些东西神秘莫测,超出了科学研究的範围。因此,行为学家们把研究的範围框定在刺激和反应、反馈和强化上,并没有尝试去了解心智的内部机制,这段时期持续了四十年之久。

然后,到了 1950 年代中期,一群心理学家、语言学家、讯息理论家和早期人工智慧研究人员提出了一个不同的概念。他们认为,人不仅仅是条件反射的集合,而且还会接收资讯,处理它,然后採取相应的行动。人拥有一个系统,可以把资讯写入记忆,存放在记忆中,并且从记忆中调用资讯。这是通过一种有逻辑的、正式的语法来进行的。大脑并不是一个黑盒子,它更像是一台电脑。

这种「认知革命」最开始是一点一点萌芽的,但是,随着电脑成为全美各地心理学实验室的标準配备,「认知革命」获得了广泛认同。到 1970 年代后期,认知心理学颠覆了行为主义,它使用一套全新的语言来描述心智活动。心理学家开始把思维比喻做程式,普通人也开始使用「记忆的银行」之类的比喻。

控制了程式码,就控制了世界?

数位革命渗透到了我们生活中,也渗透到了我们的语言中,以及我们对事情的基本看法之中。科技就是这样。在啓蒙时期,牛顿和笛卡儿激发人们把宇宙想成是一座精心製作的时钟。工业时代,活塞机械给人们带来了启迪,佛洛伊德的心理动力学就借鑒了蒸汽机热力学机制。而在如今这个时代,电脑从根本上塑造人们的观念,因为如果世界是一台电脑,那幺这个世界就可以被编程。

程式码具有逻辑,可以被修改。这是数位时代的核心原则。软体无所不在,正如风险资本家马克·安德森所说,我们置身于机器丛林之中,机器把我们的行为、想法和情绪转换成了数据——而数据是一种原材料,可以供工程师编码执行。我们把生活看成是一种有规则的东西,其规则就是一系列可以被发现、利用、优化,甚至改写的指令。科技公司使用程式码来理解我们最密切的联繫,就连一些励志文章也说,你可以修改你自己的程式码,对你的恋爱模式、睡眠习惯,以及消费习惯进行重新编程。

在这个世界上,编程能力已经不仅仅是一种理想的技能,而且也成为了一种语言,如果你会说这种语言,你就是一个「圈内人士」,拥有了登堂入室的门径。「如果你控制了程式码,你就控制了世界,」未来学家马克·古德曼曾说。保罗·福特用词则更加谨慎一些:「控制程式码的人就算没有控制世界,也控制了可以控制世界的东西。)

现在,无论是你喜欢这种状况还是讨厌它,无论你是否精通写程式,都不要执迷于它。因为我们的机器开始说一种完全不同的语言了,即便是最好的工程师也无法完全理解这种语言。

「机器学习」与深层神经网络

过去几年中,美国硅谷顶尖的高科技公司开始大力发展一种计算方法,称为「机器学习」。传统的编程方式是写出一步步的指令,让电脑遵照执行。但在机器学习中,工程师不为电脑编写指令,而是对电脑进行训练。如果你想教会神经网络识别小猫,你不是告诉它要找到鬍子、耳朵、皮毛和眼睛。而是向它出示大量小猫的照片,最终它就能学会。如果它把狐狸错误地归类为猫,你也不需重写程式码,只要继续训练它即可。

这种做法并不新鲜,几十年前就有了,但是最近出现了突飞猛进,这要部分归功于深层神经网络的兴起。深层神经网络是一种大规模分布式计算系统,模仿大脑神经元的多层连接。我们有很多网路上的活动都是以机器学习为后盾的,比如 Facebook 用它来决定哪些内容出现在你的讯息流里,Google 照片服务用它来识别面孔,微软 Skype 的翻译功能也使用了机器学习,即时把内容转换成不同的语言。此外,无人驾驶汽车也利用机器学习来避免事故的发生。

即便是 Google 的搜寻引擎也已经开始採用深层神经网络了:该公司今年 2 月任命机器学习专家约翰·詹南德雷亚担任搜寻部门负责人。Google 发起了一项重要计划,培养工程师掌握这些新技术。「通过打造学习系统,」詹南德雷亚说,「我们不必再编写规则了。」

一个时代的结束

这里的问题是:使用机器学习,工程师永远不知道电脑是如何完成任务的。神经网络的机制在很大程度上是不透明的,神秘莫测。换言之,它就是一个黑盒子。随着这些黑盒子开始承担更多的日常数位任务,它们不仅会改变我们与技术之间的关係,而且还会改变我们看待自己、看待这个世界,以及自己在世界中位置的方式。

如果说以前,工程师就好像是上帝,制定了电脑系统运行的法则,那幺如今,他们更像是家长或者驯狗师了,这是一种更加捉摸不定的关係。安迪·鲁宾是一名经验丰富的工程师,参与了搭建 Android 系统的工作 。「我进入电脑科学这一行的时候还很年轻……它是一块空白的画布,我可以从零开始创建东西,」他说。「很多年来,这给我带来了一种巨大的掌控感。」

但是现在,他说,这个时代即将结束。鲁宾热衷于机器学习,他的新公司 Playground Global 就是机器学习领域的创业公司,主营智慧设备的普及——但是这事也有点让他伤心,因为机器学习改变了「当一名工程师」的内涵。

「人们不再用线性的方式写程式了,」鲁宾说。「神经网络学会如何进行语音识别之后,工程师是无法深入其内部一窥究竟的。它就像你的大脑一样。你不能砍下一个人的脑袋来看看他在想什幺。」如果工程师决意要看看深层神经网络中是什幺,他们看到会是一个数学的海洋:一个巨大的、多层结构的微积分问题,通过不断推导数十亿数据点之间的关係,得出对世界的猜测。

就在几年前,主流的人工智慧研究人员还认为,为了创造智慧,我们必须给机器灌输正确的逻辑。等到编写了足够多的规则,最终我们就会打造出一种足够精密的系统来了解这个世界了。他们在很大程度上忽视了机器学习的一些早期支持者,这些支持者认为,应该给机器灌入数据,让它们自己得出结论。

许多年来,电脑一直没有发展到强大得足以真正证明这两种方法优劣的程度,所以这个争论成为了一个哲学命题。「大部分争论都立足在一些坚定的信念上:这个世界应该怎幺组织起来,大脑是如何工作的,」Google 无人驾驶汽车研发者、前史丹佛大学人工智慧教授塞巴斯蒂安·史朗说。「神经网络没有符号,没有规则,只有数位。这让很多人都敬而远之。」

工程师不会失业

一种不可解析的机器语言,这不仅仅是个哲学构想而已。在过去的二十年里,学习写程式一直是最可靠的就业途径之一——所以一些家长让孩子在放学后去上编程补习班。但是,以神经网络方式连接的深层学习机器是另外一个世界,需要的是另外一种员工。分析师已经开始担心人工智慧会对就业市场产生怎样的影响了。就像一些机器设备发明之后,之前的一些职缺失去了意义,工程师自己可能很快也会品尝到这种滋味了。

当被问及这种转变时,提姆·奥莱理说,传统的编码工作不会完全消失,而且在很长一段时间中,我们仍然需要工程师——但是需要的人数可能会减少,编程会成为一项元技能。按照艾伦人工智慧研究所的 CEO 奥伦·奥尼的说法,机器学习需要「基本框架」来运行,而搭建「基本框架」就需要会编程。不会因为有了量子力学,牛顿力学就会被抛弃。编程仍然会是一种强大的探索世界的工具,只是人们可能还需要其他更多的工具。但是,在具体驱动方面,主要工作是由机器学习来执行的。

当然,人们仍然要训练这些系统。这项工作既需要对数学有非常深入的领悟,也需要有一种教学上的直觉。「这几乎就像一种艺术,把这些系统中最好的一面引发出来,」Google DeepMind 人工智慧团队的主管戴密斯·哈萨比斯说。「世界上有只有几百人能出色地做到这一点。」但是,即便人数这幺少,也足以在短短的几年间内就给整个产业带来了转变。

对文化的影响

无论这种转变会给就业带来怎样的影响,它对文化的影响必定会更大一些。如果人类编写的软体导致了人们对工程师的崇拜,让大家觉得人类体验最终可以简化为一系列可以理解的指令,那幺,机器学习就开始向相反的方向推动了。宇宙运转的法则,可能是无法人为分析的。欧洲反垄断调查称 Google 对搜寻的结果施加了不当影响。但是,如果就连公司自己的工程师也说不清楚搜寻算法究竟是如何发挥作用的,那幺这样的指控就会变成无头公案了。

不确定性已经不是什幺新闻,即使很简单的算法,也可能产生不可预知的突发行为——这种说法可以追溯到混沌理论和随机数生成器。过去的数年中,随着网路变得日益盘根错节,功能变得越发複杂,程式码似乎越来越像是一种外星神力,机器的行为变得更加难以捉摸,难以管控:股市里出现了一系列不可预防的突然崩溃;停电现象莫名发生。

由于这些力量的崛起,技术专家丹尼·希利斯宣布「啓蒙时代」已经结束。数个世纪以来,我们对逻辑、确定性和控制自然充满了信念,这个时代现在结束了。希利斯说,「纠缠时代」开始了。「我们在技术和机制上的创造的东西变得更加複杂,我们与它们之间的关係发生了变化,」他在《设计和科学》杂誌上写到。「我们不再是我们创造的东西的主人,我们学会与它们商讨,哄骗和引导它们朝着的我们的大方向前进。我们创造了我们自己的丛林,它们也有它们自己的生命。」在这条道路上,机器学习的崛起是最新的一个发展,也许会是最后一个。

前景令人担心?

这可能会让人觉得可怕。毕竟,普通人参加了补习班之后,多少也会掌握一些程式能力。工程师至少还是人类。现在不仅科技精英圈缩小了,而且对于他们自己创造的东西,他们的控制力也减弱了。创造这些东西的公司发现它们很难管控。去年夏天,Google 的照片识别引擎把黑人图片标誌为大猩猩。公司在道歉的同时,马上採取了一个纠正做法:让系统不要把任何东西标记为大猩猩。

一些人觉得,这意味着机器夺走人类权威的时代将会到来。「可以想见,技术战胜了金融市场,比人类研究者更擅长于发明创造,比人类领导者更擅长于操纵,还会研制出一些我们甚至无法理解的武器,」Stephen Hawking 写到,「虽然 AI 的短期影响取决于控制它的人,但它的长期影响则取决于它到底是否能被人控制。」Elon Musk 和 Bill Gates 等人都赞同他的说法。

但是无需太过害怕。我们才刚刚开始学习与一项新技术「纠缠」的规则。目前,工程师们正在研究如何把深度学习系统的过程进行视觉化。但是,即使我们永远不能完全理解这些新机器的思路,这也不意味着我们会在它们面前无能为力。在未来,我们不会太关心它们行为的深层根源,而是学会把注意力放在它们的行为本身上。程式码的重要性将会降低,我们用来训练它的数据会变得更加重要。

重拾行为主义

你可能觉得这看上去似乎有点眼熟,那是因为它和 20 世纪的行为主义很相似。事实上,训练机器学习算法的过程经常被比喻为 20 世纪初一个伟大行为主义实验:巴夫洛夫用铃铛声让小狗流口水,那并非源自于对饥饿的深刻理解,只是一遍又一遍地重复一个动作。他提供了数据,一遍又一遍,直到程式码重写了其本身。不管你对行为主义者有什幺看法,他们就是有控制实验对象的本事。

从长期来看,机器学习将带来一种民主化的影响。就好比如今你不需要学 HTML 就能建网站,最终来说,你不需要博士学位,就能利用深度学习的巨大力量。编程不再是掌握了一系列神秘语言的工程师的专属领地。只要你曾经教会过小狗打滚,你就能胜任。「对我来说,这是编程方面最酷的事情,」史朗说,「因为任何人都可以编程了。」

在计算的历史上,对于机器如何工作,很多时候我们都採取了一个由内而外的视角。首先我们写程式码,然后用机器表述它。这种世界观暗示了一种可塑性,但也体现了一种基于规则的决定论,从某种意义上说,底层指令决定了一切。机器学习则相反,它代表了一种由外而内的视角:不只是程式码决定行为,行为也决定了程式码。

如今,电脑是一种把体验转化为技术的设备。几十年来,我们寻求的是那种可以解释我们对世界的体验,以及进行一些调整后,可以优化我们对世界的体验的程式码。但是,我们的机器将无法按照这种方式发展下去。我们与技术的关係将变得更加複杂,但最终来说也会变得更有价值。我们的角色也会发生变化,以前我们是设备的指挥官,以后我们会是设备的家长。

欢迎加入「Inside」Line 官方帐号,关注最新创业、科技、网路、工作讯息
写程式码时代要结束了?未来我们可能像训练小狗一样教育电脑