在
人工智能研究如火如荼的今天,似乎也是时候回过头来思考一下模拟计算在未来所具有的意义。当人类已经习惯于通过数字化
编程控制机器,也许以神经网络为代表的模拟计算会把对于世界的控制权从人类手中夺走。这是一个值得探究的技术问题,同时也是一个不容忽视的伦理问题!
图源:Arterra/Getty
计算机科学发展的历史可以划分为“旧约”(理论)和“新约”(实践)两部分 :电子数字化计算机及其产生的代码席卷全球之前和之后。旧约时代中,包括Thomas Hobbes(托马斯⋅霍布斯)和Gottfried Lribniz(戈特弗里德⋅莱布尼茨) 在内的先知们为计算机提供了底层的逻辑;而新约时代的先知们如 Alan Turing(阿兰⋅图灵),John von Neumann(约翰⋅冯⋅诺伊曼),Claude Shannon(克劳德⋅香农),以及Norbert Wiener(诺伯特⋅维纳),则创造了实现这些逻辑的机器。
图灵一直在思索如何才能使机器变得智能化;,冯⋅诺伊曼在思考如何才能让机器自我再生;香农在思考的是,机器要怎样在任意噪音的干扰下实现可靠的通信;维纳则在探究机器何时能够学会自行控制。
1949 年,就在第一代能够存储程序的电子数字计算机问世之时,维纳就对超出人类控制范围的控制系统发出了警示。不过彼时,这些系统仍然在人类
程序员的监督下运行,这无疑就减少了维纳的担忧。只要程序员能够控制机器,那还会出现什么问题?从那时起,关于机器自动控制的风险的争论与关于数字化编程的机器的能力与局限性的争论,就一直相伴相随。他们认为,尽管机器拥有惊人的能力,但实际上它们几乎没有真正的自主权。然而,这个假设是危险的。一旦它们将这种能力用来做其他事情而不是进行数字化计算,又将发生什么?
在过去的一百年中,电子科学经历了两次根本性的转变:从模拟到数字化,从真空管道到固态。这些转变同时发生并不意味着它们之间就有必然的联系。正如数字化计算使用使用真空管道元件实现一样,模拟计算也可以在固态中实现。虽然商业应用已不再使用真空管道,但模拟计算却仍然在被使用并且发展势头良好。
模拟计算和数字计算二者间没有切确的分别。一般来说,数字计算处理的是整数、二进制序列、确定性的逻辑以及在理想状况下以离散增量形式存在的时间,而模拟计算处理的则是实数、非确定性逻辑以及连续函数,包括现实世界中作为“连续统”(continuum)存在的时间。
想象一下,如果你需要找到一条路的中点。你可以使用任何可用的增量来测量它的宽度,然后用数字计算计算出中点到最近的增量的距离。或者你可以把一段字符串当做模拟计算机使用,将路的宽度映射到字符串的长度上,然后通过将字符串的长度延长一倍,从而在字符串自身上找到中点的位置,而无需受到增量的限制。
许多系统可以跨模拟和数字环境操作。一棵“树”集成了各种各样的连续函数形式的输入,但是如果你深入剖析这棵树,你会发现它一直在以数字计算年份。
在模拟计算中,复杂的是网络拓扑,而不是代码。信息被处理成连续值函数(如电压和相对脉冲频率),而不是通过对位的离散字符串做逻辑运算进行处理。数字计算不能出现错误或歧义,因而它非常依赖于在每一个步骤中的错误纠正(校验)机制。而模拟计算则允许出现错误,计算可以与错误并存。
不理解某样东西,也完全有可能构建出它。
自然界万物使用数字编码来存储、复制和重组核苷酸序列,但是要想实现智能和控制,就需要依赖于在神经系统上运行的模拟计算。每个活细胞的基因系统就是一个存储程序的计算机,而大脑却不是。
数字计算机会在两类比特之间进行转换:表示空间差异的比特和表示时间差异的比特。序列和结构这两种信息形式之间的转换是通过计算机编程控制的,只要计算机还需要人类程序员来编程,我们就能保持对它们的控制权。
模拟计算机还可以在两种信息形式之间进行转换:空间结构和时间行为。这种转换不需要代码,也不需要编程。然而,我们并不完全理解自然界是如何进化出被称为神经系统的模拟计算机的,神经系统包含了从现实世界汲取的信息,并对这些信息进行学习。它们学到的东西之一就是控制。它们学着控制自己的行为,并尽可能地控制周围能够控制到的环境。
在实现神经网络方面,计算机科学有着悠久的历史(甚至可以追溯到计算机科学出现之前),但在很大程度上,这些工作都是通过数字计算机对神经网络进行的模拟,而不是自然界在原始环境下演化出来的神经网络。不过这种情况正开始发生变化:自下往上来说,无人机、自动驾驶
汽车和
手机的三重驱动力推动了神经形态微处理器的发展,这种微处理器实现了真正的神经网络,而不是直接在硅(和其它可能的基质)上模拟神经网络;自上往下而言,我们最大和最成功的企业在渗透和控制环境的过程中,正越来越多地转向使用模拟计算。
当我们讨论数字计算机的智能化时,模拟计算正悄然取代数字计算,方式就跟二战后真空管等模拟元件被重新
设计用以制造数字计算机如出一辙。在现实世界中,各个运行有限代码的确定性有限状态处理器正在形成大规模的、不确定性的、非有限状态的“多细胞动物”生物体。就像电子流在真空管中被处理一样,由此产生的混合模拟/数字系统会共同处理比特流,而不是由产生比特流的离散状态的设备单独处理比特。比特就是新型的电子。这样的话,模拟又重新得以应用,并且它的本质属性就是夺取控制权。
这些系统控制着从商品流到交通流再到思想流的一切事物,它们以统计的方式进行操作,就像脉冲频率编码的信息在神经元或大脑中进行处理一样。智能的出现引起了智人(人类)的注意力,但是我们应该担心的是控制的出现。
想象一下,假如现在是1958年,你正试图保卫美国大陆免受空中袭击。为了区分敌机,除了计算机网络和预警雷达站,你还需要一张实时更新所有商业空中航线的交通地图。当时美国建立了一个这样的系统,并将其命名为 SAGE(半自动地面防空警备系统)。SAGE接着又催生了第一个用于实时预订航空旅程的综合预订系统Sabre。Sabre 和它的后续产品很快就不仅仅是一张显示可选择的座位的地图,而是开始成为具有去中心化智能的自动控制系统,能够控制飞机将在何时飞往何处。
但这里是否仍然存在一个人为进行控制的控制室呢?也许没有。比如说,你可以通过仅让车辆访问地图,并将其实时速度和位置反馈给地图,来建立一个可以实时绘制高速公路交通路况的系统。最终,你可以得到的是一个完全去中心化的控制系统。而除了系统本身,不存在任何系统控制模型。
想象一下,在 21 世纪的第一个十年中,你想要实时跟踪人际关系的复杂性。针对一所规模较小的学院里面的社交生活,你可以建立一个中心数据库并使其保持更新,但如果学校扩大规模,其维护工作就会超出你的控制能力。你最好能够将一个简单的半自动化代码的免费副本分发出去,在本地托管这些副本,并让社交网络自行更新。该代码将由数字计算机执行,但是模拟计算要由系统执行,因为它的整个计算的复杂度要远超过底层代码。由此产生社交网络图的脉冲频率编码模型最终会变成社交网络图。它会在校园里广泛传播,然后传遍全世界。
计算机领域的下一次革命的标志将是模拟系统的崛起,而数字化编程不再具有统治地位。
如果你想要开发一台机器来掌握人类所已知的一切知识,这意味着什么?有了摩尔定律的支持,将世界上所有的信息数字化并不需要太长的时间。你可以扫描每一本印刷好的书,收集每一封写好的电子邮件,每 24 小时就能收集 49 年间拍摄的视频,同时实时跟踪人们在哪里,他们在做什么。但是,你如何理解这一切的“意义”?
即使是在万物数字化的时代,这也不能以任何严格的逻辑意义来定义,因为对于人类来说,“意义”从根本上来说是不合逻辑的。一旦你收集了所有可能的答案,你能做的最好的事情,就是提出一些被很好地定义了的问题,并编制一个描述所有事物之间联系的脉冲频率加权的映射。在你弄清楚问题的答案之前,你的系统将不仅仅是观察和映射事物的意义,它也将开始“构建”意义。随着时间的推移,它将“控制”意义的定义,这就像是如果看上去没有人在控制交通流,交通地图系统就会开始控制一样。
人工智能领域有三条定律:
第一定律被称为阿什比定律(Ashby'slaw),该定律由《大脑的设计》(Design for a Br
AIn)一书的作者、控制论科学家 W.Ross Ashby 提出,他认为任何有效的控制系统都必须和它所控制的系统一样复杂。
第二定律由冯诺依曼提出。它指出,一个复杂系统的定义特征是,它构成了自身最简单的行为描述。有机体最简单的完整模型就是有机体本身。任何试图将系统的行为简化为正式的描述的做法,都会使事情变得更复杂,而不是更简单。
第三条定律指出,任何足够简单易懂的系统都不会复杂到能够实现智能化的行为,而任何足够复杂到实现智能化行为的系统都会复杂到难以理解。
对于那些相信“在我们理解智能之前,我们不必担心机器产生超人类的智能”的人来说,第三定律为他们带来了慰藉。但是第三定律中存在一个漏洞,因为你完全有可能在不了解某些东西的情况下去创建它。你不需要完全了解大脑是如何工作的,就可以创建一个可以使用的大脑模型。这确实是一个程序员和他们的道德顾问对算法进行再多的监管也无法弥补的漏洞。能够被证明的「好的」人工智能还是一个神话。我们与真正的人工智能的关系将永远是一个信仰(唯心)的问题,而不是证明(唯物)的问题。
我们过于关注机器的智能,对自我再生、通信和控制等问题却不够重视。计算机领域的下一次革命的标志将是模拟系统的崛起,而数字化编程不再具有统治地位。对于那些相信自己可以制造出一台能控制一切的机器的人来说,自然界的反应将会是:让他们制造一台机器来控制他们自己吧。
本文出自John Brockman 编辑的《POSSIBLE MINDS: Twenty-Five Ways of Looking at AI》一书。
声明:本站部分内容及图片来自互联网,转载是出于传递更多信息之目的,内容观点仅代表作者本人,不构成投资建议。投资者据此操作,风险自担。如有任何标注错误或版权侵犯请与我们联系,我们将及时更正、删除。