数极客首页

杀手 AI 公式:“天网”=机器学习+区块链+物联网+无人机

很多科幻作品中,人工智能常与人类反目成仇,有些致使

强大到了能支配
、奴役、消灭
人类的水平

。不论

是《终结者》系列的天网,还是《西部世界》中叛变

的机器人,或者《异形》中的大卫,人们关于
机器人的展开

,惊奇的同时,难免
有很多担忧。但是,我们距离

科幻世界中人类的末日还有多远?什么时分
机器人会揭竿而起开端
叛变

呢?本文编译自hackernoon的原题为“The Road to Killer AI: ML + Blockchain + IOT + Drones == Skynet?”的文章。

随着AI的迸发
式增长,越来越多的人开端
忧心忡忡,他们担忧
的主要有两点:

1)AI会比人类更聪明

a2)AI不再需求
人类控制,致使

会反过来把地球接纳

了。

霍金就曾今在接受

BBC采访时说:“人工智能的成熟之日,就是人类的消灭
之时。”马斯克也曾说,他觉得AI是人类面临的“最大的生存要挟
”。

目前的AI,玩游戏曾经
比人类玩得溜了,不论

是国际象棋,围棋,还是电子竞技游戏。所以说,无论是计算机时期
前后的游戏,AI都赢过人类。

过去几年中,AI的“大跃进” 让不少人在惊叹的同时,也开端
冒冷汗:AI会不会哪天就取代了人类?

杀手 AI 公式:“天网”=机器学习+区块链+物联网+无人机

在电影《终结者》里,天网是人类发明

的一个防御网络,但最终取得

自我认识
并倒戈对立

听起来像科幻,但科幻小说里机器取得

自我认识
,并对立
人类的场景,层出不穷。

我们都知道

《终结者》里的天网,应战
人类的人工智能超级电脑,在产生自我认识
后,天网决议
消灭
大多数人,剩下一部分

当奴隶。

在黑客帝国中,超级智能机器也成为了人类的主宰。

而在有名的《黑客》三部曲中,超级智能机器也接纳

了世界,但它们没有消灭
人类,只是把人类当发电机:为了运用
人脑产生的电,把人放在舱里,沉浸在游戏世界或者虚拟理想
(矩阵)中。

而在电影《沙丘》中,一台电脑都没有,人类经过培训,自己

做电脑的计算工作。而且,在奥兰治天主教圣经里有一天最重要的诫律:尔不得制造映象人的认识
的机器

为什么?由于
在悠远
的过去(关于
21世纪,算是悠远
的未来

),人类曾经是超级智能的阶下囚。巴特兰圣战中,人类对立

并击败了Omnius,一台简直

全知全能、具有
无数分身的机器。一朝被蛇咬,十年怕井绳,才有了这样一条诫律。

这类主题的科幻作品数不胜数,假定

不是AI统乱世
界,就是机器人。美国军事科幻电视剧《星际大争霸》中,人类发明

的机器人种族赛隆人,后来叛变

并试图消灭
人类。最近描画
人类和机器人之间纠葛的的影视作品也不少,比如

《西部世界》和《银翼杀手》。

噩梦能否
会成真?

我觉得,目前的AI想要这样一手遮天,把人类当奴隶和蝼蚁,才干

水平

还有点欠缺。

要完成屠戮

和囚禁这样的任务,光是AI和机器学习方面的进步还远远不够,还需求
其他计算软件和硬件范畴
都齐头并进。

另一方面,上述的范畴
的确

也在快速进步,比如

我们常听到的区块链、点对点技术、物联网、机器人和无人机。虽说AI统乱世
界道阻且长,但这些范畴
的迅猛展开

,能够

让噩梦成真的速度大大加快。

我们的世界需求
具备什么样的条件,才会进入科幻作品中噩梦般的未来

呢?这条风险
又黑暗的道路,得经过几个里程碑。

杀手AI的关卡

AI想要统乱世
界,得经过
几个关卡。假定

技术进步到了一定水平

,这些关都过了,我们就真的应该像霍金或者马斯克一样担忧
了。

以下我列出的并非一切
的关卡,技术展开

过程中可能还要面对其他难关,但是以下是AI强大路上必需
攻克的问题。

以下列出的四个关卡没有先后次序。为了让读者能将这些问题具象化,我决议
继续征引
电影的例子,并与现有的软件和硬件相比较

第一关:AI和机器学习的应用不够普遍

目前大多数AI能完成
的任务很单一,很细致

。我们的很多活动都有AI能够

做:打游戏、开车、预测股市走势、交流、剖析

影像、做诊断,但是没有哪个AI能够

同时完成多项任务。AI的展开

有好几个浪潮:往常

的AI是第二波,数据驱动机器学习的人工智能,而第一波更倾向于启示
式(指依据

有限的学问
和不完好
的信息,在短时间内找到问题处置

计划

),未来

的AI会分别

以上两种办法

和其他办法

,变得更通用,应用更普遍
。这个关卡会引发普遍
的讨论:我们目前的AI和机器学习能走多远,现有的AI功用
会普遍
到什么水平

 第二关:AI控制物理世界的难易水平

我们目前的人工只能还只是效劳
器上运转
的软件,不意味着它能认识
到物理世界的存在,也接触不到武器,它不能控制机器人或者无人车,也不像《终结者》中的H-K机器人(天网的机器人战士

)。这个关卡会让我们联想到物联网,机器视觉和AI控制物理世界方面的问题。

第三关:关不掉的AI。

某种水平

上,这个关卡是我列出的4个中最重要的。只需
人类没有走到关不掉AI的地步,就算AI不听话,开端
谋反,我们手上好歹有个“开关”,不论

是真的按下按钮关掉,还是需求
毁掉有形的微处置
器或者虚拟机软件。这个关卡引发的讨论主要在于:目前的AI都依附于某种方式
的计算机技术,那区块链和点对点系统会不会就是某个关不掉的“天网”的前身?

第四关:具有自我认识
、将保全自身

视为首要任务的AI

这个关卡有点难定义。我们需求
问自己

几个问题:什么叫“有自我认识
”?什么叫“将保全自身

视为首要任务”?AI还有那些任务和“观念”?AI不一定会有生存的意愿。这个关卡更多讨论的是AI和价值观。

让我们认真
讨论
一下以上提到的关卡。

第一关:功用
从细致

到通用——AI展开

的浪潮

我很肯定
,目前这一波基于机器学习的AI,比起第一波基于启示
和规则的AI,的确

是很大的进步,但是还缺乏
以带我们走向黑暗未来

我在MIT读计算机系的时分
,有人通知
我AI方面的研讨
,一开端
的目的
是找到与人类思想
相仿的“规则”和“符号表征”。但是人类能辨认

规则以外的方式

,但计算机做不到,所以这个目的
很难抵达

。后来呈现
了含糊

逻辑的概念,其中的规则变得不那么“非黑即白”。在八十年代,日本的科学家致使

预测,十年内,AI就能和人脑一样执行多种任务了。

但是
,三十年过去了,我们才刚看见一点进步。现有的AI和机器学习的爆炸式展开

,功劳

比较

大的是数据,而非规则。它们依托
的是神经网络。神经网络是 一种模仿

人脑神经网络行为的逻辑系统。这类AI的前提不是规则,而是经过
数据锻炼
,执行某一项细致

的任务。有了数据,模型能够

改动
神经网络中某些衔接
的权重。虚拟神经元的层数越多,数据组越大,模型产生的结果就越精准。

这类型机器学习关于
图像辨认

很有效果,能辨认

手写体、某些细致

物品的图片等。有些计算机也经过
机器学习,下棋能赢过棋王。

固然
我们普通
以为
反向传播神经网络算法很通用,但是目前的大多数AI还是只能执行特定的细致

任务。

无人车依托
的是巨量的来自真实世界的数据集,并分别

受训是运用
的数据和驾驶规则。但是谷歌在测试无人车的时分
,发现这样的操作有个大漏洞

:无人车的确

恪守

规则了,但是周围

车上的司机不守规则!比如

说,很少有司机看到“停”的指示牌,就完好

停下来,于是无人车就等司机完好

停下。

科幻作品中的大多数AI都曾经
过了这一关。而目前理想
中的AI还没有抑止

这个问题。一个通用型AI,应该能经过
图灵测试。

通用型AI不只
能在任何应用中有作用,致使

能自主学习,了解

到锻炼
数据之外的新信息,并且无需人类的监控。

 

《星际迷航:下一代》中的机器人Data就是个通用型AI

《星际迷航:下一代》中的机器人Data就是个典型的通用型AI, 具有
正电子大脑。而AI自身

并不都是会主动学习,不时
进化的。

什么时分
能打通第一关呢?
这个问题我也没有答案,但是我们能够

预想

,通用型AI应该是在多项任务上都受过锻炼
,然后在某些细致

任务上受训。或许就在未来

几年,人类会有小的突破

。但是要有Data这样的通用型AI,估量
还要有几十年。我们或许需求
第三波超越简单规则和简单数据集的AI。

第二关 AI能随意

地操控物理世界

《X档案》第十一季第六集有这么个场景:剧中的世界与理想
的技术水平

相差无几,但是里面的AI却展示

出将自己

与物理时间联络
起来的可能。

剧中,史考莉和穆德被AI追踪,而这个AI能控制他们身边环境中的一切,包括无人车、冰箱、亚马逊的无人送货飞机,还有餐厅的机器人厨师。

目前,即便

是曾经
与硬件一体化的AI,比如

无人车,关于
物理世界的存在,认识
还是有限的,他们能依据

自己

认识
的范围来下命令。这个范畴
的进步离不开机器视觉的展开

,依托
的是相机和影像,以及对影像的解读(街道标识、衣服、房屋以及人)。

这个关卡,AI需求
接触物理世界,让人自然联想到有形体的机器人,但是终结者、复制人和西部世界中的机器人,离我们还很远。

往常

,很多有形体的机器人,功用
都很单一,只能完成
特定的任务。在现代汽车制造厂中我们能看到很多这样的机器人,做的是把汽车抬起、移动

、放下之类的动作。这类机器人对周围

环境的感知是有限的,仅限于完成既定任务。

能与物理世界交流的机器人不一定要“人模人样”,波士顿动力公司(Boston Dynamics)

就出过一些外型
奇特
的机器人,看上去更像动物,移动

速度极快。波士顿动力公司曾被谷歌收购

,往常

归日本软银集团一切

杀手 AI 公式:“天网”=机器学习+区块链+物联网+无人机

波士顿动力公司的四足机器人“大狗”移动

速度很快

自动无人机或许是目前对环境“感知”最强的AI。在终结者世界中,天网担任
指挥美国一切
军事行动,由于
它展示

出了人类飞行员无法企及的效率。

往常

的军用无人机是远程操控的,操控人员可能在地球的另一头。关于
无人机操作员而言,这个过程跟玩电子游戏差不多。而我也曾经
提到,AI在玩游戏方面曾经
比人玩得溜了。而AI和无人机操作这两个范畴
的分别

迟早有一天会融合

。在未来

,我们会有能够

定位并且武装的AI,能够

自主行动,无需人类干预。

我们什么时分
能抑止

第二关呢?一年又一年,我们离这个目的
越来越近。我的猜测

是,再过几年,最多十年,我们就会看到能经过
机器视觉、机器学习,与物理世界产生联络
的AI,它们经过锻炼
,能够

辨认

物理世界中的事物,并做决策。

AI什么时分
会有取得

武器的权限呢?普京曾经
公开说,具有
最强大AI的国度
,就能统乱世
界。所以,估量
不用等几十年,几年后,AI就能得到该权限了。

第三关 没有开关的AI

随着物联网和区块链的呈现
,要过这一关,难度有所增加。星际迷航:下一代中的机器人Data后脑勺上是有开关的。而且,Data允许皮卡尔上校和进取号上的船员在必要时,把它关掉。

在《终结者3》中,天网不在任何效劳
器上,也无法被关掉。

我再举一个科幻作品的例子,《终结者3:机器崛起》中,主角约翰康纳和终结者闯进了位于中国湖的控制中心,约翰希望能毁掉效劳
器。

他们进到控制中心之后,约翰认识
到,仅仅摧毁效劳
器,是无法杀死天网的。

“天网呈现
自我认识
之后,就把自己

“扩散”到全球各地的几百万个效劳
器里。写字楼里的普通计算机,宿舍,四处
都是天网的影子。天网成了网络世界的软件,没有系统中心
,关不掉的。”

-约翰康纳, 终结者3

这才是天网让人心惊胆战

之处——它曾经
成为了能在任何设备上运转
、复制并传遍世界的软件,没那么容易,按下开关就消逝

随着物联网的展开

,越来越多带处置
器、能够

运转
软件的设备参与

进来。在HBO剧集硅谷奇侠传第四季的末尾,团队需求
保管
一些数据,原本

这些数据是贮存

在公开
室的效劳
器上,但是公开
室出了问题,于是他们的AI决议
将数据发送到3万台智能冰箱里,这些冰箱都连了网,能够

保管
数据。

听起来很巧妙,观众很容易联想到,设备有了处置
才干

,能够

贮存

数据,而世界各地的设备千千万万,手机、冰箱和其他设备之间也能够

相互

传输数据。

电脑病毒程序,它们被设计出来,目的就是复制和传播自己

。电脑病毒自身

也是连着硬件的。假定

病毒和电脑程序与细致

的硬件绑定在一同
,我们就能经过
摧毁硬件来消灭
软件。通常,电脑病毒是用C言语
写的,然后后在操作系统和硬件上编译。

假定

我们真的写出了像天网这样的程序,要有同等的破坏

力,这个程序必需
在全球多个设备上都能运转
,不是简单的关闭某个操作系统就能一了百了。

然后,区块链呈现
了。区块链的构建信任的基础

,就是经过
世界各地多个去中心化、点对点的计算机,复制同一个数据集和代码。

比特币的背后就是这样的技术:中心
代码是C言语
写的,能够

在不同的操作系统上编译。只不过这些代码的功用
很细致

,只是将比特币从一个地址发送到另一个地址。

而Vitalik Buterian之所以分开
比特币开发团队,成立以太坊,就是由于
他觉得比特币平台应该有更完善的程式言语
,能够

在成百上千,致使

几百万台计算机上运转
,发明

一个虚拟主机(VM),一台“世界计算机”。在上世纪90年代,这个想法就有了,当时的人们想的是用Java作为通用语,作为作为虚拟主机,能够

在任何设备上运转
。而往常

,其他智能合约言语
和项目纷繁
呈现
,目的都是突破

以太坊的局限。

目前,以太坊虚拟主机没有突破

虚拟世界的权限。但随着新的跨区块链、知晓互联网存在的编程言语
发挥越来越大的作用,这个范畴
就会呈现
越来越多的创新。或许
未来

会呈现
一个虚拟主机,能在世界各地任何计算机和设备上运转
,不论

它们装的是什么处置
器。(某种水平

上,这曾经
成为理想
,但是物联网和手机配件方面仍有待进步
。)

很多极客在看终结者系列电影时,都有一个疑问,“天网的编程言语
是什么?” 我觉得应该是某种具有图灵完备性的言语
(具有无限存储才干

的通用物理机器或编程言语
),能够

在世界各处的设备上自动运转
,同时,还能自我复制,复制出的每个版本都会走向同一个结论:消灭
全人类!

要想“杀死”这样一个程序网络,独一
的办法

就是将运转
这个程序的一切
设备都毁掉。
但是假定

这个程序能在智能设备上自我复制,在智能冰箱、汽车等设备上运转
,那“杀手AI”复制的速度,可能远远快过我们损毁这些设备的速度,这样,天网就有可趁之机了。

第四关:具有自我认识
、并以自身

生存为首要目的的AI

这一关可能是最难闯的一关,难就难在不好定义上。这个问题有两个部分

就以电影《2001:太空史诗》这部电影为例,其中的计算机HAL 9000就呈现
违犯
命令的行为,当主人公Dave Bowman下关闭命令时,Hal就开端
”叛变

“,说出了有名的台词:”负疚
,Dave,命令无法执行。”

 

Hal不只
知道

自己

和Dave或者船体的一部分

是独立的,它也将保全自身

作为自己

的首要目的
,而不是维护
舱内的人。我们分开看看这两个问题。

自我认识
图灵是现代计算机的先驱,他对图灵测试的定义是:假定

人类不能判别
跟自己

交流的是不是一台机器(或程序),就算经过
图灵测试。假定

人类和某台机器交流(经过
键盘或其他方式),无法判别
对方是机器还是人类,那么其中的AI就算经过
了图灵测试。但是,定义自身

没有明说什么叫“无法判别
”,也没有描画

无法判别
的状况

那自我认识
到底是什么呢?这个问题很难定义。我觉得,测试AI或者某个电脑程序有没有自我认识
,看的是它们能不能将自己

视做独立于计算机里其他软件、硬件和物理世界的个体。

关于
AI而言,没有其他关于自我认识
的测试了,但是或许我们应该设立更多此类的测试,明晰
地定义AI有什么样的表现,人类有什么样的回应,什么样的互动过程能阐明

某个AI具有自我认识
。或许我们能给这个测试取个名字,比如

Hal9000测试或者天网测试。

要真正过这一关,我们需求
突破

表面

层次的自我认识
。大多数计算机某种水平

上都知道

自己

和其他计算机之间是独立的。但是,这个“独立认识
”仅仅是树立
在不同的IP地址,或者不同操作系统上的区别。

我记得自己

第一次思索

自我认识
问,那还是在我在MIT参与
编程竞赛的时分
。选手们都要写程序,这些程序之间将在同一台设备决斗,最终
剩下的程序就是赢家。

当时我想的是找出一个用最少代码赢得

竞赛的办法

,一天大半夜里,我灵光一闪,想道“假定

我的程序能改写自己

和其他程序,这样只需两步,它就能赢得

决斗。所以,我的程序要能认识
到自己

是个程序(自己

的代码是什么),能够

改写自己

,然后改写对方程序的指令(使其无法继续)。

这样的”自我认识
“当然是很有限的。要说有真正的自我认识
,一个机器人或计算机至少要比较

接近Hal,有“身份”感。

那超级智能呢?这难道不算一关?

牛津大学的教授Nick Bostrom是在人工智能方面中止

学术研讨
的先驱。他从好几个方面讨论
了机器人怎样
能比人类更聪明以及其影响。在盛行
科学中,我们常听到“奇点”这个术语,指的就是计算机智能超越
人类的时辰
(最早由 科幻作家Vernor Vinge提出)。

我觉得这可能是风险
的未来

更显黑暗,由于
这可能是杀手AI统乱世
界的一个节点。虽说进阶的AI更擅长
维护
自己

,它应该也会认识
到消灭
人类关于
自己

没有益处

,由于
计算机网络毕竟还是要有人维护的。

一个武术教练曾通知
我,假定

你要和一个黑带的选手对打,宁可和四段的黑带对打,也不要跟刚拿到黑带的人对打。当时我很疑惑吗,两者不是都能伤人吗?

没错,段位更高的对手比较

能控制自己

,不留意

下手太重的可能性会比较

小。而刚拿到黑带的对手,破坏

力不小,但不一定有同等的控制力和阅历

,会不会在对打过程中不留意

伤人,还说不准。

假定

一个AI“阅历

”缺乏
,但认识
到要保全自身

,那它可能会因而

得出要消灭
人类的结论。也有可能由于某个AI的用处

问题, 比如

说支配
无人机攻击
的AI,“保全自身

”就是这个AI的“人设”,是写进程序“基因”里的。这类AI或许只知道

怎样
应对武器要挟
,关于
其他物体就不够智能化。

开启第四关:AI的价值观

AI有自我保全的观念吗?假定

有的话,这样的观念是怎样
写进其程序中的呢?

阿西莫夫曾提出机器人三大定律:

第一、机器人不得伤害人类,或看到人类遭到
伤害而袖手旁观;

第二、在不违犯

第一定律的前提下,机器人必需
绝对服从人类给与的任何命令;

第三、在不违犯

第一定律和第二定律的前提下,机器人必需
尽力维护
自己

在阿西莫夫的作品中,这些规律
就是机器人操作系统的基础

那我们怎样
完成
这3个定律呢?目前的AI不只
是遭到
代码的限制,而是经过数据集的锻炼
。假定

想让AI觉得人类值得维护
,就得用有这方面特性
的数据来锻炼
它们,让它们得出这样的结论。

但是锻炼
数据可能是有缺陷的。我最近和一家AI初创公司聊了一下,他们用的锻炼
数据是放射和其他X射线影像。他们提到,锻炼
数据中,提供给

机器学习AI的数据集中,高达10%的数据是有缺陷的。假定

锻炼
数据集有缺陷,又怎样
能肯定
这样锻炼
出来的AI,给出的结果没有缺陷呢?

我们什么时分
能过第四关?
在人类设立自我认识
测试之前,我无法给出肯定
的答案。但是有些AI曾经
写入这样的命令“假定

看见人,就是用某种武器”。所以,可能几十年内,我们就能经过
这个关卡。

结论

肯定
AI的“价值观”可不是件易事。而且,在某种水平

上,第四关是最让人头疼的。假定

某个AI过了这一关,觉得保全自身

是最重要的,那我们不担忧
也不行了。

另一方面,假定

只是一个机器人有这样的想法,毁掉它很简单,要么关掉,要么物理损毁。而假定

我们面对是像区块链这样点对点计算、可自我复制、并在多个设备商能够

运转
的代码,要消灭
它就会难得多。

本文中提出的想法,可能听起来不理想
,要发作
也只会在未来

,固然
往常

的AI不像终结者中的天网那样,有权限接触武器,但是未来

我们可能会往同样的方向展开

问题的关键,不在于前文中提及的某个关卡被突破

,而是说,万一这些关卡某天都被突破

,同时有人够聪明,把它们分别

起来。假定

我们经过
了前三关,那AI呈现
价值观也是迟早的问题。这就会加速第四关被突破

的速度,某个AI就有可能觉得保全自己

比保全人类更重要。

那时,我们不惧怕
都不行了。

编译组出品。编辑:郝鹏程

本文翻译自 hackernoon.com,原文链接。

发表评论

评论已关闭。

相关文章