人工智能危险吗——那得看情况

sanesee 9年前

作者:Caleb A. Scharf    发布日期:2015-03-01

正如Hawking所表示的,AI的进化可能会很快。实际上,它可以在几分之一秒出现、进化和吞没互联网生态系统。

    在一长串主题中,与太空生物学相关的地方就是“智能”的问题。与人类相似的科技智能会在宇宙中普遍存在吗?我们是否纯粹是个进化的标志,而我们的智能已经走到尽头,成为历史?或者智能是熵驱动、复杂生产和宇宙不可避免会聚合的东西?

    以上都是很好的问题。同样有一个很好的问题:我们是否能够复制我们自己的智能,或者类似的智能?那么这是否是个实际的好想法?

    最近几个月,这个主题再一次被推向大众媒体。首先是Stephen Hawking,然后是Elon Musk,最近的一 个是Bill Gates。所有的这些聪明人都表示,人工智能(AI)需要仔细观察,以免它的发展带来潜在的生死威胁。

    找出被认为是潜在威胁的任何具体内容有点困难。Hawking表示,那可能是一个会进化很多的强大AI,比生物系统更快——最终不顾我们而吞噬所有的资源。我认为这是一个公平的猜想。AI的威胁不在于它将是个施虐狂(除非我们故意或者不小心那样设计它了),但是它也会符合自己的进化需要。

    人们很容易认为,安全保障将会把同理心构建到AI中。但是我认为它的失败体现在两方面。首先,大多数人都有同理心,但我们仍然继续肮脏、野蛮和残酷地对待我们自己,以及地球上的其它生命。第二,我不是很清楚的是,我们可以纯粹地一步步设计AI,也许我们会允许它做自己的主人。

    这是什么意思?当前在如深度学习等计算领域的努力涉及到这样一些算法,这些算法通过在大量信息中筛选数据来构建它们自己的值域。软件并非为了提前认识规则,而是为了找到规则,或是为了经得起规则的检验——比如自然语言处理。这是让人难以置信的东西,目前还尚不清楚,AI和人类(或者其它感觉器官)有着同等的思考方式。对于这个,一直以来有着激烈的讨论,比如Noam Chomsky(怀疑方)和Peter Norvig(支持方)。在深层水平上,它是两种科学的交锋:一种是关注基础的科学,另一种是认为自然也许完全不能以那种固化方式存在的科学。

    在这里,我会假设另一种AI的替代方法(并非原创)。智能所表现出来的特性也会称为一些通用的条件。表面看上去很可笑,就像向盒子扔一堆多余的配件,就希望出现一辆新的自行车。这当然不是一种将AI视为科学研究的方式。如果智能是一个非常复杂的系统运转所需要的紧急(进化上的)属性,那这个假设会发生吗?也许会。

    一个工程上的挑战是,也许它需要一个有人类大脑那种复杂性的系统来维持智能,当然我们的大脑和我们的智能密切相关。所以,想为即将出现的新类型智能设计一个完美的环境是有点愚蠢的,因为我们都不清楚那些环境应该是怎样的。

    除非我们现在建立这些条件。机器学习只是AI行为难题的一小块,但当它生活在互联网的蔓延中会发生什么?大大小小的宝贵数据、应用、控制数据包传输的算法、传感器——GPS到恒温控制器和交通监控——无数的碎片相互直接或间接地交流。

    这是一个巨大的施工场所。据估计,2014年有74亿移动设备在线。任何可以联网的东西——互联网“物品”(从厕所到工厂)——目前估计当今有150亿活跃互联网连接(通过思科的服务)。到2020年会到达500亿。

    如果这是一个混乱的东西,就如一个盒子里的多余配件,我认为人们不会期待任何有趣的事情发生。但它并不混乱。互联网越来越密集,还得靠那些主要目的是在这片海洋去发现结构和关系的算法——通过使用一些技巧(部分灵感来源于生物智能,或至少我们对互联网的印象)。代码跟代码交流,数据压缩包寻找最优的路径,软件与软件交流,硬件与硬件交流。叠加在这个生态系统上的是人类思想,人类的决策过程护理和培养信息的起落和流通。我们的交互也越来越具备在数据海洋中自我驱动深度变化的能力,分析工具寻求理解下一步我们(作为个人或大众)会查看什么。

    类似于一个强大AI的东西会摆脱这些吗?我不知道,其他人也不知道。在这个星球上,40亿年来都不存在,这就让我们回到了AI威胁的问题上。

    如果这就是一个强大的AI出现的方式,那么最直接的危险应该是大量的人类现在正依赖互联网这个生态系统。这不仅仅是关系到我们如何交流和查找信息,还关系到我们的食物供应是如何组织的,我们的药剂师如何跟踪药品,我们的飞机、火车、卡车和货船是如何安排的,我们的金融系统如何工作的。一个强大AI的出现可能会带来严重破坏,比如一个小孩可以重新排列你的袜子抽屉,或咀嚼猫的尾巴。

    正如Hawking所表示的,AI的进化可能会很快。实际上,它可以在几分之一秒出现、进化和吞没互联网生态系统。这反过来引起了一个有趣的可能性——能否有一个出现的AI被以如此快的速度进行了限制,以致不能创建它长期生存所需要的连接和结构?那就可以限制AI了,这会给我们一些安慰。

    我忍不住将一个连接安置到另一个古老的问题——费米悖论。也许AI的创建是杀死文明的伟大过滤器的一部分,但它也会自我终结,那就是为何AI在过去130亿年里没有成功跨越星际的原因

原文链接:Is AI Dangerous? That Depends…

来自:http://www.sanesee.com/tech/article/is-ai-dangerous-that-depends