人类对人工智能十大误解:AI很聪明不会犯错?
来源:蝌蚪五线谱 日期:2016-04-11
1. “我们永远不可能发明出和人类智力相当的AI。”
在一些特定领域,比如说国际象棋、围棋、股市交易以及人机对话等,我们已经发明出与人脑匹敌或超越人脑的计算机。电脑和驱动他们的运算法则只会变得更好,电脑精通几乎任何人类能力只是时间问题。
纽约大学心理学家盖瑞?马库斯(Gary Marcus)曾说过,几乎所有研究AI的人都认为机器最终将取代人类。“狂热分子和怀疑论者之间唯一的不同是对时间早晚的判断。”未来主义者,像雷?库兹韦尔,认为机器统治人类会在几十年后发生,而其他人则说可能得几个世纪。
最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。
AI怀疑论者认为生物脑在本质上是有独特之处的,这是无法解决的科技难题,其实这些是没有说服力的。我们的大脑是生物学意义的机器,但也不过是机器。他们存在于现实世界里,就要遵循基本的物理法则。人脑没有东西是不可知的。
2. “人工智能将会有意识。”
AMC电视连续剧 Human 中,并不是全部人工智能都获得了意识 关于机器智能的一个普遍假设是:将来机器智能会有意识。也就是说,机器会像人一样思考。评论家们,如微软创始人之一的保罗?艾伦,则更进一步认为我们还未达到人工通用智能,即机器能够像人类一样执行任何需要智力的任务,因为我们缺乏关于意识的科学理论。正如伦敦帝国理工学院认知机器人研究者穆雷?沙纳罕(Murray Shanahan)所指出的那样,我们应该避免混淆认知和意识这两种概念。
“探究意识确实是一门迷人且重要的课题,但是我认为意识对于人类水平的人工智能来说是并不是必要的。或者更精确地说,我们用‘意识’这个词来指代心理的和认知的属性,这些在人类身上是捆绑在一起的。”
最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。
不能仅仅因为一台机器通过了图灵测试,就认为它有意识。先进的AI留给我们的印象是它们是有意识的,但是再先进的AI对于自己的认识也不会比一块石头或一个计算器多。
3. “超级人工智能会很友好。”
哲学家康德认为智能与道德密不可分。神经学家David Chalmers在他的论文《非凡的哲学分析》中吸取了康德的著名观点,并将其运用于人工智能的提升中。
如果这个观点是正确的话,我们可以想到AI因智力爆发性增长致使道德感急剧升高的状况。可以想到,ASI系统变得超级智能的同时会具有无上的道德感,因此我们可以认为它们是善良的。
但是,这个“先进的AI从本质上将是好的、开明的”的观点是站不住脚的。正如Armstrong指出,存在很多聪明的战犯。智力和道德感间的关系在人类中貌似并不存在,所以他怀疑该假设在其他智能形式中,恐怕也是难以成立的。
“聪明的人的不道德行为可以比他们的笨蛋同胞造成更大规模的破坏,”他说。“智力只是给了他们变得更坏的能力,它并没有把他们变成好人。”
4. “简单的程序修补就能解决AI的控制难题。”
正如《机械姬》里所描述的一样,要控制比人类还聪明的人工智能将会十分困难 假设创造出比人类更伟大的AI,我们将面临一个严重的问题,那就是:控制问题。如何在家里安置以及控制ASI?如何确保ASI对人类是友好的?在这些问题上,未来主义者和AI理论家们完全不知所措。最近,佐治亚理工学院的研究人员天真地认为AI可以通过阅读简单的故事来学习人类的价值观和社会习俗。这可能远不是读几个小故事能解决的。
“人们推荐了很多可能解决整个AI控制问题的简单技巧,”阿姆斯特朗说。示例包括为ASI编写取悦人类的程序,或者仅仅使ASI作为人类的工具使用。再或者,我们可以将积极的概念,比如爱或尊敬整合进他的源代码。为了防止ASI对社会只有单一偏激的看法,我们可以给它编写欣赏智力、文化和社会多样性的程序。
但是这些方法要么太过简单,这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。比如,对“尊敬”这个词,要确定内涵一致又普遍接受的定义是极度困难的。
“并不是说这些简单的技巧是没用的。这些对策里面有很多给研究指明了道路,对解决这个终极难题有所帮助。但是这些只是想法,具体的操作还需要我们做更多的开发研究工作。”阿姆斯特朗说。
5. “人工超智能很聪明,不会犯错。”
电影《少年透明人》(1957)中的超级计算机 AI研究者兼Surfing Samurai机器人开发者Richard Loosemore认为大多数假设的AI毁灭世界的情景都不符合逻辑。人们总假想在这种情景下,AI可能会说:“我知道毁灭人类文明只是我的设计故障,但我不得不这么做。”Loosemore指出如果AI像这样打算毁灭人类时,那它一生会很多这样的逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。他还断言,那些认为“AI只会按照指定程序做事”的人,与当初用这样的话评价电脑不具备灵活性的人一样,犯了同样的错误。
就职于牛津大学人类未来研究所(Future of Humanity Institute)的皮特?麦金泰尔(Peter McIntyre)和斯图尔特?阿姆斯特朗(Stuart Armstrong)都对此有不同看法。他们认为人工智能将很大程度上受到编程的限制。他们相信AI也会犯错误,或者他们还没有聪明到了解人类想从他们那里得到什么。
“从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。”麦金泰尔如是告诉Gizmodo。 “它将十分清楚我们用他们来做什么。”麦金泰尔和阿姆斯特朗相信AI只会做程序编写的任务,如果它能变得足够聪明的话,它将能理解依照程序完成任务与领略规则精髓的不同,也将能理解人类的意图。
麦金泰尔把人类未来的困境比作老鼠的困境。老鼠想要在人类居所寻求食物和栖息地,人类不愿居室内有老鼠,两者冲突。麦金泰尔说,“正如我们明白老鼠的目的,超级智能系统也能知道人类想要的,但仍对此漠不关心。”
6. “我们将被超级人工智能毁灭。”
没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者Eliezer …