For investors
股价:
5.36 美元 %For investors
股价:
5.36 美元 %认真做教育 专心促就业
随着众多互联网公司不断的把目光放到了人工智能技术产品的开发上,同时也有许多人在担心因为人工智能技术的发展会不会影响到人类的正常生活以及安全问题如何解决等等。今天,我们就从这个出发点来一起了解一下对于人工智能技术我们是否应该担忧其危害性。
埃隆·马斯克(ElonMusk)用“召唤恶魔”的说法称呼人工智能,并发出警告:人工智能的发展速度比任何人意识到的都要快,这对人类构成了生死存亡的威胁。史蒂芬·霍金(StephenHawking)警告说,人工智能可以腾飞,离开人类,受到进化速度缓慢的限制。比尔·盖茨(BillGates)认为自己在关心超级智慧的阵营。而且,尽管马克·扎克伯格(MarkZuckerburg)对于人工智能的潜在威胁感到不屑一顾,但Facebook最近关闭了人工智能引擎,在此之前,有报道称它发现自己创造出一种人类无法理解的新语言。
如果存在的一切都是物质,那么对人工智能的担忧是完全符合逻辑的。如果是这样,人工智能——用我们智慧设计的,但建立在比生物化学更好的平台上——会超越偶然出现的人类能力,这一点是不可避免的。
事实上,在一个纯粹的物质世界中,完全实现的人工智能应该被认为是自然选择的适当结果;趁着我们可以这样做的机会,我们人类应该从中受益。在此之前,在人工智能的帮助下,将人类繁荣最大化,而不是为了延长人类的结束日期而放弃它的益处,这样岂不是更好?
所有的一切看起来都是可能的,实际上,我们对人类思想的了解强烈表明了,完全的人工智能不会发生。物质本身无法产生所有的主观体验,例如在聆听海鸥之声时观赏日落。而提出处理已知的物质对思想差额的机制,如突变性质,这些机制都是不适当且可伪造的。因此,我们具有无形思想的可能性很大。
诚然,人工智能的形式已经取得令人印象深刻的成果。它们使用强力,巨大而快速的记忆,基于规则的自动化以及与完成他们非凡壮举相匹配的模式层。但是,这种处理并不能感知和预测。即使结果不可预测,这种处理也不会超出其预期的活动。基于这一水平的人工智能的技术通常是非常卓越的,必须好好管理,以避免出现一些危险的后果。然而,就人工智能本身而言,它并不能真正复制人类的思想。
完整的人工智能,即能够匹敌并可能超越人类思想的人工智能,除非通过物质手段发现可供无形思想存在的基础,然后学习如何将这一基础放到机器上,否则无法实现完整的人工智能。在哲学中,根本问题被称为“qualia”问题。我们对外部物体和颜色的认知;我们的自我意识;我们对时间的概念理解;我们超然存在的体验是否只在美的东西或数学真理面前感到畏怯;或者我们的神秘国家,所有的这些都清楚地指向了与物质世界在质量上完全不同的东西。任何对物理学,计算机科学和人类思想有充分理解的人都应能了解这一点,尤其是那些最关心人工智能发展潜力的人。
那些害怕人工智能的人看不出它的局限性,这一点表明即使是最聪明的人也是他们偏见的牺牲品。相信某些领域的特殊成就可以转化为别人的独特理解,对此,我们应该谨慎对待。对于太多的——包括媒体中的一些——咒语,“质疑一切”,只适用于某些界限。他们从未质疑方法论自然主义——认为没有任何东西存在于物质世界之外,这让他们看不见其他的可能性。即使有看似更加开明的想法,有些人似乎也受缺乏想象力或意志之苦。
只有通过物质主义镜头观察人类生活,它才能得到实用价值。演化不是一个严格的物质过程,而是一个无形思想在人类、也可能是在所有感情生物的适应和选择中起主要作用的过程。实际上,我们都知道我们要远远超过生物机器人。而人类面临的最大威胁是,无法认识到我们到底是谁。人们在追求全面人工智能时所学到的东西将引导我们重新发现人类的灵魂,以及与之相关的重要理解。
作者Bruce Buff
编译作者危诺宁
【免责声明】:本内容转载于网络,转载目的在于传递最新信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。