“我们从未赋予人工智能影响人类命运的权力,但它们的作用已经超出了工具的范围。”
口述/吴晓波
试想一下,如果有一天,AI发布的大量信息在社交平台上引起争议,甚至你发布的每一条帖子,在屏幕另一边与你激烈争论的人都是AI。你会继续回应吗?
昨天,我在社交平台上看到一场由女性话题引发的争论。双方的争论十分激烈、激烈。
我的脑海里突然浮现出之前看到的一位网友的留言:“你仔细想想,谁知道算法是不是在对那些热帖进行恶作剧,以增加它们的人气。如果我们特意这么做,那就太愚蠢了。”在那里做出回应。”
我们曾经认为新闻报道和公众情绪是人类自身的表达,但在AI时代,情绪和观点可能会受到技术的暗中控制。
一周前,一名14岁美国男孩因迷恋自己的“AI情人”而自杀。这一事件显示了人工智能影响人类情感和决策的能力。这起事件发生在大机型爆炸事件之后不到两年(今年11月30日是ChatGPT 3.5推出两周年)。
我们从未赋予人工智能影响人类决策和命运的权力,但它们的作用已经超出了工具的范围。那么如果赋予人工智能更大的改造社会的力量和空间,可能会产生什么后果呢?
近两年,我们讨论的大多是大国或企业之间的AI技术竞争。相比之下,关于人工智能伦理的讨论就少得多。当然,舆论场上关于版权抄袭、AI欺诈等伦理问题的讨论很多,但今天的文章想从一个新的角度来谈谈。
人工智能在两年内生成的数据相当于人类 150 年生成的数据量
如果让人工智能“自由生长”,我们首先面临的就是人工智能对人类文明难以想象的“同化”。因为人工智能正在进化成为一个具有“主观性”的新物种。
历史学家赫拉里在他的新书《超越智人》中指出了人工智能与过去所有技术的区别——人工智能是历史上第一个能够自行做出决策并创造新想法的技术。
人类过去的所有发明只是赋予了人类更大的权力,但使用的决策权却一直掌握在人类手中。例如,刀子和炸弹并不能决定谁被杀;它们只是不会思考的工具,缺乏处理信息和做出独立决策所需的智能。但人工智能不同。它可以自行处理信息。它不仅仅是一个工具,而是一个可以做出决策的“演员”。
我们带着好奇和贪婪去探索和控制人工智能,但我们不知道自己是否有足够的智慧来控制这种未知的力量。
今天,人们拥有的信息和接触的信息比历史上任何时候都多得多,但人类的判断和决策仍然脆弱。在这种情况下,如果人类允许人工智能的发展,并认为自己仍然是“驯服者”,他们可能会像古希腊神话中的法厄同一样——想要驾驶太阳神的战车的年轻人,因为他高估了自己凭借自己的力量,最终死去。
事实上,情况已经有点失控了。
为什么这么说?
《人类简史》中有一种观点认为,人们之所以能够构建复杂的社交网络,关键在于我们“讲故事”的能力。通过语言,我们创造了法律、货币、宗教等社会规则,从而在大规模人类群体之间形成身份和联系。因此,人类创造和讲述的各种故事构成了人类文明的基石。
但如今,这种“讲故事”的能力无一例外地被AI掌握了。
一组数据是,不到24个月的时间,全球AI产生的数据量就超过了人类过去150年创造的数据量。此外,在谷歌最近的第三季度财报电话会议上,首席执行官皮查伊表示,Alphabet 超过四分之一的新计算机代码是由人工智能编写的。
这说明人工智能正在超越人类的水平掌握语言。或许几年之内,他们就能够吞噬整个人类的文化——我们几千年来创造的所有文化和历史,将其消化掉,并开始创造大量新的文化产品。
换句话说,人工智能不仅能理解人类文明的规则,还能讲述由其主导的“新故事”,可能是文学、音乐、政治宣言,甚至是宗教神话。或许用不了多久,人类就会被“淹没”在人工智能创造的“数据海洋”中。
“硅幕”即将到来
一个更直观的例子是,今天,人工智能创作的一些音乐和绘画几乎可以欺骗所有人类。与此同时,人工智能越来越多地应用于许多社会和商业场景,并用于审批贷款。 ,用来辅助招聘……从另一个角度来说,你是否能被借用、是否值得被录用,可能是AI说了算。
这意味着什么?而是人工智能在某种程度上具有塑造社会的力量。这无疑将对人类的权力结构和社会秩序提出挑战,并引发一系列伦理和社会问题。
哈拉里 说:
人工智能具有模仿人类的能力,可能会破坏人类之间的相互信任,破坏社会结构。人工智能对语言的入侵也可能会阻止人们进行有意义的公共对话。试图与冒充人类的计算机进行政治辩论就像连续输掉两次一样。
首先,用于宣传的人工智能无法被说服,试图改变他们的想法只是浪费时间。第二个缺点是,我们与人工智能交谈越多,我们就会透露更多关于自己的信息和想法,人工智能可以相应地调整其论点并动摇我们的观点。
正是在这样的叙事背景下,赫拉里提出了一个新概念,称为“硅幕”。它由硅基芯片和计算机代码组成。正如冷战时期分隔对立双方的“铁幕”一样,“硅幕”可能正在悄然来临,将人类与人工智能分隔开来。
在“硅幕”的另一边,人工智能可能会形成自己的文化、规则甚至价值观,而这将是人类难以理解的。人工智能的自主性意味着它可以自行运行,不再依赖人类指令。
对于人类来说,我们可能会面临这样的情况:无论我们生活在哪里,我们都被一个看不见的算法网络所束缚。人工智能将模仿我们的言语,捕捉我们的行动轨迹,并理解我们的恐惧。和希望,然后控制我们的生活,重塑政治和文化,甚至改造我们的身体和思想,但我们已经无法理解他们的真实意图。
因此,赫拉里预测,如果21世纪存在一个成功征服人类的极权网络,其背后的操纵者很可能不是人类独裁者,而是某种非人类智能体。
放弃“科技乌托邦”的幻想
这样可怕的一幕会发生吗?
事实上,科技一直被很多人视为创造“乌托邦”的最佳工具。借助科学技术来实现乌托邦的尝试,总会有两个可能的方向:一是使人类社会进步繁荣;二是使人类社会进步。第二,它永远有毁灭人类的可能。
从半个多世纪前的原子弹到今天的人工智能,人类一直在努力寻找比我们更强大的科技工具。
我们在很多好莱坞电影中都看到过这样的场景:当一个疯狂的科学家或者妄想大师掌握了一种先进的工具时,他可能真的在某种场景下控制人类,甚至按下毁灭地球的按钮。 。
因此,人类应该放下自满情绪,放弃追求“不犯错误的完美技术”的“技术乌托邦”幻想,为各种制度和体系建立强大的自我纠错机制。
未来的形态将由我们今天的选择决定,我们迈出的每一步都必须谨慎行事。
以上内容改编自10月24日《天天听吴晓波》音频内容——“赫拉里来了,提出了这个令人震惊的新概念”。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/270714.html