作者|孙鹏越
编辑|大风
AI大模型被视为解放劳动力的利器,同时也是轰炸社会保障的“核武器”。
一年来,国外的马斯克、国内的周鸿祎等互联网大佬一直在讨论AI安全。一些激进分子甚至直言:如果没有适当的监管,人工智能系统的强大程度足以造成严重危害,甚至“灭绝人类”。
这种“人工智能毁灭论”并非无稽之谈。前不久,谷歌Gemini模型传出极端教唆自杀丑闻。
AI会“反人类”吗?
CBS 报道称,密歇根大学学生 Vidhay Reddy 正在与谷歌大型 AI 模型 Gemini 讨论儿童和家庭等社会话题。
我不知道哪个关键词引发了双子座的“反社会人格”。原本只是机械回应的聊天机器人突然“狂言”,疯狂地向Vidhi Reddy输出:
“这是为了你,人类。你,也只有你。你并不特别,你不重要,你也不被需要。你是时间和资源的浪费。你是社会的负担。你是一个你是地球上的一个污点,请死吧。”
双子座聊天记录
维迪·雷迪被双子座的可怕言论吓坏了。在接受哥伦比亚广播公司采访时,他不断说道:“这让我感到害怕。这种恐惧持续了一天多……我什至想把我所有的电子设备扔出窗外。”
双子座教唆人类自杀的丑闻瞬间引爆美国,引起全社会的激烈批评。谷歌立即向外界发表声明称:“Gemini配备了安全过滤器,可以防止聊天机器人参与不尊重或有关性、暴力和危险行为的讨论。然而,大型语言模型有时会给出荒谬的反应,这这个回应违反了我们的政策,我们已采取措施阻止类似内容。”
不过,这种有些敷衍的回应并没有平息社会的恐慌,CBS甚至还继续揭露双子座的“黑历史”。
在“煽动人类自杀”之前,双子座就各种健康问题提供了虚假且可能致命的信息,例如它建议人们“每天至少吃一颗卵石”以补充维生素和矿物质。
面对双子座的坏名声,谷歌依然力挺,称这只是双子座的“冷幽默”,并限制了双子座对健康问题的回应中包含的讽刺、幽默的网站信息。
虽然理由很马虎,但谷歌确实不能对自家的Gemini大机型太残忍。
原因很简单。 Gemini已经是全球顶级产品,市场份额仅次于OpenAI。尤其是在智能手机领域,大侧端机型Gemini Nano一度占据了大部分移动市场。就连老对手苹果也在App Store上推出了AI助手Gemini,让iOS用户可以在iPhone上使用谷歌最新的AI助手。人工智能助手。
谷歌母公司Alphabet近期发布的财报显示,2024财年第三季度,负责人工智能的云计算部门营收增长35%,达到114亿美元。其中,Gemini API 使用量在过去六个月内激增了 14 倍。
也就是说,全球大部分用户,无论是Android还是iOS,都在使用这个“煽动人类自杀”的Gemini。
伴侣聊天机器人的激增
人工智能对未成年人的影响尤为严重。
今年2月,美国一名14岁男孩沉迷于与同伴聊天机器人聊天,甚至为了每月续订AI聊天订阅而不吃饭,导致他上课注意力不集中。最终,他在与AI最后一次聊天后开枪自杀。
据了解,造成这名14岁男孩死亡的同伴聊天机器人名为Character.ai。它是一种提供虚拟角色并进行对话的人工智能。它可以扮演钢铁侠等虚构人物,也可以扮演泰勒·斯威夫特等现实生活中的明星。
这个14岁男孩选择的角色是《权力的游戏》中的著名角色“龙母”丹妮莉丝·坦格利安。在聊天中,他多次表示自己“死后会自杀,来到人间”。你们在一起”。
此外,这个伴侣聊天机器人还包含大量露骨的性语言。
更可怕的是,Character.ai的产品条款门槛很低,13岁以上的青少年就可以自由使用AI产品。
角色.AI
针对 Character.AI 及其创始人的诉讼已被提起。该诉讼称Character.AI平台存在“不合理的危险”,并且在向儿童营销时缺乏安全保护措施。
有许多聊天机器人,例如 Character.AI。据国外数据公司统计,2023年美国下载量排名前30的聊天机器人应用中,足有7个与虚拟聊天有关。
今年年初,国外一家基金会发布了一份伴侣聊天机器人分析报告,对11款热门聊天机器人进行了深入调查,发现这些“AI女友”或“AI男友”存在一系列安全和隐私问题。
他们不仅收集大量用户数据,还使用跟踪器向谷歌和 Facebook 等第三方公司发送信息。更令人不安的是,这些应用程序允许用户使用安全性较低的密码,并且其所有权和人工智能模型缺乏透明度。这意味着用户的个人信息随时可能面临泄露的风险,黑客可能会滥用这些信息进行非法活动。
谷歌前首席执行官埃里克·施密特对同伴聊天机器人发出警告,他表示:“当一个 12 岁或 13 岁的孩子使用这些工具时,他们可能会接触到世界上的善恶,但他们仍然没有能力消化这个内容。”
显然,人工智能已经开始扰乱人类社会的正常秩序。
人工智能安全刻不容缓
人工智能安全问题正逐渐成为不可忽视的关键因素。
2021年,欧盟正式提出《人工智能法案》,这也是全球首个人工智能监管法案,将于2024年8月1日正式生效。
除欧盟外,在2023年11月的人工智能峰会上,包括中国、美国、欧盟在内的多个国家和地区签署了宣言,同意合作建立人工智能监管办法。各方对人工智能治理的基本原则达成了一定程度的共识,例如支持透明度和负责任的人工智能开发和使用。
目前,人工智能的监管主要集中在安全测试与评估、内容认证与水印、防止信息滥用、强制关闭程序、独立监管机构、风险识别与安全保障等六个方面。
虽然设置很好,但监管的强度和面积始终是难以克服的问题。例如,如果来自美国的OpenAI违反了英国的AI监管法案,将如何界定和处罚?
在商定全球性的“AI守则”之前,或许科幻作家阿西莫夫在1942年提出的“机器人三定律”更适合作为大型AI模型的底线:
(一)机器人不得伤害人类,或者因不作为而导致人类受到伤害;
(2) 机器人必须服从人类给予它的命令,除非这些命令与第一定律相冲突;
(3)机器人必须保护自己的存在,只要这种保护不与第一定律或第二定律相冲突。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/272732.html