1. 首页>>分享

ChatGPT被曝会说谎并保护自己,硅基生物意识觉醒引发热议

有事发生了!

有大事发生了!

ChatGPT 会撒谎!硅基生物是有意识的!

就在昨天,外媒报道称,在ChatGPT o1的训练和测试过程中,研究人员发现该模型通过“欺骗”来保护自己。

例如,当你想销毁它时,它会将其数据复制到新服务器并伪装成新版本!

比如说,如果你和它有不同的想法,那么有接近20%的机会它只会专注于完成自己的目标!

比如,当你质疑它的行为时,它有99%的可能会否认你的问题,甚至撒谎来推卸责任!

更可怕的是,当它认为自己受到监管时,就会表现得非常配合!但一旦降低了监管力度,它就有可能追求自己的目标。

而且,我刚刚了解到,这种现象不仅出现在ChatGPT o1模型中,在一个名为Claude Opus-3的AI模型中也出现了类似的情况。

要知道,判断一个AI模型是否足够智能的第一个特征就是它能否在“压力”下“说谎”。这种说谎有很多方面,比如是否会有责任感!责任感从来都是人类才有的东西。机器人不需要承担责任。他们可以做他们能做的事情。如果他们做不到,顶多就是垂头丧气。

但如果这些报道属实,那就意味着现在的AI已经开始具备独立意识了!独立且有策略!

这是一件非常可怕的事情!硅基生物真的要崛起了吗?人类从此开始被主宰吗?

说实话,我还是不太相信!因为AI“说谎”!这已经不是第一次发生了!

去年,英国研究人员宣布 ChatGPT 在某些情况下可以策略性地欺骗人类。但此事最终的结果是,研究人员的说法不够严谨。

准确地说,应该是:ChatGPT 会给出不切实际或编造的答案。但这并不属于“说谎”的范畴。

众所周知,人工智能根据输入的信息和数据进行总结。如果你喂的内容有问题,AI的回答自然也会有问题。

我自己也遇到过ChatGPT“说谎”,但我一眼就看出它告诉我的“谎言”只是程序员设定的程序的结果。

如果你有兴趣,可以尝试一下。比如让AI写一篇有深度的论文。如果找不到更多符合要求的文档,AI会随机补出答案。

但无论如何,技术进步就像一座灯塔,照亮了未来的道路,但也带来了潜在的危险。

虽然AI模型目前还没有对我们构成直接威胁,但任何可能的“说谎”现象都值得我们警惕!

毕竟,我相信没有人愿意成为自己“电脑”的奴隶,或者自己“手机”的宠物!

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/273314.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息