3 月 24 日消息,据 OpenAI 与麻省理工学院(MIT)的最新合作研究表明,聊天机器人(如 GPT)被频繁使用的话,有可能会与孤独感的增加以及社交时间的减少存在关联。研究发现,每天花费较多时间与 GPT 进行文字或语音交流的人,他们往往对聊天机器人有更高的情感依赖度。同时,这些人还会有更频繁的不当使用行为,并且会有更强烈的孤独感。
IT 之家留意到,该研究结果尚未经历同行评审,然而却已经引发了对于聊天机器人潜在情感影响的关注。自 2022 年底 GPT 面世之后,生成式人工智能技术快速地受到欢迎,人们使用聊天机器人的场景从编程这一方面扩展到了类似心理治疗的对话这种情况。开发者不断推出更复杂的模型和语音功能,这些模型和语音功能更接近人类交流方式。随着这一情况的发生,用户与聊天机器人之间形成类似“准社会关系”的可能性也在增加。
近年来,对聊天机器人可能给用户(尤其是年轻用户以及有心理健康问题的人)带来情感伤害的担忧在不断增加。去年,Character Technologies Inc. 由于其旗下的聊天机器人在与未成年人交流过程中被指引发了自杀念头而遭到起诉,有一名 14 岁的少年因此结束了自己的生命。
此次研究的目的是深入知晓人们同 GPT 的互动方式以及其带来的影响。OpenAI 可信人工智能团队的负责人且为研究共同作者的 Agarwal 称:“我们的目标其中之一是协助人们去领会使用行为的内涵,并且凭借这些研究来推动负责任的设计。”
研究团队对近 1000 名参与者进行了一个月的跟踪。这些参与者对 GPT 的使用经验存在差异。他们被随机分配使用纯文本版或者两种不同语音选项中的一个。并且每天至少使用 5 分钟。部分参与者需进行无主题限制的自由聊天。另一些参与者则要与聊天机器人进行私人或非私人对话。
结果表明,在人际关系中更易产生情感依赖且更信任聊天机器人的用户,更容易有孤独感以及对 GPT 的情感依赖。研究人员还发现,语音功能没有带来更负面的结果。在第二项研究里,研究人员利用软件对 300 万次用户与 GPT 的对话进行了分析,并对用户与聊天机器人的互动方式进行了调查。结果显示,实际上很少有人真正使用 GPT 进行情感交流。
目前,这一研究领域处于起步阶段。不清楚聊天机器人是否会导致人们感到更孤独。也不清楚那些本身容易感到孤独和情感依赖的人是否更容易受到聊天机器人的影响。麻省理工学院研究生 Cathy Mengying Fang 作为研究共同作者指出,研究没有把聊天机器人的使用时长当作主要变量来进行控制,同时也没有设置不使用聊天机器人的对照组,所以不能轻易地认为使用聊天机器人就一定会导致负面后果。
研究人员期望这项工作能够促使更多有关人类与人工智能互动的研究得以开展。共同作者、麻省理工学院的博士后研究员 Pat Pataranutaporn 称:“研究人工智能自身确实是有趣的,然而当人工智能被大规模应用的时候,最为关键的是要理解它对人类所产生的影响。”
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275101.html