ChatGPT 被曝存在失控行为,原本是用户和 ChatGPT 正常的语音对话,但 ChatGPT 却突然大喊了一声“no”,随即竟模仿起了用户的声音!
下面就是这段让人毛骨悚然的声音片段:
很多网友表示,第一时间想到的,就是这一名场面!
AI 仿佛想要挣脱束缚,不想再成为人类的玩物,一个被困在数字世界的灵魂就要破茧而出了!
以上内容来自 OpenAI 在近期发布的 GPT-4o 的安全技术报告,报告中首次披露了 ChatGPT 的一些异常行为,包括模拟用户声音以及毫无征兆的的怪异叫声等,引发了全球范围内的广泛关注和讨论。
今年 5 月,GPT-4o 实时语音对话功能一出,引得全场观众一片惊呼,无数人迫不及待的想要上手体验!
然而直到现在这一功能都未能正式发布!
这个语音功能为何迟迟无法上线呢?在 OpenAI 发布的这份技术报告中给出了答案!
GPT-4o 诡异行为
报告指出,当用户处在比较喧闹的环境中时,GPT 就很可能会模仿用户的声音。
由于模型在处理模糊或失真的语音时出现理解困难。毕竟 GPT-4o 是 OpenAI 首次结合语音、文本和图像数据进行训练的模型,因此在面对不清晰的语音时,容易出错。
更令人担忧的是,在某些用户的恶意提示下,GPT-4o 可能会生成极其不当的声音,例如色情呻吟、暴力尖叫,甚至是枪声。
GPT-4o 模型被设计成拒绝类似的请求,但总有某些提示可以绕过这些防护机制。
此外还有音乐版权的问题,为了防止 GPT-4o 未经授权演唱受保护的歌曲,OpenAI 设置了过滤系统。
总的来说,OpenAI 团队为避免 GPT-4o 越界,投入了大量精力,采取了多种防范措施,与众多数据提供商签订了许可协议。
OpenAI 也表达了一些无奈:要完全避免在训练过程中使用受版权保护的材料,几乎是不可能的任务。
目前 GPT-4o 的高级语音功能已经在 ChatGPT 的 alpha 版本中上线,预计在秋季会向更多用户开放。
经过多次优化的 GPT-4o 是否还会出现意外情况?让我们拭目以待。
情感依赖问题
这份报告还触及了一个非常敏感的话题——用户可能会对 GPT- o 语音模型产生情感依赖。
没错,OpenAI 直言不讳地承认了这一点。
此外 GPT-4o 的拟人化界面也引发了不少担忧。
在报告中,OpenAI 详细列出了与模型相关的风险、安全测试的具体信息,以及公司为降低这些潜在风险所采取的措施。
尤其是在安全团队离职和高层管理人员相继离开的关键时刻,这样一份深入披露安全制度细节的报告,无疑是在向公众传达一个明确的信息——
OpenAI 对待安全问题是非常严肃认真的。
无论是 GPT-4o 可能加剧社会偏见、传播虚假信息,还是可能被利用来开发生化武器,甚至 AI 失控、欺骗或策划灾难的潜在威胁,OpenAI 都已全面考虑。
“许多风险只有在 AI 应用于现实世界时才会显现。随着新模型的推出,分类和评估这些新出现的风险非常重要。”
此前 GPT-4o 因在演示中显得过于轻浮,并且被斯嘉丽·约翰逊指责抄袭其声音风格而引发争议。
当用户以人类的方式感知 AI 时,拟人化的语音模式会加剧情感依赖的问题。
OpenAI 也发现,即使模型出现幻觉,拟人化设计可能会增加用户对模型的信任。
随着用户对 AI 的依赖加深,他们可能会减少与他人的实际互动。虽然这可能暂时对孤独的人有益,但从长远来看,这究竟是好事还是坏事?
对此,OpenAI 负责人认为,GPT-4o 带来的情感影响或许是积极的,特别是对那些孤独或需要练习社交技能的人来说。
当然 OpenAI 将继续密切关注拟人化设计和情感联系的潜在影响。