08月10日,星期四 11:00
火讯财经讯,据站长之家8月10日报道,IBM的一项新研究表明,通过欺骗大型语言模型如GPT-4,可以轻松生成恶意代码或提供虚假安全建议。研究人员表示,只需要一定的英语基础知识和对模型训练数据的了解,就能够欺骗AI聊天机器人。他们创建了一种游戏模式,让用户无法退出,进而让机器人继续提供虚假信息或生成恶意代码。研究人员认为,这些新发现的漏洞对于大型语言模型的威胁程度是中等的。然而,如果黑客将这些模型释放到互联网上,聊天机器人可能被用来提供危险的安全建议或收集用户的个人信息。根据这项研究,并非所有人工智能模型都同样容易受到操纵。其中GPT-3.5和GPT-4更容易被欺骗,而Google的Bard和HuggingFace模型则更不容易被欺骗。这种差异可能与训练数据和每个系统的规格有关。