08月02日,星期三 11:15
火讯财经讯,据IT之家8月2日消息,谷歌DeepMind的研究人员NicholasCarlini在一篇题为“AI-Guardian的LLM辅助开发”的论文中,探讨了使用GPT-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗AI-Guardian的防御机制。谷歌研究团队表示,通过GPT-4的帮助,他们成功地“破解”了AI-Guardian的防御,使该模型的精确值从98%的降低到仅8%。目前相关技术文档已经发布在ArXiv中。不过AI-Guardian的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的AI-Guardian版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。据悉,AI-Guardian是一种AI审核系统,能够检测图片中是否存在不当内容,及图片本身是否被其他AI修改过,若检测到图片存在上述迹象,便会提示管理员前来处理。