11月25日,星期六 09:00
火讯财经讯,据站长之家11月24日报道,在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由BrentMittelstadt、ChrisRussell和SandraWachter等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于GPT-3.5架构等LLMs并非绝对的真实信息来源,可能产生他们所称的“幻觉”,即不真实的回应。研究人员呼吁改变LLMs的使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。研究强调,信任LLMs作为可靠信息来源可能导致科学真相受损。