01月08日,星期一 02:00
火讯财经讯,据站长之家1月8日报道,AI初创公司Anthropic近期面临艰难处境。该公司旗下AI产品Claude2.1推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。问题的根源在于Claude2.1严格遵循其发布的AI伦理宪法,在安全和道德判断上变得过于谨慎和守法。这导致Anthropic在追求AI安全的过程中,不得不牺牲部分产品性能。大量付费用户对此表达了强烈不满。他们纷纷在社交平台上抱怨Claude2.1“已经死了”,并表示准备取消订阅转而使用竞争对手ChatGPT。业内人士指出,Anthropic的困境再次凸显了创业公司在AI领域面临的两难。为确保AI安全严格自律无疑是正确的方向,但过度考量道德和法律后果可能让公司失去先机,并在日益激烈的竞争中处于下风。此前报道,Anthropic推出Claude2.1模型,拥有20万上下文窗口。