05月31日,星期三 10:45
火讯财经讯,据IT之家消息,近日Meta团队开发了一款名为Megabyte的AI模型以抗衡Transformer,据称Megabyte解决了Transformer模型所面临的问题,并且在速度上提升了40%。据悉,目前Transformer在自然语言处理等领域非常流行,但由于其序列数据的处理方式是逐步进行的,无法并行化处理,因此训练速度较慢;难以处理长序列;此外,由于需要在每一步保留历史信息,内存消耗较大。而Megabyte模型将输入和输出序列划分为patch,而不是单个的token。这种架构使得对大多数任务而言字节级别的预测相对容易。这意味着在大型网络中可以精简字符以提升效率,并且内部预测可以使用更小的模型进行。Megabyte模型的这种方法解决了当今AI模型所面临的训练速度、可靠性及硬件占用比挑战。