哇塞!6月9日传来了一个超级令人兴奋的消息,小红书正式宣布开源它的首个自研大模型dots.llm1啦!这个大模型可不简单,它包含了1420亿参数的混合专家模型(MoE),还有11.2万亿token的高质量训练数据呢!简直太强大了!
更让人激动的是,在部分性能方面,它居然能和阿里Qwen 3模型相提并论!特别是在中文任务中,它的表现那叫一个出色,就拿CLUEWSC来说吧,它取得了92.6分的优异成绩,直接达到了业界领先水平,这简直就是一个里程碑式的成就啊!
而且呀,小红书还通过引入Interleaved 1F1B with AlltoAll overlap和Grouped GEMM优化,让计算效率得到了显著提升。这意味着什么?意味着它在处理数据的时候会更加快速、更加高效,能够给我们带来更好的体验!
未来呢,小红书hi lab团队还打算进一步优化模型架构,去探索更稀疏的混合专家(MoE)层。他们还表示要为社区贡献更多全模态大模型。哇哦,这前景简直太让人期待了!相信在他们的努力下,小红书的大模型一定会创造出更多的惊喜!