小红书开源1420亿参数大模型,性能与阿里Qwen相媲美!

2025-06-10 1 0

哇塞!6月9日传来了一个超级令人兴奋的消息,小红书正式宣布开源它的首个自研大模型dots.llm1啦!这个大模型可不简单,它包含了1420亿参数的混合专家模型(MoE),还有11.2万亿token的高质量训练数据呢!简直太强大了!

更让人激动的是,在部分性能方面,它居然能和阿里Qwen 3模型相提并论!特别是在中文任务中,它的表现那叫一个出色,就拿CLUEWSC来说吧,它取得了92.6分的优异成绩,直接达到了业界领先水平,这简直就是一个里程碑式的成就啊!

而且呀,小红书还通过引入Interleaved 1F1B with AlltoAll overlap和Grouped GEMM优化,让计算效率得到了显著提升。这意味着什么?意味着它在处理数据的时候会更加快速、更加高效,能够给我们带来更好的体验!

未来呢,小红书hi lab团队还打算进一步优化模型架构,去探索更稀疏的混合专家(MoE)层。他们还表示要为社区贡献更多全模态大模型。哇哦,这前景简直太让人期待了!相信在他们的努力下,小红书的大模型一定会创造出更多的惊喜!

相关文章

电商“包邮区”西进:开启西部消费新时代,共筑国内消费大循环
28亿美元鲸吞喜马拉雅,腾讯音乐的战略棋局
氪星晚报:商业合作与产业发展新动态
京东领衔,中国快递物流在中东大放异彩
宝尊电商引领GAP强势崛起,重塑辉煌指日可待
惊爆!百度AI搜索全面上线,重塑企业信息检索新格局

发布评论