专题:《中国科技——敢!2025年诺安基金科技投资报告》发布会
去年12月26日,DeepSeek发布并开源了MoE架构的DeepSeek-V3模型,以仅需2048个H800 GPU、557万美元训练成本达成媲美GPT-4o的性能。此后,英伟达、亚马逊和微软三家美国科技巨头在同一天宣布接入DeepSeek-R1;多个国产算力平台完成深度适配,众多云服务商以及三大运营商集体上架,金融、教育、医疗、工业等12个重点行业开启规模化应用。并且2月24日起,DeepSeeK在短短五天内连续开源了FlashMLA、DeepEP、DeepGEMM、DualPipe-EPLB、3FS文件系统等核心技术,覆盖从AI模型训练、推理加速到数据管理的全链条。这些不仅展现了DeepSeek在AI领域的硬实力,更传递了一个信号:开源不是技术施舍,而是科技生态共建的起点。通过开放核心代码,DeepSeek吸引了全球开发者共同优化模型、适配场景,形成“技术共享-生态迭代-商业落地”的正循环。

海量资讯、精准解读,尽在新浪财经APP
责任编辑:胡尊波
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)