没有发布会,没有官方推文,甚至连提前预热都没有。4月7日深夜,DeepSeek网页端悄悄变了样。
输入框上方多了一颗“闪电”和一个“钻石”图标。悬停上去,提示语浮现:快速模式“适合日常对话,即时响应”,专家模式“擅长复杂问题,高峰需等待”。
这是DeepSeek走红以来首次在产品端引入模式分层设计,标志着其产品理念从“一刀切”向“按需分配”转型。一个细节值得注意:专家模式疑似路由到了更大的模型,很可能是V4正式版的某种形态。
三天后,消息落地。4月10日上午,据多位知情人士向媒体透露,DeepSeek创始人梁文锋近日在内部沟通中明确,新一代旗舰大模型DeepSeek V4将于4月下旬正式发布。
万亿参数、百万级上下文窗口——这是V4的技术底座。百万级上下文意味着什么?相当于一口气“吞下”数本书籍或超长代码库,并进行深度逻辑推理。而在参数规模上,V4将实现从千亿到万亿的跨越。
但这次发布真正的看点,不在参数本身。
“去CUDA化”的关键一步。V4首次实现与华为昇腾等国产芯片的深度适配。DeepSeek过去数月与华为及寒武纪密切合作,对模型底层程序进行了大量调整与重写。这与以往AI模型优先适配英伟达的惯例截然不同——此次DeepSeek将国产芯片置于优先位置。
行业观察人士指出,这意味着中国AI产业在算力自主化方面取得实质性进展,可能重塑全球AI技术竞争格局。
市场已经提前反应。阿里巴巴、字节跳动、腾讯等国内科技巨头已预订数十万片新一代AI算力芯片,计划通过云服务集成V4模型。需求井喷之下,新AI芯片产品近期价格已上涨约20%。
V4的到来,不只是DeepSeek的又一次技术迭代。它释放了一个更清晰的信号:中国AI产业正从“用别人的芯片跑自己的模型”,走向“用自己的芯片跑自己的模型”。国产算力自主化,正在从愿景变为现实。