震撼!DeepSeek在华为芯片上流畅运行,750本小说一次性吞完!
更惊艳的是原生多模态。不同于多数模型“文字模块+外挂视觉模块”的拼接方案,V4 Lite从训练之初就融合了文本与图像理解能力。测试者让它生成“骑自行车的鹈鹕”SVG代码,仅用42行就完成了场景构图:鹈鹕的喙部弧度、自行车链条的齿轮细节,甚至车轮与地面的阴影关系都清晰准确。对比之下,Claude Opus 4.6用了68行,Gemini 3.1更是写了103行,还出现了齿轮啮合错误。更扎心的是,V4 Lite是在“非思考模式”下完成的,而对比的模型都开了“深度推理”——一个“没动脑子”的轻量版,干翻了“全力输出”的旗舰款。

二、战略转向:从“适配美芯”到“绑定国产”
真正让行业震动的,不是测试数据,而是DeepSeek的“站队”。路透社2月26日爆料:V4发布前,DeepSeek打破行业惯例,没给英伟达、AMD提供预发布版本,反而给了华为等中国芯片厂商数周“优先适配期”。要知道,过去AI模型更新前,开发者都会先讨好英伟达——毕竟全球超80%的AI算力跑在CUDA生态上。DeepSeek自己也曾是英伟达的“紧密合作伙伴”,V3版本还专门针对A100做了优化。
这次“反水”绝非偶然。有接近DeepSeek的人士透露,团队早在半年前就开始与华为升腾团队秘密协同,从底层指令集到算子库做深度优化。结果是:V4 Lite在华为昇腾910B上的推理速度,比在同算力英伟达H100上快15%,成本却低60%。开发者测算,其百万token上下文推理成本可能只有同类产品的十分之一——这意味着,以前用GPT-4处理100万字文档要花200元,现在用V4 Lite可能只要20元。