(来源:中国经济导报)
转自:中国经济导报
本报评论员 | 张守营
除夕看春晚,这几年总少不了手机抢红包的环节。今年也是如此,只是当主持人引导观众打开豆包App时,很多人发现玩法变了——不再是点一下领个现成的红包,而是让AI给你画张画、写副春联。从“领方便面”到“现场做拉面”,这个变化看似轻巧,背后却是一次算力需求的百万倍跃升。
传统抢红包的逻辑是“库存分发”:红包提前包好,用户点击,服务器从数据库里取出来发给你。每一次点击消耗的算力不足十万分之一Tops,服务器主要是读写操作,属于典型的I/O密集型。但生成式AI完全不同,用户输入一句“给我画一匹奔腾的骏马”,大模型需要理解语义、调用图像生成模型、进行无数次的矩阵运算,在几秒钟内“无中生有”地创造出一张图。单次请求的算力消耗高达10Tops,是过去的100万倍。
更关键的是,这种百万倍级的消耗,要在春晚口播的短短几分钟内,同时承接上亿人次的洪峰。数据后来披露,除夕当晚21时46分,豆包大模型的推理吞吐量峰值达到了每分钟633亿tokens。这意味着那一瞬间,全国有上亿人同时向一个云端大脑发出请求,而那个大脑不仅没有宕机,还给每个人都单独生成了一份定制内容。
支撑这一切的,是背后看不见的算力调度能力。在除夕,抖音的弹幕在跑、头条的内容推荐在跑、外部客户的模型训练也在跑,大家都在抢同一块“算力蛋糕”。火山引擎的做法是把训练和推理任务错峰,把离线任务和实时任务调配,在几万个GPU之间做动态平衡。正是这种底层的调度智慧,让那些看似不可能的任务成了真——比如让徐悲鸿的《六骏图》在8K大屏上奔跑起来。
今年春晚有一个节目,让徐悲鸿笔下的六匹骏马从画中跃出,以水墨动画的形式在舞台上奔腾。这不仅是视觉上的享受,更是对算力精细化控制的一次检验。以往的AI生成视频,往往看着震撼但经不起细看。但春晚的舞台是8K/50FPS的超高清标准,每一根鬃毛的飘动、每一笔墨韵的晕染,稍有瑕疵就会被放大。为了还原水墨画的留白意境,同时保证马匹奔跑的物理真实,技术团队采用了“双模型协同”的方案:先用图像模型生成高质量的关键帧,再由视频模型在既定框架内完成动态演绎。这背后需要的不仅仅是算力堆砌,更是对模型指令的精准理解和执行——能让AI理解“跑慢一点”“鬃毛轻一点”这种感性指令,比单纯生成一段炸裂视频要难得多。
除了舞台上的炫技,今年春晚还有一个容易被忽视的细节——无障碍字幕。我国有2780万听障人士,往年他们看语言类节目,基本等于看默片。今年,抖音春晚直播间上线了全程实时无障碍字幕,准确率达到了95%。这95%的背后,是语音识别、自然语言理解、实时生成等一系列模型在毫秒级内的协同工作。它不像生成骏马那样酷炫,但它是AI算力从“炫技”走向“惠民”最真实的注脚。
回顾这一晚,可以看到中国AI算力发展的一些侧面。过去几年,谈论AI算力,总喜欢比参数、比榜单、比哪个模型在评测集上多拿了零点几分。但春晚提供了一个绝无仅有的真实场景:在14亿人眼皮底下,你能不能扛住真实世界的流量冲击;在8K标准下、在周更的创作节奏里,你能不能持续稳定地输出符合东方审美的内容。
从“抢红包”到“做拉面”,这不仅仅是互动形式的演变,也是算力基础设施从“资源搬运”向“能力生成”的转型。当633亿tokens的洪峰在除夕平稳度过,当水墨马在8K屏上栩栩如生,当听障人士第一次“听”懂春晚的笑点,这些场景共同勾勒出当下中国AI算力的真实面貌。或许正是这些真实的压力测试,让技术有了落地的质感,也让普通人切实感受到,那些听起来遥远的概念,正在成为生活里触手可及的东西。
上一篇:正月十五大如年
下一篇:灯会闹元宵,谁是氛围天花板