从GPT的图像模型,到巨量的推理需求
时间:2025-03-28 18:46
高质量的AI文生图让广告成本骤降,广告无限+渠道灵活+广告TAM再次膨胀,为了广告效率,更有钱的巨头可能会更加用力地卷推荐算法。市场对于AI的算力一直放在AI本身,而忽视了围绕在AI身边的其他算力,例如推荐内容,推荐广告,都需要大量的算力。
从这里开始聊,
SamAltman在X上面说自家的图像模型太受欢迎,导致GPU过载(原话是,“GPUsaremelting”...GPU快烧融化了);需要限制使用次数来应对推理的需求。这要是放在半年,一年前,整个芯片/算力链应该狂升;但是市场却仍然在讨论微软减单,英伟达中国(FT的那篇报道);市场现在很熊,好消息不怎么升,坏消息(就算是谣言)狂跌。不过我们先退一步,不聊市场,聊聊GPT图像模型带来了什么样的叙事变化。GPT图像模型带来的叙事变化1/ AI图像生成不是新的东西(不过这次OAI用了auto-regressivevs之前大家用的diffusion)。不过AI图像生成,从概念到大规模应用需要突破一些门槛。第一个门槛是prompt,提示词不能太复杂,让普通用户通过一系列“半编程语言式”的提示词去改图,不现实也很低效;第二个是门槛是效果,生成的东西一股AI味,或者缺胳膊少腿,都只能当做是一种“玩具”,而非“应用”;2/ 这次OpenAI的图像模型似乎跨过了这两个门槛。何以见得?看看X上面的盛况就知道,大家(不管是专业的从业者,或者门外汉)都在分享自己用GPT生成的图像。第一,提示词简单(用自然语言就可以修改);第二,效果好(没太多AI味,所以让人更有分享欲;所以才在X病毒式传播);3/ 之后对各行各业会有无数的变化;譬如社交媒体,以后朋友圈不需要找照片配图了,可能可以直接给一个按钮AI生成;譬如PPT,之后不需要一堆死气沉沉的排版,可以创意无限;譬如美图秀秀,譬如电子书,譬如网站设计...你可以想出很多,这里我就不赘述。AI本身就是一个通用技术,可以和无数行业去杠杆。4/ 不过这里我想特别挑出广告业来聊聊(广告和电商是互联网TAM最大的两个行业);当高质量+简单的文生图/文生视频普及后,推荐算法可能会变得更加细致。为了可视化更加清晰,我做了几张很丑的图片。大家不要介意。以前的广告业,广告和内容死板的叠在一起(纸质媒体时代+门户互联网时代);广告匹配用户的效率不高。广告有限+渠道死板+广告TAM和广告巨头规模不大(比如电视+门户网站)
移动互联网时代,开始流行“千人千面”的说法,机器算法推荐,把合适的广告推给合适的用户。广告有限+渠道灵活+广告TAM和广告巨头膨胀(比如META+腾讯)
AI时代,高质量的文生图让广告成本骤降,理论上你可以生成“无限量广告”(比如小米SU7,可以有漫画版+青年版+商业人士版+北京版+23岁的北京版+25岁的山东女生版+喜欢看雷总版+喜欢看马斯克版;甚至极端情况下,每一个人都可以看到一个完全不同版本的小米SU7广告);广告无限+渠道灵活+广告TAM再次膨胀(为了广告效率,更有钱的巨头会不会更加用力地卷推荐算法?这里大家自己想)
市场对于AI的算力一直放在AI本身(图中的“AI生成”),而忽视了围绕在AI身边的其他算力。看看这张图(要做好那乱七八糟的红线,“AI定位”推荐算法需要消耗多少算力?)。
5/我这种无名小卒说的话不管用,那我们看看老黄的表述(我直接用AI机翻了)。下面引述Jenson,我将倒着说。这个估计可能被低估了,但我们进行了估计。让我告诉你为什么……当你浏览互联网、新闻、视频、音乐,以及推荐给你的产品时,因为你知道,互联网有数万亿——我不知道有多少万亿,但确实是数万亿的信息——而你的手机只有3英寸见方,因此他们将所有这些信息压缩到如此小的空间的能力,是通过一个系统,一个叫做推荐系统的惊人系统。I’llgobackwards.Theestimateisprobablyunderstated,butweestimatedit.Andletmetellyouwhy…whenyouruntheinternet,thenews,thevideos,themusic,theproductsthatarebeingrecommendedtoyoubecauseasyouknow,theinternethastrillions—Idon’tknowhowmanytrillions,buttrillionsofthingsoutthere—andyourphoneis3-inchessquare,sotheabilityforthemtofitallofthatinformationdowntosomething,suchasmallrealestate,isthroughasystem,anamazingsystemcalledrecommendersystems.这些推荐系统曾经完全基于CPU方法。但最近迁移到深度学习以及现在的生成式AI,确实使这些推荐系统直接进入了GPU加速的轨道。它需要GPU加速来处理嵌入。它需要GPU加速来进行最近邻搜索。它需要GPU加速来重新排序,并且它需要GPU加速来为您生成增强信息。TheserecommendersystemsusedtobeallbasedonCPUapproaches.ButtherecentmigrationtodeeplearningandnowgenerativeAIhasreallyputtheserecommendersystemsnowdirectlyintothepathofGPUacceleration.ItneedsGPUaccelerationfortheembeddings.ItneedsGPUaccelerationforthenearestneighborsearch.ItneedsGPUaccelerationforthere-rankinganditneedsGPUaccelerationtogeneratetheaugmentedinformationforyou.所以GPU现在在推荐系统的每一个步骤中都发挥着作用。正如你所知道的,推荐系统是地球上最大的单一软件引擎。几乎每个主要公司都必须运行这些大型推荐系统。每当你使用ChatGPT时,它正在进行推理。每当你听到Midjourney以及他们为消费者生成的各种内容时,当你看到Getty,我们与Getty和Adobe的Firefly所做的工作时。这些都是生成模型。这个列表还在继续。正如我提到的,这些在一年前都不存在,100%是新的。SoGPUsareineverysinglestepofarecommendersystemnow.Andasyouknow,recommendersystemisthesinglelargestsoftwareengineontheplanet.Almosteverymajorcompanyintheworldhastoruntheselargerecommendersystems.WheneveryouuseChatGPT,it’sbeinginferenced.WheneveryouhearaboutMidjourneyandjustthenumberofthingsthatthey’regeneratingforconsumers,whenyouwhenyouseeGetty,theworkthatwedowithGettyandFireflyfromAdobe.Theseareallgenerativemodels.Thelistgoeson.Andnoneofthese,asImentioned,existedayearago,100%new.6/上面老黄的说法可能稍微有些不容易理解(ermm..老黄一直都有点乱)...我按照自己的理解,就是画出上面的图。我们聊AI推理,AI生成,常常只是聊“文生图”的这个“推理算力”,没聊到“把生成的图”,推荐到对应用户里的这个“算力”;但是按照一个比较自洽的逻辑思路,我们应该从广告的TAM(推荐越有效率,广告主ROI越高,TAM就越大),算到推荐算法的TAM(“用AI来定位”),再算到文生图、文生视频的TAM(“用AI来生成”),再来预测算力需求。8/Meta的DaveWehner也曾经说过,
推荐内容,推荐广告,都需要大量的算力(尤其是现在处于从CPU向GPU过度的阶段);这是Meta的MarkZukerberg的说法,
9/有时候和一些朋友聊天,大家都在一个房间里,我们看似都在聊AI,但是聊的是不同的东西。比如我们在3月19日这篇公众号提到的。
10/你也在花钱买capex,你也有ai支出;但是我的支出是为了推荐算法(腾讯meta之类),你的支出是为了云计算(AWS阿里之类),他的支出是为了给平台减成本(比如电商平台给广告商AI工具);我们聊的东西都不一样,简单直接去比较1200亿vs1000亿,80B或者100B,又有什么意义呢?最近市场的一些气氛早上星球微信群发完,一个朋友来找我聊了一会;我用对话式的形式呈现,A:awz/azure还是在按照20%网上的增速在跑,我们说的并不是funky的AI应用/变现收入,而是更加有可见度的云计算收入(多家管理层多次提到,云计算仍然受限于硬件);AIcapex没有太过分的泡沫;云计算有一个更加清晰的capex逻辑,那就是不亏就行(比如只要能赚回5-6年的GPU折旧价格);从这个角度看,你很难说这几家云厂支出有什么大问题(就算有,他们的负债表+现金流也能完全支持);B:没错,不过英伟达增速的二阶导数变成负数了;仍然增长,但是大家共识是继续增长,但是增速降低了;
A:最近大家都只是在跑分上突破(比如grok),但是如果突然有人在算法/新的层面突破了呢?那另外那几家会不会怕,会不会加码军备竞赛?如果你不认为技术会在这里停止突破,那算力是升还是跌?B:这个技术突破可以是向上,也可以是是向下。比如deepseek,从成本上“向下”突破,那我们有jevonsparadox,但需要看应用能不能赶上;要是能从能力上“向上”突破,那么算力逻辑就可以照原来路径走;现在大家都是在黑暗里面射飞镖,没人能够确切知道下一个技术突破的路径。A:OAI已经用3000亿估值融资了,看似很多,但是正是因为技术突破还没成为定数(要不然就不是3000亿这么便宜了);B:这里我们不能假设一级市场的定价是正确的。实际上一级二级,包括产业界,大家都是在摸索中定价。最后是一些大家比较关心的蔡崇信+FT+微软的信息我总结了一些Q&A,如何理解蔡崇信说的美国AI存在泡沫?美国AI产业主要风险:- 数据中心建设长期或供过于求(美国年建5-6GWvs中国3.3GW,受限于电力短缺)
不能单纯理解成为“花的多”就是浪费,就是泡沫;而是北美的成本结构+应用丰富度需要留意。FT那篇,中国禁H20如何理解?- 从有关部门的角度,他们可能认为国产芯片推理性能已达标(用谈判的角度来看,H20这里我们能给压力,自己又不会损失太多);
- 互联网公司仍热衷英伟达,但电信公司等被要求支持本土替代;
- 若关税谈判破裂,这个H20叙事可能会更强(苹果+特斯拉和制造业关系千丝万缕,不要必要时候不搞;小公司搞了没啥影响力,英伟达变成关税谈判的一个好“谈判标的”,有点中国版tiktok的意思,trump也把tiktok和关税放在一起谈);
微软TDCOWEN的那篇(消息刚出来不久星球就给了报告),微软之后有了声明;“现有投资已充分满足当前及增长中的客户需求...虽会战略性地调整部分区域基础设施,但所有地区都将保持强劲增长...这使我们能向未来增长领域调配资源”;这个和2月底那次传言没什么大的区别。
主要还是因为市场气氛太熊,看什么都是“半杯水空”,而非“半杯水满”;
接下来的一些AI催化剂。
来源:180K,原文标题:《从GPT的图像模型,到巨量的推理需求》
*免责声明:文章内容仅供参考,不构成投资建议
*风险提示:股市有风险,入市需谨慎