这两年PC圈子最热的词一个接一个,从“掌机性能怪兽”到“AI PC”,说实话,很多发布会听多了会麻木:参数堆得再漂亮,落到普通人手里到底能干嘛,才是关键。
所以我这次关注AMD在北京这场“释放AI PC超能力”的新品品鉴会,重点反而不在“又快了多少”,而在它明显是在回答一个很现实的问题:当DeepSeek、Qwen这类开源模型越来越能打,OpenClaw协议把本地部署的门槛越压越低,用户对“在自己电脑上跑AI”的需求,已经不是概念了,是正在发生的事。
AMD这场活动里,主角除了锐龙AI 400系列移动处理器,还把锐龙AI Max系列补了两个新型号:锐龙AI Max+ 392和锐龙AI Max+ 388。看命名你就知道它们不是来当“绝对旗舰”的——它们更像是把AI Max那套核心能力下放到更好落地的区间里,补齐高端全能本到顶级工作站之间的断层。
先把硬件信息说清楚:这两颗都属于“Strix Halo”平台。CPU核心数做了“收一收”,但图形和AI这块没打折。
锐龙AI Max+ 392是12核24线程,加速频率最高5.0GHz;锐龙AI Max+ 388是8核16线程,同样能冲到5.0GHz。对比它们家顶级的锐龙AI Max+ 395(16核),确实少了核心,但这两颗都给了满血版的Radeon 8060S集显,40个CU,RDNA 3.5架构——这点很关键,因为很多人买“能跑本地AI的大机器”,最后其实卡在图形/加速能力而不是单纯CPU多核。
聊本地大模型,绕不开一个硬指标:显存(更准确说是可用的显存规模)。模型越大,能干的活越复杂,输出质量也更稳。锐龙AI Max+ 392/388延续了这个系列一贯的思路:统一内存架构,能从系统内存里划出很大一块当显存用。比如整机如果是128GB内存的配置,最高可以划到96GB当显存(具体还是看厂商怎么配)。这对轻薄本、迷你主机这种体积受限的设备来说意义很大——你不需要塞一张巨厚独显,也能把更“重”的模型在本地跑起来。
它们也标配了高性能NPU,最高50 TOPS。这个数字说出来可能有点“发布会味”,但落地到系统侧,至少能把Windows 11 AI+ PC那套本地能力(比如实时字幕、Recall等)硬件门槛踩稳,也给后续更复杂的本地AI应用留了余量。
AMD在现场给的说法也挺直白:392和388是填补市场空档的产品——适合那些想要强图形、强AI,但并不一定天天跑到“工作站级多核”那种极限负载的人。换句话说,你可能是内容创作者、做开发、搞剪辑、玩生产力,也可能就是想要一台能玩游戏、还能把本地AI当工具箱的全能机。这两颗芯片对应的笔记本和迷你主机已经在陆续上市。
真正让我觉得“这事有戏”的,其实是下午沙龙展示的应用案例。随着开源模型的爆发,加上OpenClaw协议的推广,本地部署突然从“折腾党玩具”变成了更像“普通人也能碰”的东西。云端当然方便,但费用、延迟、隐私这几座大山一直在。AMD大中华区AI市场经理昝仲阳现场提到,锐龙AI Max系列这种“大显存+高算力”的组合,天然就贴近本地智能应用的需求。
他们演示了一个基于锐龙AI Max+ 395平台部署的“AI播客智能体”:论文搜索、翻译、稿件生成、声音克隆、剪辑打包在一起。以前这类流程,往往是几个人配合、磨个好几天;现在变成一个人用本地AI指令,几个小时能把事情做完。现场还提到一个例子:有B站UP主用类似的方案在15天内发了8期节目,效率提升非常明显。
纪朝晖也提了一个挺有画面感的判断:未来可能会出现更多“一人+一AI助手”的工作方式,甚至“一人公司”会越来越常见。而这类模式要真正跑起来,本地大模型是个很重要的地基——因为它够私密、够可控,也不那么怕云端计费一涨就心疼。AI Max系列的大内存支持,也让运行参数量更大的混合专家模型成为可能,复杂任务的处理空间会更大。再加上它在万元价位段几乎没什么对手,这个“性价比+能力密度”的组合,对中小团队和个人玩家来说确实很诱人。
还有一点别忽视:现在AMD不只是在卖CPU。合作伙伴也端上了不同形态的解决方案。
比如PiiMini带来的“智域双生AI工作站”,是面向本地大模型推理的迷你主机,更偏企业私有化部署。首界科技展示的“Novapaw”,则是基于OpenClaw协议做的本地个人AI助理,也就是社区里常说的“养虾”方案——主打跟钉钉、飞书、QQ等办公软件深度整合,把云端方案常见的延迟和隐私焦虑压下去。赛博物联那边展示的是“智能投标助手”,瞄准招投标行业,用本地大模型做标书解析、合规审查、辅助编制,目标就是把那种“耗时又怕出错”的流程压缩掉。
这些东西放在游戏资讯网站聊,可能有人会觉得“离玩家有点远”。但如果你把它当成“PC生态下一阶段的位”,就很好理解了:从做视频、写攻略、做MOD资料整理,到战队/公会的日常管理、赛事内容生产、社区运营,很多重复劳动其实都适合交给本地AI当工具人。关键是它得跑得动、成本别爆、数据别乱飞——这也是为什么OpenClaw这种协议会突然被讨论得这么凶。
为了让更多人能上手,AMD已经放出了OpenClaw的部署教程,还跟Flowy AI、OpenClaw Lab等社区合作办技术工作坊;他们中国AI应用创新联盟的成员也扩展到了120家,明显是在做软件适配和生态推进。
把这些拼在一起看,你会发现AMD这次推锐龙AI Max+ 392/388,表面是补两颗新U,实际更像是在给“本地AI普及”这条路加宽车道:让更多价位、更多形态的设备能把大模型跑起来。
等更多搭载锐龙AI 400系列、尤其是这两颗新AI Max+的笔记本和迷你主机铺开,再加上社区里不断有人把OpenClaw的案例拿出来分享,本地跑大模型这件事大概率会从“少数人折腾”变成“越来越多人日常用”。到那时,很多我们现在觉得很麻烦的工作流,可能就像当年从“手动装驱动”走到“即插即用”一样,突然就变简单了。
