从训练大模型的残酷厮杀里跳出来

  • 训练大模型是上游生产,是“智力/数据密集的科研 + 训练算力密集的研发工程”
  • 应用大模型是下游消费,是“领域知识密集的微调 + 推理算力密集的运营工程”

从“造大模型”的厮杀里跳出来,走到应用一侧,除了垂直行业大模型,还有一个面向 C端 消费者的规模化机会: AI agents 的高速公路

分布式的推理算力网络,是大模型落地的“物流”网络

将大模型视为“货物”,货物 = 模型 + 算力 + 带宽 + 存储,几个要素缺一不可,分拆要素:

1、模型

包括公网中心化的大模型、私有化部署的企业级模型、端侧“小”模型

  • 中心化大模型:适合软硬件一体设计,甚至部署专有架构,降低推理算力需求,提高推理速度,获得高速响应,通过规模覆盖运营成本
  • 企业级模型:适合局域网中部署,对数据隐私有强要求
  • 端模型:优先考虑手持智能终端和家庭算力中心部署

2、算力

以推理算力为主,更多考虑成本因素

  • 模型本身会屏蔽算力架构的差异,不管是高端算力卡,还是通用CPU,出现“传统算力中心”的改造市场,以前对数据中心做了大投入的企业,都会有强诉求
  • 考虑到网络结构本身,离算力中心越近,响应速度越快,因此分布式算力,或者边缘端算力会有优势。PCDN玩家,有机会做出第二增长曲线

3、带宽 + 存储

带宽和存储简化起来放在一起

  • 物联网/车联网/工业智造等AI应用,会是长Token的,对带宽和存储都有高要求,会要求模型部署在一线
  • 基站可能会是新兴的 AI 推理中心,电信运营商的角色可能增加,AI agents运营商,并不一定需要自己投入研发大模型,而是集中资源运营大模型
  • 大模型迭代后,需要“高速公路”快速更新下发到边缘端

AI 高速物流网络的利益分配,与 web3 的深度融合

列出参与到大模型时代的各玩家角色:

  • 模型原厂:少数核心大厂,有独立品牌的大模型,包括开源和不开源的
  • 模型OEM厂:基于少数大模型做微调包装的厂商
  • IaaS资源提供商:数据中心、园区中小机房、个人算力中心运营者,提供算力、带宽、存储的玩家
  • 模型策展人:推销模型应用的,可以是KOL、主播、媒体等
  • 模型编织者:编织不同模型,达成特定任务的开发者,可能与策展人有部分重合

以上玩家组合起来,服务消费者,从消费者的付费中获利,需要建立起一个利益分配合理稳定的机制,保证游戏持续玩下去。

web3部分,运营一条公链或者layer2

  • 让不同角色通过竞价,动态确定分配比例,“AI coin”作为网络基础货币
  • 不同角色也可以自己投入资源,购买推销自己的机会,比如大模型原厂的市场费用
  • 即使是个人,也可以通过在自己家里部署某些模型,提供给邻居服务来获利

AI 需要容器化

AI 的容器里,装的是 API 的编排编织,包括 workflow、API URL、收益分配机制、模型的唯一标识等,从目前的技术栈看,可能会是 Webassembly + Rust + K8s类软件 的组合。

容器化之后,AI agent更容易被调度、分发、销毁,因为不同网络结构、算力基础设施、软件差异,都会被容器抹平,最终形成巨大的资源池。容器也能对应成区块链上的标准区块,最终结算成收益。

标签:产品, AI, web3

评论已关闭