对许多 AI 开发者来说,真正的难题往往不在代码里,而是在账单上。
模型训练需要 GPU,推理部署同样离不开 GPU。但当算力长期集中在少数平台手中,开发者所面对的,往往是高昂的成本、不确定的排期,以及随时可能被调整的资源优先级。久而久之,算力本身,逐渐演变成一道无形却真实存在的门槛。
在更广泛的 AI 叙事框架中(此前在 XT AI 板块的整体解析中已有讨论),基础设施层正在悄然重塑价值分配方式。AI 算力市场的出现,正是对这一现实的回应。它试图通过去中心化的方式,将分散在全球各地的 GPU 资源重新连接起来,让算力不再只属于少数中心化参与者。无论是 io.net(IO)强调的算力聚合,还是 Phoenix Global(PHB)所构建的多层 AI 基础设施生态,都在回答同一个问题:算力,是否可以像市场一样被重新组织,而不再被垄断?

在 AI 发展的早期阶段,技术进步主要由更强的模型能力和更丰富的数据驱动。但如今,真正的限制因素已经发生转移。无论是大模型训练,还是规模化推理部署,都高度依赖持续、稳定的 GPU 算力,而算力需求的增长速度,正在明显快于供给扩张。
目前,高端 GPU 资源主要集中在少数中心化云服务商手中,尤其在企业级市场更为明显。这种集中化格局,正在产生一系列连锁影响:
在这样的环境下,中小型 AI 团队、独立开发者以及早期项目,往往需要承担更高的成本,或面临算力获取受限的问题。算力本身,正在演变为一种隐性的竞争壁垒。能否稳定、低成本地获得 GPU 资源,越来越直接地决定了 AI 产品是否具备落地与规模化扩张的可能性。
正是在这种结构性失衡背景下,AI 算力市场开始出现。它们尝试通过提供不同于传统云服务的算力获取路径,缓解对中心化平台的单一依赖,为算力供给打开更多可能性。
AI 算力市场,是一种通过市场化协调机制,将 GPU 算力供给与 AI 工作负载进行连接的平台,而非依赖单一中心化服务商进行算力配置。
从整体结构来看,这类平台主要汇聚两类参与者:
在算力市场中,平台层负责完成算力资源的发现、定价、调度与结算。与传统云服务不同,基础设施不再由单一主体垄断,硬件所有权、任务执行与定价权被拆分并重新分配。
在这一过程中,代币可能承担多种功能角色,例如:
- 用于算力使用的结算
- 作为访问权限的控制工具
- 用于协调供需双方激励机制
但需要注意的是,代币在不同平台中的重要性,取决于具体的架构设计,并不存在统一标准。
从交易平台与市场结构的角度来看,AI 算力市场属于一种独立的基础设施类别。它们既不是 AI 应用,也不是面向消费者的产品,其核心价值在于是否能够在规模化场景下,持续、稳定地协调算力供需关系。
尽管具体实现路径各不相同,但大多数去中心化算力市场,通常都围绕着一套相对一致的结构层级展开。理解项目在这一结构中的发力重点,是评估 AI 算力代币时不可忽视的关键因素。
在供给层,平台负责接入来自分布式算力提供方的 GPU 资源。以 Akash Network 为例,其通过聚合全球独立运营者的闲置算力,将原本分散、未被充分利用的硬件资源,转化为开发者可直接调用的开放算力池。
市场层的核心职能,是将具体的计算任务与可用 GPU 进行匹配。Render Network 展示了这一机制的典型形态,其通过网络协调的方式,根据节点的可用性与性能指标分配 GPU 任务,取代了传统中心化调度模式。
在执行层,计算任务运行于相互隔离的环境之中。io.net 强调通过容器化执行与统一调度系统,在异构 GPU 基础设施上协调 AI 工作负载,同时确保不同任务之间的隔离性与稳定性。
结算层用于衡量算力使用情况并完成支付协调。Golem 提供了基于实际使用量的结算示例,平台根据任务完成情况向算力提供方支付报酬,而非依据事先声明的算力规模,从而使激励机制更贴近真实交付成果。
io.net(IO)代表了一种以算力聚合优先的 AI 算力市场路径。其核心思路在于大规模整合分散的 GPU 资源,并以接近云服务的方式,将这些算力能力对需求方进行统一呈现。
这种设计高度重视使用体验。开发者无需与单个硬件提供方逐一对接,即可直接调用算力资源,从而显著降低使用门槛,加快接入与部署节奏。
这一模式的主要优势包括:
- 算力调度与交付速度更快
- 接近传统云服务的使用体验,学习成本较低
- 有机会接入规模化、集中化的算力供给池
与此同时,聚合模式也引入了新的依赖关系。算力提供方的质量、节点运行的稳定性,以及长期参与意愿,都会直接影响整体服务表现。此外,只有在持续存在真实需求的前提下,聚合算力模型才能保持经济上的可行性。
对于 IO 而言,核心问题在于:算力聚合是否能够在规模持续扩张的同时,依然保持可预测的性能表现与稳定的算力利用率。
iExec(RLC)代表了一种以安全执行为导向的算力市场模式,其重点并不在于大规模聚合 GPU 资源,而在于为 AI 与数据密集型工作负载提供可信的链下计算执行环境。
不同于云化的算力聚合方案,iExec 更强调可信执行环境(TEE)与可验证计算机制。开发者可以在链下完成计算任务,同时通过链上机制实现访问控制、结算与执行结果验证。因此,iExec 常被视为适用于对数据完整性、隐私保护与执行可信度要求较高的基础设施,而不仅仅追求极致算力性能。
该模式的主要优势包括:
- 支持可验证的链下安全计算
- 通过市场化机制获取算力资源
- 明确区分协调层与执行层,架构边界清晰
与此同时,这一模式也存在相应取舍。计算性能的扩展能力与 GPU 可得性,依赖于参与算力提供方的规模与质量,且 iExec 并非以通用 GPU 云服务为设计目标。
对于 RLC 而言,核心问题在于:在 AI 工作负载不断扩展、应用场景日益多元的背景下,安全且可验证的执行能力,是否仍能构成持续的差异化优势。
Phoenix AI(PHB)是一套面向去中心化 AI 与 Web3 应用的区块链基础设施平台,涵盖 Layer 1 与 Layer 2 架构。在其设计中,算力并非孤立存在,而是作为多组件生态体系中的一层,与数据协调、执行逻辑、AI 研究工具以及应用层集成共同构成整体基础设施框架。
这一以生态为导向的设计思路,强调系统一致性与整体协同,而非单点能力的极致优化。Phoenix 并未将自身定位为单纯的 GPU 算力市场,而是通过统一的基础设施,支持可扩展的 AI 工作流、基于数据的分析工具以及去中心化应用的运行与部署。
该模式的主要优势包括:
- 支持去中心化 AI 计算、数据服务与应用部署
- 覆盖链上与链下计算的多层架构,具备扩展潜力
- 围绕 AI 与 Web3 深度融合构建清晰的系统级叙事
与此同时,平台覆盖范围的扩大,也意味着执行复杂度与开发周期的提升。对于 PHB 而言,关键在于其生态整合能力,是否能够转化为持续且可量化的算力与 AI 基础设施使用需求,而不仅停留在概念层面的系统设计。
从更长期的角度看,PHB 面临的核心问题在于:生态整合是否真正带动算力层的实际使用,还是算力仍主要作为更宏大平台愿景中的一部分存在。
为了更好地理解 IO、RLC 与 PHB 在算力基础设施中的定位,有必要参考一些同样活跃于去中心化计算领域或其相邻赛道的项目。这些示例旨在展示不同的架构思路与设计取向,并不构成直接比较或投资推荐。
| 项目 | 核心定位 | 算力角色 |
| Akash Network(AKT) | 去中心化云服务 | 提供支持 GPU 的通用型算力市场 |
| Render Network(RENDER) | GPU 供给网络 | 通过渲染与计算任务分配 GPU 工作负载 |
| Golem(GLM) | 分布式计算 | 在分布式节点间执行通用计算任务 |
| Nosana(NOS) | DePIN 任务执行 | 面向 CI 流水线与 AI 相关计算任务 |
| Flux | 去中心化云基础设施 | 为应用提供托管与算力服务 |
| Aleph.im(ALEPH) | 去中心化基础设施 | 支持去中心化应用的计算与存储 |
| Aethir(ATH) | 企业级 GPU 基础设施 | 面向 AI 与游戏的大规模 GPU 供给 |
这些项目表明,去中心化算力并非单一模式,而是覆盖了从“类云算力市场”到“任务导向型网络”等多种设计哲学。本节内容旨在提供结构层面的参考视角,帮助读者理解不同算力路径的差异,而非判断其市场或投资价值。
评估 AI 算力相关代币,不能停留在叙事表层或概念热度上,而需要回到实际运行与使用层面。
相比简单的算力规模或宣传指标,以下问题往往更具参考价值:
在长期视角下,算力利用率、服务可靠性以及用户留存情况,往往比名义上的 GPU 数量更能反映一个算力基础设施项目的真实价值与可持续性。


在桌面端,AI 板块已整合进 XT 的行情与市场导航体系中。相关资产会按照 AI 相关性进行分组,用户可直接进入具体市场或交易页面,方便在多个 AI 资产之间进行快速对比与查看。


在移动端,AI 板块以分类形式呈现在行情视图中。用户可以在不同 Zone 之间快速切换,浏览 AI 相关资产,并通过少量操作进入交易界面,同时保持清晰的分类上下文。
AI 算力市场处在 AI 经济的最底层,而非叙事的表层。它们所尝试解决的,是一个真实且长期存在的结构性问题:在算力日益决定竞争力的背景下,GPU 资源获取的不均衡。
IO、RLC 与 PHB 展示了应对这一问题的不同路径,从以聚合为核心的算力供给,到注重安全执行的市场化模型,再到以生态整合为导向的基础设施建设。但需要明确的是,任何一种模式,都无法完全消除去中心化算力体系中固有的协调成本、信任成本与稳定性挑战。
在这一赛道中,清晰的结构认知,往往比强烈的信念更具累积价值。基础设施的真实质量,永远先于故事本身。XT AI 板块的存在,正是为了帮助市场参与者在技术、经济与叙事交织的早期阶段,分辨结构性信号与短期情绪之间的差异。
1. AI 算力市场会取代中心化云服务商吗?
不会。AI 算力市场的定位并非替代中心化云,而是为特定工作负载提供更多获取路径,在价格、灵活性或地域覆盖方面形成补充。
2. 为什么 GPU 对 AI 经济如此重要?
无论是模型训练还是推理部署,GPU 都是核心算力基础,因此算力获取能力直接影响 AI 应用的扩展速度与落地可行性。
3. GPU 挂牌数量越多,算力市场就越强吗?
不一定。相比名义算力规模,实际利用率、服务稳定性以及持续运行的工作负载,更能反映平台的真实能力。
4. 代币在 AI 算力市场中扮演什么角色?
代币可能用于结算、访问控制或激励协调,但其重要性高度依赖于具体平台的架构设计,并不存在统一模式。
5. 去中心化 GPU 市场的主要风险有哪些?
包括算力稳定性不足、激励机制与真实需求脱节、数据安全隐患,以及代币价格与实际使用情况背离等问题。
6. XT AI 板块如何帮助用户理解 AI 算力相关资产?
XT AI 板块按照 AI 基础设施与应用属性对相关资产进行分类,帮助用户在参与 AI 叙事之前,更清晰地理解其结构角色与潜在风险。
成立于 2018 年,XT.COM是全球领先的数字资产交易平台,现已拥有超过1200万注册用户,业务覆盖200多个国家和地区,生态流量超过4000万。XT.COM加密货币交易平台支持1300+优质币种与1300+交易对,提供现货交易,杠杆交易,合约交易等多样化交易服务,并配备安全可靠的 RWA(真实世界资产)交易市场。我们始终秉持「探索加密,信赖交易」的理念,致力于为全球用户提供安全、高效、专业的一站式数字资产交易体验。