加密 x AI 炒作机会解码:在两个“不可能三角”里,寻找重叠地带

2024-11-26 18:56:41

作者:Swayam

编译:深潮TechFlow

人工智能 (AI) 的快速发展,使少数大型科技公司掌握了前所未有的计算能力、数据资源和算法技术。然而,随着 AI 系统逐渐融入我们的社会,有关可访问性、透明性和控制权的问题,已成为技术和政策讨论的核心议题。在这样的背景下,区块链技术与 AI 的结合为我们提供了一种值得探索的替代路径——一种可能重新定义 AI 系统开发、部署、扩展和治理的新方式。

我们并不是要完全颠覆现有的 AI 基础设施,而是希望通过分析,探讨在某些具体用例中,去中心化方法可能带来的独特优势。同时,我们也承认在某些情境下,传统的中心化系统可能仍然是更实际的选择。

以下几个关键问题引导了我们的研究:

  • 去中心化系统的核心特性(如透明性、抗审查性)是否能够与现代 AI 系统的需求(如高效性、可扩展性)相辅相成,还是会产生矛盾?

  • 在 AI 开发的各个环节——从数据收集到模型训练再到推理——区块链技术能够在哪些方面提供实质性的改进?

  • 在去中心化 AI 系统的设计中,不同环节会面临哪些技术和经济上的权衡?

AI 技术堆栈中的当前限制

Epoch AI 团队在分析当前 AI 技术堆栈的限制方面做出了重要贡献。他们的研究详细阐述了到 2030 年,AI 训练计算能力扩展可能面临的主要瓶颈,并使用每秒浮点运算次数 (Floating Point Operations per Second, FLoPs) 作为衡量计算性能的核心指标。

研究表明,AI 训练计算的扩展可能受到多种因素的限制,包括电力供应不足、芯片制造技术的瓶颈、数据稀缺性以及网络延迟问题。这些因素各自为可实现的计算能力设定了不同的上限,其中延迟问题被认为是最难突破的理论极限。

该图表强调了硬件、能源效率、解锁边缘设备上捕获的数据以及网络方面的进步的必要性,以支持未来人工智能的增长。

  • 电力限制 (性能):

    • 扩展电力基础设施的可行性(2030 年预测): 预计到 2030 年,数据中心园区的容量有望达到 1 至 5 吉瓦 (GW)。然而,这一增长需要依赖对电力基础设施的大规模投资,同时还需克服可能存在的后勤和监管障碍。

    • 受能源供应和电力基础设施的限制,预计全球计算能力的扩展上限可能达到当前水平的 10,000 倍。

  • 芯片生产能力 (可验证性):

    • 当前,用于支持高级计算的芯片(如 NVIDIA H100、Google TPU v5)的生产受限于封装技术(如 TSMC 的 CoWoS 技术)。这种限制直接影响了可验证计算的可用性和扩展性。#p#分页标题#e#

    • 芯片制造和供应链的瓶颈是主要障碍,但仍可能实现计算能力高达 50,000 倍的增长。

    • 此外,先进芯片在边缘设备上启用安全隔离区或可信执行环境 (Trusted Execution Environments, TEEs) 至关重要。这些技术不仅能够验证计算结果,还能在计算过程中保护敏感数据的隐私。

  • 数据稀缺性 (隐私):

  • 延迟壁垒 (性能):

    • 模型训练中的固有延迟限制: 随着 AI 模型规模的不断扩大,由于计算过程的顺序性,单次前向传播和后向传播所需的时间显著增加。这种延迟是模型训练过程中无法绕过的根本限制,直接影响了训练速度。

    • 扩展批量大小的挑战: 为了缓解延迟问题,一种常见的方法是增加批量大小,使更多数据能够并行处理。然而,批量大小的扩展存在实际限制,例如内存容量不足,以及随着批量增大,模型收敛效果的边际收益递减。这些因素使得通过增加批量来抵消延迟变得更加困难。

基础 去中心化 AI 三角形

当前 AI 面临的多种限制(如数据稀缺性、计算能力瓶颈、延迟问题和芯片生产能力)共同构成了“去中心化 AI 三角形”。这一框架试图在隐私、可验证性和性能之间实现平衡。这三种属性是确保去中心化 AI 系统有效性、可信性和可扩展性的核心要素。

声明:投资有风险,入市须谨慎。本资讯不作为投资建议。
本文链接: - 链补手