📢 #Gate广场征文活动第二期# 正式启动!
分享你对 $ERA 项目的独特观点,推广ERA上线活动, 700 $ERA 等你来赢!
💰 奖励:
一等奖(1名): 100枚 $ERA
二等奖(5名): 每人 60 枚 $ERA
三等奖(10名): 每人 30 枚 $ERA
👉 参与方式:
1.在 Gate广场发布你对 ERA 项目的独到见解贴文
2.在贴文中添加标签: #Gate广场征文活动第二期# ,贴文字数不低于300字
3.将你的文章或观点同步到X,加上标签:Gate Square 和 ERA
4.征文内容涵盖但不限于以下创作方向:
ERA 项目亮点:作为区块链基础设施公司,ERA 拥有哪些核心优势?
ERA 代币经济模型:如何保障代币的长期价值及生态可持续发展?
参与并推广 Gate x Caldera (ERA) 生态周活动。点击查看活动详情:https://www.gate.com/announcements/article/46169。
欢迎围绕上述主题,或从其他独特视角提出您的见解与建议。
⚠️ 活动要求:
原创内容,至少 300 字, 重复或抄袭内容将被淘汰。
不得使用 #Gate广场征文活动第二期# 和 #ERA# 以外的任何标签。
每篇文章必须获得 至少3个互动,否则无法获得奖励
鼓励图文并茂、深度分析,观点独到。
⏰ 活动时间:2025年7月20日 17
AI+Web3协同:解锁数据与算力新格局
AI+Web3:塔楼与广场
要点
AI概念的Web3项目在一二级市场成为吸金标的。
Web3在AI行业的机会体现在:利用分布式激励协调长尾中的潜在供应,涉及数据、存储和计算;同时,建立开源模型以及AI Agent的去中心化市场。
AI在Web3行业主要应用于链上金融(加密支付、交易、数据分析)以及辅助开发。
AI+Web3的效用体现在两者的互补:Web3有望对抗AI集中化,AI有望帮助Web3破圈。
引言
近两年,AI的发展呈现加速态势。由Chatgpt引发的生成式人工智能浪潮,也在Web3领域掀起了巨大波澜。
在AI概念的加持下,加密市场融资明显提振。据统计,2024上半年就有64个Web3+AI项目完成融资,其中基于人工智能的操作系统Zyber365在A轮实现1亿美元的最高融资额。
二级市场更为繁荣,加密聚合网站Coingecko数据显示,短短一年多时间,AI赛道总市值已达485亿美元,24小时交易量接近86亿美元。主流AI技术进展带来明显利好,OpenAI的Sora文本转视频模型发布后,AI板块平均价格上涨151%。AI效应同样辐射至加密货币吸金板块之一Meme:首个AI Agent概念的MemeCoin GOAT迅速走红并获14亿美金估值,成功掀起AI Meme热潮。
关于AI+Web3的研究和话题同样火热,从AI+Depin到AI Memecoin再到当前的AI Agent和AI DAO,新叙事轮换速度让FOMO情绪难以跟上。
AI+Web3这个充满热钱、风口和未来幻想的术语组合,难免被视作一场被资本撮合的包办婚姻。我们很难分辨在这华丽外表之下,到底是投机者的主场,还是黎明爆发的前夜?
要回答这个问题,关键在于思考:有对方它会变得更好吗?是否能从对方的模式中受益?本文试图站在前人肩膀上审视这一格局:Web3如何能在AI技术堆栈各环节发挥作用,AI又能给Web3带来什么新的生机?
AI堆栈下Web3的机会
在展开这个话题前,我们需要了解AI大模型的技术堆栈:
大模型就像人类大脑,早期阶段如同刚降生的婴儿,需要观察摄入海量外界信息去理解世界,这是数据"收集"阶段。由于计算机不具备人类多感官,训练前需要通过"预处理"将无标注信息转化为计算机可理解的格式。
输入数据后AI通过"训练"构建具有理解和预测能力的模型,类似婴儿逐渐理解学习外界的过程,模型参数如同婴儿不断调整的语言能力。学习内容分科或与人交流获得反馈并修正,进入"微调"环节。
孩童长大学会说话后,能在新对话中理解意思并表达感受和想法,类似AI大模型的"推理",模型能对新的语言和文本输入进行预测分析。婴儿通过语言能力表达感受、描述物体和解决问题,类似AI大模型完成训练后在推理阶段应用于各类特定任务,如图像分类、语音识别等。
AI Agent则更接近大模型的下一形态——能独立执行任务并追求复杂目标,不仅具备思考能力,还能记忆、规划,且能运用工具与世界互动。
针对AI各堆栈的痛点,Web3目前初步形成了多层次、互连的生态系统,涵盖AI模型流程各阶段。
基础层:算力与数据的Airbnb
算力
当前,AI的最高成本之一是训练模型与推理模型所需的算力与能源。
例如,Meta的LLAMA3需要16000个NVIDIA H100GPU 30天才能完成训练。H100 80GB版单价3-4万美元,这需要4-7亿美元计算硬件投资(GPU+网络芯片),每月训练消耗16亿千瓦时,能源支出近2000万美元。
对AI算力的解压,也是Web3最早与AI交叉的领域——DePin(去中心化物理基础设施网络)。DePin Ninja数据网站已列出1400多个项目,GPU算力共享代表项目包括io.net、Aethir、Akash、Render Network等。
主要逻辑是:平台允许闲置GPU资源拥有者以无需许可的去中心化方式贡献计算能力,通过类Uber或Airbnb的在线市场,提高未充分利用的GPU资源使用率,终端用户获得更低成本的高效计算资源;同时,质押机制确保资源提供者违反质量控制或中断网络时有相应惩罚。
特点包括:
聚集闲置GPU资源:供应方主要为第三方独立中小型数据中心、加密矿场等运营商过剩算力资源、PoS共识机制的挖矿硬件,如FileCoin与ETH矿机。部分项目致力于启动门槛更低的设备,如exolab利用MacBook、iPhone、iPad等本地设备建立运行大模型推理的算力网络。
面向AI算力的长尾市场: a. 技术端:去中心化算力市场更适合推理步骤。训练更依赖超大集群规模GPU的数据处理能力,而推理对GPU运算性能要求相对较低,如Aethir专注低延迟渲染工作和AI推理应用。 b. 需求端:中小算力需求方不会单独训练自己的大模型,而只是选择围绕少数头部大模型进行优化、微调,这些场景天然适合分布式闲置算力资源。
去中心化所有权:区块链技术意义在于资源所有者始终保留对资源的控制权,可根据需求灵活调整,同时获得收益。
数据
数据是AI的地基。没有数据,计算如浮萍般毫无用处。数据与模型关系如"Garbage in, Garbage out"俗谚,数据量与输入质量决定最终模型输出质量。对当前AI模型训练而言,数据决定了模型的语言能力、理解能力、甚至价值观以及人性化表现。目前,AI的数据需求困境主要集中在以下四方面:
数据饥渴:AI模型训练依赖海量数据输入。公开资料显示,OpenAI训练GPT-4的参数量达万亿级别。
数据质量:随着AI与各行业结合,数据时效性、多样性、垂类数据专业性、新兴数据源如社交媒体情绪摄入对其质量提出新要求。
隐私与合规问题:各国家、企业逐渐注意到优质数据集重要性,正在对数据集爬取进行限制。
数据处理成本高昂:数据量大,处理过程复杂。公开资料显示,AI公司超30%研发成本用于基础数据采集、处理。
目前,web3的解决方案体现在以下四个方面:
让真正贡献的用户同样参与数据带来的价值创造,以及通过分布式网络与激励机制,以低成本方式获取用户更私人、更具价值的数据,是Web3的愿景。
Grass是去中心化数据层和网络,用户可通过运行Grass节点,贡献闲置带宽和中继流量用以捕获整个互联网中的实时数据,并获取代币奖励。
Vana引入独特的数据流动性池(DLP)概念,用户可将私人数据(如购物记录、浏览习惯、社交媒体活动等)上传至特定DLP,并灵活选择是否授权给特定第三方使用。
在PublicAI中,用户可在X上使用#AI或#Web3作为分类标签并@PublicAI即可实现数据收集。
Grass与OpenLayer都正考虑加入数据标注这一关键环节。
Synesis提出"Train2earn"概念,强调数据质量,用户可通过提供标注数据、注释或其他形式输入获得奖励。
数据标注项目Sapien将标记任务游戏化,并让用户质押积分以赚取更多积分。
当前Web3较普遍的隐私技术包括:
可信执行环境(TEE),例如Super Protocol。
完全同态加密(FHE),例如BasedAI、Fhenix.io或Inco Network。
零知识技术(zk),如Reclaim Protocol使用zkTLS技术,生成HTTPS流量的零知识证明,允许用户从外部网站安全导入活动、声誉和身份数据,而无需暴露敏感信息。
不过,目前该领域仍处早期阶段,大部分项目仍在探索中,当前困境是计算成本太高,例如:
zkML框架EZKL需约80分钟才能生成1M-nanoGPT模型的证明。
根据Modulus Labs数据,zkML开销比纯计算高出1000倍以上。
中间件:模型的训练与推理
开源模型去中心化市场
有关AI模型闭源还是开源的争论从未消失。开源带来的集体创新是闭源模型无法比拟的优势,然而在毫无盈利模式前提下,开源模型如何提高开发者驱动力?是值得思考的方向,百度创始人李彦宏曾在今年4月断言,"开源模型会越来越落后。"
对此,Web3提出一个去中心化开源模型市场的可能性,即对模型本身进行代币化,为团队保留一定比例代币,并将该模型部分未来收入流向代币持有者。