AI、DePIN、Sol生态三重光环加身,深入了解发币在即的io.net

转载
213 天前
2822
Mint Ventures

文章转载来源: Mint Ventures

撰文:Alex Xu

引言

在我的上一篇文章中,提到本轮加密牛市周期与前两轮周期相比,缺少足够有影响力的新商业和新资产叙事。AI 是本轮 Web3 领域少有的新叙事之一,本文笔者将结合今年的热点 AI 项目 IO.NET,尝试梳理关于以下 2 个问题的思考:

  • AI+Web3 在商业上的必要性
  • 分布式算力服务的必要性和挑战

其次,笔者将梳理 AI 分布式算力的代表项目:IO.NET 项目的关键信息,包括产品逻辑、竞品情况和项目背景,并就项目的估值进行推演。

本文关于 AI 和 Web3 结合一节的部分思考,受到了 Delphi Digital 研究员 Michael rinko 所写的《The Real Merge》的启发。本文的部分观点存在对该文章的消化和引述,推荐读者阅读原文。

本文为笔者截至发表时的阶段性思考,未来可能可能发生改变,且观点具有极强的主观性,亦可能存在事实、数据、推理逻辑的错误,请勿作为投资参考,欢迎同业的批评和探讨。

以下为正文部分。

1.商业逻辑:AI 和 Web3 的结合点

1.1 2023:AI 造就的新「奇迹年」

回看人类发展史,一旦科技实现了突破性进展,从个体日常生活,到各个产业格局,再到整个人类文明,都会跟着发生天翻地覆的变化。

人类历史中有两个重要年份,分别是 1666 年和 1905 年,如今它们被称为科技史上的两大「奇迹年」。

1666 年作为奇迹年,是因为牛顿的科学成果在该年集中式地涌现。这一年,他开辟了光学这个物理分支,创立了微积分这个数学分支,导出了引力公式这个现代自然科学的基础定律。这当中无论哪一项都是未来百年人类科学发展的奠基式贡献,大大加速了整体科学的发展。

第二个奇迹年是 1905 年,彼时仅仅 26 岁的爱因斯坦在《物理学年鉴》上连续发表 4 篇论文,分别涉及光电效应(为量子力学奠基)、布朗运动(成为分析随机过程的重要引用)、狭义相对论和质能方程(也就是那个知名公式 E=MC^2)。在后世评价中,这四篇论文每一篇都超过诺贝尔物理学奖的平均水平(爱因斯坦本人也因为光电效应论文获得了诺贝尔奖),人类文明的历史进程再一次被大大推进了好几步。

而刚刚过去的 2023 年,大概率也会因为 ChatGPT,而被称之为又一个「奇迹年」。

我们把 2023 年看做人类科技史上的有一个「奇迹年」,不仅是因为 GPT 在自然语言理解和生成上的巨大进步,更是因为人类从 GPT 的进化中摸清了大语言模型能力增长的规律——即通过扩大模型参数和训练数据,就能指数级别提升模型的能力——且这一进程短期还看不到瓶颈(只要算力够用的话)。

该能力远不至于理解语言和生成对话,还能被广泛地交叉用于各类科技领域,以大语言模型在生物领域的应用为例:

  • 2018 年,诺贝尔化学奖得主弗朗西斯·阿诺德在颁奖仪式上才说道:「今天我们在实际应用中可以阅读、写入和编辑任何 DNA 序列,但我们还无法通过它创作(compose it)。」仅仅在他讲话的 5 年后,2023 年,来自斯坦福大学和硅谷的 AI 创业企业 Salesforce Research 的研究者,在《自然 - 生物技术》发表论文,他们通过基于 GPT3 微调而成的大语言模型,从 0 创造出了全新的 100 万种蛋白质,并从中寻找到 2 种结构截然不同、却都具有杀菌能力的蛋白质,有希望成为抗生素之外的细菌对抗方案。也就是说:在 AI 的帮助下,蛋白质「创造」的瓶颈突破了。
  • 而在此前,人工智能 AlphaFold 算法在 18 个月内,把地球上几乎所有的 2.14 亿种蛋白质结构都做了预测,这项成果是过往所有人类结构生物学家工作成果的几百倍。

有了基于 AI 的各类模型,从生物科技、材料科学、药物研发等硬科技,再到法律、艺术等人文领域,必将迎来翻天覆地的变革,而 2023 正是这一切的元年。

我们都知道,近百年来人类在财富上的创造能力是指数级别增长的,而 AI 技术的快速成熟,必然会进一步加速这一进程。

全球 GDP 总量走势图,数据来源:世界银行

1.2 AI 与 Crypto 的结合

要从本质上理解 AI 与 Crypto 结合的必要性,可以从两者互补的特性开始。

AI 和 Crypto 特性的互补

AI 有三个属性:

  • 随机性:AI 具有随机性,其内容生产的机制背后是一个难以复现、探查的黑盒,因此结果也具有随机性
  • 资源密集:AI 是资源密集型产业,需要大量的能源、芯片、算力
  • 类人智能:AI(很快将)能够通过图灵测试,此后,人机难辨 *

※2023 年 10 月 30 日,美国加州大学圣迭戈分校的研究小组发布了关于 GPT-3.5 和 GPT-4.0 的图灵测试结果(测试报告)。GPT4.0 成绩为 41%,距离及格线 50% 仅差 9%,同项目人类测试成绩为 63%。本图灵测试的含义为有百分之多少的人认为和他聊天的那个对象是真人。如果超过 50%,就说明人群中至少有一半以上的人认为那个交谈对象是人,而不是机器,即视作通过图灵测试。

AI 在为人类创造新的跨越式的生产力的同时,它的这三个属性也给人类社会带来的巨大的挑战,即:

  • 如何验证、控制 AI 的随机性,让随机性成为一种优势而非缺陷
  • 如何满足 AI 所需要的巨大能源和算力缺口
  • 如何分辨人和机器

而 Crypto 和区块链经济的特性,或许正好是解决 AI 带来的挑战的良药,加密经济具有以下 3 个特征:

  • 确定性:业务基于区块链、代码和智能合约运行,规则和边界清晰,什么输入就有什么结果,高度确定性
  • 资源配置高效:加密经济构建了一个庞大的全球自由市场,资源的定价、募集、流转非常快速,且由于代币的存在,可以通过激励加速市场供需的匹配,加速到达临界点
  • 免信任:账本公开,代码开源,人人可便捷验证,带来「去信任(trustless)」的系统,而 ZK 技术则避免验证同时的隐私暴露

接下来通过 3 个例子来说明 AI 和加密经济的互补性。

例子 A:解决随机性,基于加密经济的 AI 代理

AI 代理(AI Agent)即负责基于人类意志,替人类执行工作的人工智能程序(代表性项目有 Fetch.AI)。假设我们要让自己的 AI 代理处理一笔金融交易,比如「买入 1000 美元的 BTC」。AI 代理可能面临两种情况:

情况一,它要对接传统金融机构(比如贝莱德),购入 BTC ETF,这里面临着大量的 AI 代理和中心化机构的适配问题,比如 KYC、资料审查、登录、身份验证等等,目前来说还是非常麻烦。

情况二,它基于原生加密经济运行,情况会变得简单得多,它会通过 Uniswap 或是某个聚合交易平台,直接用你的账户签名、下单完成交易,收到 WBTC(或是其他封装格式的 BTC),整个过程快捷简单。实际上,这就是各类 Trading BOT 在做的事情,它们实际上已经扮演了一个初级的 AI 代理的角色,只不过工作专注于交易而已。未来各类交易 BOT 随着 AI 的融入和演化,必然能执行更多复杂的交易意图。比如:跟踪 100 个链上的聪明钱地址,分析它们的交易策略和成功率,用我地址里的 10% 资金在一周内执行类似交易,并在发现效果不佳时停止,并总结失败的可能原因。

AI 在区块链的系统中运行会更加良好,本质上是因为加密经济规则的清晰性,以及系统访问的无许可。在限定的规则下执行任务,AI 的随机性带来的潜在风险也将更小。比如 AI 在棋牌比赛、电子游戏的表现已经碾压人类,就是因为棋牌和游戏是一个规则清晰的封闭沙盒。而 AI 在自动驾驶上的进展会相对缓慢,因为开放的外部环境的挑战更大,我们也更难容忍 AI 处理问题的随机性。

例子 B:塑造资源,通过代币激励聚集资源

BTC 背后的全球的算力网络,其当前的总算力(Hashrate: 576.70 EH/s)超过了任何一个国家的超级计算机的综合算力。其发展动力来自于简单、公平的网络激励。

BTC 网络算力走势,来源:https://www.coinwarz.com/

除此之外,包括 Mobile 在内的 DePIN 项目们,也正在尝试通过代币激励塑造供需两端的双边市场,实现网络效应。本文接下来将重点梳理的 IO.NET,则是为了汇聚 AI 算力设计的平台,希望通过代币模型,激发出更多的 AI 算力潜力。

例子 C:开源代码,引入 ZK,保护隐私的情况下分辨人机

作为 OpenAI 创始人 Sam Altman 参与的 Web3 项目,Worldcoin 通过硬件设备 Orb,基于人的虹膜生物特征,通过 ZK 技术生成专属且匿名的哈希值,用于验证身份,区别人和机器。今年 3 月初,Web3 艺术项目 Drip 就开始使用 Worldcoin 的 ID,来验证真人用户和发放奖励。

此外,Worldcoin 也在近日开源了其虹膜硬件 Orb 的程序代码,就用户生物特征的安全和隐私提供保证。

总体来说,加密经济由于代码和密码学的确定性、无许可和代币机制带来的资源流转和募集优势,和基于开源代码、公开账本的去信任属性,已经成为人类社会面临 AI 挑战的一个重要的潜在解决方案。

而且其中最迫在眉睫,商业需求最旺盛的挑战,就是 AI 产品在算力资源上的极度饥渴,围绕芯片和算力的巨大需求。

这也是本轮牛市周期,分布式算力项目的涨势冠绝整体 AI 赛道的主要原因。

分布式计算(Decentralized Compute)的商业必要性

AI 需要大量的计算资源,无论是用于训练模型还是进行推理。

而在大语言模型的训练实践中,有一个事实已经得到确认:只要数据参数的规模足够大,大语言模型就会涌现出一些之前没有的能力。每一代 GPT 的能力相比上一代的指数型跃迁,背后就是模型训练的计算量的指数级增长。

DeepMind 和斯坦福大学的研究显示,不同的大语言模型,在面对不同的任务(运算、波斯语问答、自然语言理解等)时,只要把模型训练时的模型参数规模加大(对应地,训练的计算量也加大了),在训练量达不到 10^22 FLOPs(FLOPs 指每秒浮点运算量,用于衡量计算性能)之前,任何任务的表现都和随机给出答案是差不多的;而一旦参数规模超越那个规模的临界值后,任务表现就急剧提升,不论哪个语言模型都是这样。

来源:Emergent Abilities of Large Language Models

来源:Emergent Abilities of Large Language Models

也正是在算力上「大力出奇迹」的规律和实践的验证,让 OpenAI 的创始人 Sam Altman 提出了要募集 7 万亿美金,构建一个超过目前台积电 10 倍规模的先进芯片厂(该部分预计花费 1.5 万亿),并用剩余资金用于芯片的生产和模型训练。

除了 AI 模型的训练需要算力之外,模型的推理过程本身也需要很大的算力(尽管相比训练的计算量要小),因此对芯片和算力的饥渴成为了 AI 赛道参与者的常态。

相对于中心化的 AI 算力提供方如 Amazon Web Services、Google Cloud Platform、微软的 Azure 等,分布式 AI 计算的主要价值主张包括:

  • 可访问性:使用 AWS、GCP 或 Azure 等云服务获取算力芯片的访问权限通常需要几周时间,而且流行的 GPU 型号经常无货。此外为了拿到算力,消费者往往需要跟这些大公司签订长期、缺少弹性的合同。而分布式算力平台可以提供弹性的硬件选择,有更强的可访问性。
  • 定价低:由于利用的是闲置芯片,再叠加网络协议方对芯片和算力供给方的代币补贴,分布式算力网络可能可以提供更为低廉的算力。
  • 抗审查:目前尖端算力芯片和供应被大型科技公司所垄断,加上以美国为代表的政府正在加大对 AI 算力服务的审查,AI 算力能够被分布式、弹性、自由地获取,逐渐成为一个显性需求,这也是基于 web3 的算力服务平台的核心价值主张。

如果说化石能源是工业时代的血液,那算力或将是由 AI 开启的新数字时代的血液,算力的供应将成为 AI 时代的基础设施。正如稳定币成为法币在 Web3 时代的一个茁壮生长的旁支,分布式的算力市场是否会成为快速成长的 AI 算力市场的一个旁支?

由于这还是一个相当早期的市场,一切都还有待观察。但是以下几个因素可能会对分布式算力的叙事或是市场采用起到刺激作用:

  • GPU 持续的供需紧张。GPU 的持续供应紧张,或许会推动一些开发者转向尝试分布式的算力平台。
  • 监管扩张。想从大型的云算力平台获取 AI 算力服务,必须经过 KYC 以及层层审查。这反而可能促成分布式算力平台的采用,尤其是一些受到限制和制裁的地区。
  • 代币价格的刺激。牛市周期代币价格的上涨,会提高平台对 GPU 供给端的补贴价值,进而吸引更多供给方进入市场,提高市场的规模,降低消费者的实际购买价格。

但同时,分布式算力平台的挑战也相当明显:

技术和工程难题

  • 工作验证问题:深度学习模型的计算,由于层级化的结构,每层的输出都作为后一层的输入,因此验证计算的有效性需要执行之前的所有工作,无法简单有效地进行验证。为了解决这个问题,分布式计算平台需要开发新的算法或使用近似验证技术,这些技术可以提供结果正确性的概率保证,而不是绝对的确定性。
  • 并行化难题:分布式算力平台汇聚的是长尾的芯片供给,也就注定了单个设备所能提供的算力比较有限,单个芯片供给方几乎短时间独立完成 AI 模型的训练或推理任务,所以必须通过并行化的手段来拆解和分配任务,缩短总的完成时间。而并行化又必然面临任务如何分解(尤其是复杂的深度学习任务)、数据依赖性、设备之间额外的通信成本等一系列问题。
  • 隐私保护问题:如何保证采购方的数据以及模型不暴露给任务的接收方?

监管合规难题

  • 分布式计算平台由于其供给和采购双边市场的无许可性,一方面可以作为卖点吸引到部分客户。另一方面则可能随着 AI 监管规范的完善,成为政府整顿的对象。此外,部分 GPU 的供应商也会担心自己出租的算力资源,是否被提供给了被制裁的商业或个人。

总的来说,分布式计算平台的消费者大多是专业的开发者,或是中小型的机构,与购买加密货币和 NFT 的加密投资者们不同,这类用户对于协议所能提供的服务的稳定性、持续性有更高的要求,价格未必是他们决策的主要动机。目前来看,分布式计算平台们要获得这类用户的认可,仍然有较长的路要走。

接下来,我们就一个本轮周期的新分布式算力项目 IO.NET 进行项目信息的梳理和分析,并基于目前市场上同赛道的 AI 项目和分布式计算项目,测算其上市后可能的估值水平。

2.分布式 AI 算力平台:IO.NET

2.1 项目定位

IO.NET 是一个去中心化计算网络,其构建了一个围绕芯片的双边市场,供给端是分布在全球的芯片(GPU 为主,也有 CPU 以及苹果的 iGPU 等)算力,需求端是希望完成 AI 模型训练或推理任务的人工智能工程师。

在 IO.NET 的官网上,它这样写道:

Our Mission

Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.

其使命是把百万数量级的 GPU 整合到它的 DePIN 网络中。

与现有的云 AI 算力服务商相比,其对外强调的主要卖点在于:

  • 弹性组合:AI 工程师可以自由挑选、组合自己所需要的芯片来组成「集群」,来完成自己的计算任务
  • 部署迅速:无需数周的审批和等待(目前 AWS 等中心化厂商的情况),在几十秒内就可以完成部署,开始任务
  • 服务低价:服务的成本比主流厂商低 90%

此外,IO.NET 未来还计划上线 AI 模型商店等服务。

2.2 产品机制和业务数据

产品机制和部署体验

与亚马逊云、谷歌云、阿里云一样,IO.NET 提供的计算服务叫 IO Cloud。IO Cloud 是一个分布式的、去中心化的芯片网络,能够执行基于 Python 的机器学习代码,运行 AI 和机器学习程序。

IO Cloud 的基本业务模块叫做集群(Clusters),Clusters 是一个可以自我协调完成计算任务的 GPU 群组,人工智能工程师可以根据自己的需求来自定义想要的集群。

IO.NET 的产品界面的用户友好度很高,如果你要部署属于自己的芯片集群,来完成 AI 计算任务,在进入它的 Clusters(集群)产品页面后,就可以开始按需配置你要的芯片集群。

页面信息:https://cloud.io.net/cloud/clusters/create-cluster,下同

首先你需要选择自己的任务场景,目前有三个类型可供选择:

  1. General(通用型):提供了一个比较通用的环境,适合早期不确定具体资源需求的项目阶段。
  2. Train(训练型):专为机器学习模型的训练和微调而设计的集群。这个选项可以提供更多的 GPU 资源、更高的内存容量和 / 或更快的网络连接,以便于处理这些高强度的计算任务。
  3. Inference(推理型):专为低延迟推理和重负载工作设计的集群。在机器学习的上下文中,推理指的是使用训练好的模型来进行预测或分析新数据,并提供反馈。因此,这个选项会专注于优化延迟和吞吐量,以便于支持实时或近实时的数据处理需求。

然后,你需要选择芯片集群的供应方,目前 IO.NET 与 Render Network 以及 Filecoin 的矿工网络达成了合作,因此用户可以选择 IO.NET 或另外两个网络的芯片来作为自己计算集群的供应方,相当于 IO.NET 扮演了一个聚合器的角色(但截至笔者撰文时,Filecon 服务暂时下线中)。值得一提的是,根据页面显示,目前 IO.NET 在线可用 GPU 数量为 20 万 +,而 Render Network 的可用 GPU 数量为 3700+。

再接下来就进入了集群的芯片硬件选择环节,目前 IO.NET 列出可供选择的硬件类型仅有 GPU,不包括 CPU 或是苹果的 iGPU(M1、M2 等),而 GPU 也主要以英伟达的产品为主。

在官方列出、且可用的 GPU 硬件选项中,根据笔者测试的当日数据,IO.NET 网络总在线的可用数量的 GPU 数量为 206001 张。其中可用量最多的是 GeForce RTX 4090(45250 张),其次是 GeForce RTX 3090 Ti(30779 张)。

此外,在处理 AI 计算任务如机器学习、深度学习、科学计算上更为高效的 A100-SXM4-80GB 芯片(市场价 15000$+),在线数有 7965 张。

而英伟达从硬件设计开始就专为 AI 而生的 H100 80GB HBM3 显卡(市场价 40000$+),其训练性能是 A100 的 3.3 倍,推理性能是 A100 的 4.5 倍,实际在线数量为 86 张。

在选定集群的硬件类型后,用户还需要选择集群的地区、通信速度、租用的 GPU 数量和时间等参数。

最后,IO.NET 根据综合的选择,会为你提供一个账单,以笔者的集群配置为例:

  • 通用(General)任务场景
  • 16 张 A100-SXM4-80GB 芯片
  • 最高连接速度(Ultra High Speed)
  • 地理位置美国
  • 租用时间为 1 周

该总账单价格为 3311.6$,单张卡的时租单价为 1.232$

而 A100-SXM4-80GB 在亚马逊云、谷歌云和微软 Azure 的单卡时租价格分别为 5.12$、5.07$ 和 3.67$(数据来源:https://cloud-gpus.com/,实际价格会根据合约细节条款产生变化)。

因此仅就价格来说,IO.NET 的芯片算力确实比主流厂商便宜不少,且供给的组合与采购也非常有弹性,操作也很容易上手。

业务情况

供给端情况

截至今年 4 月 4 日,根据官方数据,IO.NET 在供应端的 GPU 总供给为 371027 张,CPU 供给为 42321 张。此外,Render Network 作为其合作伙伴,还有 9997 张 GPU 和 776 张 CPU 接入了网络的供给。

数据来源:https://cloud.io.net/explorer/home,下同

笔者撰文时,IO.NET 接入的 GPU 总量中的 214387 处于在线状态,在线率达到了 57.8%。来自 Render Network 的 GPU 的在线率则为 45.1%。

以上供应端的数据意味着什么?

为了进行对比,我们再引入另一个上线时间更久的老牌分布式计算项目 Akash Network 来进行对比。

Akash Network 早在 2020 年就上线了主网,最初主要专注于 CPU 和存储的分布式服务。2023 年 6 月,其推出了 GPU 服务的测试网,并于同年 9 月上线了 GPU 分布式算力的主网。

数据来源:https://stats.akash.network/provider-graph/graphics-gpu

根据 Akash 官方数据,其 GPU 网络推出以来,供应端尽管持续增长,但截至目前为止 GPU 总接入数量仅为 365 张。

从 GPU 的供应量来看,IO.NET 要比 Akash Network 高出了好几个数量级,已经是分布式 GPU 算力赛道最大的供应网络。

需求端情况

不过从需求端来看,IO.NET 依旧处于市场培育的早期阶段,目前实际使用 IO.NET 来执行计算任务的总量不多。大部分在线的 GPU 的任务负载量为 0%,只有 A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3 四款芯片有在处理任务。且除了 A100 PCIe 80GB K8S 之外,其他三款芯片的负载量均不到 20%。

而官方当日披露的网络压力值为 0%,意味着大部分芯片供应都处于在线待机状态。

而在网络费用规模上,IO.NET 已经产生了 586029$ 的服务费用,近一日的费用为 3200$。

数据来源:https://cloud.io.net/explorer/clusters

以上网络结算费用的规模,无论是总量还是日交易量,均与 Akash 处在同一个数量级,不过 Akash 的大部分网络收入来自于 CPU 的部分,Akash 的 CPU 供应量有 2 万多张。

数据来源:https://stats.akash.network/

此外,IO.NET 还披露了网络处理的 AI 推理任务的业务数据,截至目前其已经处理和验证的推理任务数量超过 23 万个, 不过这部分业务量大部分都产生于 IO.NET 所赞助的项目 BC8.AI。

数据来源:https://cloud.io.net/explorer/inferences

从目前的业务数据来看,IO.NET 的供给端扩张顺利,在空投预期和代号「Ignition」的社区活动刺激下,让其迅速地汇聚起了大量的 AI 芯片算力。而其在需求端的拓展仍处于早期阶段,有机需求目前还不足。至于目前需求端的不足,是由于消费端的拓展还未开始,还是由于目前的服务体验尚不稳定,因此缺少大规模的采用,这点仍需要评估。

不过考虑到 AI 算力的落差短期内较难填补,有大量的 AI 工程师和项目在寻求替代方案,可能会对去中心化的服务商产生兴趣,加上 IO.NET 目前尚未开展对需求端的经济和活动刺激,以及产品体验的逐渐提升,后续供需两端的逐渐匹配仍然是值得期待的。

2.3 团队背景和融资情况

团队情况

IO.NET 的核心团队成立之初的业务是量化交易,在 2022 年 6 月之前,他们一直专注于为股票和加密资产开发机构级的量化交易系统。出于系统后端对计算能力的需求,团队开始探索去中心化计算的可能性,并且最终把目光落在了降低 GPU 算力服务的成本这个具体问题上。

创始人&CEO:Ahmad Shadid

Ahmad Shadid 在 IO.NET 之前一直从事量化和金融工程相关的工作,同时还是以太坊基金的志愿者。

CMO&首席战略官:Garrison Yang

Garrison Yang 在今年 3 月才正式加入 IO.NET,他此前是 Avalanche 的战略和增长 VP,毕业于加州大学圣巴巴拉分校。

COO:Tory Green

Tory Green 是 io.net 首席运营官,此前是 Hum Capital 首席运营官、Fox Mobile Group 企业发展与战略总监,毕业于斯坦福。

从 IO.NET 的 Linkedin 信息来看,团队总部位于美国纽约,在旧金山有分公司,目前团队人员规模在 50 人以上。

融资情况

IO.NET 截至目前仅披露了一轮融资,即今年 3 月完成的 A 轮估值 10 亿美金融资,共募集了 3000 万美金,由 Hack VC 领投,其他参投方包括 Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures 和 ArkStream Capital 等。

值得一说的是,或许是因为收到了 Aptos 基金会的投资,原本在 Solana 上进行结算记账的 BC8.AI 项目,已经转换到了同样的高性能 L1 Aptos 上进行。

2.4 估值推算

根据此前创始人兼 CEO Ahmad Shadid 的说法,IO.NET 将在 4 月底推出代币。

IO.NET 有两个可以作为估值参考的标的项目:Render Network 和 Akash Network,它们都是代表性的分布式计算项目。

我们可以用两种方式推演 IO.NET 的市值区间:1.市销比,即:市值 / 收入比;2.市值 / 网络芯片数比。

先来看基于市销比的估值推演:

从市销比的角度来看,Akash 可以作为 IO.NET 的估值区间的下限,而 Render 则作为估值的高位定价参考,其 FDV 区间为 16.7 亿~59.3 亿美金。

但考虑到 IO.NET 项目更新,叙事更热,加上早期流通市值较小,以及目前更大的供应端规模,其 FDV 超过 Render 的可能性并不小。

再看另一个对比估值的角度,即「市芯比」。

在 AI 算力求大于供的市场背景下,分布式 AI 算力网络最重要的要素是 GPU 供应端的规模,因此我们可以以「市芯比」来横向对比,用「项目总市值与网络内芯片的数量之比」,来推演 IO.NET 可能的估值区间,供读者作为一个市值参考。

如果以市芯比来推算 IO.NET 的市值区间,IO.NET 以 Render Network 的市芯比为上限,以 Akash Network 为下限,其 FDV 区间为 206 亿~1975 亿美金。

相信再看好 IO.NET 项目读者,都会认为这是一个极度乐观的市值推算。

而且我们需要考虑到,目前 IO.NET 如此庞大的芯片在线张数,有受到空投预期以及激励活动的刺激,在项目正式上线后其供应端的实际在线数仍然需要观察。

因此总体来说,从市销比的角度进行的估值测算可能更有参考性。

IO.NET 作为叠加了 AI+DePIN+Solana 生态三重光环的项目,其上线后的市值表现究竟如何,让我们拭目以待。

参考信息

Dephi Digital:The Real Merge

Galaxy:Understanding the Intersection of Crypto and AI