区块链与人工智能:探索技术革新之路的局限与挑战
2024-11-07 13:04
Kava Labs
2024-11-07 13:04
订阅此专栏
收藏此文章

人工智能与区块链技术的结合是否预示着下一场技术革命的到来,还是说这种技术融合正面临发展上的重重束缚?

我们之前的文章已经探讨了这两种技术结合在医疗健康、全球供应链等多个领域激发下一场工业革命的巨大潜力。然而,尽管公众讨论多聚焦于这一结合可能带来的种种益处,我们也必须清醒地认识到,开发者和创业者在这一过程中需要克服诸多切实且艰巨的挑战。

在本文中,我们将深入剖析人工智能与区块链技术融合在真正改变世界之前,必须解决的关键问题:数据质量与完整性、可扩展性以及能源消耗。这些问题不仅关乎技术的实际应用效果,更是决定这一技术融合能否成功引领技术革命的重要因素。

地球上最宝贵的资产

数据一直以来都是企业不可或缺的核心资源。它为企业提供了深入分析内部运作的契机,助力企业制定并实施更加高效的政策以应对各种挑战。通过深入挖掘公司内部信息的细节与背景,能够为企业健康状况提供精确的诊断。

步入数字时代,数据的价值更是实现了飞跃式的增长。上世纪 90 年代末至 21 世纪初,随着互联网的蓬勃发展,越来越多的人开始在网络上留下自己的数字足迹,这些足迹中蕴含着丰富的客户偏好信息,能够直接映射到用户的个人生活。企业对这些数据的收集与营销,为 Google、Facebook、Amazon、Apple 和 Netflix 等全球顶尖的科技巨头奠定了坚实的基石。

在当今这个数字化时代,每一次搜索请求、评论、点赞或按钮点击,都成为了企业竞相追逐的宝贵资源。数据量的迅猛增长更是进一步凸显了其在现代商业中的重要性。据统计,2010 年全球产生的数据量约为2 泽字节(zettabytes),而到 2024 年底,这一数字预计将激增至147 泽字节,其中90% 的数据都是在过去两年内产生的。这一趋势的加速离不开社交媒体算法的推动、智能手机的普及以及用户生成内容的增加,而前沿人工智能模型的引入更是为这一浪潮注入了新的动力。

并非所有数据模型都平等

这一庞大的数据宝库,无疑为人工智能的飞速发展提供了强大动力。人工智能模型在训练阶段,需深入分析海量数据缓存,方能产出精准的预测结果。

孤立的数据孤岛

尽管这些中心化技术垄断企业的崛起创造了极其宝贵的数据孤岛,但这些数据中心间却大多相互隔绝,导致训练数据开发受限,整体质量参差不齐。大型科技公司迅速收紧对数据抓取的限制,使得人工智能开发者难以获取某些平台的数据。例如,2024 年 2 月,Elon Musk 对 Twitter(X)实施了推文限制,凸显了数据在现代人工智能时代的极端宝贵性。

颇具讽刺意味的是,人工智能领域的超高速增长和激烈竞争,最终迫使其他平台选择合作并开源基础模型。2024 年 7 月,Meta 开源 Llama 3.1便是明证。

如今,试图构建新人工智能协议的区块链开发者也面临着类似挑战。多数 Layer 1 区块链仍与其他项目隔绝,用户往往根据特定用例选择协议,如交易或借贷等,且可能在不同项目中采取不同的参与策略,倾向于将高风险项目与其余投资组合分开。尽管Cosmos等互操作性协议正试图破解这一难题,构建更全面的生态图景,但数据集碎片化问题依然严峻。缺乏用户数据的全貌,人工智能协议的质量或将支离破碎,难以完整呈现。

数据污染和输出错误信息

另一个亟待解决的攻击向量在于数据完整性的脆弱性,其极易遭受破坏或操纵。恶意的数据污染或特洛伊木马攻击,即向原始训练数据中掺入虚假或误导性信息,可导致模型输出误导信息和幻觉。在区块链人工智能协议中,训练用的原始数据同样面临此类风险。特别是交易量较小的小型孤立 Layer 1 区块链和可以掩盖交易量的大型中心化交易所,它们尤为脆弱。FTX 交易所的崩溃部分归因于此,该交易所混淆并混合了用户资金与 Alameda Research 的资金。

原始数据处理不当会引发 AI 模型输出偏差,导致在权重和偏见分配不当时产生不准确的结果。例如,谷歌 Gemini 生成式 AI 工具的早期版本曾错误地将开国元勋描绘成有色人种,原因在于 Gemini 团队在训练模型时,过度强调社会多元化回应,忽视了上下文差异。AI 模型的输出直接反映其训练数据的准确性和所施加的权重,任何模糊处理都将削弱模型的可信度或导致结果误导。区块链与 AI 原始数据集的整合,利用不可篡改和不可腐败的数据,可生成更准确、更透明的结果。

扩展 AI

AI 开发不仅面临技术挑战,还伴随着高昂的成本和扩展难题。开发者间的竞争依然激烈,而芯片制造业难以满足日益增长的需求。启动资金巨大,且需吸引这一新兴且快速增长行业中稀缺的知识型开发者。

前面提到的数据孤岛也是区块链 AI 协议可扩展性的重大障碍。加之必须先行审查、清理、组织和标记的数据量持续膨胀,对初创企业而言,开发成本显得尤为高昂。

然而,去中心化物理基础设施网络(DePIN)中整合区块链技术和 AI 为解决 AI 开发难题提供了新的可能。通过构建模块化多 AI 代理系统,如Fetch.ai等公司有助于降低 AI 部署成本。AIOZKoii网络等专注于去中心化计算的 DePIN 区块链项目,通过分散和分配未使用空间的能源负载,有助于削减 AI 和区块链协议的计算成本。此外,区块链技术能提供数据源起源的不可篡改记录,有助于从源头上识别并解决数据污染和特洛伊木马攻击问题。

能源需求问题

区块链社区,尤其是那些使用能量密集型共识机制(如 Proof-of-Work)的区块链参与者,对能源消耗问题再熟悉不过了。人工智能开发的能源密集型性质也使主流媒体和全球观众陷入了类似的关注。2024 年 1 月,国际能源署(IEA)发布了全球能源使用预测报告。当时,该机构得出结论,用于 AI 开发和加密货币挖矿的数据中心占全球能源使用的 2%。预测报告的第二部分指出,到 2026 年,这一数字将翻倍。

能源消耗问题曾被作为攻击 PoW 协议浪费资源的手段。AI 数据中心的高能耗虽带来潜在利益,但能源成本及其可能引发的能源基础设施和电网系统性风险同样不容忽视。随着 AI 协议能源需求预计在未来两年内倍增,这一问题无疑将吸引更多关注,并要求能源电网大力扩张以适应新需求。

然而,区块链技术和 PoW 协议在应对能源品牌攻击方面已有十五年经验。它们已证明,如比特币这样的 PoW 协议能通过利用被困和损失能源(如油田燃烧气体市政垃圾场甲烷气体等)来强化能源电网。得克萨斯州电网 ERCOT 的前首席执行官便积极评价了比特币在加速绿色能源转型及通过需求响应稳定能源电网方面的能力。同样,AI 数据中心也有潜力与去中心化物理基础设施网络(DePIN)架构结合,实现类似效果。

通过借鉴区块链在能源管理方面的适应性策略,AI 项目可缓解公众担忧,并与可持续实践保持一致,确保其增长不以牺牲能源稳定性为代价。

值得注意的是,关于 AI 能耗的早期报道相较于 PoW 协议此前所遭遇的舆论更为积极。世界经济论坛(WEF)的文章指出,新的能源需求正推动电网应用和绿色能源转型,而非采取对抗性态度反对区块链发展。然而,若这种转型开始挤占日常能源使用,其在短期和中期内的实现方式仍可能成为公众争议的焦点。

大胆挑战,大胆领导

我们正置身于技术日新月异的洪流之中。这场变革携带着诸多亟待攻克的挑战。尽管人工智能与区块链技术融合的热潮听起来或许有些言过其实,但它们对世界的深远影响却是确凿无疑的。能源使用、可扩展性,以及对输入模型的原始数据的信赖度等挑战,均不可等闲视之。

要跨越这些障碍,发掘创新之道,离不开开发者和企业家的不懈奋斗。然而,值得我们稍感宽慰的是,区块链社区在过去的十五年里,始终在探索各种新颖的解决方案,从 Zero-Knowledge 协议到 Layer 2 扩展技术,再到更为节能的共识机制,不一而足。若论谁能够担纲此任,开发者们无疑是最佳人选。

获取更多Kava信息:

官网:https://www.kava.io/

中文 Twitter:@KavaChinese

中文电报群:https://t.me/KavaChinese

查阅代码: https://github.com/kava-labs

订阅 Kava YouTube: https://www.youtube.com/c/Kavalabs/videos


区块链与人工智能:探索技术革新之路的局限与挑战 was originally published in KavaChinese on Medium, where people are continuing the conversation by highlighting and responding to this story.

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

Kava Labs
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开