2024-11-06
去中心化AI:可信任AI代理的一种途径
Oasis公司AI主管Marko Stokic表示,去中心化的AI为我们提供了信任即将融入我们数字生活的AI代理的一条途径。
著名的哈佛心理学家B.F.斯金纳曾指出,“真正的问题不在于机器是否会思考,而在于人类是否会思考。” 这一妙语道出了一个重要的观点:我们对技术的信任取决于人类的判断力。我们真正需要担心的不是机器的智能,而是那些掌控它们的人类的智慧和责任心。至少,在过去是这样的。
随着像ChatGPT这样的软件如今成为许多工作生活中不可或缺的一部分,斯金纳的见解似乎显得有些过时了。AI代理的迅速崛起——能够感知环境并采取行动以实现特定目标的软件实体——从根本上改变了原有的范式。这些数字助手源自2020年代初期消费者AI的兴起,如今已渗透到我们的数字生活中,处理从安排会议到做出投资决策的各种任务。
什么是AI代理?
AI代理与像ChatGPT这样的大型语言模型(LLM)在自主行动的能力上存在显著差异。LLM主要用于处理和生成文本,而AI代理则被设计为能够感知其环境、做出决策并采取行动以实现特定目标。这些代理结合了多种AI技术,包括自然语言处理、计算机视觉和强化学习,使它们能够根据自身经验进行适应和学习。
然而,随着AI代理的不断增多和迭代,人们的不安感也在逐渐加剧。我们能否真正信任这些数字实体?这个问题远非学术层面的讨论。AI代理在复杂环境中运行,基于庞大的数据集和复杂的算法做出决策,而即便是其创造者也难以完全理解其工作原理。这种内在的模糊性滋生了不信任感。当一个AI代理推荐某种医疗方案或预测市场趋势时,我们如何确定其选择背后的逻辑依据?
对AI代理的信任一旦被错误地寄托,后果可能是灾难性的。试想一下,一个由AI驱动的金融顾问因误读某个数据点而意外引发市场崩溃,或是一个医疗AI基于有偏差的训练数据推荐了错误的治疗方案。潜在的危害并不限于某个特定领域;随着AI代理日益融入我们的日常生活,它们的影响力也在成倍增长。一旦出现失误,其影响可能会波及整个社会,牵涉到从个人隐私到全球经济的方方面面。
信任缺失的核心在于一个根本问题:集中化。
AI模型的开发和部署主要由少数科技巨头掌控。这些集中化的AI模型作为黑箱运作,其决策过程对公众审查而言是模糊不清的。这种缺乏透明度使得在高风险操作中几乎不可能信任它们的决策。当我们无法理解或验证AI代理的推理时,我们如何能依赖它来做出关键选择?
解决方案:去中心化
然而,这些担忧的解决方案确实存在:去中心化AI。这种范式为实现更透明和更可信的AI代理提供了一条路径。这种方法利用区块链技术和其他去中心化系统的优势,创建出不仅强大而且负责任的AI模型。
建立对AI代理信任的工具已经存在。区块链能够实现可验证的计算,确保AI的行动可审计且可追溯。每个AI代理所做的决策都可以记录在公共账本上,从而实现前所未有的透明度。同时,像可信执行环境机器学习(TeeML)这样的先进加密技术可以保护敏感数据并维护模型的完整性,实现透明性和隐私的双重保障。
随着AI代理越来越多地在公共区块链上或与之相邻操作,可验证性这一概念变得至关重要。传统的AI模型可能难以证明其操作的完整性,但基于区块链的AI代理能够提供其行为的加密保证。这种可验证性不仅仅是技术上的细节;它是高风险环境中建立信任的基本要求。
机密计算技术,特别是可信执行环境(TEEs),提供了重要的保障层。TEEs提供一个安全的保护区,AI计算可以在其中进行,避免潜在的干扰。这项技术确保即使是AI系统的操作员也无法篡改或监视代理的决策过程,从而进一步增强了信任。
像Oasis Network的运行时离链逻辑(ROFL)这样的框架代表了这一方法的前沿,能够无缝地将可验证的AI计算与链上可审计性和透明性结合起来。这些创新拓展了基于AI的应用程序的可能性,同时保持了最高标准的信任和透明度。
迈向可信赖的AI未来
通往可信赖AI代理的道路并非没有挑战。技术障碍依然存在,去中心化AI系统的广泛采用将需要行业实践和公众理解的转变。然而,潜在的回报是巨大的。想象一个世界,在这个世界中,AI代理以完全透明的方式做出关键决策,其行为可以被任何人验证和审计,并且人工智能的力量是分散的,而不是集中在少数公司的手中。
同时,这也是释放显著经济增长的机会。2023年一项来自北京的研究发现,AI渗透率提高1%将导致总要素生产率(TFP)提高14.2%。然而,大多数关于AI生产力的研究集中在通用大型语言模型(LLMs)上,而不是AI代理。能够独立执行多项任务的自主AI代理有可能带来更大的生产力提升。可信且可审计的AI代理可能会更加高效。
也许是时候更新斯金纳的名言了。真正的问题不再是机器是否思考,而是我们是否能信任它们的思考。通过去中心化的AI和区块链技术,我们拥有建立这种信任的工具。现在的问题是,我们是否具备使用这些工具的智慧。