出品|虎嗅ESG组
作者|陈玉立
头图|AI生成
本文是#ESG进步观察#系列第161篇文章
本次观察关键词:AI
我们可能还是低估了这一波AI Agent可能带来的颠覆变化。
近半个月以来,OpenClaw成为各大社交媒体平台讨论最多的AI软件,人们对其的态度也经历了从热捧到质疑再到理性看待的过程。
恰逢前两天“3·15”,其中被曝光的GEO与“AI投毒论”再一次强化了人们对AI滥用的警惕。
一连串事件过后,更值得探究的关键问题在于——先不论个体对于OpenClaw的使用效率能达到多少(毕竟因人而异),当AI Agent从被动建议变为主动执行后,这一新技术究竟给人类的隐私让渡与伦理带来了怎样的影响,以及当AI使用不当对个体的权益带来侵害时,究竟该如何定责?
在我们对技术革命的“兴奋”逐渐消退后,更现实的治理问题摆在了台面上,如何在创新与安全之间找到平衡,将成为这一轮技术浪潮必须回答的时代命题。
在分析AI会如何广泛影响商业及伦理之前,我们有必要先弄清楚一个问题,即当前的AI走到哪一步了,以及AI Agent可能会如何改变当前的商业版图。一个可行的思路是,将爆火的OpenClaw放入整个AI产业的发展周期中去理解它的位置。
灵碳智能创始人李博杰认为,当前AI的发展处于“预期膨胀的顶峰期”。无论是OpenClaw还是AI Agent,本质上都是围绕技术讲故事。但是从技术到产品,中间还有相当长的一段距离。
“对比互联网刚刚诞生时期的泡沫期会更贴切,泡沫期中的热门公司甲骨文到现在都没有回到当年泡沫时期的估值,”李博杰说道:“互联网泡沫其实孵化出了很多优秀的技术、商业模式和公司,就像火箭的推进器,每一级都需要强大的推力(泡沫)帮助火箭提升速度,快速推动技术发展。”
而在“预期膨胀的顶峰期”过去后,AI产业会进入“幻灭期”,泡沫会破裂、消耗殆尽,然后会有新的技术泡沫出现,继续推动技术前进,直到这项技术成熟,被大众普遍使用,不再被过度讨论。
图源:Gartner
“OpenClaw及AI Agent虽然是泡沫期的产物,但我们也不能把OpenClaw和AI Agent简单定义为同一代技术,”灵碳科技创始人李博杰分析道:“OpenClaw比AI 更极端,极端在它具备了执行能力。”
简单来说,AI Agent是做规划和分析的工具,可以替代人做更复杂的规划、检索、分析工作,偏向脑力层面;但OpenClaw却赋予了AI工具执行能力,能直接帮人完成任务,比如操控电脑、下单买股票、写文章甚至运营公众号,它是AI Agent的进一步延伸。
“现在产业已经开始关注为AI准备数据的相关领域,包括所有面向大模型的数据处理能力,比如数据后处理、预处理、标注、合成数据等,现在很多做具身智能的公司都在讲合成数据的故事,”李博杰指出:“未来AI会像互联网的发展一样进入第四个‘启蒙期’,那时大众不会再过度讨论它,AI要么成功落地,要么就此消亡。”
但无论AI产业怎么发展,李博杰却有一个判断与当下的共识不谋而合,即AI Agent会成为未来一切需求的入口。
就像此前人们使用智能手机一样,在移动互联网时代,智能手机的作用是连接各类服务的入口,比如社交、支付、出行、外卖等等。但在AI Agent成熟的时代,用户不会再逐个打开APP,而是通过向AI Agent表达需求来达到目的。
例如用户会先表达需求“帮我订明天去上海的高铁和酒店”“整理一下这周行业新闻”“给客户做一份报告初稿”,之后AI Agent再去调用各种应用完成任务。这种模式一旦成立,当前基于移动互联网的商业模式从“人找服务”,变成“服务被AI Agent调用”。
而这一商业范式便将我们引向了开头所讨论的问题——个体的隐私权是否会被让渡,AI的滥用又将如何被定责。因为智能手机时代的数据结构被各个平台分开收集,但AI时代数据很可能会被集中到一个AI Agent上。
换句话说,Agent必须了解你,才能代表你行动,于是它很可能成为最了解你的数字系统。
李博杰认为,AI Agent时代个体的隐私权不存在是否“让步”的问题,甚至有可能出现不再由你自己掌控的情况。
“举个例子,假如未来出现了一个能力很强的AI医疗服务,它为了治疗你的疾病需要获取你所有的生活作息数据、身体实时的各项指标,甚至包括你家人的遗传信息、你的基因信息,这种情况下的隐私让渡已经达到了极限,但它能帮你治病,为你研发针对病症的特效药,你是否会选择接受?”李博杰说道:“延伸到其他领域也是一样,AI Agent几乎能够帮你作出任何最有利的决定,但代价是把你各类相关的偏好/习惯都告诉它。”
对个体权利的挑战不仅存在于个人生活领域,在工业生产中同样凸显——当 AI 替代工厂所有管理人员且掌握工厂控制权时,工厂的实际运营主体、AI 行为的责任归属应该如何界定?
虎嗅ESG组认为,用户对于隐私让渡的接受度,本质上取决于两个核心因素:一是能从隐私让渡中获得的实际好处,二是掌控 AI 技术的企业是否具备足够的可信度。回顾此前李彦宏关于“部分人愿意用隐私换取效率”的争议性言论,客观说明确实存在部分用户一旦感知到AI能为生活带来颠覆性改变,会更快接受这种隐私让渡的模式。
我们也可以从历史发展与全球竞争角度来审视这一命题。当下AI 时代的隐私观与伦理观重塑正面临着两种截然不同的可能性。一种是积极拥抱技术的开放模式,如同工业革命时期若能主动接受铁路等新技术,便能抓住发展机遇;反之,若像当年慈禧拒绝修铁路那般死守传统规则,将AI“封在罐子里”,最终只会被掌握最新技术的主体降维打击。
李博杰认为,理想的隐私与数据治理机制,其核心是实现“数据获取与收益对等”,即每一次个人隐私与数据的让渡,都必须让贡献者获得高于让渡成本的实际回报,且数据的获取必须具备明确的目的性与相关性。
“比如为医疗服务获取个人医疗数据合理,但借机采集与医疗无关的短视频浏览、聊天记录等信息,则属于明确的数据泄露,”李博杰说道:“这种精细化的治理规则,需要由兼具行业专业知识与职业良知的从业者制定,若由大模型企业、政府或专家学者单一主体一刀切管控,最终只会走向两个极端——要么过度保守将AI‘封在罐子里’,要么放任技术无序发展,最终因各种问题爆发而被迫叫停。”
在隐私让渡之外,责任界定与承担是更复杂、更现实的核心问题。李博杰构想了两种可能的AI Agent发展范式,一种是“一家企业足够强大进而垄断入口”模式,另一种是 “统一入口+多元应用生态”模式。“从治理角度看,后者的模式更健康,一方面国家可对入口进行适度管控,另一方面在入口之后不同场景下的应用由不同公司运营,也能分别承担起相应的责任。”
当然,这一切都像是在为未来的想象下定义,毕竟AI产业的发展尚未真正走到那一步。但归根结底,AI 时代的隐私让渡与伦理治理,并非简单的 “要不要保护隐私”“要不要发展技术” 的二元选择,而是要在技术发展与隐私保护之间找到平衡。
这种平衡的实现,需要摒弃保守封闭的思维,主动拥抱技术创新,同时建立精细化、贴合实际的治理规则与责任体系,既发挥AI提升效率、创造价值的核心作用,也让个人隐私与数据得到合理的保护与尊重。
从更专业的治理语境出发,AI 时代的治理问题与 ESG(环境、社会、治理)三大核心维度高度契合,后者恰好能够为AI的健康发展提供底层框架与价值指引。
香港大学当代中国与世界研究中心资深研究员施涵认为,AI 治理并不是 ESG 之外凭空增加的“第四支柱”,而更适合作为一个横跨环境、社会与治理三大维度的复合议题来理解。
对于那些已经在经营管理、客户服务、风控决策、供应链协调等环节深度部署 AI Agent 的企业而言,这一议题甚至可能演变为具有财务实质性的风险与机遇议题,因此有必要被正式纳入 ESG 视野。
变化的关键,在于 AI 系统的角色正在发生转变。相较于以识别、分析、预测和内容生成为主的传统 AI 应用,AI Agent 的突出特征在于其具备更强的任务分解、工具调用、外部系统交互和自主执行能力。正因为如此,企业治理的重点也不能再仅停留在数据安全、模型准确性和隐私保护层面,而必须进一步前移到行为约束、权限边界、问责机制、人类监督、事件响应和持续监测等方面。
从 ESG 的视角看,施涵认为在AI时代,企业责任边界的扩展至少体现在以下四个方面:
第一,企业责任正从关注“输出结果”延伸到关注“行为过程”。过去,企业主要为 AI 系统生成的内容负责;而在 AI Agent 场景下,企业还必须对其如何行动、在何种权限下行动、影响了哪些业务流程、是否触发了高风险决策,以及在不确定情境下是否能够被及时叫停和纠偏负责。
第二,AI 治理已不再只是一个技术控制问题,也是一项涉及社会影响与基本权利保障的责任议题。它至少关涉员工是否会因自动化受到不公平影响,个人数据和隐私是否得到尊重,算法是否会放大歧视,消费者是否拥有知情、申诉与补救渠道,以及相关系统是否真正尊重人的尊严与自主性。
第三,AI Agents 为企业打开了新的风险传导渠道。因为它们能够“采取行动”而不仅仅是“提出建议”,所以可能在更大范围内放大网络安全风险、提示词注入风险、权限失控、虚假信息传播、偏见扩散、安全事故以及运营失误。
这意味着,AI Agent 的风险已经不能被视作单纯的 IT 问题,而应被纳入企业整体风险管理体系,与内控、法务、合规、审计和业务治理协同处理。
第四,AI 既可能成为 ESG 风险源,也可能成为 ESG 价值创造工具。一方面,它可能带来更高的能耗、硬件资源消耗、劳动力替代压力、歧视性决策以及治理失灵等问题;另一方面,它也可能被用于气候建模、电网优化、资源效率提升、安全监测和供应链追溯等场景。
真正的关键并不在于企业“是否使用 AI”,而在于企业“在什么治理条件下使用 AI”,以及这种使用是否经过目标设定、影响评估和效果验证,最终能否形成净的可持续价值。
施涵进一步指出,将AI治理纳入ESG一个更务实的做法,是把它理解为一个分层嵌入、交叉治理的问题。
在治理(G)层面,企业首先需要明确AI 的治理架构与责任归属,包括董事会或相关委员会对重大AI 风险与机遇的监督职责,管理层对部署、审查、升级、暂停和退出机制的管理职责,以及业务部门、技术团队、风控合规部门之间的分工边界。
在社会(S)层面,重点应放在AI 对人的实际影响上。这不仅包括偏见与歧视测试、员工影响评估、负责任自动化、数据权益保护、消费者保护和无障碍设计,也包括对受影响主体进行充分沟通,以及建立申诉、纠错和补救机制。需要注意的是,许多AI 议题并不能被简单划入某一个维度之中。
例如,算法歧视既是社会问题,也依赖治理结构中的审查、问责与纠偏机制,因此企业不能用“分栏管理”的方式替代真正的交叉治理。
在环境(E)层面,企业则应同时衡量AI 的环境足迹与环境效益。对于开发或大规模使用AI 的企业来说,这意味着不仅要关注模型训练和推理过程中的能耗、算力依赖、硬件生命周期和潜在水资源消耗,也要评估AI 是否确实帮助企业在其他业务环节减少排放、优化资源使用、提高环境绩效。
AI 不能因为带有“数字化”标签就自动被视为绿色,其环境负荷与减排贡献都应被纳入综合评价。
“AI Agents 正在推动 ESG 治理变得更加关注行为本身、系统逻辑及其长期影响。企业责任的边界,正在从‘管理企业直接做了什么’,扩展到‘管理那些在授权范围内代表企业行动的半自主数字系统做了什么’,”施涵分析道。
总而言之,面对 AI Agent 所带来的技术变革,既不能放任其成为冲击规则与责任边界的失控力量,也不能因过度担忧风险而将其拒之门外。无论是盲目乐观,还是过度保守,都可能使企业错失技术进步所带来的重要机遇。如何在创新激励、风险防控与责任治理之间取得平衡,很可能将成为 AI 时代最重要的议题之一。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4843239.html?f=wyxwapp