ESG披露指标中应增加一项AI披露指标

伦敦初创公司Builder.ai的崩盘,曾被誉为“无代码”AI软件开发先锋,估值一度达到15亿美元,却在2025年因财务造假、债务缠身和AI能力虚假宣传而迅速破产。这一事件不仅暴露了单一企业的失败,更警示整个AI行业可能迎来类似“绿色洗白”的监管风暴。Builder.ai成立于2016年,总部位于伦敦,在印度、美国加州等地设有运营中心。公司创始人Sachin Dev Duggal将其定位为革命性平台,通过名为“Natasha”的AI助手,让用户像在线购物一样轻松构建定制应用。公司宣称其平台能自动化软件开发生命周期,几乎无需人工干预,极大降低开发成本和时间。这一叙事深受投资者青睐。公司先后从微软、软银旗下基金、卡塔尔投资局(QIA)、国际金融公司(IFC)等重量级机构募集超过4.5亿美元资金。到2025年,其估值飙升至15亿美元,成为AI独角兽的代表。然而,现实远非宣传所言。多家媒体调查和前员工证言显示,Builder.ai的核心“AI”实际依赖数百名(据称约700名)印度和乌克兰的外包工程师进行大量手动编码工作。AI仅用于基本任务,如简单匹配或初步生成,而复杂逻辑、调试和定制化仍由人类完成。这种“幕后人工+前台AI”的模式,被业内称为“绿野仙踪”把戏(Wizard of Oz),即用人类模拟AI以制造自动化假象。公司虽使用了一些AI工具,但远未达到宣传的“高度自动化”水平。这种夸大宣传正是典型的AI洗白:将有限AI能力包装成全面智能,以博取估值溢价。崩盘导火索源于财务问题。2025年初,公司缺乏首席财务官已久,内部审计发现收入严重虚增。3月,彭博社报道Builder.ai夸大销售额,并与印度内容公司VerSe涉嫌“循环交易”(round-tripping)以伪造收入。债权人以色列贷款机构Viola Credit迅速行动,冻结并扣押3700万美元现金,导致公司现金仅剩500万美元,无法覆盖巨额债务——包括欠亚马逊云计算85百万美元、微软Azure 3000万美元等。5月,公司在美国申请破产保护,随后在英国、印度等地进入清算程序。曾经的独角兽瞬间归零,数百员工失业。随着人工智能(AI)技术在全球企业中的快速渗透,AI已从辅助工具演变为影响企业环境、社会和治理(ESG)表现的核心要素。2026年,AI治理已成为投资者关注的重大风险点。数据显示,S&P 500公司中披露AI策略的比例从2023年的12%跃升至2025年的72%,但许多企业在AI的环境影响、社会公平性和治理透明度上仍存在明显空白。当前主流ESG框架如ISSB(国际可持续性披露标准)、ESRS(欧洲可持续发展报告标准)和GRI虽强调气候风险和治理,但尚未将AI作为独立披露指标。这导致“AI洗白”(AI washing)现象频发,企业夸大AI能力却忽略其潜在负面影响。鉴于此,在ESG披露指标体系中增加一项专用“AI披露指标”已成为必要且紧迫的改革方向。首先,AI对ESG三维度的影响日益显著。在环境(E)方面,训练大型AI模型消耗巨量能源和水资源,导致碳排放激增。研究显示,未经治理的AI部署可能使企业碳足迹增加数倍,却鲜有企业在报告中量化AI相关排放。在社会(S)维度,AI算法偏见可能放大歧视风险,影响就业公平、隐私保护和包容性。缺乏透明披露会加剧社会不公。在治理(G)层面,AI决策的黑箱性质削弱董事会监督,增加算法风险和伦理漏洞。2025年以来,多家机构报告指出,48%的公司虽有AI策略,但97%未考虑AI的环境影响。这暴露了现有ESG指标的盲区:传统指标聚焦直接运营,却忽略AI作为新兴技术带来的系统性风险。其次,增加AI披露指标有助于防范“AI洗白”并提升报告质量。类似于“绿色洗白”,AI洗白指企业将有限AI应用包装成高度智能化,以抬高估值或吸引资金,却隐瞒人工依赖、数据偏见或高能耗。近期案例显示,一些科技公司通过关键词堆砌宣传AI,却未披露实际自动化比例或伦理评估。现有框架虽有反洗白机制(如情景分析或双重重要性),但缺乏针对AI的具体量化指标。引入专用指标可要求企业披露:AI采用强度(例如年度报告中AI相关关键词出现频次或投资占比)、AI相关碳排放估算、算法偏见审计结果、AI治理框架(如伦理委员会设立、风险评估流程)以及AI对供应链或员工的影响。这些指标可借鉴澳大利亚政府和CSIRO的“负责任AI与ESG框架”,包括人类福祉、公平性、隐私安全等原则下的具体问题和度量。第三,从监管和市场趋势看,这一增加具有可行性和前瞻性。ISSB和ESRS虽在2025-2026年简化部分要求,但同时强调治理完整性和全球基准一致性。投资者已将AI治理视为整体治理的关键组成部分。Thomson Reuters等机构数据显示,AI治理缺失正成为ESG风险新来源。欧盟和美国监管机构正加强对AI透明度的审查,SEC主席曾警告“AI洗白”是高科技版的绿色洗白。GRI等框架也在探索AI伦理整合。如果主流标准率先纳入AI指标,将推动全球趋同,避免报告碎片化。同时,这能为企业提供指导:通过披露AI使用比例、能源消耗和偏见缓解措施,企业可提升透明度,降低融资成本,并吸引注重负责任创新的投资者。当然,增加AI披露指标需平衡负担与益处。初期可设为自愿或分阶段强制:大型企业先披露核心指标(如AI碳足迹和治理政策),中小企业采用简化版。指标设计应参考现有实践,例如使用NLP分析年度报告中的AI提及频次作为代理变量,或要求第三方审计AI影响评估。同时,加强与分类法(如欧盟分类法)的整合,避免重复报告。潜在挑战包括数据可用性和标准化,但AI自身可助力:利用机器学习自动化提取和验证披露数据,实现高效合规。总之,在AI时代,ESG披露若忽略AI,将无法全面反映企业可持续性。增加一项专用AI披露指标,不仅能填补治理空白、遏制洗白风险,还将强化企业责任感,推动技术向善发展。这不仅是监管升级,更是适应数字转型的必然选择。只有将AI纳入ESG核心框架,企业才能在变幻莫测的技术浪潮中实现真正可持续的价值创造。





