人工智能风险
搜索文档
核心争议:可持续投资格局有何转变?2026 年将塑造行业的新兴主--Big Debates How has sustainable investing shifted and what emerging themes are likely to shape the landscape in 2026
2025-12-18 02:35
涉及的行业或公司 * 行业:可持续投资(ESG投资)领域,特别聚焦于欧洲市场 [1] * 公司:未提及具体上市公司,但报告由摩根士丹利(Morgan Stanley)的多位股票策略师和分析师团队撰写 [4] 核心观点和论据 * **2025年可持续投资的重大转变**:可持续投资在2025年经历了显著转变,由政策不确定性、企业目标调整以及投资范围扩大至国防领域所塑造 [7][8] * **转变的性质是节奏而非方向**:当前转变被视为投资节奏的变化,而非方向的根本逆转,欧洲的长期净零承诺得以保留,但脱碳努力可能更集中于后期或时间线被推迟 [9][10] * **企业脱碳目标趋于务实**:企业(尤其是工业领域)对脱碳采取了更务实的态度,投资者更看重现实、可实现的目标,而非过于雄心勃勃的承诺 [12][13] * **可持续投资新范式**:ESG制度正在转变,新范式尚未完全确定,但一些关键考量正在浮现 [14] * **企业目标重要性下降,参与和基本面分析重要性上升**:随着企业承诺变化,长期目标对投资者的重要性降低,自愿净零联盟的价值减弱 [15],评估企业可持续发展战略的可信度越来越依赖于企业参与 [16],同时,可持续投资领域今年出现了向基本面分析的回归,资本支出分配和投资回报是关键指标 [17] * **投资范围扩大**:随着投资焦点转向“改善者”和“赋能者”,以及武器相关排除政策的放宽,可投资领域比以前更大 [18] * **可持续投资的价值超越ESG**:在ESG情绪降温的背景下,可持续投资的价值体现在:定价外部性、规避争议风险、提升质量以及气候韧性等方面 [19][22] * **2026年核心与新兴主题**: * **安全**:预计在2026年仍将是一个突出主题,不仅包括国家安全和国防,还包括关键矿物安全、资源效率和能源安全 [7][23] * **网络安全**:被视为新兴主题,网络威胁随着AI扩张而增加,但可持续基金对该领域的配置显著低于基准 [23] * **AI风险与负责任AI**:投资者对AI风险(如网络安全、工作替代、偏见等)和负责任AI实践的问题日益增多,监管(如欧盟AI法案)将发挥关键作用 [23] * **气候韧性**:被视为新兴主题,投资者认识到在气候风险加剧的背景下,气候适应解决方案与减缓解决方案同样必要 [7][24] * **主题基金资金流向**:截至2025年第三季度,**安全**主题获得了最大的年初至今净流入,紧随其后的是**AI + 大数据**主题 [19][20][21] 其他重要内容 * **政策与宏观环境影响**:欧美政策不确定性是影响企业气候承诺的关键因素,高利率环境、高能源成本以及部分气候技术(如绿氢)发展慢于预期也产生了影响 [11] * **“绿色静默”现象**:过去一年,全球范围内的企业“绿色静默”现象变得更加普遍 [11] * **共同利益的重要性**:可持续商业转型的共同利益(如改善供应链安全、资源效率、提高农业产量等)对于绿色项目的成功至关重要 [17] * **SFDR改革的影响**:欧盟可持续金融信息披露条例(SFDR)的改革将重塑投资者关注的指标 [17]
速递|李飞飞团队发布41页AI监管报告,称全球AI安全法规应预判未来风险
Z Potentials· 2025-03-20 02:56
文章核心观点 - 加州政策团体发布中期报告,主张人工智能监管政策需预见尚未观察到的未来风险 [1][2] - 报告建议通过立法强制AI开发者提高透明度,并加强第三方验证和举报人保护 [2][3] - 报告提出的双管齐下策略获得人工智能政策辩论双方专家的广泛好评 [4] 报告背景与组成 - 报告由加州前沿人工智能模型联合政策工作组发布,该工作组由州长加文·纽森在否决SB 1047法案后组织成立 [1] - 报告共41页,由人工智能先驱李飞飞、加州大学伯克利分校计算机学院院长詹妮弗·查耶斯及卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔共同撰写 [2] - 报告最终版本定于2025年6月发布 [4] 主要政策建议 - 建议制定法律以增强对OpenAI等前沿AI实验室所研发内容的透明度 [2] - 主张立法强制AI模型开发者公开其安全测试、数据获取实践及安全措施 [2] - 提倡提高第三方对这些指标及企业政策评估的标准,并加强对AI公司员工和承包商举报人的保护 [2] - 建议采取“信任但要验证”的双管齐下策略,为AI开发者提供报告途径,同时要求提交测试声明供第三方验证 [3] 对人工智能风险的评估 - 指出人工智能系统带来的新型风险可能需要立法干预 [2] - 关于人工智能在协助实施网络攻击、制造生物武器或引发其他极端威胁方面的潜力,目前证据尚不充分 [2] - 主张人工智能政策不仅应应对当前风险,还应预见在缺乏充分防护措施下可能出现的未来后果 [2] - 强调如果对最极端风险的猜测正确,当前在尖端人工智能领域不作为的代价将极其高昂 [3] 业界反应与影响 - 报告发布前经过了不同意识形态领域的行业利益相关者审阅,包括图灵奖得主约书亚·本吉奥和Databricks联合创始人伊昂·斯托伊卡 [2] - 报告受到人工智能政策制定辩论双方专家的广泛好评 [4] - 乔治梅森大学研究员迪恩·鲍尔认为报告是加州人工智能安全监管的充满希望的进展 [4] - 加州州参议员斯科特·维纳认为报告建立在2024年立法机构开始的人工智能治理紧急对话基础之上 [4] - 报告与SB 1047法案及后续SB 53法案的多个要点相吻合,例如要求AI模型开发者报告安全测试结果 [4]