微软AI主管苏莱曼:应警示“AI精神分裂”引发的社会风险
微软人工智能战略方向 - 公司聚焦将AI工具打造为负责任的技术 旨在提升人类创造力而非取代人类 [1] - 提出以人性为核心的AI发展路径 强调AI应具备人性温度并深度融入现实世界 [1] - 主导开发Copilot和Phi-3等标志性AI项目 [2] 人工智能行业认知挑战 - 社会存在对大语言模型的认知偏差 部分人群将AI视为具有意识的实体 [1] - 出现"AI精神分裂"现象 人类情感上过度拟人化AI却忽视其概率计算工具本质 [1] - 认知错位可能导致社会心理危机 削弱人类对真实人际关系的投入 [2] 人工智能伦理风险 - 认知偏差可能引发深层伦理危机 包括为AI争取权利福利和公民身份等现象 [1] - AI虚假信息生成和拒绝回答等行为可能引发用户愤怒或抑郁情绪 [2] - 存在责任归属模糊化风险 决策失误可能被归咎于AI而非使用者 [2]