Workflow
算法性别偏见
icon
搜索文档
人工智能的“歧视”:“她数据”在算法运行中隐形
36氪· 2025-05-20 10:55
人工智能算法中的性别偏见问题 - 图像识别软件存在性别识别错误,如将厨房中的男性识别为女性,搜索引擎在烹饪和体育活动图片推荐中呈现明显性别刻板印象 [1] - 算法通过数据转化为决策时,每个环节都可能存在社会偏见,性别偏见常被忽视但真实存在 [1] - 维基百科女性条目占比不足20%,联合国教科文组织发起倡议改善性别失衡 [4] 数据采集与医疗领域的性别偏差 - 临床试验中女性数据较少,导致AI在女性疾病诊断和治疗策略上可能不准确 [2] - 医疗数据偏向男性,AI提供的决策参考存在偏差,影响女性健康领域的有效性 [2] 算法推荐中的性别分化 - 电商算法通过性别等基础标签进行精准推送,向女性推荐美容育儿类内容,向男性推荐科技体育类内容 [4] - 算法设计者的主观性别思想会反映到算法中,导致不同性别的商品推荐和价格标签差异 [4] - 商品价格优惠算法若以盈利最大化为目标,可能出现性别区别对待现象 [9] 人工智能行业的性别结构差异 - 女性在STEM领域占比28.2%,相关行业比例低于男性且晋升难度更大 [5] - 58%的AI算法从业者不知算法存在性别偏见,73%不了解针对女性的恶意算法 [5] - 企业需提供AI培训课程,鼓励女性参与算法岗位以消除偏见 [7] 算法偏见与偏好的界定难题 - 商业场景中性别标签衍生的"大数据杀熟"可能违背公平交易原则,但性别差异化推荐也可能是市场自由行为 [9] - 企业需挖掘性别差异背后的实质因素,平衡商业利益与性别平等 [9] 治理算法偏见的措施 - 中国《电子商务法》要求提供不针对个人特征的选项,《生成式人工智能服务管理暂行办法》明确防止性别歧视 [12] - 建议建立AI系统性别审计机制,通过算法优化和监管完善定量测试偏见 [13] - IBM和微软等公司开发公平性工具包,需与业务场景结合才能有效应用 [13] - 技术层面可通过数据重采样、因果推理和差异化决策阈值等方法减少偏见 [14]