自动化种族主义
来自China Digital Space
在中国政府高度依赖生物识别与大数据治理的背景下,“自动化种族主义” (Automated Racism) 指的是:通过算法、人工智能和监控基础设施,将特定的民族或种族特征转化为自动化的风险指标,从而实现制度化、非接触式且高效率的歧视与管控。自动化种族主义是“数字治理”与“民族政策”的畸形结合。它通过代码将特定群体永久性地固定在“可疑人员”的范畴内。对于受众而言,这不仅是心理上的压力,更是物理空间、数字资源和社会流动性的全面封锁。
这种模式不再依赖个别执法者的主观偏见,而是将偏见编码进技术底层,使歧视变得“客观化”和“自动化”。
1. 核心定义维度
A. 算法识别的特征化(Profiling)
系统通过视觉算法自动提取面部骨骼比例、肤色、毛发特征等,将特定民族属性(如维吾尔族、藏族)转化为可识别的数据标签。
定义点: 这种技术被称为“民族识别” (Minority Recognition) 算法。在自动化种族主义中,“种族”不再是身份,而是系统自动触发的“风险预警开关”。
B. 风险评分的非对称性
在预测性警务系统中,某些种族身份会被自动赋予更高的权重。
定义点: 即使两个人的行为完全一致(如同时出现在火车站),系统可能仅因为其中一人的种族标签而向指挥中心发出“高风险”警报。
2. 自动化种族主义的落地表现
① 智能识别与“定向预警”
天眼系统或安检闸机集成民族识别算法。当特定少数民族成员进入核心城市或敏感区域(如机场、商业区)时,系统会自动向当地基层网格员或民警推送“落地提醒”。
② 标签化的关联限制
在数据库中,特定民族的社交网络被自动视为“高风险网络”。
如果一个人的社交圈包含多位被标记的特定民族成员,其个人的社会信用分或风险等级会被自动下调,影响其租房、就业甚至入住酒店。
3. 监控背景下的独特特征
与西方语境下的“算法偏见”(通常源于训练数据的不经意偏差)不同,中国背景下的自动化种族主义呈现出以下特质:
- 国家级规模: 它是国家治理工具的一部分,具有极强的行政强制力。
- 显性集成: 许多安防企业的技术文档曾公开标注支持“维族识别”功能,这意味着种族识别被作为一种功能需求而非漏洞存在。



