中国发布《生成式人工智能服务安全评估办法》实施细则
进一步规范AI内容生成,强调数据安全与伦理责任
中国国家互联网信息办公室今日发布了《人工智能伦理与安全指导原则(2.0版)》,对人工智能技术的研发、部署和应用提出了更为详细和严格的规范。新版本在原有基础上,进一步细化了数据隐私保护、算法公平性、透明度以及可解释性等方面的要求,并首次明确了AI系统在特定高风险应用场景下的责任归属框架。该原则旨在引导AI产业健康有序发展,防范潜在的伦理风险和安全隐患,确保AI技术造福人类社会。业界普遍认为,此举将对中国AI企业的产品设计和运营产生深远影响,促使其更加注重合规性和社会责任。