AI资讯政策法规
欧盟AI法案正式生效,科技巨头面临严格合规挑战
欧盟AI法案于今日全面生效,对高风险AI系统提出严格要求,全球AI产业格局或将重塑。
备受关注的欧盟AI法案已于2026年1月19日正式生效。该法案对AI系统的风险等级进行划分,并对高风险AI系统实施严格的合规要求,包括透明度、数据治理和人机监督等。此举旨在确保AI技术的安全和负责任发展,但同时也给全球范围内运营的科技公司带来了巨大的合规压力,预计将引发一轮AI产品和服务的调整潮。
来源:
01.19共 3 条相关资讯
欧盟AI法案于今日全面生效,对高风险AI系统提出严格要求,全球AI产业格局或将重塑。
备受关注的欧盟AI法案已于2026年1月19日正式生效。该法案对AI系统的风险等级进行划分,并对高风险AI系统实施严格的合规要求,包括透明度、数据治理和人机监督等。此举旨在确保AI技术的安全和负责任发展,但同时也给全球范围内运营的科技公司带来了巨大的合规压力,预计将引发一轮AI产品和服务的调整潮。
欧盟AI法案的最终实施细则于今日发布,明确了高风险AI系统的分类标准及合规要求。
2026年1月18日,欧盟委员会正式公布了期待已久的AI法案实施细则。新规详细界定了高风险AI系统的范畴,包括用于关键基础设施、教育、招聘、执法和司法等领域的AI应用。这些系统将被要求进行严格的风险评估、数据质量控制和透明度披露。违规企业将面临巨额罚款。此举旨在确保AI技术的安全和伦理发展,但可能对部分AI企业的创新速度造成影响。
为应对AI技术风险,谷歌加强内部管理,确保AI开发与应用符合伦理标准。
2026年1月5日,谷歌(Google)宣布进一步深化其AI伦理审查机制,并发布了一套全新的内部AI使用准则。该准则旨在指导公司内部的AI研发与应用,确保AI技术在开发、部署和使用过程中充分考虑到公平性、透明度、隐私保护和安全性等伦理原则。此举反映了科技巨头在AI快速发展背景下,对负责任AI的日益重视。