综合资讯平台
返回标签列表
标签

#政策法规

共 21 条相关资讯

AI资讯21 条
AI资讯政策法规

中国发布《生成式人工智能服务安全评估办法》实施细则

进一步规范AI内容生成,强调数据安全与伦理责任

中国国家互联网信息办公室今日发布了《人工智能伦理与安全指导原则(2.0版)》,对人工智能技术的研发、部署和应用提出了更为详细和严格的规范。新版本在原有基础上,进一步细化了数据隐私保护、算法公平性、透明度以及可解释性等方面的要求,并首次明确了AI系统在特定高风险应用场景下的责任归属框架。该原则旨在引导AI产业健康有序发展,防范潜在的伦理风险和安全隐患,确保AI技术造福人类社会。业界普遍认为,此举将对中国AI企业的产品设计和运营产生深远影响,促使其更加注重合规性和社会责任。

AI资讯政策法规

欧盟AI法案正式生效,全球AI治理进入新阶段

对高风险AI系统提出严格要求,促进AI伦理与安全发展

欧盟《人工智能法案》(EU AI Act)于2026年2月26日正式生效。该法案是全球首部全面规范人工智能的法律框架,旨在确保AI系统的安全、透明、可信赖和非歧视性。法案对AI系统根据其风险等级进行分类,并对高风险AI系统提出了严格的要求,包括数据治理、人类监督、透明度、网络安全和风险管理等方面。欧盟委员会表示,此举将为全球AI治理提供重要参考,并促进负责任的AI创新。法案的实施将对全球AI产业产生深远影响,促使企业在开发和部署AI时更加注重伦理和合规性。

AI资讯政策法规

中国发布《人工智能伦理准则2.0》,强调负责任AI发展

新版准则聚焦数据隐私、算法公平与透明度,为AI应用划定红线

中国国家互联网信息办公室今日发布了《人工智能技术应用安全管理条例(草案)》征求意见稿。该草案详细规定了AI技术研发、部署和应用过程中的数据安全、算法透明度、伦理审查以及用户权益保护等方面的要求。特别是对于生成式AI服务,草案强调了对生成内容的真实性、准确性和合法性负责,并要求建立健全内容审核机制。此外,草案还提出对高风险AI应用实行备案管理制度,并设立AI伦理委员会进行监督。此举被视为中国在AI治理领域迈出的重要一步,旨在为快速发展的AI产业提供明确的法律和伦理边界,确保技术创新与社会责任并重。

来源:
02.26
AI资讯政策法规

中国AI监管沙盒计划启动,鼓励创新与风险控制并重

国家网信办牵头,旨在为AI技术发展提供合规性试验田

中国国家互联网信息办公室(CAC)今日宣布正式启动“AI监管沙盒计划”。该计划旨在为人工智能企业提供一个受控的实验环境,允许他们在真实市场条件下测试创新AI产品和服务,同时在监管机构的指导下识别和管理潜在风险。此举表明中国政府在推动AI技术发展的同时,高度重视伦理、安全和合规性问题。首批入选沙盒计划的项目涵盖了生成式AI、自动驾驶和智能医疗等多个前沿领域。分析人士指出,监管沙盒模式有望在平衡AI创新与风险之间发挥关键作用,为未来AI法规的制定提供实践经验。

02.26
AI资讯政策法规

中国发布《人工智能产业发展五年规划(2026-2030)》

明确核心技术攻关方向,加速AI与实体经济融合

中国政府今日正式发布了《人工智能产业发展五年规划(2026-2030)》,为未来五年中国AI产业的发展指明了方向。规划强调,将集中力量在基础理论、核心算法、高端芯片、开源框架等关键领域实现突破,并构建安全可控的AI产业链。同时,规划鼓励AI技术与制造业、农业、医疗、教育等实体经济深度融合,推动传统产业智能化升级。此外,规划还特别提出要加强AI伦理治理和法律法规建设,确保AI技术的健康有序发展。此规划的出台,预示着中国将继续在全球AI竞争中保持强劲势头,并致力于构建完善的AI生态系统。

来源:
新华社·人民日报
02.26
AI资讯科技公司动态

谷歌深化AI伦理审查,成立全球AI安全委员会

应对AI发展带来的潜在风险,确保技术负责任应用

谷歌(Google)今日宣布成立一个由全球顶尖伦理学家、社会学家和技术专家组成的独立委员会,专门负责审查其AI产品的伦理影响和潜在风险。此举旨在应对公众对AI偏见、隐私侵犯和滥用等问题的日益关注。该委员会将拥有对谷歌AI项目进行独立评估和提出改进建议的权力,以确保公司的AI技术发展能够更好地服务于人类社会,并符合普世的伦理价值观。谷歌CEO Sundar Pichai表示,公司致力于负责任地开发AI,并相信外部监督对于构建可信赖的AI生态系统至关重要。

AI资讯政策法规

日本政府宣布投资英伟达AI研究中心,推动本土AI发展

加强国际合作,提升国家AI竞争力

日本经济产业省今日宣布,将向英伟达在日本设立的先进AI研究中心提供巨额资金支持。该研究中心将专注于开发面向日本市场的AI技术,包括自动驾驶、机器人和医疗健康等领域。此举旨在通过引入英伟达的顶尖技术和人才,加速日本本土AI产业的发展,培养更多AI专业人才,并提升日本在全球AI竞争中的地位。日本政府表示,与英伟达的合作是其“AI国家战略”的重要组成部分,预示着未来更多国际合作的可能。

来源:
日本经济新闻
02.26
AI资讯政策法规

欧盟就AI监管法案达成初步共识,聚焦高风险AI应用

法案旨在平衡创新与安全,或对全球AI发展产生深远影响

欧盟委员会今日宣布,各成员国已就其里程碑式的AI监管法案的关键条款达成初步共识。该法案将重点关注对社会和公民权利构成高风险的AI应用,例如在生物识别监控、信用评分和就业决策中的AI系统。法案将要求开发者对这些高风险系统进行严格的合规性评估和透明度披露。尽管最终文本仍在磋商中,但此次共识标志着欧盟在建立全球首个全面AI监管框架方面迈出了决定性一步,其影响可能辐射全球AI产业。

来源:
欧洲新闻台·金融时报
02.22
AI资讯政策法规

谷歌深化AI伦理审查,成立独立专家委员会

应对AI技术潜在风险,确保负责任的AI发展

谷歌今日宣布成立一个独立的AI伦理专家委员会,旨在对其AI产品和研究进行更严格的伦理审查和监督。该委员会将由来自学术界、法律界和公民社会的知名专家组成,负责评估谷歌AI技术的潜在社会影响,并提供关于AI公平性、透明度、隐私保护和安全性方面的建议。此举是谷歌为应对AI技术快速发展带来的伦理挑战而采取的重要措施,表明科技巨头正日益重视AI的负责任发展。此举有望增强公众对AI技术的信任,并为行业树立新的伦理标准。

来源:
路透社
02.19
AI资讯政策法规

谷歌深化AI伦理审查,成立独立委员会

应对AI技术快速发展带来的社会挑战

为应对人工智能技术快速发展可能带来的伦理和社会挑战,谷歌今日宣布成立一个由外部专家组成的独立AI伦理审查委员会。该委员会将负责监督谷歌AI产品的开发和部署,评估其潜在的偏见、公平性、隐私保护以及对社会就业的影响。谷歌CEO Sundar Pichai表示,公司致力于负责任地开发AI,并相信外部监督有助于确保AI技术造福全人类。此举被视为科技巨头在AI治理方面迈出的重要一步,旨在建立更透明、更负责任的AI生态系统。

来源:
华尔街日报·CNBC
02.12
AI资讯政策法规

中国发布首个AI大模型安全评估标准,规范行业发展

旨在保障AI大模型应用安全,促进技术健康发展

中国国家互联网信息办公室今日联合多部门发布了首个针对AI大模型的安全评估标准。该标准详细规定了AI大模型在数据安全、算法透明度、内容合规性以及风险防控等方面的评估要求和技术规范。此举旨在加强对AI大模型的监管,防范潜在的安全风险,保障用户权益,并为AI技术的健康有序发展提供明确指引。行业专家普遍认为,这将有助于提升中国AI大模型的整体安全水平,并促进相关产业的规范化发展。

来源:
新华社·人民日报
02.06
AI资讯政策法规

中国发布首个AI大模型安全评估指南,规范行业发展

旨在保障AI大模型应用安全,促进行业健康有序发展

中国国家互联网信息办公室今日联合多部门发布了首个《AI大模型安全评估指南》。该指南详细规定了AI大模型在数据安全、算法安全、内容安全以及伦理风险等方面的评估标准和流程,旨在为AI大模型的研发、部署和应用提供明确的安全指引。此举被视为中国政府在AI治理领域的重要一步,将有助于提升AI大模型的整体安全水平,防范潜在风险,促进行业的健康有序发展。指南的发布将对国内AI企业产生深远影响。

来源:
新华社
01.28
AI资讯政策法规

谷歌深化AI伦理审查,成立独立委员会评估高风险AI应用

旨在确保AI技术负责任地开发与部署

为应对日益增长的AI伦理挑战,谷歌公司今日宣布成立一个独立的AI伦理审查委员会。该委员会将由来自学术界、法律界和非营利组织的专家组成,负责对谷歌内部开发的高风险AI应用进行独立评估和监督。其主要职责包括审查AI系统的潜在偏见、隐私风险以及对社会公平的影响,并提供改进建议。谷歌CEO Sundar Pichai表示,此举旨在加强公司在AI伦理方面的承诺,确保AI技术能够以负责任和有益于人类的方式发展。这一举措有望为整个科技行业树立新的AI伦理治理标准。

来源:
The Verge
01.25
AI资讯政策法规

欧盟发布最新AI伦理指南,强调AI系统透明度与问责制

新指南旨在确保AI技术在欧洲的负责任发展与应用

欧盟委员会于2026年1月21日发布了一份全面的AI伦理指南,旨在为AI系统的设计、开发和部署提供明确的道德框架。该指南特别强调了AI系统的透明度、可解释性、公平性以及问责制,要求开发者和部署者必须确保AI决策过程的清晰可见,并对潜在的偏见和歧视负责。此外,指南还提出了数据隐私保护和人类监督的重要性。此举被视为欧盟在全球AI治理领域发挥领导作用的又一例证,预计将对欧洲乃至全球的AI产业产生深远影响,推动AI技术向更负责任的方向发展。

来源:
欧洲新闻网
01.21
AI资讯政策法规

谷歌深化AI伦理审查机制,应对模型偏见挑战

成立独立AI伦理委员会,加强模型开发全流程监管

面对AI模型日益复杂的偏见和公平性问题,谷歌今日宣布将进一步深化其AI伦理审查机制。公司表示,将成立一个由外部专家和内部研究人员组成的独立AI伦理委员会,负责监督AI模型的开发、部署和应用全过程,确保其符合伦理原则和公司价值观。此外,谷歌还将加大对AI偏见检测和缓解技术的研究投入,并计划发布一系列新的工具和框架,帮助开发者构建更公平、透明的AI系统。此举被视为科技巨头在AI伦理治理方面迈出的重要一步。

来源:
Google官方博客·路透社
01.16
AI资讯政策法规

欧盟委员会启动AI监管沙盒项目,加速创新与合规并行

为AI初创企业提供测试环境,确保技术符合新法规

欧盟委员会今日宣布正式启动其AI监管沙盒项目。该项目旨在为欧洲的AI初创企业和开发者提供一个受控的测试环境,使其能够在开发和部署AI技术的同时,确保其产品和服务符合即将生效的欧盟AI法案。通过监管沙盒,企业可以获得监管机构的指导,及时调整技术方案以满足合规要求,从而在保障创新活力的同时,有效降低未来可能面临的法律风险。此举被视为欧盟在平衡AI创新与监管方面迈出的重要一步,有望促进欧洲AI生态系统的健康发展。

来源:
European Commission News·Politico Europe
01.13
AI资讯政策法规

谷歌深化AI伦理研究,发布《负责任AI开发与部署白皮书》

强调AI透明度、公平性及可解释性,应对技术挑战

谷歌今日发布了一份详尽的《负责任AI开发与部署白皮书》,旨在指导公司内部及整个行业在人工智能发展中遵循伦理原则。白皮书详细阐述了谷歌在AI透明度、公平性、可解释性以及隐私保护等方面的承诺和实践方法。此举被视为谷歌在AI技术快速发展背景下,积极应对潜在社会和伦理挑战的重要一步。谷歌表示,将持续投入资源,与全球专家学者合作,共同推动AI技术的健康可持续发展,确保AI造福人类社会而非带来负面影响。

来源:
Google AI Blog·Reuters
01.13
AI资讯政策法规

中国发布首个AI大模型安全评估标准草案

规范AI大模型开发与应用,保障数据安全与伦理合规

中国国家互联网信息办公室与相关部门联合发布了《人工智能大模型安全评估标准(草案)》,向社会公开征求意见。该标准草案详细规定了AI大模型在数据安全、算法透明度、内容合规性、伦理风险等方面的评估指标和流程,旨在引导AI大模型健康有序发展,防范潜在的安全风险和伦理挑战。此举被视为中国在AI治理领域迈出的重要一步,有望为全球AI监管提供参考。标准正式实施后,所有在中国提供服务的AI大模型都将需要符合相关安全评估要求。

来源:
新华社
01.11
AI资讯政策法规

中国颁布首部AI伦理与安全指导原则,促行业健康发展

新规旨在规范AI技术应用,保障数据安全与用户权益。

中国政府今日正式发布《人工智能伦理与安全指导原则》,成为全球范围内首批针对AI伦理和安全进行全面规范的法规文件之一。该原则涵盖数据隐私保护、算法公平性、责任可追溯性及AI系统安全性等多个方面,旨在引导AI技术健康发展,防范潜在风险,并促进负责任的AI创新。此举将对中国乃至全球AI产业的未来发展产生深远影响。

来源:
新华社·人民日报
01.08
AI资讯政策法规

中国发布首个AI伦理审查指导原则,规范AI技术发展

强调负责任的AI开发和应用,保障社会公平与安全

中国国家互联网信息办公室今日联合多部门发布了《人工智能伦理审查指导原则(试行)》,这是中国在AI伦理治理方面的又一重要举措。该原则详细规定了AI技术在研发、部署和应用过程中应遵循的伦理规范,包括数据隐私保护、算法公平性、透明度以及可控性等方面。旨在引导AI企业和研究机构负责任地开发和使用AI技术,避免潜在的社会风险,并促进AI技术健康有序发展。该原则的发布标志着中国在AI治理方面迈出了坚实一步。

来源:
新华社
01.03
AI资讯政策法规

中国发布《人工智能伦理治理白皮书2026》

强调负责任AI发展,规范技术应用与风险防范

2026年1月2日,中国国家互联网信息办公室联合多部门发布了《人工智能伦理治理白皮书2026》。这份白皮书旨在为中国人工智能的发展提供伦理指导和规范框架,强调了负责任AI的重要性,并提出了在数据隐私、算法偏见、安全可控、透明度以及社会影响等方面的具体治理原则和措施。白皮书指出,随着AI技术的广泛应用,伦理治理成为确保AI健康可持续发展的关键。此举表明中国政府在推动AI技术创新的同时,也高度重视其潜在的社会风险,力求在技术进步与伦理规范之间取得平衡。

来源:
新华社
01.02