综合资讯平台
返回标签列表
标签

#负责任AI

共 3 条相关资讯

AI资讯3 条
AI资讯科技公司动态

谷歌深化AI伦理审查机制,成立独立专家委员会

应对AI技术发展带来的社会挑战,确保负责任的AI创新

为应对日益复杂的AI伦理问题,谷歌(Google)今日宣布成立一个由全球顶尖伦理学家、社会学家和技术专家组成的独立委员会,专门负责审查公司内部的AI项目和产品。该委员会将拥有对谷歌AI研发方向和部署策略的建议权和监督权,旨在确保谷歌在AI创新过程中,始终坚持负责任、公平和透明的原则。此举被视为科技巨头在AI治理方面迈出的重要一步,有望为整个行业树立新的标杆,平衡技术进步与社会责任之间的关系,避免潜在的偏见、隐私侵犯和滥用风险。

AI资讯政策法规

谷歌深化AI伦理研究,发布负责任AI开发新框架

强调公平性、透明度和可解释性,应对AI技术潜在风险

谷歌公司今日宣布,为应对人工智能技术快速发展带来的伦理挑战,已发布一套全新的负责任AI开发框架。该框架详细阐述了在AI系统设计、开发和部署过程中应遵循的原则,重点关注公平性、透明度、可解释性、隐私保护和安全性。谷歌AI伦理委员会负责人表示,此举旨在确保AI技术能够以造福人类的方式发展,避免偏见、歧视和滥用等负面影响。公司将投入更多资源用于AI伦理研究,并鼓励全球开发者社区共同参与,共同构建一个负责任的AI生态系统。

来源:
The Verge
01.09
AI资讯政策法规

谷歌深化AI伦理审查,发布全新内部AI使用准则

为应对AI技术风险,谷歌加强内部管理,确保AI开发与应用符合伦理标准。

2026年1月5日,谷歌(Google)宣布进一步深化其AI伦理审查机制,并发布了一套全新的内部AI使用准则。该准则旨在指导公司内部的AI研发与应用,确保AI技术在开发、部署和使用过程中充分考虑到公平性、透明度、隐私保护和安全性等伦理原则。此举反映了科技巨头在AI快速发展背景下,对负责任AI的日益重视。

来源:
01.05