为规范人工智能科技活动伦理治理,推动人工智能产业健康发展,近日工业和信息化部等十部门印发《人工智能科技伦理审查与服务办法(试行)》,提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
办法提出,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等6个方面,包括人工智能科技活动是否具有科学价值、社会价值;训练数据的选择标准,算法、模型、系统的设计是否合理;是否合理披露算法、模型、系统的用途、运行逻辑等信息;是否采取充分措施确保隐私数据得到有效保护等。
编辑:冀文超
更多精彩资讯请在应用市场下载“央广网”客户端。欢迎提供新闻线索,24小时报料热线400-800-0088;消费者也可通过央广网“啄木鸟消费者投诉平台”线上投诉。版权声明:本文章版权归属央广网所有,未经授权不得转载。转载请联系:cnrbanquan@cnr.cn,不尊重原创的行为我们将追究责任。
长按二维码关注精彩内容





