《人工智能北京共识》发布 15条原则规范AI研发、使用和治理
中新网北京5月25日电 (记者 于立霄)《人工智能北京共识》25日发布。针对人工智能研发、使用、治理三方面,《北京共识》提出各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。
《北京共识》由北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布。
在研发方面,《北京共识》提倡要有益于增进社会与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。
在使用方面,《北京共识》提倡要善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。
在治理方面,《北京共识》对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对社会有益的方向发展。
为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,该研究中心在当天的发布会上揭牌。
中国科学院自动化研究所研究员曾毅出任研究中心主任。他介绍说,该研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台、行业应用等开展一系列研究。
该研究中心主要研究四个方面内容:一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证。三是建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险,探索允许用户撤销个人数据授权的机制及计算平台。四是针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业健康发展。
今后,该研究中心将着力在算法安全评估、安全模型构建、AI综合沙盒建设等方面尽快取得一系列创新性成果,为降低人工智能的风险和伦理隐患提供技术服务,促进人工智能行业的良性健康发展。(完)
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。