人工智能研发要对潜在伦理风险与隐患负责

网络 刘洋 2019-05-27 05:02  阅读量:8545   

  《人工智能北京共识》发布
  人工智能研发要对潜在伦理风险与隐患负责

  本报讯 (通讯员孙艳 记者郭强)5月25日,北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所等,共同发布《人工智能北京共识》,《共识》涵盖15条有益于人类命运共同体构建和社会发展的原则。当天,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。

  《共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。

  其中,研发方面,提倡要有益于增进社会与生态的福祉,服从人类的整体利益。设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人。要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。  

  在使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。

  在治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终对社会有益。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。