图片名称

新闻中心

NEWS

人工智能伦理与治理研讨会召开 研究大众“算法启蒙”


  随着算法在各行业的广泛应用,算法已成为数字社会的重要构件和基础。不过,在对整个社会带来正向功能和价值的同时,也引发外界对其带来的社会风险和伦理道德的谈论。

  为此,近日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会在线上召开,邀请了来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等多位专家学者,围绕人工智能发展与应用带来的社会风险、人工智能伦理的核心关切和构建方式等问题,展开了谈论。

  新形势下的数据保护等问题受关注

  研讨会上发表了《人工智能伦理与治理报告》(下称报告)。

  报告认为,人工智能伦理准则可以分为透明、公平、个人数据保护、责任、真实、人类自主、人类尊严等八个维度。会上,清华大学数据治理研究中心项目研究员戴思源分享了该报告的相关研究成果。他指出,网民对上述八个维度都有关注,其中在公平、个人数据保护、责任方面关注的人数最多,对比之下,对透明、人类自主和人类尊严这几个维度较少关注。

  公众数据保护一直受外界所关注。报告研究团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。

  政府和企业如何使用个人数据应具有双向约束的契约属性,当个人向政府或企业提供数据时,政府或企业应更透明、合理地使用个人数据。公众是否愿意分享个人信息的意愿应得到尊重;在不同情况下的收集个人信息的目的和用途应有更明确的界定。因此,对于责任属性的讨论和隐私的保护应细分大数据的用途、目的和属性,强调责任属性的互利性,这是政府、企业与公众的共同责任。

  报告也指出,目前学界尚未对算法公平的定义、测量和准则形成一致意见,了解公众在主观上如何判定算法决策结果的公正性也非常重要,将有助于科技工作者研发出具有公平原则的算法,这些原则需符合公众对公平概念的普遍理解。

人工智能伦理与治理报告,算法,数字社会