/**/
沟通咨询
提交成功

《关于加强科技伦理治理的意见》,听听专家如何解读

2022.03.24
AI治理研究院
专家视点
来源:光明日报

《意见》针对生命科学、人工智能等新兴科技领域,从理论指导和实践操作层面明确了科技伦理风险防治工作的基本原则和具体要求。

 

 

近日,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》(以下简称《意见》)。这是继国家科技伦理委员会成立之后,我国科技伦理治理的又一标志性事件。3月23日上午,科技部召开新闻发布会,来自相关部门的领导和专家就《意见》进行了解读。

 

我国科技伦理治理体系建设任重道远

 

国家科技伦理委员会委员、中国科学院院士 周琪:

 

《关于加强科技伦理治理的意见》(简称《意见》)是在我国开启全面建设社会主义现代化国家新征程,加快建设科技强国的关键时刻,为保障实现高水平科技自立自强而出台的纲领性文件,其颁行标志着我国科技伦理治理翻开了重大历史新篇章。

 

《意见》将引领我国科技伦理治理迈入体系化、现代化新阶段。随着科技创新成为国际战略博弈的主要战场,围绕科技制高点的竞争空前激烈,相关伦理问题与伦理挑战也日益凸显。一方面,新兴科技日新月异,应用场景复杂多样,必然带来新的伦理问题;另一方面,各科技领域面临的伦理问题迥异,且随着不同科技领域汇聚发展,会衍生出一系列更具综合性、复杂性的伦理问题。在科技创新持续加速和国际交往日益频繁的未来,科技伦理在治理的内容、边界和手段等方面将面临新的挑战,迫切需要在科技伦理治理方面进行体系化的设计和前瞻性的布局。

 

《意见》历史性地确立了我国国家科技伦理治理的指导思想、基本原则与要求,以及治理的体制机制,并对政府、创新机构、社会团体、科技人员等主体,从立法、监管、审查、教育、宣传等多层面多维度,提出科技伦理治理的规范和要求,将极大加快我国科技伦理治理的体系化建设和综合化治理进程。《意见》针对生命科学、人工智能等新兴科技领域,从理论指导和实践操作层面明确了科技伦理风险防治工作的基本原则和具体要求,有助于提前预判并科学化、系统化、全方位治理风险,对于新兴科技领域伦理治理能力和治理水平的全面提升意义重大。

 

《意见》将加快我国科技伦理治理实现法治化、规范化新发展。近年来,一些伦理事件严重挑战我国科技治理监管秩序,极大损害了我国科技国际声誉和负责任创新大国的形象,一定程度上阻碍了我国在新兴科技创新领域的战略布局,负面效应和损失难以估量。法治是科技伦理治理的重要保障。一段时间以来,我国已经制定颁布了生物安全法、个人信息保护法、人类遗传资源管理条例等一系列法律法规,以构建和完善我国科技伦理相关法律体系。《意见》进一步强调加快推进科技伦理治理法律制度建设,提高科技伦理治理法治化水平,这必将推动我国科技伦理治理制度的健全与完善。

 

《意见》将推动我国科技伦理治理踏上国际化、全球化新征程。科技的迅猛发展和新时期全球国际关系的加速演变,正在冲击传统的全球治理架构和规则边界,科技伦理已成为当前全球治理的重要内容之一。相应的,如何建立和加强全球科技伦理治理,业已成为全人类共同面临的挑战和机遇。我国科技伦理治理体系建设起步较晚,对全球科技伦理治理的认识和参与,在深度与广度方面均有欠缺。同时,在生命科学、人工智能等新兴领域的前沿或“无人区”,我国与科技发达国家同样面临着伦理治理空白的新挑战。

 

党和国家领导人多次强调,我国应积极参与全球科技治理。《意见》明确提出了开放合作的基本要求,这将进一步推进我国参与全球科技治理的广度与深度,推动我国从多维度积极参与全球科技伦理治理研究与规则制定,促进科技伦理治理领域的全球交流、对话与合作,贡献中国智慧和中国方案,彰显我国负责任创新大国形象。

 

《意见》为我国科技伦理治理的未来指方向、定原则、划框架,将极大推动我国科技发展和伦理治理的深度有机融合。同时,我们也要清醒地看到,我国科技伦理治理总体水平和治理能力尚不能适应高质量发展和安全发展的要求,我国科技伦理治理体系建设任重道远。例如,当前我国科技伦理治理仍存在碎片化和滞后性,在对新兴科技领域的规则冲突、社会风险、伦理挑战的前瞻研判,法律规范的细化,伦理审查与监管,科技创新主体伦理意识,公众参与,教育宣传以及研究管理人才等方面也仍有待加强和完善。如何在《意见》的框架之下,落实解决这些问题,应是今后我国科技伦理治理需要重点考虑、仔细谋划、逐步推进的关键。唯有如此,我们才能“让科技更好增进人类福祉,让中国科技为推动构建人类命运共同体作出更大贡献”!

 

推进科技伦理多元治理

 

国家科技伦理委员会委员、中国工程院院士 詹启敏:

 

《关于加强科技伦理治理的意见》(简称《意见》),强调完善政府科技伦理管理体制,压实创新主体科技伦理管理主体责任,发挥科技类社会团体的作用,引导科技人员自觉遵守科技伦理要求,建构政府、创新主体、科技类社会团体、科研人员四位一体的科技伦理治理框架。

 

《意见》明确了国家科技伦理委员会指导和统筹协调推进全国科技伦理治理体系建设工作的主体职责,为机构科技伦理审查委员会建设确立了风向标。

 

科技伦理管理的主体责任在高等学校、科研机构、医疗机构、企业等创新主体,各单位应切实履行科技伦理监管职责,对本单位的科技活动的伦理风险进行主动研判、动态管理,及时化解可能的伦理风险和非预期重大事件。当下,机构伦理委员会是负责伦理审查工作的责任主体,机构应切实保障伦理委员会的合规运行与良序发展,确保伦理审查质量和审查效率,维护受试者尊严,规范科技研发活动顺利开展。伦理委员会不能只在医疗卫生机构开展临床试验中被重视,随着学科交叉和深度融合,科技创新多元化,跨学科跨领域合作成为科技活动的新型特征,高等学校、科研机构都越来越多地成为“涉及人”的科技创新活动的主体,而且这些活动因为所涉及的技术的先进性和未知性,可能具有比经典的药物临床试验更高的伦理风险。近两年来,高等学校和科研机构的伦理(审查)委员会出现了成立高峰,但需要注意的是,伦理审查不能流于形式,应建立健全科技伦理审查的质量控制和评价监督机制,促进科技伦理(审查)委员会提高审查质量和效率。《意见》的要求,适时适度地把握了科技伦理的管理主体责任,有利于科技伦理治理形成一个团结的新环境。

 

在科技创新活动中,科技人员扮演着至关重要的角色。科技人员既是科技创新的直接主体,也是参与科技伦理治理的重要力量和主体,不应仅仅是被动接受伦理审查和伦理监管,而应成为伦理治理的先行者,以负责任的态度,批判性考察科技活动的科学价值和必要性,避免不必要的重复和低质量的研究,提高科技资源的使用效率。一方面,科技人员应积极参与科技伦理培训,确保掌握科技伦理相关知识,做到知法、懂法、守法;另一方面,也有责任积极建言献策,弘扬科学专业精神,推动本领域伦理治理和风险防控。《意见》特别强调了应加强科技伦理教育,将伦理意识植入基层科研人员,是从根本上解决科技伦理问题的关键。

 

当然,在当下,设立明确的“罚则”可能是对创新主体和研究人员更有效的约束方式。《意见》中较为清晰明确地提出了严肃查处科技伦理违规行为的具体内容。高等学校、科研机构、医疗机构、企业等是科技伦理违规行为调查处理的第一责任主体,应制定和完善本单位调查处理相关规定,及时主动调查科技伦理违规行为,依法依规严肃追责问责。各地方、各行业主管部门应按照职责权限和隶属关系,加强对本地方、本系统科技伦理违规行为调查处理的指导和监督。视情况不同,科技伦理违规行为责任人可能会受到责令改正、停止相关科技活动,追回资助资金,撤销获得的奖励、荣誉,取消相关从业资格,禁止一定期限内承担或参与财政性资金支持的科技活动等处理。这些处理规定,在之前任何一部伦理相关法规规范中都没有详细的提及,此次《意见》提出这些具体规定,对创新主体和管理机构都有极强的指导作用。

 

公众,是科技创新的最终服务对象,对全面推进科技伦理治理有着义不容辞的责任。公众信任是科技创新和科技伦理治理的根本前提和基础,因此,加强公众科技伦理教育宣传,确保公众知情,维护公众信任是科技伦理治理的重要组成部分。社会公众的伦理意识是推动科技伦理管理的最根本动力,只有社会公众主动关注自身的权益,才能切实推动科技创新的健康发展。

 

完善人工智能伦理治理工作

 

国家科技伦理委员会委员、中国工程院院士 高文:

 

《关于加强科技伦理治理的意见》(简称《意见》),是新时代我国科技伦理治理领域具有里程碑意义的纲领性文件,为推动“科技向善”发展、服务我国社会进步及造福人类提供了基本准绳,对有效防范科技伦理风险、促进科技治理体系和治理能力现代化具有十分深远的意义。

 

人工智能的研究内容常会涉及科技伦理敏感领域,根据《意见》的精神,我认为应主要开展以下工作:

 

一是道德层面。要根据《意见》精神,完善人工智能领域科技伦理规范、指南,对科技人员进行伦理道德约束和引导,使科研人员具有较好的伦理道德意识,在研发过程中始终以伦理道德红线来约束自己。推动人工智能科研院所和企业建立伦理委员会,自觉开展人工智能伦理风险评估、监控和实时应对,使道德引导和道德约束贯穿在人工智能设计、研发和应用的全流程之中。

 

二是技术层面。要加强一线科技人员的技术管控和预判能力,使其能够及时识别各类潜在风险的发展阶段和发展程度(如:风险目前没有严重表现,但潜在风险肯定是有的;风险的近期紧迫性不强,但长期严重性绝不可低估;风险的严重性被普遍低估,也没有受到有效的监督与管控等)。同时,要加强算法、数据以及应用的管理、检测和评估,构建有效的风险预警机制,通过不断改进技术而降低伦理风险。

 

三是法制方面。要将法律法规建设放在重要的位置上,将其作为人工智能伦理治理的最高依据,不断完善人工智能伦理治理的法律体系,使人工智能技术从设计、研发、测试、产业化到应用的全过程都有法可依,消除人工智能伦理治理的法律监管盲区。

 

人工智能研究工作应以《意见》为指南,准确把握人工智能治理的要求,既要促进人工智能技术的快速发展,又要保证人工智能技术符合社会伦理。

 

首先,要牢固树立道德伦理红线意识,划出伦理治理的底线。技术发展常常会超前于伦理,所以更要始终将道德伦理作为科技创新、技术应用的先决条件,特别是在进入未知领域探索或拓荒式应用之前,要全面研判潜在道德伦理风险,通过思想实验和伦理悖论推演等多种形式评估风险程度,识别可能引发道德伦理的潜在风险点。科学家要始终将人类基本的道德伦理作为不可逾越的红线,在科研活动中形成严格的道德伦理边界和底线,并在道德伦理安全域内从事各类科研创新和应用实践活动。

 

其次,要建立敏捷响应机制,积极应对科技伦理治理中出现的问题。在科技活动的实践中,人类会面临诸多新的、没有预见到的伦理治理挑战。一方面,要坚持伦理先行;另一方面,更要建立一套完善的敏捷响应机制,对新出现的道德伦理风险隐患进行快速处理,及时组织伦理学、人文社科、法律、科技政策等专家与科学技术研发者共同开展评估和研究,及时出台行业公约、科技道德伦理规范、法律法规等,将伦理治理滞后于科技发展所带来的负面影响降到最低。

 

最后,要加强国际交流与合作,探索形成科技伦理治理的中国方案。在道德伦理观方面,不同国家、不同民族、不同文化之间既有相同、相通之处,也有自己独特的角度和定位。我们要站在人类命运共同体的战略高度,坚持“增进人类福祉、尊重生命权力、坚持公平公正、合理控制风险、保持公开透明”的科技伦理治理的基本原则,努力推进符合全人类的科技伦理治理方案。同时,也要结合我国五千年的文化传统,深入研究我国独有的科技伦理治理路径。特别是要从最广大人民利益出发,积极防范数据安全和隐私泄露、算法歧视、基于深度伪造的安全风险、法治风险、科技贫困等一系列道德伦理问题。既要着重解决好中国自身面临的伦理治理问题,又要为全人类的发展作出中国贡献。

 

(来源:光明日报 编辑:张琦)