Artificial Intelligence Ethics Supervision in China: Demand Analysis and Countermeasures

  • Lu Liu 1, 2 ,
  • Xiaolei Yang 1, 2 ,
  • Wen Gao 3
Expand
  • 1.Peking University Law School, Beijing 100871, China;
  • 2.Peking University Laboratory for Law and Artificial Intelligence, Beijing 100871, China;
  • 3.Department of Computer Science and Technology, Peking University, Beijing 100871, China

Received date: 28 Feb 2021

Published date: 01 Jun 2021

Abstract

The rapid development of artificial intelligence (AI) industry is accompanied by various social ethical risks, and the consequences of these risks have gradually emerged. Allowing humans to securely enjoy the major benefits of AI technology has become an important task of AI supervision. In this article, we first analyze the focus issues of AI ethics, including the distribution of machine and human rights, social trust crisis of AI, security of data and algorithms, as well as confirmation of rights and attribution of liability. Subsequently, we summarize the development paths and policy status of AI industry in China and abroad, and analyze the demand for AI ethical supervision in China from multiple dimensions. Furthermore, we suggest that the supervision scope of AI should be extended in a staged manner based on the technical progress of AI. To create better global development opportunities for China’s AI industry, a multi-dimensional supervision framework that combines ethics, law, and policy should be established, a sufficient social discussion space should be provided for all stakeholders to participate in public discussion on AI security, scientific and technological ethics supervision organizations of multiple levels should be improved in an orderly manner, and China should actively participate in the formulation of AI international rules.

Cite this article

Lu Liu , Xiaolei Yang , Wen Gao . Artificial Intelligence Ethics Supervision in China: Demand Analysis and Countermeasures[J]. Strategic Study of Chinese Academy of Engineering, 2021 , 23(3) : 106 -112 . DOI: 10.15302/J-SSCAE-2021.03.006

一、前言

人工智能(AI)作为新兴产业的支撑技术,发展具有高度的不确定性;产业界在强调“技术先行”的同时,往往忽略了蕴藏的伦理风险 [1]。在推进新型基础设施建设的背景下,人工智能技术带来了跨行业、跨领域的连贯性与凝聚力;这种革命性的变化在放大产业优势的同时,也会同步放大技术应用带来的社会安全危机。目前人工智能的伦理风险已经逐步显现,如互联网平台对大量用户信息的滥用以及过度商业化加工,伴生了不同程度的社会信任危机;人工智能技术可以辅助人类从一般的智能活动中摆脱出来,但就业替代效应可能造成劳动力市场的结构不平衡;一系列交通事故争议,凸显了基于人工智能的无人驾驶汽车推向市场的伦理门槛。
文献 [2] 对各伦理体系在人工智能场景中的发挥作用进行了分析对比,论证了人工智能伦理指南的有效性与可行性。文献 [3] 认为,人工智能风险是从利益驱动到技术发展、在场域和频度方面均逐步减少的过程。文献 [4] 以自动驾驶为例,提出了保障公共安全、鼓励科技创新发展的统一治理原则。这些研究多从伦理学、市场应用角度对人工智能应用进行剖析。与之对应,本文重点在于面对伦理治理困境,提出将法律、政策与伦理监管进行结合的多维度建议,从科研、行业、公众等多个视角开展综合性研判,以期为健全国家工程科技伦理治理体系提供理论参考。

二、人工智能领域的伦理焦点问题

(一)机器权利与人权
人工智能技术进步极大促进了社会发展,但也导致社会关系日益复杂。以电气与电子工程师协会(IEEE)发布的《人工智能设计的伦理准则》为代表,诸多信息领域伦理监管建议文件都着重提及了机器权利与人类价值观、人权的关系;一般认为,应保证人工智能系统的设计与运作符合人类的尊严、权利、自由、文化 [5],不得侵犯人权。
在机器“权利”“义务”方面,2016 年欧洲议会法律事务委员会(JURI)发布《欧盟机器人民事法律规则》,主张赋予高水平智能机器人以电子人主体资格,这与自然人是同等主体地位;2017 年沙特阿拉伯王国授予机器人以公民资格。国际社会已在探讨赋予机器部分人格的权利,但在主张机器权利的同时,提出更要对其加以义务限制(包含法律、道德保障)。
在控制权归属方面,“无人驾驶”的伦理困境成为人类与机器操控权分配的典型代表。“辅助驾驶系统”能力的夸大、人类对驾驶控制权的放弃,共同导致此类自动驾驶事故不断发生。2019 年出现的民航飞机自动驾驶系统存在错误现象(飞行控制计算机出现“数据错误”),导致飞行员无法夺回飞行控制权而最终酿成事故。
在劳动力结构变化方面,伴随数字化带来的产业结构升级,自动化机器代替了重复劳动,智能化设备可以辅助相关决策;虽然长期来看数字基础设施建设有利于高素质人才培养、创造新增就业机会,但导致越来越多的技能落伍人员面临劳动力市场的重新选择,结构性就业矛盾难以避免。
(二)社会信任危机
一是“虚拟现实”并非现实。数字基础设施建设中的第五代移动通信(5G)+ 虚拟现实(VR)/ 增强现实(AR)/ 扩展现实(XR)场景应用,在医学领域、建筑设计等方面带来体验革命,人类可在“虚拟”“现实”之间无缝穿梭。“斯坦福监狱实验”“米尔格伦实验”等大量心理学实验证实,VR 可能对人类的行为产生影响,且这种影响会延续到现实世界中。在虚拟社会“相逢不相识”的情况下,道德主体会出现社会感淡漠现象,容易冲破道德底线,发生“逾越”行为;在可能造成网络暴力、恶意信息大规模传播的同时,严重冲击社会诚信体系。
二是声音伪造与人脸变造。人工智能算法伪造的个人笔迹、声音、动画、视频具有极高仿真度,使得日常社会活动中的合同、契约、证书、法律文本的防伪鉴定面临困难,对社会秩序各个层面都构成潜在的严重威胁。宣扬错误政治观点的政客伪造视频、对抗网络生成的“虚拟特工”、基于通用语言模型 GPT-3 的“最强假新闻生成器”等各种智能造假手段,干扰了社会正常秩序,构成巨大的舆论压力。
三是智能家居设备的安全隐患。家庭智能设备涵盖广泛的应用场景,为居民生活带来极大便利;也要注意到,规模数量巨大、可以被远程控制的智能家电在物联网中多属于安全性偏低、易受攻击的设备群体。智能家居设备的认证机制、平台数据保护系统、网络端口数据泄露等,都可能是个人信息隐私保护的薄弱环节。智能摄像头、智能音箱、儿童监视器等遭到黑客入侵的案件已有发生,为伦理安全、社会安全带来了巨大的负担。
(三)数据信息安全
数据安全已成为全球性问题。数据安全性丧失,不仅给国家安全带来风险,也会造成企业的直接或间接经济损失,威胁个人用户的信息与隐私安全。“去中心化”带来大量信息的网络空间迁移,数据的流动性、可复制性使得实施相应数据监管非常困难。具有强针对性和破坏性的外部网络攻击、企业内部数据服务器保护措施不力、个人隐私保护措施不合规等,都会造成不可挽回的数据安全损失。还需注意的是,随着跨行业、融合领域信息工程的实施,需要保护的基础设施将大规模增加,数据安全挑战从高新产业扩展到了众多横向产业;网络攻击从数字空间延伸到物理空间,“小概率事件引发大问题”的隐患依然存在 [6]
基于大数据分析的智能化商业推荐系统,带来了全新的营销模式,营销效率呈现指数倍增效应。在巨大的利益诱惑面前,包含个人隐私和敏感信息的数据被单纯地视为牟利的工具、随意转卖的商品,个人隐私权因合理保护不足而受到侵犯。目前,非法搜集用户信息形成了灰色利益链,隐私泄露更是上升为国际政治问题,如“棱镜门”事件是典型的“第三只眼”代表。
(四)算法缺陷问题
一是算法并非客观。智能算法的设计目的、数据运用、结果表征等,都是开发者、设计者的主观价值选择,人员持有的偏见通常会嵌入到智能算法之中 [7];智能算法又可能将这种歧视性倾向进一步放大或固化。例如在美国,国家层面及各州都将存在实质性歧视影响的算法纳入法律调整的范围,对歧视性算法进行司法审查。
二是算法的透明性。基于智能算法的人工智能决策与传统的决策系统不同,公众无法理解复杂算法的机制原理和框架模型;针对输入数据,计算模型自行完成智能演算过程,甚至算法设计者也无法清晰解释机器的具体操作过程。“黑箱”问题由此出现,自主决策系统结论的可解释性成为算法利用方面的难题。
三是“数字鸿沟”和社会分化现象加剧。进入社会化媒体时代后,在算法推荐系统的不利影响下,多通道的传播形态反而不利于信息的自由传播。新媒体在传播过程中会出现“回音室效应”“信息茧房”“网络巴尔干化”等有意识或无意识形成的不良现象 [8],导致人们沉浸在自己偏好的信息世界中,可能造成严重的公众意识形态分化、网络群体极化现象。
(五)确权与责任归属
一是人工智能时代的数据确权。数据的所有权、知情权、采集权、保存权、使用权等成为每个公民的新权益。从数据生命周期角度来看,数据的生产、采集、传输、存储、加工、销毁,数据的处理主体随着信息产业链的细分而不断分化,数据内容在整个信息链条上呈现高度耦合特征。数据的权益界限较为模糊,在公开、公平、公正的原则下,赋予数据主体的自主权利、解决主体间的权属争议成为新的伦理问题。
二是智能设备的能力认证。传统产业尤其是交通、城市建设、医疗等基础行业领域,在从“自动化”向“数字化”“智能化”发展过程中,智能信息系统的伦理漏洞会给整个行业甚至社会带来巨大的安全隐患。例如,自动驾驶、法律决策、医疗诊断等特定领域,面临智能机器在执行操作时需要具备驾驶执照、律师资格、行医资格等行业相关部门的许可,具备相关职业道德水平以保障人类权益等迫切问题。
三是智能设备的法律主体资格。在现行民事法律体系之下,智能设备作为权利客体、法定支配权的对象,尚不具备成为法律主体的条件。服务的责任归属需要考虑特定场合中对相互冲突的利益进行道德判断和取舍,如人工智能创作成果的知识产权归属 [9]、无人驾驶事故的民事法律责任分配等现实问题,都需要尽快作出明确的规定。

三、国内外人工智能领域伦理监管现状

(一)国外伦理政策及监管现状
人工智能技术伦理问题带来的国际安全和治理问题是双重的:一方面是技术自身的风险,如算法歧视、对抗样本攻击等技术能力缺陷或针对技术的攻击;另一方面是智能技术与原有社会问题相互交织引发的全球危机,如大数据跨国犯罪、致命性自主武器应用等。国际组织、诸多国家都投入了较多的研究资源,积极把控人工智能技术产业变革对社会各方面的影响,力争作出明智的政策选择 [10]
不同国家和地区的人工智能产业发展路径不尽相同,对相关问题的关注点也有所区别。①美国借助伦理倡议,注重技术发展和国家安全;《维持美国人工智能领导地位行政令》强调提升社会对伦理问题的关注程度,要求在保护公民自由、隐私、基础价值观的基础上,充分挖掘人工智能技术的潜能;美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,要求人工智能系统必须值得信赖,应当采取维护公平、透明度、问责制等举措,设计符合伦理道德的人工智能体系。②欧盟委员会提出“信任生态系统”概念;下设的人工智能高级专家组发布《可信人工智能伦理指南》,提出四大基本伦理原则、7 项基础要求、可信人工智能评估清单,期望确保数字经济健康稳定发展、在规范层面占据领先位置;欧洲多国政府正在通过双边或多边协议的形式,加强人工智能技术研发合作、伦理政策议题对话,如 25 国 2018 年签署的《人工智能合作宣言》。
目前,美国已与日本、韩国、德国、波兰、英国、意大利等国共同建立了多边论坛,形成了一些有关人工智能的软法性、自治性规范。尽管这些规范当前并没有强制性法律效力,但其中的许多原则、规则在未来条件成熟时必然成为监管的重点方向,极有可能成为具有强制性的法律规定,甚至成为未来人工智能领域的国际规则。对此应给予足够的关注。
(二)我国伦理政策及监管现状
2019 年 7 月,《国家科技伦理委员会组建方案》获得审议通过,开启了我国科技伦理治理制度化的新进程。这一政策文件指出,科技伦理是科技活动必须遵守的价值准则;组建国家科技伦理委员会,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。2019 年 6 月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理框架和行动指南;突出发展负责任的人工智能这一主题,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等 8 条原则。
相关科研单位、企业也在不断推进人工智能伦理监管与治理的研究。2019 年 5 月,北京智源人工智能研究院联合北京大学,清华大学,中国科学院自动化研究所、计算技术研究所等单位,共同发布了《人工智能北京共识》,提出人工智能研发、使用、治理应遵循的 15 条原则。2019 年 7 月,腾讯研究院发布《智能时代的技术伦理观——重塑数字社会的信任》研究报告,包含技术信任、个体幸福、可持续践行“科技向善”三方面内容。
整体来看,我国长期支持信息技术领域的科研和产业发展,对新兴技术秉持积极关注、促进发展的态度;在国家层面积极发挥体制优势,及时出台多项促进数字基础设施安全、网络安全、人工智能“产学研”协同发展的政策法规。也要注意到,已有政策偏重宏观层面的产业促进,对于具体专业技术方向的发展指导仍显不足,亟需加强国家指导性政策、地方资源保障性政策与产业技术标准的有机结合。国家信息领域工程伦理的研究和监管仍处于有待深化发展的过渡阶段。

四、我国人工智能伦理监管需求分析

(一)科研阶段伦理防线的构建需求
技术研发是伦理治理的第一道防线,在研发阶段需要做好治理策略的融入,避免算法、程序上的原始缺陷,为技术应用示范与推广打好坚实的伦理基础。技术伦理研究不能仅满足于对现行技术和社会影响进行评价或批评,而是要在技术研发过程中发挥塑造作用,在技术演进方面更多地融入伦理价值,尽早介入科技对社会的建构。随着人工智能技术与医疗、汽车、金融、教育等诸多应用领域的深入结合,传统的社会伦理学方法已不再匹配人工智能技术的发展需求,人工智能伦理研究队伍呈现多元化、跨学科特征;法学、社会学、哲学、伦理学等专业领域的研究者共同组成了具有复合特征的伦理学研究群体,同时计算机和人工智能专家、生命科学家、社会公众也参与了对新兴技术的反思。
(二)信息企业、行业的自律要求
建立企业、行业的自律组织,出台行业自律规范,是保证相关产业健康发展的必要条件。数字化企业是推动人工智能技术成果开展社会转化的重要驱动力,在技术工程的开发、设计、应用方面均应恪守正确的价值观、科技伦理基本原则。国内有企业提出,要坚定把握人工智能应用初衷,将安全、伦理、广泛的社会关怀融入到发展过程。一些国际性企业在内部成立了人工智能伦理道德委员会,提出了发展人工智能的自有准则;成立独立的全球性咨询委员会,旨在提供与人工智能和其他新兴技术有关的伦理问题建议,然而相关机构因人员设置不合理而引发了公众异议。这表明,仅有重视是不够的,需要在伦理机构设置、人员安排、中立性保证、员工认可度等方面进行持续努力,也应在政府引导下兼顾市场自治和行业自律。
(三)伦理、政策与立法的多维度监管需求
伦理规范是软措施,本身并不以国家强制力作为后盾。需要综合运用社会舆论、政策引导、法律规范等多种力量,引导人工智能技术的安全有序发展。动态评估和响应技术发展形势,开展跨学科的调查、各利益相关方的对话与公共讨论,据此整体性预估信息产业对国家发展的影响并积极制定应对策略。人工智能所开启的技术革新被普遍视为“第四次产业革命”,我国宜积极跟进国际发展态势,在这一决胜未来的关键性技术竞争中,既要保持国内企业、研究机构在技术研发与创新方面的优势地位,也要积极参与国际规则制定过程并发挥更大的影响力,为产业健康发展、参与国际合作与竞争谋取更大的机遇。
(四)公众信任的建立需求
“科技向善”才能建立公众的使用信任。然而近年来隐私泄露、算法歧视、“信息茧房”等有关人工智能应用的负面影响,使得公众对数据使用、人工智能技术的信任度降低;数字经济浪潮下的“数字鸿沟”导致不同社会群体之间形成新的“权利沟”“知识沟”,反而会阻碍社会能力的全面提升。应正确引导公众数据的使用方式,提倡技术使用的自由、平等、诚信、自律,同步支持公众适应数字时代带来的环境挑战、劳动力市场结构变化 [11]。同时,创造开放、公平的话语空间,适应公众对技术参与度不断提升的客观态势;借助多学科的社会科学经验描述方法,深入了解公众对技术的价值期待。从公众的角度确定“什么是可接受的技术”“技术可行性的边界在哪里”,从而为科技政策制定提供伦理基础与道德辩护 [12]

五、人工智能伦理监管发展路径和对策建议

(一)阶段式发展路径
人工智能领域工程伦理的研究,与人工智能技术应用导致的社会生活冲突及失序是紧密联系的。按照研究范围的逐步延伸可以将相应伦理研究划分为 3 个阶段。
第一阶段,对技术自身伦理的研究。以慎重的态度使用智能技术,多方面考虑人工智能技术使用的社会后果,是对人工智能技术伦理的最基本要求。算法“黑箱”、算法异化等由于客观技术缺陷导致的伦理问题,需要在技术层进行修正和完善。对技术伦理自身进行研究,是将“负责任的创新”落实到具体技术开发层面的关键内容,也是人工智能伦理最为基础的研究部分,还是科技伦理参与人工智能技术进步塑造的核心环节。
第二阶段,对网络空间伦理的研究。“无处是边缘、处处是中心”,互联网带来了信息传播方式、人际社会交往的全面变革;人工智能技术应用的不平衡,体现在不同国家、地域、族群;在数字时代,主张个体性的同时,伦理关系日趋复杂。建立虚拟空间中的新道德关系、基于信息网络空间的伦理秩序,实现对作为现实社会延伸的网络社会全面覆盖。
第三阶段,对人工智能社会伦理的整体研究。人工智能伦理研究范围已不限于技术和网络,更要偏重在整个经济社会发展背景下的信息社会伦理问题。融合计算机科学、传播学、社会学、哲学等学科形成新的工程应用伦理体系,克服新技术滥用带来社会信任危机、数字货币的金融冲击、致命性自主武器应用等人工智能技术的伦理问题。
(二)对策建议
1. 建立多维度监管框架
面对人工智能技术革命带来的伦理挑战,伦理监管体系的制定既要以及时、准确、全面的信息作为支撑,也要实现伦理、政策、法律的有效合作以重新调整社会道德秩序。伦理是价值选择的基础,应伦理先行,就“可持续发展”达成共识——满足当代人的需求而不影响后代人满足需求的能力 [13]。政策是兼顾灵活性、强制力的国家治理手段,可运用政策来调控人工智能技术和产业的发展进程,促进在安全、效率之间达成适度平衡。法律是伦理底线、根本性治理手段,应提供充分的法律保障,坚持前期引导、中期约束、后期干预的立法逻辑。
2. 尝试制定示范性政策法规
人工智能技术领域相关制度和政策的规约,应突破技术概念框架,聚焦现实社会的伦理问题,确保具体技术应用的可行性和公众的可接受性。人工智能技术应用领域跨度大,在制定新的法律法规之前,需要评估现有的政策工具并谨慎使用。过度严格的法律法规和管理政策,可能会限制创业公司、小型企业的技术创造积极性和推广使用动力。针对当前较为明确和成熟的技术应用场景,可以借鉴国际通行的“监管沙箱”制度;对于新兴产品或服务,在确保风险可控的前提下,简化市场准入、标准和程序的方式,提供包容性的试验和示范平台,为相关技术和产业提供抢占先发优势的条件。
3. 提供足够的社会言论空间
建议保持公平开放的言论空间,让行业专家、技术人员、产业投资者、普通民众均有机会表达意见,形成伦理方面的充分社会共识,避免伦理规范形成过程中对风险的错误估计。在共同的社会价值取向之下,建立科技伦理的理论、规范、监管体系,对原有的技术体系、治理体系作出必要改变,以与人工智能技术风险监管责任相匹配。基于现有的体制优势,开展跨学科调查、各利益相关方的对话与公共讨论,针对人工智能技术带来的影响开展动态评估和政策调整。
4. 完善科技伦理监管组织机构
建议逐级成立科技伦理委员会,集合人工智能相关的技术、行业产业、法律、社会团体等不同领域代表,尽可能地纳入社会各个阶层与群体的利益及要求,在科技伦理委员会的决策程序中予以反映。国家科技伦理委员会站位于国家高度,全面把握科学前沿与新兴技术的发展状态及深远后果,以其权威性、严正性对科技活动加以统筹规范和指导协调 [14,15];行业工程伦理委员会由行业协会或科技企业组织,对内体现企业之间的平等协商,对外展示行业规范和良好风貌;科研机构学术伦理委员会应加强培养科研人员、教师学生的伦理意识,促使相关人员充分理解科技伦理的价值、历史、逻辑、规范 [16]
5. 参与人工智能国际规则制定
当前,有关人工智能治理的规律已经开始在发达国家形成扩散态势,推动了人工智能治理规则的全球共享。我国已有一些互联网企业加入了人工智能合作伙伴关系(P 人工智能),将与全球行业同道一起推进人工智能实践、优化人工智能对人类的影响。在后续人工智能治理研究过程中,我国应持续关注国际合作与竞争的趋势,通过开放协作来提升产业的国际竞争力;积极参与国际规则制定过程并发挥争取更大的影响力,为我国产业谋取更大的发展机会 [16]
[1]
吴红, 杜严勇. 人工智能伦理治理: 从原则到行动 [J]. 自然辩证 法研究, 2021, 37(4): 49–54. Wu H, Du Y Y. Artificial intelligence ethical governance: Translating principles into practices [J]. Studies in Dialectics of Nature, 2021, 37(4): 49–54.

[2]
李茂久, 张静. 人工智能危害风险的理性审视与治理体系研究 [J]. 大连理工大学学报(社会科学版), 2021, 42(3): 15–23. Li M J, Zhang J. A rational review of harmful risks of the artificial intelligence and a governance system [J]. Journal of Dalian University of Technology(Social Sciences), 2021, 42(3): 15–23.

[3]
王立, 王洁. 我国自动驾驶汽车管理与法制保障研究——以道 路交通安全管理为视角 [J]. 北京警察学院学报, 2021 (1): 8–12. Wang L, Wang J. Research on the management and legal guarantee of China’s automatic driving vehicle: From the perspective of road traffic safety management [J]. Journal of Beijing Police College, 2021 (1): 8–12.

[4]
赛迪智库信息化形势分析课题组. 2020年中国信息化发展形势 展望 [N]. 中国计算机报, 2020-01-20(12). CCID Think Tank Informationization Situation Analysis Group. Prospects for China’s information development in 2020 [N]. China Information World, 2020-01-20(12).

[5]
Future of Life Institute. Asilomar AI principles [EB/OL]. (2017- 01-17)[2021-03-15]. https://futureoflife.org/ai-principleschinese/?cn-reloaded=1.

[6]
徐玖玖. 数据法治安全与发展价值的衡平路径——以《数据安 全法(草案)》的突破与困境为视角 [J]. 山东科技大学学报(社 会科学版), 2021, 23(2): 38–43. Xu J J. Equitable path of security and development value in data under the rule of law—From the perspective of the breakthrough and dilemma of the Data security law (“Draft”) [J]. Journal of Shandong University of Science and Technology(Social Sciences), 2021, 23(2): 38–43.

[7]
李安. 算法影响评价: 算法规制的制度创新 [J]. 情报杂志, 2021, 40(3): 146–152. Li A. Algorithm impact assessments: Institutional innovation of algorithm regulation [J]. Journal of Intelligence, 2021, 40(3): 146–152.

[8]
彭兰. 网络传播概论(第四版) [M]. 北京: 中国人民大学出版社, 2017. Peng L. Introduction to network communication (4th Edition) [M]. Beijing: China Renmin University Press, 2017.

[9]
Shemtov D N. A study on inventorship in inventions involving AI activity [EB/OL]. (2019-10-10)[2021-03-15]. https://www. uspto.gov/sites/default/files/documents/Carl-Yelland_RFC-84- FR-44889.pdf.

[10]
高超. 大数据技术的“隐私”与“知悉”伦理反思 [J]. 西部学刊, 2021 (4): 20–23. Gao C. Ethical reflections on “privacy” and “knowing” of big data technology [J]. West Journal, 2021 (4): 20–23.

[11]
巩辰. 全球人工智能治理——“未来”到来与全球治理新议程 [J]. 国际展望, 2018, 10(5): 36–55. Gong C. Global AI governance: The early arrival of future and a new agenda global review [J]. Global Review, 2018, 10(5): 36–55.

[12]
王国豫. 推进新时代科技伦理学新发展 [N]. 中国社会科学报, 2020-01-14(6). Wang G Y. Promoting the new development of ethics of science and technology in the new era [N]. China Social Sciences Today, 2020-01-14(6).

[13]
梁俊兰. 信息伦理学: 新兴的交叉科学 [J]. 国外社会科学, 2002 (1): 46–50. Liang J L. Information ethics: A new interdisciplinary science [J]. Social Sciences Abroad, 2002 (1): 46–50.

[14]
雷瑞鹏, 邱仁宗. 新兴技术中的伦理和监管问题 [J]. 山东科技 大学学报(社会科学版), 2019, 21(4): 1–11. Lei R P, Qiu R Z. Ethical and regulatory issues in emerging technologies [J]. Journal of Shandong University of Science and Technology(Social Sciences), 2019, 21(4): 1–11.

[15]
刘志辉, 孙帅. 大科学时代我国科技伦理中待解决的问题—— 以“主体–工具–价值”为框架的分析 [J]. 中国高校科技, 2020 (11): 69–73. Liu Z H, Sun S. Problems to be solved in the ethics of science and technology in the big science era: An analysis based on the framework of “subject-tool-value” [J]. Chinese University Science & Technology, 2020 (11): 69–73.

[16]
国家信息化专家咨询委员会秘书处. 中国信息化形势分析与预 测(2018—2019)[M]. 北京: 社会科学文献出版社, 2019. Secretariat of Advisory Committee for State Informatization. Analysis and forecast of China’s informatization forms (2018— 2019) [M]. Beijing: Social Sciences Academic Press (China), 2019.

Outlines

/