【摘要】 人工智能是新一轮科技革命和产业变革的重要驱动力量,正在推动人类社会进入智能时代,并成为事关发展全局和国家安全的基础核心领域。传统社会治理面临的技术环境正在发生革命性变革,以人工智能治理为代表的科技治理进入新的历史阶段,构建人工智能治理体系是推进国家治理体系和治理能力现代化的重要内容。本文从人工智能发展现状面临的挑战角度分析,提出有关人工智能治理体系构建思考,旨在提供新的视角和可行路径。
【关键词】人工智能;治理体系;信息安全;制度构建
引 言
人工智能是新一轮科技革命和产业变革的重要驱动性力量,正快速成为社会的底层架构和操作系统并引领深刻变革。人工智能是人类迈向数字文明时代的先驱力量,是数字经济发展的强大动力,是中国式现代化的核心竞争力。世界新一轮科技革命和产业变革与我国经济迈向高质量发展阶段的交汇期既面临着历史机遇,更面临时差距拉大的严峻挑战。当前我国在人工智能领域具有市场、人才、制度等方面的优势,在人工智能发展对传统行业与产业带来变革的过程中,也逐渐暴露出伦理规范、价值导向、版权纠纷、信息安全、就业环境、公共安全等风险。构建人工智能治理体系是当前和未来社会治理面临的新课题。本文从人工智能面临的风险与挑战、国际国内治理现状、制度建设、政策监管、技术能力、应用环境等角度进行分析并提出治理对策建议。
一、人工智能发展面临的风险与挑战
1950年艾伦图灵在其论文《计算机器与智能》(Computing Machinery and Intelligence)中提出了著名的“图灵测试”,给出了判定机器是否具有智能的试验方法,1956 年达特茅斯会议(Dartmouth Conference)提出人工智能的概念以来,随着计算技术理论创新、大数据沉淀积累、算力性能提升和深度学习算法的突破,数字经济与实体经济加快融合发展,近年来以生成式对抗网络(Generative Adversarial Netwook,Gan)、深度残差网络和视觉Transformet神经网络模型为代表的深度学习算法成功实践并迅速迭代更新。2021年美国OpenAI公司推出的ChatGPT人工智能生成内容(AIGC),能够以优于人类的生产能力和知识水平承担信息挖掘、素材调用、复刻编制等机械式生产劳动,进一步实现与传统产业的融合渗透并开创出新业态、新模式和新产业,逐渐建立现实世界到数字世界的映射与数字孪生,创造出数字经济发展新的增长极。习近平总书记多次对人工智能的重要性和发展前景作出重要论述,他指出:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手。”“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究。”以人工智能为代表的新技术革命使得传统的生产函数底层架构发生根本变化,培育出新的生产要素与生产方式。加快人工智能创新发展,促进人工智能与传统产业深度融合并赋能,是我国建设制造强国、质量强国、网络强国、数字中国的重要途径,对于转变经济发展方式、加快建设创新型国家和世界科技强国,推进高质量发展和构建新发展格局具有重要意义。
随着以深度学习、跨界融合、人机协同、群智开放、自主操控为特征的新一代人工智能技术持续创新突破,人工智能技术异化也产生出新的治理盲区,围绕公平、责任、安全等方面的风险日益增长,并引发伦理、道德、法律、文化、宗教、哲学等社会意识形态及法律制度的变化及挑战,将对传统生产方式和社会形态带来深刻变革,也对数字经济时代人工智能治理体制和治理模式提出了新的要求。
(一)人工智能生成内容的风险
2023年3月3日,OpenAI对外开放ChatGPT和WhisperAPI,其中ChatGPT API的价格为0.002美元每千个Token,标志着人工智能生成内容(AIGC)正式进入商业化应用阶段,美联社智能写稿系统Wordsmith能够每秒创作2000篇新闻,第一财经DT稿王每分钟可写作1680字,ChatGPT的自然语言处理工具已能够通过理解和学习人类的语言进行对话。人工智能迅速发展应用过程中,逐渐显露出存在的风险。如其关键的算法模型在透明度、鲁棒性、偏见与歧视方面存在固有技术局限,人工智能算法结果来自海量数据的采集,其依托的数据本质是社会价值观的映射与孪生,可能导致偏见与歧视信息反映到训练结果中,沉淀的大数据导致的算法结果可能造成内容结果的失真和违背伦理道德、哲学规范甚至法律法规。深度学习和强化学习算法模型运行规律及逻辑的不透明,存在不可预知的信息黑箱和无法解释的输出结果,其不透明、自适应、自学习的特性使得算法运行极易受到历史数据、算法模型、训练方法的干扰而出现非鲁棒性特征。加之技术的不可控也将导致信息安全风险、侵犯个人隐私和造成数据滥用等。随着机器深度学习生成的内容日益完备、应用场景日趋普及并通过互联网触达终端用户,如身份识别、内容生产、在线教育、“变声”“换脸”等技术应用引发的虚假信息、不良信息甚至违法违规内容的产生,引发出伦理道德和文化价值风险。伴随着人工智能技术的分散性、流动性、隐蔽性和大规模传播,更将直接辐射并影响网络内容生态。人工智能治理实践中面临着未知性、技术管理难度和复杂性等风险,现有条件对其风险的预测、防范和处置能力均不完备,更缺乏有效的治理方法和技术手段,在受到内部威胁或外部攻击时将引发网络内容生态安全风险。
(二)人工智知识产权的风险
我国现有知识产权法律体系规定了法律主体的权利和义务,人工智能通过机器生产出的内容成果难以获得知识产权的保护,导致人工智能创造的作品存在著作权归属不清的问题。如2020年美国查普曼大学利用OpenAI大模型GPT-3创作剧本并制作短片《律师》、海马轻帆的“小说转剧本”智能写作系统等涉及著作权问题。人工智能的知识产权界定不清晰明确,一方面将造成人工智能包括AIGC创造的作品著作权归属难以界定且无法受到法律保护,从而阻碍技术创新的动力并发挥创作价值,另一方面也会导致人工智能所依赖的海量基础数据及算法成果稀释原有创作者的独创性,侵害原权利人的合法知识产权。
(三)人工智能的就业风险
麦肯锡全球研究院《人工智能前沿记录:人工智能对全球经济影响的模拟计算》报告提出,全球高达50%的工作可以被机器人所取代,近六成工作岗位中30%的工作量可以被机器代劳,到2030年全球约8亿人的工作将因人工智能发生变化,预计我国约有1.1亿人的工作被自动化所取代。随着人工智能直接替代传统劳动岗位,或是填补劳动者所无法胜任的岗位以及催生出新的就业岗位,将引起技术性失业和就业结构失衡,由于人工智能的技术壁垒产生出新一轮市场垄断,将对不同产业、行业、群体和阶层之间的分配关系产生影响,带来贫富差距及分配正义等系列问题。
(四)人工智能的安全风险
人工智能产品及服务直接作用于社会,人工智能深度学习模型本身具有脆弱和易受攻击等缺陷,其系统本身存在高度不确定性,技术漏洞更为复杂,原始数据的添加扰动将会使系统作出错误判断并引发可靠性、安全性的问题。当前基于人工智能的自动驾驶、人脸识别、自动生产、智慧城市等技术已经普遍落地应用,人工智能技术已具备相当程度的自主学习和分析决策能力,其行为本身存在不可解释性和不可预见性,在技术层面针对人工智能的安全标准、技术体系、评估规范、监测和检查技术仍在探索中。在法律层面现行的法律法规尚未明确界定人工智能在设计、生产、消费、应用等环节涉及各方主体权利和义务,导致相关法律责任认定和划分难度的增加。如自动驾驶汽车因人工智能算法导致的交通事故、机器自动生产故障导致的伤亡事故、智能医疗设备错误诊断结果导致的误诊、自主武器产生误判对人类生命造成的威胁、人类思考能力对人工智能结果的过度依赖产生的认知偏离风险,以及Neuralink大脑芯片植入计划带来的人体实验风险等。由于人工智能的技术自主性导致的责任主体不明等问题,对现有的法律法规和治理体系产生出新的挑战。
1931年爱因斯坦即指出:关心人的本身,应当始终成为一切技术奋斗的主要目标,以保证我们的科学思想成果能够造福于人类,而不至于成为祸害。人工智能将把人类带往何处,已经成为深刻的哲学命题。进入数字经济时代,传统的技术治理手段和治理体系已不能适应新一轮技术革命的需要,人工智能的发展对治理方式和治理水平均提出了全新要求,加强人工智能的治理已成为全球共识,并从理论探讨阶段进入实践探索的前沿,有效协调技术创新发展与有效规制之间的平衡,构建具有中国特色的人工智能治理体系是推进国家治理体系和治理能力现代化的重要内容。
二、人工智能治理的现状
全球各国正加快探索和研究人工智能治理方法,各主要国家均提出坚持以人为中心的基本治理理念,并从伦理原则、倡议共识向可信评估、操作指南、政策法规等层面开展治理实践。美国将人工智能治理列为《国家人工智能研究和发展战略计划》,要求将如何表示和“编码”人类价值和信仰体系作为重要课题研究,建立符合伦理的人工智能,制定可接受的道德参考框架,实现符合道德、法律和社会目标的人工智能系统整体设计。欧盟发布《可信人工智能伦理指南》《欧盟人工智能白皮书》强调“可信人工智能生态系统”的重要性,要求坚持“以人为中心”的发展原则,推动发展符合欧洲伦理与社会价值观和民众愿望的人工智能,确保人工智能技术能够给个人和社会整体带来福利。英国政府发布《国家人工智能战略》指出,倡导反映我们价值观的国际标准,确保英国正确治理人工智能技术,以鼓励创新、投资并保护公众和英国基本价值观。2017年1月,在美国加州阿西洛马举行的Beneficial AI会议上,近干名人工智能和机器人领域专家联合签署了《阿西洛马人工智能原则》,呼吁全世界在发展人工智能时共同保障人类未来的伦理、利益和安全。2019年G20通过的《G20人工智能的原则》倡导以人类为中心、以负责任的态度开发人工智能。2019年9月,联合国《特定常规武器公约》确立了致命性自主武器系统运用的11项指导原则。2021年11月,联合国教科文组织在法国巴黎发布了《人工智能伦理建议书》,成为全球首个针对人工智能伦理制定的规范框架,明确了规范人工智能技术的10大原则和11个行动领域,为制定人工智能发展的国际法规和技术标准提供了遵循。谷歌、微软、亚马逊、Meta、华为、腾讯、阿里等企业均成立人工智能治理专门研究机构,通过发布伦理原则、制定内部规范、研发技术工具等措施,加快建立治理规范体系。
2020年我国人工智能企业达到1454家,位居全球第二,人工智能产业规模达3031亿元,高于全球增速。我国高度重视人工智能产业发展中的治理问题,近年来相继颁布了《数据安全法》《网络安全法》《个人信息保护法》《民法典人格权编》《网络数据安全管理条例》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规。2017年7月国务院在《新一代人工智能发展规划》中提出:要制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则。党的十九大报告在全球首次提出实施智慧社会战略,提升社会治理智能化水平。2021年“十四五”规划和2035年远景目标将人工智能技术及其治理纳入国家规划,要求加快人工智能核心技术突破及产业化发展,同时要高度重视人工智能治理体系建设。2021年9月国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求,保障人类拥有充分自主决策权,确保人工智能始终处于人类控制之下。
三、加快构建人工智能治理体系
我国始终坚持以确保人工智能的安全和平等为底线,在此基础上鼓励创新并赋能经济社会发展。构建人工智能治理体系与推进国家治理体系和治理能力现代化叠加并进,智能技术与治理实践正加快融合和相互促进。国务院在《新一代人工智能发展规划》中提出:“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。充分预见人工智能可能带来的安全风险挑战,加强前瞻性预防与约束引导,加快构建负责任的人工智能治理体系,最大程度降低和化解风险成为当前十分迫切的任务。同时,人工智能治理是一项复杂的系统性工程,人工智能所带来的风险更具复杂性、长期性和全球性,既需要坚持科技造福人类、安全与发展兼顾的治理目标,平衡创新发展与有效治理的关系,更需要提出切实有效的治理举措,保障人工智能始终安全、可靠、可信、可控。
(一)坚持正确的价值导向
人工智能的治理原则应建立在正确的价值观基础上,人工智能发展初期在强化基础数据归集、算力资源布局、算法开源平台等基础能力建设的同时,相对于立法的滞后性,应加快伦理规范的引导,保障其发展方向的价值导向并可管可控。通过依法加强对原始数据内容的监管,界定人工智能技术提供者、内容传播者和应用方的法律义务和社会责任,维护公民精神上的尊严与平等。针对深度伪造技术和虚假内容生产传播、创作者信息披露和标注生成内容、信息内容鉴别等,制定分类分级和安全标准体系,以及未成年人保护、动态评估、规则制定、权益保护、协同监管的人工智能治理模式,依法保障网络安全、文化安全和科技安全。
(二)加快治理技术工具的研发应用
人工智能的治理技术包括数据治理、信息治理、算法治理、算力治理、场景治理等领域,需要依靠精准、高效、合规的治理方法及工具强化全过程、全流程和全生命周期的监管,确保人工智能始终处于人类控制之下。目前全球领先的科技企业均在积极开发运用数据筛选、算法设计、模型优化等技术工具,针对隐私泄露、算法偏见、非法内容审核等治理问题进行深入研究。如华为将差分隐私、协同过滤等技术应用于算法训练等数据使用过程,保障人工智能应用的安全可控。当前需要进一步深化治理理论及规则的研究,加强人工智能基础理论、可解释算法、可信人工智能评估测试等技术研究,加快构筑具有针对性的一体化、全链路标准体系和治理工具,支持和鼓励算力基础设施企业和算法企业加强合作,将安全技术工具集成到人工智能算力基础设施中,逐渐形成安全可靠的技术保障环境。
(三)建立法律法规制度
人工智能的非法应用及技术算法漏洞对伦理道德、隐私权益、财产安全、系统安全等带来风险和威胁,人工智能所带来的责任归属界定、隐私泄露等问题不断挑战现行法律法规,同时人工智能技术具有相对独立于自然人的智能属性,当前对人工智能的法律责任划分及其法律地位存在较大争议。在司法实践中需要采取包容审慎、灵活弹性、坚守安全的治理模式,既避免阻碍人工智能技术创新发展,更要适应技术快速迭代需要,既要通过法律法规加以规制,更要用文明和伦理赋予其更多开放弹性。2022年9月颁布的《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》作为我国首批人工智能产业专项立法,在促进人工智能产业发展提供法治保障的同时,明确指出从事人工智能研究和应用的组织或者个人,应当遵守人工智能伦理安全规范,不得从事危害国家安全和社会公共利益、侵犯个人隐私和个人信息权益、实施价格歧视或者消费欺诈等七类行为。人工智能技术的发展对新的法律规制提出了现实要求,在没有完整制定人工智能法律体系框架的条件下,需要针对人工智能细分领域,逐步健全完善现有法律法规,构建与人工智能发展相适应的市场准入、市场秩序、技术创新、数据安全、知识产权、安全保障等法律体系,强化人工智能的市场准则和监管措施,对人工智能进行适度且有效的法律规制,确保人工智能技术可管可控可纠,有效保障公民权利和技术的创新发展。
(四)建立标准规范体系
标准化工作对人工智能及其产业发展具有基础性、支撑性、引领性的作用, 既是推动产业创新发展的关键抓手,也是产业竞争的制高点。目前欧盟、美国、日本等国家和地区均高度重视并大力推进人工智能标准化进程。国务院《新一代人工智能发展规划》将人工智能标准化作为重要支撑保障,明确提出“要加强人工智能标准框架体系研究,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准。”当前重点需要在卫生、交通、制造金融、传媒等直接关系人民生命财产安全的人工智能应用领域,加快制定相关行业标准规范,保障人工智能产品质量及服务的稳定。通过建立以算法为核心,以数据和硬件为基础,以人工智能安全可控为导向,开展术语、参考框架、算法模型、技术平台等重点急需标准的研制,建立人工智能算法评估规范、伦理规范、行业安全标准、数据安全规范、应用安全规范等,使人工智能系统始终遵循和服务于人类的伦理规范,实现人工智能系统全生命周期的安全、可靠、可解释、可问责及可控运行,防止人工智能达到或超过“技术奇点”,确保人工智能系统可被人类全流程监督并及时接管。
(五)完善社会保障制度
针对未来人工智能所带来的产业结构升级和就业环境变化,需要充分发挥社会基本保障制度的作用,针对可能被人工智能替代高风险类别的就业人群,加强在岗或转岗职业培训,缓解因人工智能使用对从事常规性、结构化和重复性工作的劳动力带来的失业问题,维持传统劳动力市场的稳定。同时需要加快引导并发挥劳动力在创造性、灵活性、无法替代性工作岗位的优势,调整和优化教育结构,通过教育培养感知类、创造性和社交能力的技能和知识,培养在未来执行复杂的并难以被人工智能所替代的工作岗位,防范“人工智能鸿沟”带来新的就业排斥,通过实现人机之间的高效合作互补,不断增强人才竞争优势,降低失业率和失业周期,有效缓解人工智能引发的就业及社会保障问题。
(五)建立协同治理体系
2023年3月,中共中央、国务院印发《数字中国建设整体布局规划》指出,要优化数字化发展环境,建设公平规范的数字治理生态。人工智能治理的重要特征之一是治理主体的多元化和治理手段多样化,需要打造多元主体参与、多措并举、协同共治的治理机制,构建包括立法机关、政府部门、研究机构、市场主体、行业协会、社会公众等各方参与治理机制。特别是处于人工智能创新研究最前沿的人工智能企业更要担负起社会责任,切实履行维护伦理道德和信息安全的义务。社会应大力鼓励并支持头部企业、科研机构和行业专家加强治理技术能力研究创新,不断提升人工智能的成熟度、稳定性和抗风险能力,通过制定联合公约、标准规范、行动指南、行动准则等行业规范,构建全社会在技术、内容、应用、服务、监管等领域共建、共管、共治的发展环境,促进人工智能繁荣健康发展。
人类历史上两次工业革命,均是利用机器替代人类的体力劳动并解放生产力,未来人工智能必将替代人类的脑力劳动并极大提升人类社会的思考能力,创造出新的生产力。有效应对人工智能带来的风险与挑战,协调人工智能发展与治理的关系,推动构建系统完备和适宜我国国情的人工智能治理体系,确保人工智能安全、可控、可靠,是保障人工智能成为促进社会有序发展、共享发展、公平发展、开放发展、和谐发展的基础。
参考文献
[1]张文魁.数字经济的产业组织与反垄断—数字市场全球治理及中国政策[M].北京:中国人民大学出版社,2023:224-235
[2]陆兴海,彭华盛.运维数据治理—构筑智能运维的基石[M].北京:机械工业出版社,2022:144-158
[3]伦一. 人工智能治理相关问题初探[J]. 信息通信技术与政策,2018(6):5-9.
[4]Nissenbaum,H.Privacy in context:Tenchnology,Policy and the Integrity of Social Life.Palo Alto:stanford University Press,2010:129-214
[5]Waldman,A.A statistical Analysis Of Privacy Policy Design.notre Dame Law Review Online,2018,93(1):159-170
[7] 陈思. 算法治理:智能社会技术异化的风险及应对[J]. 湖北大学学报(哲学社会科学版), 2020,47(1):158-165.
[8] 蒋洁. 风险视域下人工智能伦理的主旨和原则[J]. 信息通信技术与政策, 2019(6):13-16.
[9] 杨婕. 推动完善我国新一代人工智能伦理治理体系[J]. 信息安全与通信保密, 2020(1):93-101.
[10] 谭九生, 杨建武. 人工智能技术的伦理风险及其协同治理[J]. 中国行政管理, 2019(10):44-50.
[11] 韩凯峰, 詹远志. 推动构建人工智能治理体系 持续优化人工智能政策环境[N]. 人民邮电, 2020-08-21(007).
作者姓名:谭继宁
所在单位:云南省文化和旅游厅
曾在昆明市政府信息化办公室、云南省文化厅、云南省文化和旅游厅长期从事信息化建设和信息产业发展研究及实践工作。

