邮件系统:
用户名: 密码:
2024年03月04日 星期一
位置: 首页 》法学人物 》法界资讯 》学者观点
刘艳红:生成式人工智能的三大安全风险及法律规制 以ChatGPT为例

时间:2023-08-01   来源:法治网  责任编辑:cche

□ 刘艳红 (中国政法大学刑事司法学院教授、博士生导师)

4月11日,中国国家互联网信息办公室《生成式人工智能服务管理办法(征求意见稿)》规定,生成式人工智能,“是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。2022年11月,OpenAI公司推出了名为ChatGPT的生成式人工智能。生成式人工智能是元宇宙技术架构的终极样态之一,其加速了元宇宙的实现,而元宇宙也为其提供了良好的技术运行环境。在生成式人工智能技术的推动下,元宇宙的概念不但没有“褪色”,反而获得了新的发展动能。尤其是听得懂、说得出、能互动的GPT4的面世,使社会各行各业都遭受到了不同程度冲击。与以往的人工智能技术相比,ChatGPT等生成式人工智能给人类社会带来的潜在风险真实而紧迫。

如果说互联网引发了空间革命、智能手机引发了时间革命的话,ChatGPT类技术正在引发人类社会的知识革命。埃隆·马斯克评价说其不亚于iPhone、比尔·盖茨说其不亚于重新发明互联网、周鸿祎认为其可类比蒸汽机和电力的发明。相较于已有的人工智能技术,ChatGPT的现象级蹿红得益于大规模语言模型和生成式人工智能架构所塑造的技术性能的实质跃升。海量数据与强大算力支撑之下的“涌现”能力使得ChatGPT类技术不仅可以“理解”人类自然语言,“记住”训练期间获得的大量事实,还可以基于“记住”的知识生成高质量的内容。良好的互动性、高度通用性与智能生成性正在加速ChatGPT类技术与人类社会形成更加刚性、高频、泛在与深刻的联结。与之对应,这也意味着ChatGPT类技术给人类社会带来的潜在风险较之已有的人工智能技术而言更具现实紧迫性。深度学习之父杰弗里·辛顿在谈及ChatGPT时认为,“多数人认为这(AI危害)还很遥远。我过去也认为这还很遥远,可能是30到50年甚至更长的时间。但显然,我现在不这么想了”。在此背景下,分析生成式人工智能的潜在风险并提出法律治理路径就绝非科幻意义上的“感性空想”,而是建构在现实基础之上的理性思考。为此,如何结合生成式人工智能的运行机理与安全风险进行法律规制,成为当下科技界、产业界、法律界共同关注的话题。

生成式人工智能的运行分为三个阶段,即机器学习与人工标注的准备阶段、算法处理数据的运算阶段以及产出物流入社会的生成阶段,对应了准备阶段的数据安全风险、运算阶段的算法偏见风险以及生成阶段的知识产权风险,需要对此进行事先预防并提供法律保护。

强基赋能:生成式人工智能准备阶段中的数据安全风险与合规处置

ChatGPT在准备阶段的数据分为国家数据、政务数据以及个人数据,并分别存在一定的安全风险,应该进行合规处置。第一,针对国家数据,应该基于总体国家安全观的理念进行统筹规划,构建审查分级监管机制,采用穿透式监管的模式来分析国家数据的产生来源、内容架构以及潜在价值,从而保护数据主权。第二,针对政务数据,应该根据国家的整体布局来构建对应的合规监管体系,由政务机构在事前报备可以公开利用的数据,设立限制加工利用的前提要件。第三,针对个人数据,应该设置独立监督机构来审查收集广度,基于最小比例原则限制收集深度,同时禁止其编造虚假回复。

内核优化:生成式人工智能运算阶段中算法模型的分析与纠偏

《生成式人工智能服务管理办法(征求意见稿)》第四条(二)规定,在算法设计、训练数据选择、模型生成和优化、提供服务等过程中不得出现各类歧视。ChatGPT在机器学习的同时,通过人工标注来修正和校对机器学习的结论,而“机器学习+人工标注”作为算法技术内核,在提升技术水平的同时也会增加算法偏见的风险。鉴于此,应该遵循技管结合理念,从技术与规范两方面进行全流程监管。第一,针对先天性算法偏见调整算法的学习路径,强调算法应该遵守技术标准,在算法程序编译环节进行预防、调整和校对,设置统一的人工标注规范标准,避免造成偏向性误导。第二,针对后天性算法偏见,应该建立自动化、生态化、全流程的动态监管体系,自动对运行全程进行实时监控,构建多主体的生态化监管网络,落实全流程覆盖的监管机制。

提质增效:生成式人工智能生成阶段中知识产权的剖析与重塑

ChatGPT在生产中注入自主意识,通过神经卷积网络形成深度学习能力,而这也给知产保护带来巨大挑战。第一,公众向ChatGPT反馈自己的需求,这表明人类意志已经干预了ChatGPT的创作。第二,算法中的人工标注模式注入了人的意志,可以追溯和解释结论产生路径。第三,ChatGPT具备一定的“自我反省能力”,解释其运行机理具有实际可行性。因此,ChatGPT的生成物具有独创性与创新性,应该被赋予知识产权并加以保护。当前应该构建重点突出的知产合规保护体系,ChatGPT的可解释性算法及其生成的内容具有独创性与创新性,属于重点保护对象。具体合规保护任务分为提供一般预防措施的基础性保护与强化技术特征的专门性保护,最终构建全流程保护体系,并及时引入全新的知产保护技术。

总之,伴随生成式人工智能技术的蓬勃发展,必须提前预防可能产生的安全风险,比如影响教育公平、科研伦理、环境保护、数字鸿沟等。为了规避技术主义的陷阱,需要分析生成式人工智能对当前及未来社会可能造成的影响,并提供法律规制手段,在发挥技术效能的同时减少社会负面影响。

全文
搜索

关注
微信

关注官方微信

关注
微博

关注官方微博

网络
信箱