ALB OCTOBER 2023 (CHINA EDITION)

6 ASIAN LEGAL BUSINESS CHINA • 亚洲法律杂志-中国版 OCTOBER 2023 BIG STORY 今年8月底,包括百度、字节跳 动、商汤等在内的8家企业和机构正 式宣布对中国公众用户开放其大模 型服务,至此,中国《生成式人工智 能服务管理暂行办法》(“生成式AI 管理办法”)下第一批备案通过的大 模型诞生。 此时距离“生成式AI管理办法” 正式生效不过半个月之久,距离生成 式AI热潮席卷全球也不到半年时间, 在生成式AI这一全新领域,中国的监 管反应速度令人瞩目。 实际上,中国是首个在生成式AI 领域实现规则落地的司法管辖区。对 比之下,欧盟的《人工智能法案》授权 草案仍在针对关键问题进行谈判;美 国则主要由头部生成式AI公司展开 自治,制定初步监管法律仍在计划 之中。 平衡安全与发展 谈到中国在生成式AI领域监管的快速 落地,世辉律师事务所合伙人李慧律 师指出,这背后主要有两方面原因。“ 生成式人工智能由于其技术特点—— 尤其是强互动性和泛用性,对人类社 会的影响比以往的很多人工智能技 术都更大,因此其带来的相关风险也 更为突出和急迫。” 其次,“监管生成式人工智能的 ‘工具箱’此前在中国已有一些积累, 在《关于加强互联网信息服务算法综 合治理的指导意见》、《互联网信息服 务算法推荐管理规定》、《互联网信息 服务深度合成管理规定》中均有制度 设计和具体实践——如算法备案、安 全评估等”。 不过,在这一全新领域,中国的 立法仍在摸索着寻求平衡,既保障大 模型输出内容的安全,又不抑制创新。 为此,“生成式AI管理办法”也体现出 了立法智慧。 一方面,李慧律师指出,今年4月 “生成式AI管理办法”最初征求意见 时,“那一版本是更为严格的,我们也 协助多家人工智能领域的头部企业反 馈了修改意见,很多最终都得到了接 受,可见监管机构对于产业界的意见 予以重视和尊重”。 另一方面,“如果仔细拆分条款, 会发现管理办法新设的义务很少,更 多还是现有法律规定在生成式人工 智能领域的细化”,她说。 “尤其值得关注的是,新规很罕 见地在标题中就有‘暂行’两字,这在 近年国家网信部门的科技立法中是不 太常见的,也能看到监管机构对生成 式人工智能这样的新技术具有需要 密切观察的心态,或许有可能根据技 术的发展对规定进行调整。” 隔离风险、快速反应 针对市场热议的第一批在“生成式AI 管理办法”下获得审批、拿到“牌照” 的大模型,李慧律师解释道,虽然新 规搭建了较为完整的监管框架,“但 严格来说通篇并未使用‘审批’字样, 而是采取‘转致规定’,即主要根据《具 有舆论属性或社会动员能力的互联网 信息服务安全评估规定》、《算法规定》 等对生成式人工智能服务开展安全评 估和算法备案”。 的确,上文8家公司和机构在宣 布对公众开放产品时,都没有强调大 模型“通过备案”的身份。 实践中,除了法规规定,李慧律 师说,“还存在相关模板和评估要点, 指导业务进行相关申报工作,其中包 含大量规定动作,企业需如实、详尽 地向监管机构说明其算法模型的基 本情况,并对风险进行评估和控制”。 由于相关备案、风险评估主要由 企业自行开展,过程中,熟悉这一领域 监管思路的律师也很大程度扮演了把 关人的角色。 李慧律师告诉ALB,目前世辉给 生成式AI领域客户提供的建议分为两 个版本。“一个是详细版本,其中包含 了详细的清单和制度,需要结合具体 情况进行量体裁衣。” 另一个则被她称为“简单版本, 企业需要把握监管对于风险的判断, 以制度和技术两个维度来管控风险, 要么具备领先的技术措施,要么采取 严格的管理制度,或者二者兼具。出 现风险不可怕,怕的是对风险没有隔 离机制,也不能快速反应。因此,合规 要把重点放在隔离风险和快速反应 这两点上。” 关键性角色 在“生成式AI管理办法”下,除了帮助 相关企业更快、更安全地“进场”,展开 大模型商业化之路,李慧律师指出,外 部律师也能够发挥更为多元的作用。 “根据新规和境内外的实际案 例,生成式人工智能服务提供者会涉 及到诸多法律问题,例如数据保护、知 识产权、内容安全、开源合规等。”李慧 律师说。而解决这些问题涉及诸多难 点,例如要能够平衡多方主体利益、 深度理解技术方案和商业模式,而且 针对许多问题,无论是监管机构、头部 公司、学术界,目前也尚未达成共识。 在此过程中,律师不但要提供落 地的解决方案,也要扮演好促进沟通 的角色。“律师需要深度参与规则的 讨论、建设,另一方面也要协助企业 准确理解法律和监管要求,搭建风险 防控体系。” “尤其考虑到领域的立法常有 所谓‘拔高’的要求,律师需要帮助企 业判断各项要求的轻重缓急以及实现 的现实可能性及潜在成本。在这一过 程中,外部律师不仅是法律专家,也 必须成为行业专家。”李慧律师说。 “Based on these new measures and real-world use cases both domestically and internationally, providers of generative AI services will confront numerous legal challenges, including data protection, intellectual property, content safety, and open-source compliance,” says Li. Addressing these challenges entails various complexities, such as balancing the interests of multiple stakeholders and possessing a deep understanding of technical solutions and business models. Furthermore, many of these issues currently lack a consensus among regulatory authorities, industry leaders, and academia. In this process, lawyers need to offer not only practical solutions but also facilitate communication and knowledge exchange. “Lawyers should actively participate in the discussion and formulation of regulations. They should guide companies in comprehending legal and regulatory requisites accurately and assist in constructing their risk prevention and control systems.” “Given that sector-specific legislation often imposes what we call ‘elevated’ requirements,” Li continues, “lawyers must help companies determine the prioritization of various requirements and assess the practical feasibility and potential costs associated with complying with these diverse demands. Throughout this journey, external lawyers transcend their role as legal experts and must evolve into industry experts,” emphasizes Li.

RkJQdWJsaXNoZXIy MjA0NzE4Mw==