中文
英文 日文

AI工具使用的法律风险分析与策略研究

作者:陶冶 国浩律师事务所 浏览量:


摘要:人工智能(AI)工具在提高生产效率的同时,也带来了潜在的法律和合规风险。本研究探讨了使用AI工具时面临的三类主要风险:违约风险、生成物侵权风险和信息泄露风险。通过分析各类AI工具和模型的使用条款,以及探讨相关法律问题,旨在为企业提供AI工具使用的合规策略建议,以降低潜在风险。

目 录

一、引言

二、AI工具使用中的违约风险

三、生成物侵权风险

四、信息泄露风险

01

引 言

随着人工智能技术的快速发展,AI工具在各个领域的应用日益广泛,包括代码生成、设计、内容创作等。这些工具通过自动化和优化工作流程,极大地提高了生产效率。然而,AI工具的使用也带来了一系列潜在的法律和合规风险,企业在使用这些工具时需要格外关注。本文将重点关注如下三类风险,为企业提供可操作的合规策略,以降低AI工具使用中的潜在法律风险,促进AI技术的健康发展:

1. 违约风险:AI工具的用户许可协议可能对生成内容的使用范围有所限制,不当使用可能导致违约。

2. 生成物侵权风险:AI工具生成的作品可能侵犯第三方的知识产权,包括版权、专利等。

3. 信息泄露风险:使用AI工具可能涉及用户数据和敏感信息的上传和处理,存在信息泄露的风险。


02

AI工具使用中的违约风险

(一) 概述

许多AI工具和模型提供商在其用户许可协议中,对生成内容的使用范围进行了限制。包括但不限于:

禁止用于商业竞争:禁止使用生成的内容开发与提供商竞争的产品或服务。

禁止用于特定目的:禁止将生成的内容用于非法、侵权或其他特定目的。

禁止数据提取和再利用:禁止以自动化方式或通过程序提取模型数据或输出,用于模型训练或其他目的。

例如,一些代码生成工具的许可协议可能禁止用户使用生成的代码开发竞品;一些设计工具可能禁止用户复制其设计理念和风格。用户在使用这些工具时,必须仔细阅读并遵守相关许可协议,确保其使用行为不超出授权范围。

(二) 常用AI工具和模型许可条款分析

本文对一些常用的AI工具和模型服务提供商的用户许可协议进行了分析,重点关注其中与使用限制相关的条款。

以下是部分开发工具的相关协议节选,常规的禁止用于违法用途、禁止用于侵权用途等为重复整理,本文仅列明特别限制。


同时,考虑到部分工具将调用外部模型API,因此相关产品在使用时,也许遵循外部模型的条款。以下是截止2025年4月17日的常用模型服务协议中限制条款的整理。


分析结果表明,许多AI工具和模型服务提供商在其许可协议中包含了禁止开发竞品的条款。这意味着用户在使用这些工具生成内容时,不得将其用于开发与提供商直接竞争的产品或服务(如开发其他大模型)。

此外,一些提供商还禁止用户以自动化方式提取模型数据或输出,比如使用模型输出蒸馏其他模型。

(三) 违约风险防范建议

为了降低使用AI工具带来的违约风险,企业应采取以下措施:

1.仔细阅读并理解相关AI工具和模型的用户许可协议,确保其使用行为不超出授权范围。

2.建立AI工具使用合规审查流程,对涉及商业竞争、数据利用等敏感场景的使用行为进行重点审查。

3.对于包含禁止开发竞品等限制的工具或模型,企业应考虑更换其他替代方案。


03

生成物侵权风险

(一) 概述

AI工具生成的作品,如代码、图片、视频、音乐等,可能涉及侵犯第三方的知识产权,包括版权、专利、商标等。由于AI工具的训练数据来源广泛,且生成过程复杂,难以确定生成内容是否完全原创,这增加了侵权风险。

(二) 现有法律框架的挑战

现有的知识产权法律框架在应对AI生成物的侵权问题时面临诸多挑战。例如,版权法通常保护具有“独创性”的作品,但对于AI生成物是否具备独创性,以及如何界定其作者身份,各国的法律规定尚不明确。

此外,对于AI生成物是否构成对现有作品的“实质性相似”,以及如何判断AI生成过程中是否存在“接触”现有作品,也存在争议。这些法律上的不确定性,使得AI生成物的侵权风险难以准确评估和有效防范。

(三) 侵权风险防范建议

为了降低AI生成物侵权风险,企业应采取以下措施:

1.针对代码

(1) 在发布前进行开源代码扫描,确保生成的代码不侵犯开源软件的知识产权。

(2) 对于非开源软件,如发生侵权纠纷,可主张未接触权利人代码,以减轻侵权责任。

2.针对图片、视频、音乐等

(1) 如使用的生成工具包含AI生成物标记功能,应保持标记完整,以符合相关法律法规的规定。

(2) 保留生成日志,包括生成时的提示词记录等,以便在发生侵权纠纷时,主张相关作品为AI生成,尽可能实现免责或减责。


04

信息泄露风险

(一) 数据收集与使用情况分析

在使用AI工具的过程中,用户通常需要上传数据,例如代码、设计文件、文本等。这些数据可能包含敏感信息,如商业秘密、个人信息等。不同的AI工具提供商对用户数据的收集和使用策略有所不同,这可能导致信息泄露的风险。

1.Github Copilot

为实现自动填充代码等功能,GitHub Copilot会将已打开的文件作为提示词上传至所选模型,同时也会根据用户选择(如是否接受建议)来提升模型性能[注1]。同时,所有AI功能均在微软Azure中运行。[注2]

对于企业用户,Copilot声称其会在相关建议生成后,即删除作为提示词上传的用户信息。对于个人用户,除非经过用户明确同意,否则也不会使用作为提示词上传的用户信息进行训练。

2.Cursor

Cursor为了实现智能编程,会自动收集使用数据(如是否接受建议)以及整个仓库中的代码并生成Embedding,而后删除原代码文件[注3]。所有AI建议都是在Cursor后端生成的,并且,即便在Cursor中配置了自己的API,所有的数据仍会从Cursor后端经过。[注4]

Cursor提供“隐私模式”选项,Cursor官方声称,如果开启隐私模式,上述收集的信息(包括Embedding)将在建议生成后删除,而不会保留或用于模型训练。

3.Figma

Figma对使用数据和内容数据采取了不同策略。针对使用数据,只有政府和教育用户方的使用数据不会被用于训练。其他所有用户的使用数据都会被Figma用于训练。

Figma的教育版和政府版不会使用任何用户数据进行训练。企业版和机构版采取了Opt-in策略,即除非用户主动开启相关功能,否则相关数据不会被用于训练。

免费版和专业版采取了Opt-out策略,即默认允许使用用户数据训练,但可关闭。[注5]

4.Canva

Canva在使用用户使用数据和内容数据的问题上,均提供了相关选项供用户进行选择,用户可以自行选择是否允许用自己的数据进行训练。

分析结果表明,不同的AI工具提供商在数据收集和使用方面存在差异。一些提供商会保留用户数据用于模型训练,这增加了数据泄露的风险。另一些提供商则提供了一定的隐私保护措施,如数据删除、隐私模式等。

(二) 信息泄露风险防范建议

为了降低使用AI工具带来的信息泄露风险,企业应采取以下措施:

1.对于一般项目,在禁止相关产品提供方使用用户数据进行训练的情况下,可以使用AI开发和设计工具辅助工作。

2.对于敏感项目,应避免使用除可信主体提供的工具之外的其他工具(如自行部署或可信第三方部署的开源工具),以降低信息泄露的风险。

3.建立AI工具使用安全管理制度,明确数据上传、存储、使用的规范和流程。

4.加强员工的数据安全意识培训,提高其对敏感信息保护的重视程度。

5.定期评估AI工具的数据安全风险,并采取相应的技术和管理措施,如数据加密、访问控制等。


注释及参考文献

上下滑动查看全部

[1] https://blog.gitguardian.com/github-copilot-security-and-privacy/#:~:text=As%20mentioned%20before%2C%20GitHub%20Copilot,is%20for%20improving%20AI%20performance

[2] https://github.blog/news-insights/policy-news-and-insights/how-to-responsibly-adopt-github-copilot-with-the-github-copilot-trust-center/?ref=blog.gitguardian.com#:~:text=Prompts%20are%20only%20transmitted%20to,train%20the%20Azure%20OpenAI%20model.#:~:text=in%20open%20files,by%20the%20GitHub%20Copilot%20model

[3] https://www.cursor.com/privacy 

[4] https://docs.cursor.com/account/privacy

[5] https://blog.stackaware.com/p/figma-ai-training-data-content-security-privacy