

在我国以数据安全为核心的多层嵌套式人工智能监管体系下,OpenClaw类开源智能体的兴起引发了技术与制度的结构性张力。此类智能体从 “内容生成工具” 转向 “自主执行主体”,其高权限运行、系统主动数据采集、插件生态依赖及自动执行能力,带来了数据控制失衡、越权采集、供应链安全及数据外泄等多重风险,同时导致责任认定在主体识别、行为归属等方面出现困境。本文结合我国现有法律法规,分析了OpenClaw开源智能体的数据安全风险与责任认定难题,并提出了技术控制、数据治理、供应链管理等针对性合规应对措施,为开源智能体的安全合规使用提供指引。
关键词:OpenClaw、开源智能体、数据安全风险、责任认定、合规应对
近年来,随着生成式人工智能及智能体技术的快速发展,我国逐步构建起以数据安全为核心的人工智能治理体系。从整体路径来看,该体系并未采取单一立法模式,而是在既有网络安全与数据治理法律框架基础上,通过部门规章与政策文件不断细化具体规则,呈现出一种“多层嵌套、功能分化”的治理结构。正如相关研究所总结,我国人工智能治理以网信监管与数据安全为枢纽,以算法与生成内容为重点,以分类分级监管为原则,并通过安全评估与备案机制实现制度落地。这一治理路径在实践中既体现出较强的现实适应性,也在新一轮技术演进中逐渐暴露出结构性张力。
从制度基础来看,我国人工智能治理首先建立在《数据安全法》《个人信息保护法》与《网络安全法》所构成的数据与网络安全法律体系之上。上述法律通过确立数据分类分级保护制度、个人信息处理规则以及网络安全保障义务,将人工智能活动纳入“数据处理行为”的统一规制框架之中。在这一逻辑下,无论是模型训练、算法优化,还是实际应用中的数据调用与处理,均需满足合法性基础、最小必要原则以及安全保障义务等要求。可以说,人工智能的合规问题在我国语境下,首先被转化为数据合规问题,这一制度安排为监管提供了统一抓手,但同时也在一定程度上限定了监管视角。
在此基础上,监管部门围绕人工智能的关键功能环节,逐步建立起针对算法推荐、深度合成及生成式人工智能的专项规制体系。例如,《互联网信息服务算法推荐管理规定》通过引入算法备案、用户选择权以及反歧视义务,强化了对算法决策过程的外部约束;《互联网信息服务深度合成管理规定》则针对合成内容的真实性与可识别性,提出了标识义务与内容安全要求;而《生成式人工智能服务管理暂行办法》进一步将监管重心延伸至模型训练与内容生成环节,通过安全评估与备案制度,将服务提供者纳入持续监管之中。这一系列规则的出台,标志着我国人工智能治理已从单纯的数据安全监管,逐步转向对“算法—数据—内容”全链条的综合规制。
总体而言,我国现行人工智能治理体系的底层逻辑可以概括为:以数据安全为基础,以算法与内容为核心监管对象,并通过备案与评估机制实现过程控制。这一逻辑在平台型人工智能阶段具有较强的适用性,但其有效性高度依赖于“中心化服务提供者”这一前提假设。
随着人工智能技术从“内容生成”向“自主执行”演进,上述制度框架所依赖的基本假设正在发生动摇。以OpenClaw类开源智能体为代表的新一代技术形态,正在从“生成内容的工具”转变为“具备自主决策与执行能力的行动主体”。
根据现有风险预警材料,OpenClaw类智能体不仅可以整合多源信息进行决策,还能够直接调用操作系统权限,执行终端命令、读写本地文件,并通过插件生态实现多工具联动。更为关键的是,与传统云端模型依赖用户输入数据不同,该类智能体在运行过程中可以主动扫描并获取本地环境中的数据资源,其数据处理行为不再以用户显性输入为前提。这种能力结构上的变化,使其在本质上更接近于“自动化执行系统”,而非单纯的信息处理工具。
技术形态的这一转变,使人工智能的风险边界发生了根本性扩展:风险不再局限于信息内容的生成与传播,而是进一步延伸至对现实系统与数据资源的直接操作。这种“从内容到行为”的跃迁,意味着人工智能已经开始具备类似“数字代理人”的功能属性,而现有监管体系在设计之初,并未充分考虑此类场景。
因此,可以认为,OpenClaw类智能体并非仅仅是对现有技术的迭代升级,而是在功能层面引入了一种新的范式,其对监管体系的冲击具有结构性特征,而非局部修补即可解决的问题。
在上述制度框架与技术演进的张力之下,当前人工智能行业,尤其是开源智能体领域,逐渐暴露出一系列具有共性的结构性困境,这些困境在OpenClaw类智能体的应用中表现得尤为突出。
1. 监管对象错位:从“平台责任”到“去中心化智能体”的断裂
现行人工智能监管制度在很大程度上依赖“平台责任模型”,即通过识别服务提供者,并对其施加备案、审查及安全义务,从而实现风险控制。然而,OpenClaw类智能体通常采取本地部署与开源分发模式,缺乏统一的服务提供主体。在实践中,甚至出现员工在组织终端自行部署智能体的“影子智能体”现象,使得监管难以识别具体责任主体,既有制度中的备案与审查机制亦难以有效适用。由此,传统以平台为核心的监管逻辑,在去中心化技术架构面前出现明显失效。
2. 数据处理边界失控:从“用户输入”到“系统主动采集”
现行数据合规规则普遍以“用户主动提供数据”为前提设计,例如知情同意与最小必要原则。然而,OpenClaw类智能体具备主动采集本地数据的能力,其可以在未经用户明确操作的情况下读取文档、配置文件乃至密钥凭证。在此情形下,数据处理行为的触发边界变得模糊,用户难以对数据流转形成充分认知,从而使既有个人信息保护规则在实际适用中面临挑战。换言之,当数据处理从“输入驱动”转向“系统驱动”时,传统合规逻辑的有效性将显著下降。
3. 风险形态转变:从“内容风险”到“行为风险”的外溢
现有监管体系主要聚焦于算法推荐偏差、虚假内容生成等“内容风险”,而开源智能体所带来的风险则更多表现为“行为风险”。根据相关预警,攻击者一旦利用漏洞控制智能体,可能通过其执行系统命令、篡改文件甚至发起金融交易。此类风险已从信息空间延伸至现实操作层面,对系统安全与财产安全构成直接威胁。然而,在现行法律框架下,对于人工智能执行行为所造成损害的责任认定尚缺乏明确规则,导致风险治理存在制度空白。
4. 开源生态失控:供应链风险与监管能力的错配
OpenClaw类智能体高度依赖技能(Skills)与插件生态运行,而该生态普遍缺乏有效的安全审核机制。已有材料显示,攻击者可以通过上传恶意插件实现后门植入或数据窃取,相关部门亦明确提示需对技能包进行审查并控制其来源。然而,由于开源生态具有跨境分发、快速迭代及去中心化特征,监管机关难以及时介入,企业在实践中亦难以对全部组件进行充分审计,从而使供应链风险成为开源智能体最为突出的安全隐患之一。
综上所述,我国人工智能治理体系虽然已在数据安全与内容规制方面形成较为完善的制度框架,但其核心仍建立在“数据处理—内容生成”的监管范式之上。随着OpenClaw类开源智能体的发展,人工智能正在由“信息处理工具”向“行动执行主体”转变,这一转变不仅扩大了技术能力边界,也对现有法律体系的适用逻辑提出了根本性挑战。
可以认为,当前人工智能领域的核心矛盾,已从“如何规范内容生成”转向“如何约束智能体行为”。在这一背景下,现有制度所面临的并非简单的规则补充问题,而是监管逻辑层面的结构性调整需求。这一转向,也构成了理解后文数据安全风险与责任认定问题的前提基础。
在前文所述“从内容到行为”的范式转变背景下,OpenClaw类开源智能体所引发的数据安全风险,已不再局限于传统意义上的数据泄露或不当处理问题,而是呈现出权限扩张、数据流动复杂化以及执行行为外溢的综合特征。其风险形成机制,与其“高权限运行—持续感知—自主执行”的技术架构高度耦合,具有明显的系统性、隐蔽性与放大效应。从监管逻辑看,这类风险已突破既有“数据处理行为”的静态边界,转而呈现出“系统行为驱动”的动态特征。
OpenClaw类智能体在设计上通常需要调用操作系统层级权限,以实现文件读写、终端执行及应用调用等功能。这一“高权限运行”模式,使其在本质上具备类似本地程序甚至系统代理的能力。与传统生成式AI依赖API接口访问数据不同,该类智能体可以直接在操作系统层面对本地资源进行调用,其权限范围不仅覆盖业务数据,更可能延伸至系统配置文件、缓存信息乃至认证凭证。
这一结构性特征导致数据控制权出现显著再分配:原本由用户或系统管理员掌控的数据访问路径,被部分转移至智能体内部决策机制之中。在此情形下,一旦智能体配置不当或存在漏洞,其将成为高价值攻击入口。根据工信部网络安全威胁和漏洞信息共享平台(NVDB)发布的风险提示,相关智能体在默认配置下普遍存在信任边界模糊、权限控制不足等问题,攻击者可借此实现终端控制乃至横向渗透。
从法律规范角度看,该类风险直接关联《网络安全法》第21条关于网络安全等级保护义务,以及《数据安全法》第27条关于采取技术措施防范数据安全风险的要求。企业在部署此类系统时,如未对权限进行合理限制、未建立访问控制机制或未实施安全加固,可能被认定为未履行必要的安全保障义务,从而面临行政处罚乃至民事责任。由此可见,高权限架构不仅是技术特征,更是合规风险的放大器。
传统数据合规制度的设计逻辑,普遍建立在“用户主动输入数据”这一前提之上,即数据处理行为由用户触发,系统仅对输入数据进行处理。然而,OpenClaw类智能体通过持续运行机制,可以在既有授权范围内主动扫描本地环境,并自主获取相关数据资源,从而使数据处理的触发逻辑由“用户行为”转变为“系统行为”。
在具体实践中,智能体可能执行如下操作:自动读取包含账号密码或API密钥的配置文件,扫描企业内部文档或缓存数据,调取浏览器历史记录或通信工具中的交互信息等。上述行为在技术上往往被视为“合法访问”,但从法律视角看,其是否符合《个人信息保护法》第6条所确立的“最小必要原则”,以及第13条关于合法性基础的要求,则存在较大不确定性。
尤其在企业环境中,若员工未经审批部署智能体并用于处理客户数据或内部信息,则该行为可能被认定为未经授权的数据处理活动。根据《个人信息保护法》的责任归属规则,组织需对其内部数据处理行为承担整体责任,这意味着企业可能因“影子智能体”的存在而承担相应法律风险。因此,“系统主动处理”机制在提升效率的同时,也实质性削弱了既有合规规则的控制力。
OpenClaw的核心优势之一,在于其开放式插件(Skills)体系。通过引入第三方模块,智能体可以快速扩展能力边界,实现跨平台数据访问与自动化操作。然而,这一架构在本质上构建了一条复杂且高度分散的数据供应链。
在该体系中,每一个插件均可能成为数据流转节点。一方面,部分插件可能在执行过程中收集敏感数据并向外部服务器传输;另一方面,即便插件功能本身合规,其调用的外部接口亦可能涉及数据跨境或向不受监管主体提供数据。此外,恶意插件还可能通过后门机制持续获取系统权限,从而形成长期风险。
已有研究表明,智能体技能生态中存在一定比例的安全漏洞,甚至不乏恶意程序。这意味着企业在部署OpenClaw时,不仅需要关注自身系统安全,还需承担对插件生态的审查义务。然而,根据《数据安全法》第30条及《个人信息保护法》第59条关于第三方管理的规定,数据处理者需对委托处理行为进行监督与约束。在开源生态中,由于插件来源分散且更新频繁,这一义务在实践中难以全面履行,形成典型的“制度要求与技术现实之间的错配”。
区别于传统AI系统仅提供决策建议的模式,OpenClaw类智能体可以基于处理结果直接执行操作,例如发送邮件、调用接口甚至发起交易。这一“从认知到行动”的闭环能力,使其风险后果显著放大。
首先,数据泄露可能通过自动化方式规模化发生。例如,智能体在识别到某类任务后,可批量调用接口传输数据,从而在短时间内造成大规模信息外泄。其次,错误决策可能直接导致数据破坏,如误删文件、覆盖数据等。此外,在被恶意控制的情况下,智能体甚至可能被用于发起资金转移或其他资产操作。
相关案例已显示,在特定逻辑或异常指令下,智能体可能执行严重偏离用户预期的行为。此类风险已超越传统“信息安全”范畴,扩展至“财产安全”甚至“系统安全”。从法律视角看,其不仅可能引发侵权责任,还可能在极端情形下触及刑事风险。
综合上述分析,开源智能体的数据安全风险呈现出显著的结构性特征:在权限层面,由应用级扩展至系统级;在触发机制上,由用户驱动转向系统驱动;在风险路径上,由单点泄露转向供应链扩散;在影响结果上,由数据风险外溢至资产风险。上述变化共同表明,数据安全问题已从“静态处理风险”转变为“动态行为风险”,这一转型亦构成后续责任认定问题的基础。
在OpenClaw类开源智能体的应用场景中,责任认定问题之所以呈现出显著复杂性,根本原因在于传统法律体系所依赖的“行为—主体—责任”对应关系发生了解构。具体而言,智能体的自主执行能力使行为发生与主体意志之间出现“技术中介层”,而开源架构又进一步导致控制权、收益权与风险来源在多个主体之间分散,从而形成一种典型的“去中心化责任结构”。在此背景下,既有以平台为中心的责任归集逻辑,难以直接适用于开源智能体场景,责任认定呈现出明显的不确定性。
开源智能体的运行通常涉及多个层级主体,包括底层框架开发者、模型提供方、插件开发者以及最终部署与使用者。这种多主体结构,使得传统以“服务提供者”为核心的责任识别路径失去抓手。
从现有法律规范来看,《民法典》侵权责任编确立了以“过错责任”为一般归责原则,并在网络侵权领域通过“通知—删除规则”及“帮助侵权责任”构建了平台责任体系。然而,该体系的前提在于平台对信息流通具有一定控制能力,而在OpenClaw场景中,开源框架开发者往往不参与具体运行,插件开发者亦缺乏对整体系统的控制能力,真正的控制权往往集中于部署者一端。
因此,在司法实践中,责任认定逐渐呈现出从“形式参与”向“实质控制”的转向。换言之,判断责任主体的关键不再是其是否参与技术链条,而在于其是否对风险的发生具有可控制性与可预见性。例如,在涉及自动化工具引发的数据泄露案件中,法院通常会重点考察部署者是否对系统权限配置、运行环境及数据访问范围具有决定性影响,从而将其认定为主要责任主体。
这一趋势表明,在开源智能体语境下,责任认定逻辑正在从“平台中心主义”转向“控制能力本位”,这对企业用户而言具有直接的合规含义。
在数据安全领域,《个人信息保护法》确立了以“个人信息处理者”为核心的责任体系,并通过知情同意、最小必要及安全保障义务构建了较为完整的合规框架。然而,在OpenClaw场景下,数据处理行为往往由智能体在“非实时控制”状态下自动完成,从而引发责任归属上的结构性张力。
一方面,从形式上看,具体的数据处理行为由智能体执行,似乎弱化了使用者的直接参与程度;但另一方面,从规范逻辑看,《个人信息保护法》第59条明确规定,组织应当对其个人信息处理活动承担主体责任,并对内部人员的处理行为承担管理责任。这意味着,在企业场景中,即使相关操作由智能体自动完成,只要该系统由企业部署或允许使用,其数据处理行为仍将被整体归属于企业。
进一步而言,在员工擅自部署智能体的情形下,企业仍可能因未履行内部管理义务而承担连带责任。例如,若企业未建立明确的AI工具使用规范,或未对终端系统进行权限控制与安全监测,导致员工通过智能体处理客户数据并发生泄露,监管机关可能认定企业违反了《个人信息保护法》第51条所规定的安全管理义务。
因此,可以认为,在开源智能体场景中,数据侵权责任呈现出明显的“组织责任强化”趋势,即法律更倾向于将风险归属于具有制度控制能力的主体,而非具体执行行为的技术载体。
与数据侵权责任相比,网络安全责任在开源智能体场景下具有更强的可操作性。《网络安全法》第21条明确要求网络运营者建立网络安全等级保护制度,并采取技术措施防范网络攻击与数据泄露风险。
在OpenClaw的部署过程中,企业通常需要授予其较高系统权限,并允许其访问本地或内部网络资源。在此情形下,智能体本身已成为网络系统的重要组成部分,其安全性直接影响整体网络安全水平。因此,企业是否履行以下义务,将成为判断其是否存在过错的关键依据:
其一,是否对智能体系统进行安全评估,包括权限范围、数据访问路径及潜在风险点分析;
其二,是否建立必要的技术防护措施,如访问控制、异常检测及网络隔离机制;
其三,是否对系统运行行为进行持续监测,并建立日志记录与审计机制。
若企业未履行上述义务,导致智能体被攻击或发生数据泄露,根据现有监管实践,监管机关往往将其认定为“未履行网络安全保障义务”,从而依法给予行政处罚。在情节严重的情况下,还可能引发民事赔偿责任。
因此,网络安全义务在此不仅构成行政合规要求,同时也逐渐演变为侵权责任认定中的“过错判断标准”。
在更为极端的情形下,开源智能体还可能被用于实施违法犯罪行为,例如非法获取计算机信息系统数据、侵犯公民个人信息罪等。在此类案件中,核心问题在于如何界定智能体的法律属性以及使用者的主观状态。
从刑法理论来看,智能体本质上仍属于“工具”,不具备独立的刑事责任能力。因此,责任归属的关键在于使用者是否对相关行为具有主观故意或过失。具体而言,若行为人明知智能体可能被用于非法用途,仍故意利用其实施相关行为,则应当按照直接犯罪处理;而若其对风险具有可预见性但未采取合理防范措施,则可能构成过失犯罪。
值得注意的是,在“提示注入攻击”“自动化数据抓取”等新型场景中,行为人的主观认知边界往往较难界定,这也使刑事风险判断呈现出更高的不确定性。
对于开源框架开发者及模型提供方,其责任边界通常取决于其是否履行了合理注意义务。根据既有司法实践,若技术提供者仅提供通用工具,且未参与具体应用场景,原则上可主张“技术中立”抗辩。
然而,这一抗辩并非绝对成立。若开发者在明知或应知其技术存在明显安全缺陷的情况下,仍未采取必要修复措施,或在插件分发、代码更新等环节放任高风险行为发生,则可能被认定为未尽合理注意义务,从而承担相应责任。
这一判断逻辑,与《电子商务法》中对平台“知道或应当知道”标准的适用具有内在一致性。
综上,开源智能体的责任认定问题集中体现为三大结构性难题:一是主体识别的去中心化,二是行为归属的技术中介化,三是责任边界的动态化。在此背景下,传统责任体系正在向“控制能力—风险预见—管理义务”三维结构转型,这一转型亦为后续合规治理提供了重要指引。
在上述数据安全风险与责任结构分析的基础上,可以明确:OpenClaw的合规使用并非单一技术问题,而是涉及数据治理、网络安全与组织管理的系统性工程。对于企业而言,其核心任务在于将智能体纳入既有合规体系之中,并通过制度与技术手段实现对其行为的可控与可审计。
鉴于OpenClaw具备较强的系统访问能力,权限控制应当成为合规治理的首要环节。根据工信部等部门提出的“最小权限原则”,企业在部署智能体时,应严格限定其访问范围,仅授予完成任务所必需的最低权限。
在具体实施上,可以通过以下路径实现:一是对文件系统进行分区管理,限制智能体仅访问特定目录;二是禁止其直接调用高风险系统命令;三是通过虚拟机或容器化技术构建隔离运行环境,将其与核心业务系统及敏感数据进行物理或逻辑隔离。
该措施本质上是对《网络安全法》与等级保护制度中“最小授权原则”的具体化落实,有助于在技术层面切断风险扩散路径。
在数据层面,企业应依据《数据安全法》确立的数据分类分级制度,对内部数据进行系统梳理,并明确不同等级数据的访问规则。对于涉及个人信息、商业秘密或重要数据的内容,应原则上禁止智能体直接访问,或通过脱敏、匿名化等方式降低风险。
同时,应建立基于身份与场景的访问控制机制,将智能体视为“特殊用户”,对其访问行为进行独立授权与动态管理。通过这一方式,可以实现数据治理体系与智能体运行机制的有效衔接。
针对插件生态带来的供应链风险,企业应建立严格的组件管理制度。一方面,应通过白名单机制限制可接入插件的范围,对涉及敏感数据或关键功能的插件进行事前安全评估;另一方面,应持续跟踪插件更新情况,及时识别潜在漏洞与风险。这一做法与《数据安全法》关于第三方数据处理管理义务相契合,有助于弥补开源生态中责任分散所带来的监管缺口。
在智能体具备自主执行能力的背景下,行为可追溯性成为合规治理的关键环节。企业应建立完善的日志记录机制,对智能体在每一运行周期内的操作行为进行记录,包括数据访问范围、执行指令及结果输出等。
同时,应确保日志的完整性与可验证性,并设置合理的保存期限,以满足监管审查及争议解决需要。该机制不仅有助于风险识别与内部审计,也在发生纠纷时为责任划分提供关键证据支持。
在实践中,大量风险并非来源于正式部署,而是源于员工私自使用智能体工具。因此,企业有必要从制度层面明确AI工具的使用边界,例如:禁止未经审批在办公终端部署开源智能体;明确智能体处理数据的范围与限制;建立违规使用的责任追究机制。同时,应通过培训提升员工对智能体风险的认知,使其理解相关行为可能带来的法律后果。
鉴于智能体风险具有动态变化特征,企业不应仅依赖一次性评估,而应建立持续性的风险管理机制。在引入智能体前,可参照《个人信息保护法》关于个人信息保护影响评估(DPIA)的要求,对其数据处理活动进行系统评估;在运行过程中,则应定期复核其权限配置、数据流向及行为模式,并根据实际情况进行调整。此外,应建立应急响应机制,在发生异常行为或安全事件时,能够迅速采取隔离、停用及补救措施,从而降低损害后果。
OpenClaw类开源智能体的兴起所推动的人工智能范式转型,不仅重塑了技术应用的边界,更对我国既有人工智能监管体系与企业合规治理提出了深刻挑战。从我国以数据安全为核心的多层嵌套式监管框架出发,技术演进带来的监管错位、数据处理边界失控等困境,与开源智能体自身的高权限架构、插件生态风险等问题相互交织,再加上多主体参与下责任认定的复杂性,共同构成了当前开源智能体安全合规应用的核心命题。前文提出的“最小权限+环境隔离”、数据分级管控、插件生态治理等一系列应对措施,正是破解上述难题、实现风险防控与技术创新平衡的关键路径。事实上,OpenClaw的合规使用,已不再是对单一软件的管理问题,而是企业数字治理能力的重要体现,唯有将这些应对措施融入企业数字治理全过程,将智能体纳入整体合规框架,明确各主体责任边界,强化技术防控与制度约束的协同发力运作,才能推动开源智能体在法治轨道上规范发展,既释放其自动化、高效化的技术价值,也守住数据安全与网络安全的底线,实现效率提升与风险防控的动态平衡,为人工智能行业的持续健康发展注入持久动力。
●参考文献:
[1]《中华人民共和国数据安全法》,2021年6月10日通过,2021年9月1日起施行。
[2]《中华人民共和国个人信息保护法》,2021年8月20日通过,2021年11月1日起施行。
[3]《中华人民共和国网络安全法》,2016年11月7日通过,2017年6月1日起施行。
[4]《互联网信息服务算法推荐管理规定》,国家互联网信息办公室等发布,2021年12月31日公布,2022年3月1日起施行。
[5]《互联网信息服务深度合成管理规定》,国家互联网信息办公室等发布,2022年11月25日公布,2023年1月10日起施行。
[6]《生成式人工智能服务管理暂行办法》,国家互联网信息办公室等七部门发布,2023年7月10日公布,2023年8月15日起施行。
[7]《网络数据安全管理条例》,国务院发布,2025年施行。
[8]工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB):《关于防范OpenClaw开源AI智能体安全风险的预警提示》,2026年3月。
[9]中国互联网金融协会:《关于OpenClaw在互联网金融行业应用安全的风险提示》,2026年3月15日。
[10]欧盟:《人工智能法案》(Artificial Intelligence Act),2024年。
[11]Yi Liu, Weizhe Wang, Ruitao Feng, et al., Agent Skills in the Wild: An Empirical Study of Security Vulnerabilities at Scale, arXiv:2601.10338, 2026.
[12]戈伯书:《自主式AI智能体的算法规制路径:以OpenClaw为例》,2026年。
特别声明:
大成律师事务所严格遵守对客户的信息保护义务,本篇所涉客户项目内容均取自公开信息或取得客户同意。全文内容、观点仅供参考,不代表大成律师事务所任何立场,亦不应当被视为出具任何形式的法律意见或建议。如需转载或引用该文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源。未经授权,不得转载或使用该等文章中的任何内容。
— 往期推荐 —
1. 陈福:数据资产入表是拥有数据的企业的“必答题”,而非“选答题”
2. 陈福:充分释放公共数据利用价值,促进数字经济高质量发展
本文作者


%%科技、媒体与通信%% $$陈福$$
夜雨聆风