奇点财经

数字资产研究院

  • 首页
  • 财经新闻
  • 关于我们
  • 团队介绍
    • 数字资产研究院简介
    • 团队介绍
  • 数字研究
  • 行业活动
  • 联系我们

加州修订人工智能监管法案

2024-08-18 by 01assets 请您留言

香港奇点财经8月18日报道。加州立法机构近日对一项颇具争议的法案进行了修订,即《前沿人工智能模型安全创新法案》(SB-1074),旨在明确人工智能公司需对其产品可能引发的损害承担责任。随着最终议会投票的临近(依照日程,须在8月31日前完成),加州科技行业正步入一个关键时刻。除非州长行使否决权,否则加州将成为全美首个对科技企业实施差异化监管的州份。

加州在全球AI产业中占重要地位,加州拥有全球50家顶级人工智能公司中的35家。该法案于今年2月首次提出,旨在明确人工智能公司需对其产品可能引发的损害承担责任,并包含了一系列关于AI安全性的规定,如要求AI模型配备“紧急停止”按钮、进行第三方安全审核等。

按照最初构想,SB-1074将赋予州政府权力,可针对忽视安全防线的企业提起法律诉讼,即便这些疏漏尚未酿成灾难性后果。该法案的重点是建立一个“前沿模型”,具体来说,是那些需要超过10^26次整数或浮点运算才能完成的模型。这种计算能力的要求极高,因此按照当前的市场价格计算,训练这样一个模型的成本会超过1亿美元。法规还要求人工智能模型必须配备“紧急停止”按钮,要求每年对人工智能安全实践进行第三方审核,成立新的模型部门(FMD)来监督合规情况,并对违规行为施以严厉处罚。

然而,这一法案在提出后遭到了来自业界和联邦立法者的抵制。业界方面,包括Anthropic等领先的人工智能公司,以及硅谷内部的风险投资机构如a16z,都对法案的部分条款表达了强烈的不满。他们担忧该法案可能会不当地限制创新空间,给初创企业带来沉重的合规成本,甚至导致企业选择在其他司法管辖区成立公司或不在加州发布模型。

联邦立法者方面,8月13日,美国国会议员罗·卡纳公开表达了其对SB-1047法案的反对立场,他担忧该法案的现行版本可能因缺乏实效性而沦为空谈,进而不当地惩罚个体创业者与小型企业。

目前,该法案已经进行了修订,并等待本月晚些时候的州议会投票。如果通过,加州将成为全美首个对科技企业实施差异化监管的州份,除非州长行使否决权。据The register报道,立法者表示,尽管法案修订过程中并没有完全采纳Anthropic等公司所要求的所有变更,但是已经接受了许多由Anthropic公司和其他业内人士提出的非常合理的修改建议,相信这些修改已经解决了行业内许多其他公司所表达的担忧。

但可以确定的是,SB-1074仍将坚守其基本原则,要求所有AI开发者对其产品可能引发的任何损害承担法律责任。但鉴于AI技术的复杂性与不可预测性,如何界定并量化这些“损害”,无疑成为了横亘在法案实施前的一大难题。与此同时,科技界却仍然认为,他们最为关切的核心议题——即州政府是否有权在灾难发生前采取法律行动,与单纯追究责任或下达禁令的界限问题——似乎并未得到根本性解决。

分类: 元宇宙, 监管行动

马斯克xAI蓝图借力资源引众议

2024-08-11 by 01assets 请您留言

香港奇点财经8月11日报道。埃隆·马斯克正为其初创企业xAI绘制了一幅宏大的蓝图,其中一项核心战略在于借力外部资源。《华尔街日报》最新报道指出,这位科技巨擘正借助多家企业的优势资源,包括人才、数据以及硬件支持,以期加速推动xAI研发出他预言的将于今年12月问世的全球顶尖人工智能系统。

据xAI官方网站及LinkedIn公开信息显示,公司已吸纳了至少11名特斯拉前员工加入其行列,其中包括六名曾在特斯拉Autopilot自动驾驶技术团队深耕的精英。该团队专注于人工智能驱动的自动驾驶技术研发,马斯克本人亦多次强调其对特斯拉未来发展的关键性作用。他还曾在多个场合强调特斯拉所累积的海量视觉数据,并指出这些数据将成为xAI模型训练不可或缺的资源库。

此外,据知情人士透露,xAI还巧妙地从其社交媒体平台X那里租赁了至关重要的计算核心——图形处理单元(GPU),这些高性能芯片对于人工智能算法的快速迭代与优化至关重要。xAI还获得了实时访问X平台数据的权限,为其AI系统的训练与优化提供海量且实时的数据支持。去年秋季,马斯克更是公开宣布,X平台的股东将持有xAI高达24%的股份。

然而,这一系列决策也引发了外界的质疑与关注。据CNBC报道,马萨诸塞州民主党参议员伊丽莎白·沃伦(Elizabeth Warren)已正式致函特斯拉董事长罗宾·丹霍姆(Robyn Denholm),就马斯克是否利用特斯拉资源为其旗下包括SpaceX、xAI在内的其他企业谋取私利一事展开问询。

沃伦在长达十页的信函中指出:“特斯拉董事会似乎未能充分履行对股东的受托责任,对于马斯克先生所存在的明显利益冲突问题采取了忽视态度。”值得注意的是,马斯克还同时经营着脑机接口公司Neuralink及隧道建设公司The Boring Co,这些复杂的商业版图使得利益纠葛更为错综复杂。

作为参议院银行委员会与军事委员会的重要成员,沃伦曾多次公开表达类似关切,并呼吁美国证监会介入调查。特别是在2022年底,马斯克出售大量特斯拉股份以资助Twitter(现更名为X)的收购案中,沃伦便已向丹霍姆发出过警示信函,要求加强监督与审查。

自2022年马斯克以高达440亿美元的巨资收购社交媒体平台X以来,该平台似乎陷入了前所未有的困境,其收入来源遭遇了显著下滑。据CleanTechnica的最新报道,这一困境的严峻性已不容忽视,迫使马斯克不得不采取法律手段,将矛头指向了一个全球广告联盟及多家知名企业,包括联合利华、玛氏和CVS Health等。马斯克在诉讼中严厉指控这些企业和联盟非法勾结,通过策划“大规模广告商抵制”活动,故意排斥X平台,从而直接导致了该平台收入的急剧减少。

面对马斯克的指控,全球广告主联合会因财力不足选择解散,无法继续与X平台对抗。值得一提的是,作为特斯拉CEO,马斯克向来嘲笑传统汽车制造商在广告上的投入,认为特斯拉通过口口相传和社交媒体宣传就足够了。

分类: 元宇宙, 公司前沿

OpenAI联合创始人离职加入对手公司

2024-08-06 by 01assets 请您留言

香港奇点财经8月6日报道。OpenAI再度迎来人事变动,联合创始人John Schulman宣布即将离职,并决定投身于该公司的主要竞争对手Anthropic,担任协调关键职责的职务。Anthropic成立于2021年,由一群前OpenAI员工创立。

Schulman于X平台正式公布了这一个人决策,表示此举源于他深化对人工智能协调领域的执着追求——即致力于科学确保人工智能按预期轨迹稳健运行,并渴望投身于更多实质性的技术实践之中。

“我决心在Anthropic平台上追寻这一目标,因为我坚信,这里将为我开启全新的视野,让我有幸与一群同样深入钻研我最为热衷课题的精英并肩作战,”Schulman写道,“我相信即便我离开了,OpenAI及其团队依然能够保持蓬勃的发展态势,不断创造辉煌。”

届时,Schulman将与Anthropic的另一位资深领导者Jan Leike共同开展业务。值得一提的是,Jan Leike此前同样出于对未来安全性可能被业务压力边缘化的忧虑,离开了OpenAI,选择加入Anthropic。这两位前OpenAI高管的联手,无疑为Anthropic注入了更为强劲的动力与期待,也预示着AI领域内新一轮的竞争与合作即将拉开序幕。

尽管OpenAI时常成为公众争议的焦点,特别是在人工智能安全研究的方法论及实践路径上饱受关注,但Schulman明确表示,他选择离开并非出于公司对其支持不足的考量。

“需明确的是,我离开并非因为OpenAI缺乏对协同研究(特别是人工智能与人类利益协同)的支持,”他强调,“实际上,公司领导层始终高度重视并投资于这一领域。”他表示:“我此次的决定,纯粹是出于个人职业规划的考量,是基于我对未来职业生涯新阶段所期望聚焦方向的深思熟虑。”

对于Schulman的离开,OpenAI的首席执行官山姆·奥特曼在社交媒体平台X上发布了一条回复帖,他地对舒尔曼表示感谢,并高度评价了舒尔曼在OpenAI初创时期所发挥的不可替代的作用:“舒尔曼先生不仅是我们团队中不可或缺的一员,更是为OpenAI奠定了坚实初始战略框架的重要贡献者。”

此外,OpenAI总裁兼联合创始人Greg Brockman在公司工作了九年后,将延长休假时间(至今年年底),以“放松和充电”。提及Brockman,他在公司内部被亲切地称为“GDB”,并在去年奥特曼短暂卸任期间,成为其坚定的支持者。当奥特曼遭遇解雇风波时,Brockman毅然选择辞职以表立场。上周,Brockman在社交媒体X上分享道,这次休假是他自公司成立以来难得的放松时刻。

OpenAI产品副总裁Peter Deng亦在数月前离职,Peter Deng曾领导Meta、Uber和Airtable的产品,去年加入OpenAI。Brockman和Deng离职的消息早些时候由The Information报道过。加之今年早些时候安全团队的数名成员的相继离开,OpenAI正经历着深刻的人事调整。

这一系列变动使得这家初创企业的面貌与一年前乃至2015年创立之初相比,已大为不同。随着Schulman和Greg Brockman的相继离场,OpenAI最初的创始团队现仅余Wojciech Zaremba与首席执行官Sam Altman两位成员坚守。

分类: 元宇宙, 公司前沿

Meta广告业务领跑市场 AI投资仍未盈利

2024-08-02 by 01assets 请您留言

香港奇点财经8月2日报道。周三(7月31日),Meta发布了一份超出市场预期的亮眼第二季度财报,然而Meta在人工智能领域的巨额投资仍未获得回报。公司管理层表示,这些投资是面向未来的长期布局,相信随着时间的推移,将为公司开辟新的收入来源,实现投资的丰厚回报。

Meta的财务数据显示,公司营收较去年同期实现了22%的增长,总额达到390.7亿美元,其中广告业务贡献了高达98%的销售额,主要来源于Facebook和Instagram两大平台。这一增长率甚至超过了Alphabet旗下谷歌广告业务的两倍,后者在同期仅实现了11%的增长,销售额为646亿美元。

与此同时,尽管规模较小,但Pinterest和Spotify等公司在财报中也展现出了不俗的增长势头,收入分别增长了21%和20%,进一步印证了数字广告市场的活力与潜力。

在财报电话会议上,首席财务官苏珊·李进一步分析指出,Meta的广告业务继续受益于在线商务、游戏、媒体及娱乐等多个行业的蓬勃发展,特别是在亚太地区,尽管整体增长有所放缓,但Meta通过提升广告业绩,成功推动了整体广告价格的上涨。针对苹果iOS隐私政策调整带来的挑战,扎克伯格强调,人工智能已成为Meta更新后在线广告平台的核心支柱,有效应对了外部环境变化带来的冲击。

受财报利好消息影响,Meta股价在盘后交易中大幅上涨7%,同时公司还上调了2024年的资本支出预期,展现了对未来发展的坚定信心。CNBC报道称,分析师认为Meta通过人工智能重塑了广告技术体系,提升了用户参与度,进而推动了收入和利润的增长,他建议投资者积极增持Meta股票。

不过,Meta在人工智能与元宇宙领域的巨额投资仍在持续进行中,每一季度均承载着数十亿美元的亏损压力。为应对挑战,扎克伯格采取了一系列战略举措,旨在稳定并提振公司股价,如实施裁员计划、推出500亿美元的股票回购方案,并史无前例地发放季度股息。

扎克伯格对Meta AI聊天机器人寄予厚望,预计其将于年底成为全球范围内最受欢迎的人工智能助手之一。他坚信,随着技术进步,几乎所有企业都将依赖于至少一个(甚至多个)人工智能聊天机器人来优化客户服务与互动体验。反观行业趋势,微软与Alphabet等科技巨头的最新财报透露出市场对于人工智能基础设施投资回报的审慎态度,部分投资者已经开始质疑巨额投入与商业效益之间的正比关系。

苏珊则表示:“鉴于我们在人工智能研究与产品开发上的坚定投入,2025年的资本支出将迎来显著增长。”Meta已将其2024年的资本支出预期上调至370亿至400亿美元之间,这一数字明显高于早先设定的350亿美元下限。

李进一步阐释了Meta AI战略的双重战略意义:“我们的‘核心AI’策略旨在深化广告平台与推荐系统的智能化,从而提升用户体验与广告效率,最终转化为可观的收入增长。这不仅是技术的革新,更是商业模式的重塑。”

谈及生成式人工智能这一长期投资,李持谨慎乐观态度:“我们并不急于求成,不期待它在2024年就能成为公司的主要收入来源。但我们坚信,随着时间的推移,这些前沿技术将为我们开辟全新的收入渠道,确保我们的每一分投资都能在未来收获丰厚的回报。”

分类: 元宇宙, 公司前沿

肖飒 | 二手NFT,也不让卖了?!

2024-06-10 by 01assets 请您留言

最近趋于平静的数藏话题又火了一波。

某头部闲置商品交易平台(俗称“小黄鱼”)突然发布了《关于开展数字藏品相关商品专项治理的公告》,称“即日起该社区内禁止发布数字藏品相关商品,同时呼吁广大用户树立正确的消费理念,增强自我保护意识,自觉抵制NFT投机炒作行为警惕和远离NFT相关非法金融活动,切实维护自身财产安全。如发现相关违法违规活动,应及时向有关部门举报。该社区将对数字藏品相关商品采取下架处理。”

小黄鱼直接向数藏开炮了属于是,面对这样的公告,各数藏企业应该如何理解,影响几何?飒姐团队今日就和大家聊一聊。

01

公告发布的背景扫描

公告开头即交代了其发布背景,“因近期多起舆情曝光数字藏品交易中频繁出现虚假宣传交易欺诈、非法集资等风险情况,为保护广大用户的合法权益、维护该社区健康生态、防范金融风险等……”。这并非空穴来风。

今年以来,数藏市场整体上趋于沉寂。在监管方面,多省地方金融管理局、打非办发布公告称,数字藏品多数平台或个人不具备资质,收益与其承诺的回报不匹配,资金安全无保障,其运作模式违背价值规律,资金运转和高额返利难以长期维系,一旦资金链断裂,参与者将面临严重损失,现实的风险包括多地发生同数字藏品相关的诈骗、传销、洗钱、非法吸收公众存款等违法犯罪活动,提醒公众警惕数字藏品投资骗局。

从媒体报道来看,多家数藏平台已被公安立案。已公开的涉刑案例中,已有数家平台的实控人、运营人员被一审法院认定构成集资诈骗罪等罪名。在上海闵行区审理的张某、刘某集资诈骗案中,法院认定二被告人设立“TG平台”,利用区块链技术将低价购买或从网络免费下载的图片包装为数字藏品在平台上面向公众销售,通过虚假承诺平台以双倍价格回购等方式,自买自卖,虚增交易量及价格,吸收数千名用户资金共计百万余元,后二人关停服务器,造成用户无法提现、无法查看“数字藏品”,同时符合非法性、公开性、社会性、利诱性特征,并具备非法占有目的,进而构成集资诈骗罪。

02

公告对转售数字藏品影响几何

根据公告内容,“小黄鱼”平台将禁止用户发布数字藏品相关商品,对于已在平台上发布的存量数字藏品将进行下架,自公告发布之日起生效。此前,该平台存在不少用户发布的数字藏品转让信息,而这些数字藏品多数来大厂等头部数字藏品平台首发市场。这一公告的发布,意味着自此数藏用户将无法在该头部二手商品交易平台进行数字藏品的转手,可能严重影响持有的数字藏品的再次流通和价值变现,变相发布的,根据该社区规则(《社区管理规范(试行)》,以下统称《规范》),可能被平台删除所有在该平台上售卖的商品、永久限制发布商品和互动信息及购买权限、永久限制个人主页展示、永久限制在线帖子及评论展示。今日,飒姐团队在该平台以“数字藏品”、“NFT”为关键词检索,检索结果均为“没有找到你想要的宝贝”。

有老友可能会问,既然数字藏品不是违禁品,那么该平台是否有权下架数字藏品相关商品呢?首先来看该平台发布的通用规则。根据该平台的《XX社区公约》,“用户在该社区的行为、发布的物品、商品/服务及信息不得违反国家法律法规及该社区《规范》等相关要求,违规场景及处置措施详见《规范》;”据此,该平台可以根据法律法规及社区规则,设置违规场景,对用户发布的商品信息作出限制。

其次,根据该平台社区管理规则——《规范》,数字藏品可以解释为不适合在该平台交易的商品。值得注意的是,该规则附表“违禁信息管控扣分明细”中的违禁商品及信息第十类“未经允许违反国家行政法规或不适合交易的商品或信息类”,包括“(三)基于区块链技术生成的虚拟货币等数字化产品及衍生服务”。老友们都知道,数字藏品本身并非违法国家行政法规的商品,那么结合公告全文,我们推测,在该平台看来,因“数字藏品交易中频繁出现虚假宣传交易欺诈、非法集资等风险情况”,数字藏品属于不适合在该平台交易的商品。

最后,该规则不违反法律法规的强制性规定,也难以认定为公序良俗。不论是237号文《关于进一步防范和处置虚拟货币交易炒作风险的通知》还是2022年4月三协会发布的《关于防范NFT相关金融风险的倡议》, 降低数字藏品的流动性,不为数字藏品提供二级市场流动机制,从平台管理角度去抑制数字藏品的投机属性,应当认为是符合当前监管机构关于严防利用数字藏品炒作、洗钱、非法金融活动,保护消费者的态势的。那么,就此来看,认定公告及《XX社区公约》、《XX社区管理规范(试行)》的前述相关条款违反公序良俗是较为困难的。鉴于该平台用户发布商品信息需同意并遵守《XX社区公约》、《XX社区管理规范(试行)》的全部规定,因此,用户在该平台发布商品信息应遵守公告及签署规范,若违反该规范,则应承担该等规范中约定的不利后果。

03
写在最后

尽管数字藏品商品信息在平台各类闲置商品转让信息中仅占极小的比例,但首次下架并严禁新增数字藏品商品信息,可谓信号鲜明。这也提示数字藏品发行方在发行新的数字藏品时,如实描述所发售的数字藏品的应用场景,就是否能够转售、转售的渠道、转售的限制等可能影响用户购买意愿的关键要素,不作虚假承诺,避免涉嫌欺诈、诈骗等刑事风险。

以上就是今天的分享,感恩读者!

分类: 元宇宙, 数字货币, 数字资产

肖飒团队 | 单纯买卖USDT也会构成犯罪?从一个争议判例说起……

2024-06-01 by 01assets 请您留言

近期,飒姐团队密集接到多个咨询,均与买卖USDT(即Tether USD,一种由境外私人公司发行,价值与美元挂钩的稳定币,以下简称“USDT”)相关,多个案件的当事人,重则已经因涉嫌犯罪被公安机关刑事拘留,轻则被冻卡止付。

飒姐团队认为,之所以目前USDT相关的案件数量不断增加,既与近几年我国司法机关在加大打击电信诈骗的力度相关,也与多种上游涉案资金大规模“借道”加密资产洗白自己相关。USDT 作为一种特殊的加密货币,除了具有与其他加密货币一样的点对点传输、全球交易、匿名交易等优势外,因凭借与美元1比1挂钩、汇率稳定的特性,逐渐成为了一种隐秘而好用的结算工具。

今天,飒姐团队就通过公开的USDT相关判例,为伙伴们解析买卖USDT是否可能涉嫌非法经营罪,避免伙伴们踩雷。

01

案件基本情况

首先要说的这个案件,其判决结果在加密资产圈引起了不小的反响,该案是我国司法机关首次对单纯的买卖、交易和兑换加密货币定罪处罚的案件,且相关判决得到广东省高级人民法院的转发宣传,具有较高的参考价值。

案件基本事实:

根据广东省高级人民法院通过微信公众号发布的信息,本案被告人陈某伙同邹某(未到案)、黄某(未到案)商量以虚拟货币泰达币作为交易对象,按美元价格兑换人民币。商量好后,陈某在互联网上的虚拟货币交易平台向散户收购泰达币。因担心被抢劫,便雇请被告人李某以保镖身份护送与散户交易的现金。2022年2月,在中山市某高速路口,陈某利用手机与黄某进行泰达币交易约81.4万个,按当天人民币与美元的汇率进行兑换共计人民币510万余元。租车返程途中,陈某、李某在检查站被公安干警人赃俱获,上述交易款项被当场扣押。

法院判决:

大埔县人民法院一审认定,被告人陈某、李某无视国家法律,利用买卖虚拟货币的形式变相买卖外汇,情节严重,已构成非法经营罪。公诉机关指控的罪名成立,予以支持。根据二被告人在共同犯罪中所起的作用及认罪态度,以非法经营罪分别判处二人相应刑罚及罚金。宣判后,二人均表示服判。法院认为,泰达币是一种与美元挂钩的虚拟货币,其价格相对稳定且可匿名在全球流通,然而泰达币的高度流通性、匿名性、监管困难性吸引了大量犯罪资本,买卖泰达币的社会危害性极大。本案通过审理,确认被告人以虚拟货币为媒介,进行外币与人民币货币价值转换的行为属变相买卖外汇,构成非法经营罪,该定性及处理结果,对打击涉及虚拟货币的新型领域犯罪案件具有积极意义。

02

USDT不是“外汇”,本案判决存在争议

因仅能通过公开渠道的信息了解本案,所以飒姐团队仅能基于法院认定并公开的案件事实来进行评析。飒姐团队认为,本案的裁判结果、裁判观点都值得商榷。从本案被告的行为来看,这就是一个非常普通的OTC行为,即用法定货币兑换加密货币。从法院公开的案件事实来看,被告没有换汇行为(案件不涉及任何外国法定货币的兑换),也没有任何证据能够证明被告资金来源系赃款。

首先我们要明确一点,在我国,买卖外汇到底是否构成犯罪?答案是肯定的。根据最高院和最高检发布的《关于办理非法从事资金支付结算业务、非法买卖外汇刑事案件适用法律若干问题的解释》第二条之规定:“违反国家规定,实施倒买倒卖外汇或者变相买卖外汇等非法买卖外汇行为,扰乱金融市场秩序,情节严重的,依照刑法第二百二十五条第四项的规定,以非法经营罪定罪处罚。”

但是,本案最关键的一点在于,USDT是“外汇”吗?我国的法律法规对“外汇”这一概念有着清晰的定义,根据《中华人民共和国外汇管理条例》第三条:“本条例所称外汇,是指下列以外币表示的可以用作国际清偿的支付手段和资产:(一)外币现钞,包括纸币、铸币;(二)外币支付凭证或者支付工具,包括票据、银行存款凭证、银行卡等;(三)外币有价证券,包括债券、股票等;(四)特别提款权;(五)其他外汇资产。”飒姐团队认为,在我国尚未通过立法来对加密货币及各类加密资产的法律性质予以明晰的当下,USDT作为一种加密货币,一种仅在价值上对标美元的虚拟资产,不能被解释为一种“外汇”,买卖USDT的行为更不能被当然的解释为“变相买卖外汇”。

因此,一家之言,我们认为将单纯的OTC行为以“非法经营罪”定罪处罚的行为有违反“罪行法定原则”之嫌。

03

本案是否有刑事处罚的必要?

更为重要的是,本案被告的行为是否有定罪量刑的必要?对于被告行为的社会危害性,法院是这样认为的:“泰达币是一种与美元挂钩的虚拟货币,其价格相对稳定且可匿名在全球流通,然而泰达币的高度流通性、匿名性、监管困难性吸引了大量犯罪资本,买卖泰达币的社会危害性极大。”

飒姐团队认为法院对该案社会危害性的论述值得商榷,该逻辑实际上是假定了“买卖泰达币一定是在实施违法、犯罪行为”这一前提,法院基于USDT本身的工具属性,先入为主的认为USDT是一种高风险工具,进而一刀切的将与其相关的行为认定为具有较高社会危害性且具有刑罚可罚性的行为。实际上,这一预设立场与客观事实不符,USDT等加密货币本身是一把双刃剑,其同样也有拉动经济发展、促进科技进步的一面,并且也不是所有人都是以实施违法犯罪行为持有和使用加密货币的。因此,并不能基于此就认定买卖USDT具有较大的社会危害性。

根据张明楷老师的观点,“社会危险性”是指行为人有实施违法行为的可能性和盖然性,“社会危险性”内涵上是指可作为适用具体强制措施的法定依据的,有证据证明的犯罪嫌疑人、被告人实施危害社会、他人的行为和其他妨碍刑事诉讼正常进行的行为的可能性。或者行为人有实施违法行为的“性向”。从本案来看,实际上被告的行为并没有证据能够证明其具有社会危害性,是否有必要对其定罪处罚值得商榷。

03
写在最后

飒姐团队认为,当前我国并没有出台任何法律规定命令禁止个人持有、使用加密资产,或是私人间偶发的加密资产兑换行为,如果法院基于USDT本身的工具属性,先入为主的认为USDT是一种高风险工具,进而一刀切的将与其相关的行为认定为具有较高社会危害性且具有刑罚可罚性的行为将会造成法律适用的不确定性,不利于经济和新兴技术的发展。

以上是今天的分享,感恩读者!

分类: 01Assets, web3, 元宇宙, 公司管治, 奇点生活, 数字货币, 数字资产, 监管行动, 绿色投资, 观察与评论

肖飒团队 | 个人信息也能用?AI抓取“度”在哪里?

2024-05-26 by 01assets 请您留言

AI大模型如今是愈发成熟、高效,几乎能满足人们的各式各样的需求。飒姐团队的小伙伴们工作之余也会用用各类AI大模型,体验一下科技的力量。但在这个过程中,飒姐团队却发现,有的AI大模型似乎会把网络上公开的个人信息进行采集,甚至可能向用户输出这些个人信息。那么问题来了,倘若大模型搜集网上公开的个人信息并反馈给了用户,这种行为是否违法甚至于构成犯罪呢?飒姐团队今日文章便为大家分析一下这个问题。

01公开的个人信息便能随意使用?

众所周知,AI大模型的训练离不开大量数据的投喂,而网络上的公开数据当然是极佳的投喂材料,能够提供大量信息和数据供AI大模型训练使用。而公开的个人信息自然也在其中。一个问题在于,个人信息一旦在网络公开,是否就能够供他人随意使用,乃至于用于AI训练以及输出呢?

对此,《民法典》第一千零三十八条虽然明确指出,“未经自然人同意,不得向他人非法提供其个人信息,但是经过加工无法识别特定个人且不能复原的除外”,但是第一千零三十六条同样指出,“合理处理该自然人自行公开的或者其他已经合法公开的信息,但是该自然人明确拒绝或者处理该信息侵害其重大利益的除外”的情况下,行为人是不承担民事责任的。

除此之外,根据《个人信息保护法》第二十七条“个人信息处理者可以在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;个人明确拒绝的除外。个人信息处理者处理已公开的个人信息,对个人权益有重大影响的,应当依照本法规定取得个人同意。”,以及《个人信息保护法》第十三条同样认为“依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息”的情况下无须取得个人同意。

因此,综合以上法律规定,针对公开的个人信息,使用的规则如下:

(1)个人信息处理者能够处理个人自行公开或者其他已经合法公开的个人信息;

(2)但前述处理行为必须在合理范围内;且

(3)不得处理个人明确拒绝处理的个人信息;且

(4)不得未经个人同意处理会对个人权益造成重大影响的个人信息。

可见,即便是公开的个人信息,也不意味着AI大模型能够随意作为训练素材使用。

02哪些公开个人信息不能随意使用?

如前所述,对于个人明确拒绝的公开个人信息以及未经个人同意会对个人权益造成重大影响的公开个人信息便是不能随意使用的个人信息。实践中,由于后者的范畴难以确定,必须进行个案分析,飒姐团队在此仅针对个人明确拒绝处理的公开个人信息进行举例。我们认为,如下三种情况下的公开个人信息,AI大模型是不能将其作为训练材料进行使用的。

其一,所公开网站上的Robots协议明确拒绝抓取的情况。一般而言,网站上的Robots协议可以禁止某些特定主体的爬取功能,如个人信息所公开网站的Robots协议明确拒绝了爬取,那么在一定程度上能够认为公开该信息的个人不愿意其个人信息被搜索引擎、AI模型等进行爬取。因此可以被认为是不能随意使用的情况。

其二,在公开个人信息的内容中明确声明不能用于AI模型训练的情况。对于此种情况,由于个人明确拒绝他人使用其公开信息进行AI模型训练,因此应当认为该公开个人信息不能被随意使用。

其三,所公开网站或平台上的用户协议、声明、公告等文本明确其网站或平台上的公开个人信息不得用于AI模型训练的情况。此时,由于个人信息主体系在同意该用户协议、声明、公告等基础上公开了其个人信息,因此,可以认为该用户协议、声明、公告等所表达的不得用于AI模型训练的说明代表了个人的明确拒绝,进而使得该公开个人信息不得用于AI模型训练。

03违法使用公开个人信息,可能构成什么犯罪?

在明确了前述公开个人信息不得随意使用的基础上,违法使用此类个人信息就可能构成相关犯罪。其中,最可能构成的,便是侵犯公民个人信息罪。

《刑法》第二百五十三条之一规定:

“违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。

违反国家有关规定,将在履行职责或者提供服务过程中获得的公民个人信息,出售或者提供给他人的,依照前款的规定从重处罚。

窃取或者以其他方法非法获取公民个人信息的,依照第一款的规定处罚。

单位犯前三款罪的,对单位判处罚金,并对其直接负责的主管人员和其他直接责任人员,依照各该款的规定处罚。”

根据该规定,违反国家有关规定,向他人出售或者提供公民个人信息的行为和窃取或者以其他方法非法获取公民个人信息的行为均涉嫌构成侵犯公民个人信息罪。

而根据《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》第四条的规定,“违反国家有关规定,通过购买、收受、交换等方式获取公民个人信息,或者在履行职责、提供服务过程中收集公民个人信息的,属于刑法第二百五十三条之一第三款规定的‘以其他方法非法获取公民个人信息’。”在前述所获取的个人信息虽然公开但系个人明确拒绝的情况下,该行为属于违反国家有关规定,获取公民个人信息的行为,因此应当属于“以其他方法非法获取公民个人信息”的情况,进而在满足相关司法解释对于“情节严重”的要求的基础上,应当认为涉嫌构成侵犯公民个人信息罪。

04写在最后

AI大模型训练是形成好用、高效的大模型的必要过程,因而不可避免地需要大量数据的投喂,但各大企业切不可因小失大,在进行训练的同时,也要注意各类数据来源的合规,保障自身合规性。以上是今天的分享,感恩读者!

分类: 01Assets, 元宇宙, 奇点专家, 观察与评论

肖飒团队 | 当AI取代搜索引擎,增效还是风险?

2024-05-23 by 01assets 请您留言

5月3日,在海外著名技术社区Hacker News中有用户发帖指出:一个名为“search.chatgpt.com”的域名已经被创建并通过了安全证书,这一消息又一次引发了行业内对于AI搜索引擎的各种猜想。自从ChatGPT首次亮相以来,业界就一直对OpenAI是否会推出搜索引擎一事存在着众说纷纭的猜想,而随着越来越多的蛛丝马迹开始为这些猜想勾勒出具体的轮廓,一项基于AIGC技术的全新搜索技术似乎已经呼之欲出,并将颠覆性地改变人们对于搜索引擎的传统认知。

01AI将会怎样改变搜索引擎?

“AI技术将会为现有的信息检索方式带来深度的变革”,对于这一观点,业内几乎已经达成了共识。在2023年由高盛集团和SV Angel在旧金山举办的AI Forward 2023活动上,比尔·盖茨直言不讳地表示“顶级人工智能终将颠覆搜索引擎、生产力软件和在线购物网站的应用,并最终在IT技术竞赛中大获全胜”。实际上,如果单从应用的层面看,对话式的人工智能大语言模型已经在一定程度上满足了传统搜索引擎的全部用户需求,且其在用户交互等方面体现出的优势,更是大有将搜索引擎“取而代之”的趋势。在同样接入网络的前提下,具备深度学习能力的AI的确突破了许多传统搜索引擎的技术桎梏:

其一,是为用户提供的更为精准且具体的检索结果。通常情况下,限于搜索引擎的数据抓取逻辑,采用相同关键词进行检索的结果是近乎完全一致的,用户很难获取完全符合自身搜索习惯的客制化结果。实际上,在我们利用搜索引擎进行信息检索时,对于有用信息的最终筛选是需要主动依靠人力进行的。而生成式AI则可以根据用户的需求和习惯,通过对信息的总结呈现出更加准确的结论性成果,这将很大程度优化用户的搜索体验。

其二,是对于用户信息搜索效率的提高。传统搜索引擎的机制通常是将用户提供的关键词进行拆分,并针对其中有价值的信息进行抓取,这导致用户输入检索条件的文本长短与关键词精确度将很大程度影响获取结果的效率。而AIGC在文本处理上的优势则避免了这一弊端,AI在“理解”的基础上寻找用户所需要的信息,并在长文本的处理上具有先天性的优势,且通过一段时间的数据投喂,AI的检索效率也会随着训练量的增加而获得进一步的提升。

其三,是对用户交互方式的改变。传统搜索引擎与用户的交互方式大多仍限于文字或图像等较为单一的要素,而AIGC本身可通过复数大模型的训练整合文字、图像,甚至音视频等复杂媒介,如谷歌推出的AI搜索引擎SGE之类相关领域的先行者,就已经开始尝试在交互方式上做出改变。在未来,AI主导的搜索方式即便仍采取对话式的形式,其交互端的复合程度也将获得极大的提升,并与用户的应用需求深度融合。

02更加自动 = 更多风险?

以AI取代传统搜索引擎对相关行业而言将会是一场“革命”,其中的利弊或许一时还无法清晰辩驳,但上述的诸多优势背后,亦隐藏着不可小觑的风险。抛开AIGC本身可能存在的数据侵权和信息伪造等老生常谈的问题,以搜索引擎的使用逻辑应用AI将不可避免地面临自动化决策所带来的影响。如上文所述,AI为用户提供更为精准且高效的检索服务的基础是其对于用户检索系统的“深度学习”,而从另一个角度上看,这即意味着用户想要获得上述“贴心服务”,就需要同意将自身的搜索数据用于AI的训练。诚然,自动化决策赋予了相关应用“自我思考的能力”,是促进AI及大数据等信息技术联动,降低信息处理成本的同时提高决策效率的必要基础,但自动化决策的“自我意识”及衍生而来的“算法黑箱”等问题也为数据和个人信息的安全带来了巨大的风险。首当其冲的即最为人们所熟知的“信息茧房”所带来的综合性风险。“信息茧房”最早由哈佛大学法学院桑斯坦教授提出,意指公众在海量信息传播中,因非对信息存有全方位需求,而只关注自己选择的或能使自己愉悦的讯息,长此以往,将自己束缚在如蚕织就的信息“茧房”中的现象。[1]搜索引擎本身在应用中的“问答”属性已成为促成现代社会“信息茧房”形成的主要诱因之一,而自动化算法在生成式AI中的进一步的应用更可能引发“回声室效应”和“同质化效应”。换言之,在用户通过投喂搜索数据获得AI客制化服务的过程中,AI的学习本身即是对“茧房”的不断加固。其次,用户在搜索过程中无意间透露的用户数据与零散的个人信息,也将面临数据泄漏带来的风险。虽然严格意义上讲,使用搜索引擎并非对用户个人信息的收集阶段;用户在搜索过程中所透露出的检索内容、习惯等碎片化的个人信息亦不具有非常清晰的可识别性。但经过深度学习训练的AI多具备预测功能,通过算法的预测和推断,AI很容易完成对具体用户的画像,并生成具有识别性的个人信息。如美国研究者曾对“Facebook Likes”58000名志愿者提供的准确率高达80%-90%的个人信息,如性取向、种族、智力情况、宗教及政治观点、性格特征、幸福指数、瘾品使用、父母离异、年龄和性别信息进行数学建模,自动化算法在未获取志愿者其他任何信息和个性特征的情况下,可以相当准确地预测出该Facebook用户是否为同性恋者。[2]这些在使用过程中生成的个人信息亦面临着泄露的风险。此外,当前自动化决策所存在的算法歧视问题,亦有可能在AI搜索的过程中遭到扩大。自动化算法带来的歧视风险通常来源于两个方面:其一是设计者自身将存在的偏见以替代变量的形式编入了算法程序中;其二则是数据收集的非准确性导致算法出现了误判。而在AI自主学习的过程中,数据的获取和处理皆是自动进行的,这意味着上述两个方面的风险均陷入了“算法黑箱”中的不可控领域。因而,AI在提供降本增效的“贴心”搜索服务的同时,实际也迫使其使用者和设计者将一把不得不接受的双刃剑牢牢攥在了手中。

03AI搜索语境下用户对自动化决策的拒绝权

基于自动化决策可能引发的上述风险,当前,世界各国在相关立法中均对其设置了一定的限制,如欧盟《一般数据保护条例》(General Data Protection Regulation, 以下简称GDPR)第22条,与对其进行了学习的我国《个人信息保护法》(以下简称《个保法》)第24条第3款,就都赋予了个人信息主体算法解释权和自动化决策拒绝权。因而,在未来AI搜索取代传统搜索引擎的大趋势下,用户对自动化决策的拒绝权将成为规避相关风险的重要权利。

当然,我国《个保法》对相关权利的规定仍存在“律性质不明、概念内涵不清、利益关系失衡、程序性救济手段缺失”等有待解决的规范性法问题,[3]亟待立法机关及司法实践予以进一步地解释和明确。对此,一种可行的思路即通过参考欧盟《人工智能法案》的分级规则,对用于信息检索等强自动化决策的AI算法根据“不可接受的风险”“高风险”“有限风险”以及“最小风险”等四个等级进行分级,并依据不同等级的风险赋予用户相应的拒绝权。通过对AI自动化决策的合理定级,确定风险预防策略,从而更好地保护个人信息主体的相关权益。

04写在最后

诚然,对于新技术的促进与所涉权益的保护之间存在着某种天然的矛盾。但在法律的视角下,二者应当亦存在可探寻的平衡点。技术的发展不应为权益保护所掣肘,反之也不能牺牲主体的权益来为技术鸣锣开道。自动化决策拒绝权的明确只是应对风险诸多思路的其中一种,在技术变革到来之前,如何以更多样的保护手段避免合法权益遭受侵害,如何打开更加多元的AI法律治理格局,将会是科技界与法学界共同探索的深刻议题。以上是今天的分享,感恩读者!

[1] 参见[美]凯斯·R.桑斯坦:《信息乌托邦》,毕竞悦译,法律出版社2008年版,第8页。[2] 参见孙建丽:《算法自动化决策风险的法律规制研究》,法治研究,2019年第4期,第108-117页。[3] 参见:牛彬彬、陈永波:《自动化决策权利对抗体系的完善——<个人信息保护法>第24条的解释论进路》,湖州师范学院学报,2024年第3期,第86-97页。

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 人工智能大模型侵权!谁来保护知识产权?

2024-05-22 by 01assets 请您留言

2020年,作为我国知识产权法律体系两大支柱的《专利法》与《著作权法》先后进行了修订,与2019年即获得修订的《商标法》一并,对沿用了近十年的知识产权体系进行了与时俱进的完善。然而,2021年8月,OpenAI上线了其在今天已经深刻改变了业界生态的人工智能产品——ChatGPT,带领人工智能大语言模型(Large Language Models, 简称LLMs)站上了时代的风口浪尖。如今,世界范围内人工智能开发者的竞争已愈发激烈,世界各国与人工智能相关的立法活动也随之而愈发频繁。在这样一个充满了创新与探索的时代,我国知识产权领域的三部法律却微妙地错过了“时代的热点”,导致我国现行的知识产权保护体系并未将LLMs纳入考虑范围之内,让这位“百模大战的主角”坠入了法律保护的真空之中。关于生成式人工智能(AIGC)对现行知识产权法律体系的挑战,飒姐团队已经与大伙进行过多次探讨,今天,就让咱们从人工智能大模型的本身出发,聊聊这位“主角”的相关权益。

01LLMs也会面临侵权风险吗?

一直以来,在知识产权语境下,我们对于AGI技术,尤其是AIGC技术相关知识产权问题的关注,始终集中在其生成物的相关权属上。而事实上,AI本身亦属于人类智力活动的成果,当其被予以公开,也同样会受到一系列侵权风险的威胁。

1、数据窃取数据窃取是LLMs开发者所面临的最常见威胁之一,其可分为“抽取式攻击”和“复制式攻击”两类:“抽取式攻击”是指攻击者通过访问目标模型的接口或者采用黑盒攻击的方式,向模型输入一些特定的数据,从而提取和收集特定方向的输出结果。通过大量的输入-输出操作,攻击者便可从大模型中提取出模型的结构、权重以及其他重要参数信息,而将这些数据用于新模型的训练,则很容易就可以获得与原模型相似的“全新模型”。“复制式攻击”则是指攻击者假装对LLMs进行训练,获取训练过程中产生的目标模型的训练数据集或者中间结果,然后使用这些数据对自己的模型进行训练,从而获得与原模型相似的模型。经过大量的计算资源和时间的投入,攻击者甚至可以做到将原模型的数据“掏空”,直接复制出功能和性能别无二致的“双胞胎”。2、代码抄袭现阶段,绝大多数AIGC大模型的开发都采用了开源的方式。此前,飒姐团队已经在《开源才是未来?AI大模型,共享=共赢?》一文中开源大模型的优势进行了较为详细的论述。[1]而采取开源模式的开发团队高度依赖社区构建,其通常会主动将团队开发的代码发送至相关社群网站,供团队外感兴趣的研究者们随意下载,以共同完成AIGC的训练等后续开发工作。如著名的第三方软件项目托管平台GitHub,即汇聚了1亿以上的开发人员,400万以上组织机构和3.3亿以上数据资料库。但开放代码在一定程度也意味着开发者将自己的“命运”交给了不特定的业内同行,其中当然也包括对其研究成果虎视眈眈的竞争对手们。因而,开源开发者实际上不可避免地会遭受代码抄袭的严重风险。如2023年11月,国内“AI教父”李开复旗下的AI大模型创业公司“零一万物”就陷入了抄袭的风波之中,其发布的Yi-34B和Yi-6B两个开源大模型遭到了Hugging Face开源主页上其他开发者的质疑,认为其直接套用了Meta公司大模型LLaMA的架构,仅对两个张量(Tensor)名称进行了修改。虽然事后“零一万物”在社交媒体上对其“抄袭”行为进行了澄清,并解释代码相同只是其为测试模型目的沿用LLaMA部分推理代码后的疏忽。但这一事件也充分暴露出了开源大模型圈子内,利用他人代码“套壳”开发LLMs现象的普遍存在。此种情况下,开源开发模式变为了一把双刃剑,出于开源的考虑,开发者不可能在公开代码时遮遮掩掩,但一旦将代码全部公开,就犹如将自己的智力成果拱手让人。3、违规训练同样,在任何人都可以参与进来的开源开发模式下,训练LLMs所使用的数据亦是开发者很难完全掌控的。训练的数据越多,LLMs的开发效果也就越好,这对于所有开发者而言都是一个现实的需求问题。但其另一个老生常谈的方面则是:没有任何人能够确保用于训练的数据完全合法合规。倘若只是参与开发的用户使用了违法或侵权的数据进行训练,开发者尚可以通过“开源减免责任”等制度层面的优惠来豁免自身的责任,但若他人恶意对其LLMs进行“投毒”,开发者所面临的则可能是全部努力付诸东流的惨痛后果。如最为典型的“AI投毒攻击”,即攻击者通过在训练数据中加入精心构造的异常数据或虚假数据,破坏原有的训练数据概率分布,导致模型在某些条件下产生分类或聚类错误,以破坏其训练数据集和准确性,最终导致大模型在特定点上的功能失灵。

02现有体系能否保护LLMs开发者的权利?

这一问题的答案很大程度上取决于对另一个问题的回答,即知识产权法律视角下的LLMs是什么性质?

由于构成人工智能实体的基本元素是程序代码,从形式上可以将其看作是一种“算法”,但问题是,现行的知识产权法律制度框架之下,只有《著作权法》第三条分类中列举的“计算机软件”,却并没有对于“算法”这一客体类型的明确规定。在著作权法的框架下,受到保护的实际上并非是算法的核心思想,即为了通过计算机达到某种目的而进行的编程行为。其所关注的只是算法的表现形式,也就是那些被写在程序里,具有独创性的代码。因此,传统的版权保护在应对智能化时代对算法保护的需求时就显得捉襟见肘,当侵权者绕开算法的“代码表现形式”,而采用其他代码编译相同“算法”时,其即可绕开著作权的保护,肆无忌惮地侵害相关开发者的权益。而另一方面,在专利法的框架下,由于生成式人工智能的算法本身在概念与理论上具有抽象性,因而在传统实践中“算法”一般被归类于《专利法》第二十五条第二项中所规定的“智力活动的规则和方法”,其不能被授予专利。虽然国家知识产权局于2023年12月21日发布了新修订的《专利审查指南》,其中已经在第二部分第九章中增加了第6节,对“包含算法特征或商业规则和方法特征的发明专利申请审查”进行了规定,对涉及人工智能、“互联网+”、大数据及区块链等行业的规则和方法的发明专利申请作出了规定。在世界范围内,如欧洲《人工智能法案》(AIA)、日本2018年《著作权法》修正案等也专门就人工智能这一智力活动成果所遭受侵权的保护进行了先导性的规定。但从实践层面上看,当前对于LLMs采用专利方式进行保护的途径仍不十分明朗。整体上而言,人工智能的知识产权保护,在世界范围内仍是一个有待达成统一和司法共识的问题。为避免陷入“处罚诚实者,鼓励作假者”的道德困境,现有的知识产权法律体系框架需要进行较为全面的调整。

03LLMs的权利保护与知识产权体系的变革

人工智能的发展已经触及到了既有知识产权保护体系的核心,正如世界知识产权组织总干事邓洪森先生在2020年11月4日的讲话中所提到的那样,人工智能的发展对现有知识产权体系提出了大量相互关联的问题,需要采用横向的方法,不应该从单个知识产权的角度来看待人工智能带来的问题,而应从整个知识产权体系的角度来整体看待这些问题。实际上,知识产权法律体系始终处在扩张的过程中。从人类开始进行工业化的活动,现代知识产权保护的客体就随着机械、电子、化学、物理等技术与科学的研究而不断迭代更新。其中,著作权的扩张最为明显。受保护的客体不断增加,著作权的保护范围亦不断扩大。在世界上第一部保护著作权的法典《安娜女王法》中,受保护的客体还只限于文字作品,到美国1790年通过的第一步著作权法中,保护的客体就已经扩展至了图书、地图和图表,以防止作者的作品遭到擅自印刷。而后,著作权所保护的客体逐渐扩大至新出现的摄影作品、电影作品、录音录像作品、计算机软件作品等新的作品类型。这种客体的扩张在很大程度上是技术,特别是传播技术发展的结果。技术的发展产生了在先前著作权法中曾没有保护的客体,由于在新的环境下不受限制地自由使用会对这类技术的发展构成严重妨碍,各国都注意通过修改著作权法的方式扩大作品的保护范围。[2]加之我国著作权法的框架体系中已经包含了“计算机软件”这一广义上的“同类”,将相关技术理念与法学理论进行进一步的对应与啮合,就目前看来,似乎是一种较为实际的探索方向。立法不是保护的终点而是起点。通过扩张作品、发明类型,设立生成式人工智能系统使用费知识产权回馈机制、简历数字化内容使用集中清算制度,重构数字化合理使用制度,以及增加非人工智能生成举证责任负担方式平衡人工智能技术发展与知识产权制度的矛盾;鼓励在人工智能大模型保护中使用区块链、数字水印等技术。通过技术与法律结合,来解决新技术所带来的矛盾与挑战。

04写在最后

从知识产权制度400余年的发展历史上看,知识产权制度的核心在于促进知识和信息的运用和传播。本质上讲,知识产权制度的存在即鼓励人类智力成果创新与传播的工具。随着新技术的出现和应用,法律体系也随之进行迭代,法律的理解和适用也随之进行突破,在AI为我们开启的未来时代,这种倾向也愈发变得明显。无应用则无权利。

以上是今天的分享,感恩读者![1] 参见肖飒团队:《开源才是未来?AI大模型,共享=共赢?》,https://mp.weixin.qq.com/s/KOnLuGxSIlYFOrK11IlIMA。[2] 参见冯晓青:《著作权扩张及其缘由透视》,政法论坛,2006年第6期,第74-87页。

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 首例AI生成声音人格侵权案!声音侵权风险解析

2024-05-19 by 01assets 请您留言

随着AI技术的大规模应用,各类AI侵权事件层出不穷。既AI图片侵权事件之后,全国首例AI生成声音人格侵权案也“浮出水面”。对于AI生成声音侵犯他人人格权这一事项,飒姐团队早在对AI翻唱的分析中便已经做出过分析(见《“AI翻唱天王天后”,掀起赛博侵权潮?!》),而今日文章便借首例AI生成声音人格侵权案为大家简要分析一下其内的责任承担问题。

01案情简介

本案原告殷某系一名配音师,其偶然发现自己的配音被他人用于制作各类作品并在多个App平台广泛传播。经过溯源,殷某发现作品中的自己的声音均来自于被告一A公司运营的平台的文本转语音功能,只要输入文本就能够生成与自己声音一致的语音。由此,殷某对涉案的五个公司提起诉讼。

由于案情较为复杂,涉及五个公司作为被告,因此飒姐团队将原告与五个被告之间的关系梳理成如下图标,方便大家理解。

从上图可知,本案的侵权行为之所以发生,是由于作为录制制品著作权人的B公司擅自将录音制品提供给C公司,并允许C公司进行商业或者非商业的使用,从而导致C公司利用B公司提供的包含殷某声音的录音制品形成了AI语音产品,C公司方将该产品在D公司的平台上线销售,最终导致殷某从A公司处发现了涉案的产品。

经过审理,法院最终判决A公司、C公司向原告赔礼道歉,B公司以及C公司向原告赔偿25万元损失。

02案例评析

(一)声音侵权应当如何认定?

《民法典》第一千零二十三条第二款明确规定,对自然人声音的保护,参照适用肖像权保护的有关规定。由此,未经声音所有人的同意,除非法律另有规定,任何人不得使用声音所有人的声音。在此前提下,即便B公司系包含殷某声音的录音制品的著作权人,除非殷某授权,其也没有使用或者许可他人使用殷某声音的权利,因此,B公司擅自提供录音制品给C公司供C公司AI训练,从而生成AI语音产品的行为,当然侵犯了殷某对于自己声音的相关人格权利。

在本案中,值得注意的是,法院对于原告声音权益是否及于涉案AI声音进行了较为详细的论述。之所以如此,是因为如果该声音权益不及于涉案AI声音,那么除去直接侵权人B公司、C公司之外,其余被告因为仅使用了涉案AI声音,就不会构成对原告殷某声音权益的侵害。对此,法院认为,应当从涉案AI声音是否具有可识别性,能否关联到特定自然人进行考虑。

具体而言,法院指出,自然人声音以声纹、音色、频率为区分,具有独特性、唯一性、稳定性特点,能够给他人形成或引起一般人产生与该自然人有关的思想或感情活动,可以对外展示个人的行为和身份,在此基础上,声音的可识别性指“在他人反复多次或长期聆听的基础上,通过该声音特征能识别出特定自然人”。因此,如果涉案AI声音能使一般社会公众或者相关领域公众根据音色、语调、风格等关联到特定自然人,那么应当认为这个声音是具有识别性的。据此,法院结合案件事实,认定涉案AI声音具有可识别性,原告声音权益及于涉案AI声音。

因此,考虑到A公司、D公司、E公司均使用了涉案AI声音,因此在满足其他侵权行为的构成要件的基础上就需要承担一定的侵权责任。

(二)侵权责任如何确认?

对于本案所诉侵权责任,各被告均提出了抗辩,但法院并没有全部予以采纳,而是对各被告的抗辩进行了说理,妥善处理了各被告的责任承担问题,具体内容如下:

主体抗辩理由法院观点
A公司系善意第三人,通过正规渠道购买产品,已尽到合理的注意义务,不构成侵权行为。肯定该抗辩,认为A公司主观上不存在过错,无须承担损害赔偿责任。
B公司作为录音制品著作权人,享有录音制品的著作权以及邻接权,其使用符合法律规定,不存在主观故意的侵权行为。否定该抗辩,认为B公司虽然有录音制品的著作权,但该权利不包括授权他人对制品中原告的声音进行AI化使用的权利。
C公司其通过与B公司签订协已经获得了涉案声音的授权,不存在任何侵权的主观过错,且涉案声音系AI化声音,不具有可识别性。否定该抗辩,C公司虽然与B公司签订了协议,但是该协议系未经原告本人知情同意下签署,授权C公司AI化使用原告声音之行为无合法权利来源。
D公司系云服务平台提供者,已尽到合理的注意义务,不构成侵权行为。肯定该抗辩,认为D公司主观上不存在过错,无须承担损害赔偿责任。
E公司既未使用涉案声音也未制作涉案声音,且对于侵权事宜并不知情,不应承担侵权责任。肯定该抗辩,认为E公司主观上不存在过错,无须承担损害赔偿责任。

由此,在综合考虑侵权情节、同类市场产品价值、产品播放量等因素的情况下,法院最终判决B公司和C公司承担了25万元的损害赔偿责任。

我国《民法典》的侵权责任以过错责任为原则,因此行为人主观上是否存在过错系判断侵权责任的主要构成要件。在本案中,B公司作为录音制品的著作权人,其明显知晓自己并没有获得过原告的声音使用授权,自然难言主观上不存在过错,同理C公司作为与B公司的直接合作者,除非其要求B公司提供相关授权的证明,否则也很难否定C公司的主观过错。在此基础上,D公司作为平台服务提供者,其只需要尽到一般的注意义务即可,除非该声音侵权十分明显,以至于D公司知道或者应当知道该产品涉嫌侵权,否则其通常不需要承担责任。至于A公司和E公司,由于一方其仅仅只是受另一方委托购买C公司的产品,双方均不参与前述任何相关行为,因此难以知晓侵权事实,主观上自然不存在过错。

综上所述,本案对于侵权责任的承担的认定是极为合理的。

03写在最后

如前所述,AI技术的铺开在目前的法律框架下势必会有大量侵权案件出现,但如何确定侵权行为以及如何准确判断侵权责任的有无与大小仍然是一个需要仔细斟酌的事项,并非所有参与者都存在侵权行为,也并非所有参与者都需要承担侵权责任。

分类: 01Assets, 元宇宙, 奇点专家, 观察与评论

肖飒团队 | 开源才是未来?AI大模型,共享=共赢?

2024-05-10 by 01assets 请您留言

4月16日,《人工智能法(示范法)2.0》(以下简称“《示范法2.0》”)发布,2.0版本的文稿对2023年8月发布的《人工智能法示范法1.0(专家建议稿)》进行了一次重大的迭代升级。其中,最引人注目的内容之一,即在《示范法2.0》的第七十一条,首次规定了开源人工智能开发者的法律责任减免。根据《示范法2.0》的规定,“以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。”这意味着法学界在利用人工智能法律规范促进发展的问题上,态度鲜明地支持人工智能开发者采用开源的发展模式,并通过专门的减免责条款设计等措施,鼓励人工智能研发的技术公开和共享。在往期的专栏中,飒姐团队一直强调“公共”和“开源”是AGI的核心价值。随着人工智能逐渐开始赋能各领域生产力的发展,唯有通过规范的设计,对其基于知识产权的“私益”与基于全人类技术发展的“公益”予以平衡,才能够真正实现“共赢”,促进AGI领域良性发展。

01大模型的开源与闭源之争

在AI大模型研发领域,“开源”与“闭源”两派的争论由来已久。二者最近的一次激烈交锋,即2024年3月初的马斯克诉OpenAI案,标志着双方的矛盾已经由单纯的技术竞争扩展到了反垄断等法律与合规领域。作为闭源大模型开发者的代表,在马斯克的指控中,OpenAI在接受了微软的注资之后,已经在事实上成为了微软控制下的闭源子公司,令其所开发的GPT-4等系列产品成为了微软攫取巨额商业利润的工具。为了实现盈利目标,OpenAI已逐渐背离了最初对于公共开源人工通用智能(AGI)的承诺,并开始在相关领域中构建科技霸权。虽然马斯克的上述指控直到目前为止都没有充分的证据支持,且基于其长期以来的“网红人设”,提起诉讼似乎也只是其为了自家XAI公司新开发的开源大模型进行营销的手段。但从这一诉讼产生的影响中亦不难看出,新兴开源大模型的开发者与长期在业界占据领导地位的“不那么Open”的OpenAI之间,确实已存在利益与开发理念上的诸多冲突。双方冲突的存在一方面是由于OpenAI确实靠闭源大模型的开发获得了名利双收的成果。虽然在其2015年初创之时,OpenAI确实是以“确保通用人工智能造福全人类”为自身的核心使命,并试图构建一家与传统科技公司不同的非盈利性机构;但其真正在ChatGPT的开发上实现破圈却是建立在微软不断向其抛去橄榄枝的基础之上。根据公开资料显示,OpenAI成立至今,微软共向其投资130亿美元,并掌握了OpenAI营利业务部份49%的股权。可见,马克思的指控也并非空穴来风,OpenAI如今在AI大模型开放领域取得的成就与其背离初衷,坚持为微软进行闭源产品开发的事实之间确实难以分割。而另一方面,该冲突的存在则是由于GPT-4确实至今在业界仍旧占据着技术上的引领地位。在AI大模型研发的竞争于世界范围内愈演愈烈的背景下,包括XAI的3140亿大模型Grok-1与Meta公司于前日发布的4000亿大模型Llama 3都作为开源大模型的代表,在各自的优势领域上对GPT-4提出了挑战。但挑战者始终是挑战者,作为闭源大模型“唯一王者”的GPT-4 turbo依旧在语言类大模型领域中占据着绝对的领导地位。作为放弃了商业导向,以公益性的数据获取和研发作为首要目标的开源大模型开发者,让其看着闭源开发者赚得盆满钵满的同时在技术上仍保持行业领先,心中属实不是滋味。

02
制度对开源与闭源矛盾的平衡

于是,在技术和经济性层面尚且不能解决开源大模型开发者与闭源大模型开发者间矛盾的情况下,法律制度层面率先提出了这一问题的解决方案。本次《示范法2.0》中对开源人工智能开发者法律责任的减免所进行的规定,在很大程度上向世界分享了具有我国特色的人工智能治理思路。首先,从《示范法2.0》第七十一条的规定中可以看出,所谓“开源人工智能的开发者”即针对以“免费且开源的方式提供人工智能”的主体,这一定义直接排除了盈利性的人工智能开发者。而对于非盈利的开源人工智能开发者实际上又通过第七十一条的两款规定分为了两类,即“同时以清晰的方式公开说明其功能及安全风险的”和“能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的”,前者直接不承担法律责任,后者则可以对法律责任酌情进行减免。这一思路,某种意义上是对民事法律“谁获益谁担责”原则的体现,对于没有利用开发的人工智能产品获得利益,且已经对自研产品的风险充分完成了合规工作的主体,法律应当予以鼓励,故视其合规程度的不同,对其予以不同程度的责任减免。其次,《示范法2.0》并没有明确列举减免法律责任的类型,而是直接采用了“不承担法律责任”与“减轻或免于承担法律责任”的表述。这意味着对于非盈利的开源人工智能开发者,在其完成了自身合规构建的前提下,对其法律责任的减免范围是非常宽泛的。采用这种方式的规定,既是对开源人工智能开发者个人利益与其为科研领域公益做出贡献之间的平衡,也是鼓励其加强自身合规构建,在技术研发过程中充分考虑可能存在的风险,并就安全风险等对社会进行公开说明。

03
技术开源与AGI的未来生态

实际上,虽然闭源大模型能够通过对知识产权的保护吸引更多的研发投入,并利用这一优势进一步稳固其在行业中的领先地位,但开源大模型本身亦具有许多闭源开发者所必须割舍的有利条件。如开源的开发模式依靠社区构建驱动创新,其允许全球范围内对领域感兴趣的开发者共同参与开发,在模型训练和数据获取上本身即更为高效。再如对代码进行开源可以很大程度提高程序的灵活性和可定制性,并使大模型具有更高的可审计性,通过社区成员对源代码和参数的不断审查,能够更好地降低AI的安全风险,提高大模型的合规程度。此外,闭源开发的代码始终具有反垄断审查的风险,相关开发者往往难以解释其无意通过技术垄断,达到限制市场的公平竞争的目的。因此,在未来,采用开源形式的开发者在法律风险规避、自身合规构建等方面是具有相当程度的优势的。

04
写在最后

实际上,从当前AGI领域发展的角度上,单纯讨论利益的平衡,对于智力成果“私益”的保护某种程度上是应当向人类技术未来的“公益”作出适当让步的。当然,这种“让步”并非是损害开发者因智力成果而享有的相关权益,而是通过《示范法2.0》中提到的此类方式,通过权利与责任的平衡,促进人工智能开发者能够更加理性地选择适合自己的赛道,无论开源或是闭源,最终目标都是促进AGI行业发展,推动全球科技创新和经济增长。

分类: 01Assets, 元宇宙, 奇点专家

OpenAI拟推搜索引擎

2024-05-06 by 01assets 请您留言

香港奇点财经5月6日报道。OpenAI最近注册了新域名”search.chatgpt.com”以及相应的安全证书,不过,目前访问该URL会显示“未找到”提示。传言称ChatGPT搜索引擎可能在5月9日发布,且可能在未来几天内与公众见面。

关于OpenAI正在筹备搜索引擎的猜测,最早来自于社交媒体平台X上的一张日志截图。用户@apples_jimmy在X上分享了这一信息,随后被多家媒体报道与转载。截图显示,OpenAI 最近注册了域名 search.chatgpt.com,他推测这可能意味着 OpenAI 正在开发一个搜索功能。同时,@apples_jimmy还透露说,OpenAI在2024年1月份发布了针对内部活动人员和营销职位的招聘广告,并在上个月成功招募了一名活动经理,这些动作似乎都指向公司正在积极准备即将到来的某项重要活动。

据外媒报道,ChatGPT搜索引擎预计将结合传统网络搜索引擎的功能与生成式人工智能。用户在提出问题或输入查询时,预计会收到结合AI生成内容与相关网页的结果,类似于Perplexity AI的服务。

目前,Perplexity AI采用聊天机器人的形式,允许用户提出问题,然后展示由人工智能生成的搜索结果。而Google Gemini提供的更像是一个纯粹的聊天结果,它不仅提供人工智能的分析,还会给出信息来源的链接,以及相同术语的Google搜索链接。

OpenAI的搜索引擎可能更接近于Google Gemini的方式,并且会内置于ChatGPT中,但会包含更多的实时数据。例如,用户可以询问当前广告牌排行榜上的热门歌曲,系统能够立即显示结果,无需等待或依赖缓存。

不过,大型语言模型面临的一个重大挑战是信息的截止日期问题,这与模型训练完成且无法添加新信息的时间有关。解决这个问题的方法之一是实时网络访问,这比简单的微调或扩展上下文窗口更为有效。Google、Bing和Perplexity等都有自己的网络爬虫,可以不断地搜索网络并更新数据库中的结果。这些数据可以反馈到聊天机器人中,使其能够实时检索信息,并结合其训练数据与搜索结果进行分析。但要实现这一点,需要深度集成搜索功能。

目前,谷歌在搜索引擎市场占据主导地位,市场份额接近90%,其次是微软的Bing。谷歌已经将AI功能融入其搜索引擎,而ChatGPT搜索引擎的推出可能会为其引入新的广告模式,并为OpenAI创造新的收入来源。

不过,OpenAI的首席执行官Sam Altman认为,OpenAI应当创造一个超越现有搜索引擎如谷歌的新型搜索引擎。他指出,仅仅复制谷歌展示广告和链接的传统搜索模式,并不能充分发挥人工智能的真正潜力。他提倡开发一种新型搜索引擎,这种引擎不仅能够提供信息检索,更能引导用户根据检索到的信息做出决策,是一种更加互动、用户驱动的搜索体验。这将超越目前仅提供信息列表的搜索方式,为用户提供更深层次的价值。

分类: 01Assets, 元宇宙, 公司前沿

  • 1
  • 2
  • 3
  • 下一页 »

Copyright © 2025 · Outreach Pro on Genesis Framework · WordPress · 登录