奇点财经

数字资产研究院

  • 首页
  • 财经新闻
  • 关于我们
  • 团队介绍
    • 数字资产研究院简介
    • 团队介绍
  • 数字研究
  • 行业活动
  • 联系我们

肖飒团队 | 当AI取代搜索引擎,增效还是风险?

2024-05-23 by 01assets 请您留言

5月3日,在海外著名技术社区Hacker News中有用户发帖指出:一个名为“search.chatgpt.com”的域名已经被创建并通过了安全证书,这一消息又一次引发了行业内对于AI搜索引擎的各种猜想。自从ChatGPT首次亮相以来,业界就一直对OpenAI是否会推出搜索引擎一事存在着众说纷纭的猜想,而随着越来越多的蛛丝马迹开始为这些猜想勾勒出具体的轮廓,一项基于AIGC技术的全新搜索技术似乎已经呼之欲出,并将颠覆性地改变人们对于搜索引擎的传统认知。

01AI将会怎样改变搜索引擎?

“AI技术将会为现有的信息检索方式带来深度的变革”,对于这一观点,业内几乎已经达成了共识。在2023年由高盛集团和SV Angel在旧金山举办的AI Forward 2023活动上,比尔·盖茨直言不讳地表示“顶级人工智能终将颠覆搜索引擎、生产力软件和在线购物网站的应用,并最终在IT技术竞赛中大获全胜”。实际上,如果单从应用的层面看,对话式的人工智能大语言模型已经在一定程度上满足了传统搜索引擎的全部用户需求,且其在用户交互等方面体现出的优势,更是大有将搜索引擎“取而代之”的趋势。在同样接入网络的前提下,具备深度学习能力的AI的确突破了许多传统搜索引擎的技术桎梏:

其一,是为用户提供的更为精准且具体的检索结果。通常情况下,限于搜索引擎的数据抓取逻辑,采用相同关键词进行检索的结果是近乎完全一致的,用户很难获取完全符合自身搜索习惯的客制化结果。实际上,在我们利用搜索引擎进行信息检索时,对于有用信息的最终筛选是需要主动依靠人力进行的。而生成式AI则可以根据用户的需求和习惯,通过对信息的总结呈现出更加准确的结论性成果,这将很大程度优化用户的搜索体验。

其二,是对于用户信息搜索效率的提高。传统搜索引擎的机制通常是将用户提供的关键词进行拆分,并针对其中有价值的信息进行抓取,这导致用户输入检索条件的文本长短与关键词精确度将很大程度影响获取结果的效率。而AIGC在文本处理上的优势则避免了这一弊端,AI在“理解”的基础上寻找用户所需要的信息,并在长文本的处理上具有先天性的优势,且通过一段时间的数据投喂,AI的检索效率也会随着训练量的增加而获得进一步的提升。

其三,是对用户交互方式的改变。传统搜索引擎与用户的交互方式大多仍限于文字或图像等较为单一的要素,而AIGC本身可通过复数大模型的训练整合文字、图像,甚至音视频等复杂媒介,如谷歌推出的AI搜索引擎SGE之类相关领域的先行者,就已经开始尝试在交互方式上做出改变。在未来,AI主导的搜索方式即便仍采取对话式的形式,其交互端的复合程度也将获得极大的提升,并与用户的应用需求深度融合。

02更加自动 = 更多风险?

以AI取代传统搜索引擎对相关行业而言将会是一场“革命”,其中的利弊或许一时还无法清晰辩驳,但上述的诸多优势背后,亦隐藏着不可小觑的风险。抛开AIGC本身可能存在的数据侵权和信息伪造等老生常谈的问题,以搜索引擎的使用逻辑应用AI将不可避免地面临自动化决策所带来的影响。如上文所述,AI为用户提供更为精准且高效的检索服务的基础是其对于用户检索系统的“深度学习”,而从另一个角度上看,这即意味着用户想要获得上述“贴心服务”,就需要同意将自身的搜索数据用于AI的训练。诚然,自动化决策赋予了相关应用“自我思考的能力”,是促进AI及大数据等信息技术联动,降低信息处理成本的同时提高决策效率的必要基础,但自动化决策的“自我意识”及衍生而来的“算法黑箱”等问题也为数据和个人信息的安全带来了巨大的风险。首当其冲的即最为人们所熟知的“信息茧房”所带来的综合性风险。“信息茧房”最早由哈佛大学法学院桑斯坦教授提出,意指公众在海量信息传播中,因非对信息存有全方位需求,而只关注自己选择的或能使自己愉悦的讯息,长此以往,将自己束缚在如蚕织就的信息“茧房”中的现象。[1]搜索引擎本身在应用中的“问答”属性已成为促成现代社会“信息茧房”形成的主要诱因之一,而自动化算法在生成式AI中的进一步的应用更可能引发“回声室效应”和“同质化效应”。换言之,在用户通过投喂搜索数据获得AI客制化服务的过程中,AI的学习本身即是对“茧房”的不断加固。其次,用户在搜索过程中无意间透露的用户数据与零散的个人信息,也将面临数据泄漏带来的风险。虽然严格意义上讲,使用搜索引擎并非对用户个人信息的收集阶段;用户在搜索过程中所透露出的检索内容、习惯等碎片化的个人信息亦不具有非常清晰的可识别性。但经过深度学习训练的AI多具备预测功能,通过算法的预测和推断,AI很容易完成对具体用户的画像,并生成具有识别性的个人信息。如美国研究者曾对“Facebook Likes”58000名志愿者提供的准确率高达80%-90%的个人信息,如性取向、种族、智力情况、宗教及政治观点、性格特征、幸福指数、瘾品使用、父母离异、年龄和性别信息进行数学建模,自动化算法在未获取志愿者其他任何信息和个性特征的情况下,可以相当准确地预测出该Facebook用户是否为同性恋者。[2]这些在使用过程中生成的个人信息亦面临着泄露的风险。此外,当前自动化决策所存在的算法歧视问题,亦有可能在AI搜索的过程中遭到扩大。自动化算法带来的歧视风险通常来源于两个方面:其一是设计者自身将存在的偏见以替代变量的形式编入了算法程序中;其二则是数据收集的非准确性导致算法出现了误判。而在AI自主学习的过程中,数据的获取和处理皆是自动进行的,这意味着上述两个方面的风险均陷入了“算法黑箱”中的不可控领域。因而,AI在提供降本增效的“贴心”搜索服务的同时,实际也迫使其使用者和设计者将一把不得不接受的双刃剑牢牢攥在了手中。

03AI搜索语境下用户对自动化决策的拒绝权

基于自动化决策可能引发的上述风险,当前,世界各国在相关立法中均对其设置了一定的限制,如欧盟《一般数据保护条例》(General Data Protection Regulation, 以下简称GDPR)第22条,与对其进行了学习的我国《个人信息保护法》(以下简称《个保法》)第24条第3款,就都赋予了个人信息主体算法解释权和自动化决策拒绝权。因而,在未来AI搜索取代传统搜索引擎的大趋势下,用户对自动化决策的拒绝权将成为规避相关风险的重要权利。

当然,我国《个保法》对相关权利的规定仍存在“律性质不明、概念内涵不清、利益关系失衡、程序性救济手段缺失”等有待解决的规范性法问题,[3]亟待立法机关及司法实践予以进一步地解释和明确。对此,一种可行的思路即通过参考欧盟《人工智能法案》的分级规则,对用于信息检索等强自动化决策的AI算法根据“不可接受的风险”“高风险”“有限风险”以及“最小风险”等四个等级进行分级,并依据不同等级的风险赋予用户相应的拒绝权。通过对AI自动化决策的合理定级,确定风险预防策略,从而更好地保护个人信息主体的相关权益。

04写在最后

诚然,对于新技术的促进与所涉权益的保护之间存在着某种天然的矛盾。但在法律的视角下,二者应当亦存在可探寻的平衡点。技术的发展不应为权益保护所掣肘,反之也不能牺牲主体的权益来为技术鸣锣开道。自动化决策拒绝权的明确只是应对风险诸多思路的其中一种,在技术变革到来之前,如何以更多样的保护手段避免合法权益遭受侵害,如何打开更加多元的AI法律治理格局,将会是科技界与法学界共同探索的深刻议题。以上是今天的分享,感恩读者!

[1] 参见[美]凯斯·R.桑斯坦:《信息乌托邦》,毕竞悦译,法律出版社2008年版,第8页。[2] 参见孙建丽:《算法自动化决策风险的法律规制研究》,法治研究,2019年第4期,第108-117页。[3] 参见:牛彬彬、陈永波:《自动化决策权利对抗体系的完善——<个人信息保护法>第24条的解释论进路》,湖州师范学院学报,2024年第3期,第86-97页。

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 人工智能大模型侵权!谁来保护知识产权?

2024-05-22 by 01assets 请您留言

2020年,作为我国知识产权法律体系两大支柱的《专利法》与《著作权法》先后进行了修订,与2019年即获得修订的《商标法》一并,对沿用了近十年的知识产权体系进行了与时俱进的完善。然而,2021年8月,OpenAI上线了其在今天已经深刻改变了业界生态的人工智能产品——ChatGPT,带领人工智能大语言模型(Large Language Models, 简称LLMs)站上了时代的风口浪尖。如今,世界范围内人工智能开发者的竞争已愈发激烈,世界各国与人工智能相关的立法活动也随之而愈发频繁。在这样一个充满了创新与探索的时代,我国知识产权领域的三部法律却微妙地错过了“时代的热点”,导致我国现行的知识产权保护体系并未将LLMs纳入考虑范围之内,让这位“百模大战的主角”坠入了法律保护的真空之中。关于生成式人工智能(AIGC)对现行知识产权法律体系的挑战,飒姐团队已经与大伙进行过多次探讨,今天,就让咱们从人工智能大模型的本身出发,聊聊这位“主角”的相关权益。

01LLMs也会面临侵权风险吗?

一直以来,在知识产权语境下,我们对于AGI技术,尤其是AIGC技术相关知识产权问题的关注,始终集中在其生成物的相关权属上。而事实上,AI本身亦属于人类智力活动的成果,当其被予以公开,也同样会受到一系列侵权风险的威胁。

1、数据窃取数据窃取是LLMs开发者所面临的最常见威胁之一,其可分为“抽取式攻击”和“复制式攻击”两类:“抽取式攻击”是指攻击者通过访问目标模型的接口或者采用黑盒攻击的方式,向模型输入一些特定的数据,从而提取和收集特定方向的输出结果。通过大量的输入-输出操作,攻击者便可从大模型中提取出模型的结构、权重以及其他重要参数信息,而将这些数据用于新模型的训练,则很容易就可以获得与原模型相似的“全新模型”。“复制式攻击”则是指攻击者假装对LLMs进行训练,获取训练过程中产生的目标模型的训练数据集或者中间结果,然后使用这些数据对自己的模型进行训练,从而获得与原模型相似的模型。经过大量的计算资源和时间的投入,攻击者甚至可以做到将原模型的数据“掏空”,直接复制出功能和性能别无二致的“双胞胎”。2、代码抄袭现阶段,绝大多数AIGC大模型的开发都采用了开源的方式。此前,飒姐团队已经在《开源才是未来?AI大模型,共享=共赢?》一文中开源大模型的优势进行了较为详细的论述。[1]而采取开源模式的开发团队高度依赖社区构建,其通常会主动将团队开发的代码发送至相关社群网站,供团队外感兴趣的研究者们随意下载,以共同完成AIGC的训练等后续开发工作。如著名的第三方软件项目托管平台GitHub,即汇聚了1亿以上的开发人员,400万以上组织机构和3.3亿以上数据资料库。但开放代码在一定程度也意味着开发者将自己的“命运”交给了不特定的业内同行,其中当然也包括对其研究成果虎视眈眈的竞争对手们。因而,开源开发者实际上不可避免地会遭受代码抄袭的严重风险。如2023年11月,国内“AI教父”李开复旗下的AI大模型创业公司“零一万物”就陷入了抄袭的风波之中,其发布的Yi-34B和Yi-6B两个开源大模型遭到了Hugging Face开源主页上其他开发者的质疑,认为其直接套用了Meta公司大模型LLaMA的架构,仅对两个张量(Tensor)名称进行了修改。虽然事后“零一万物”在社交媒体上对其“抄袭”行为进行了澄清,并解释代码相同只是其为测试模型目的沿用LLaMA部分推理代码后的疏忽。但这一事件也充分暴露出了开源大模型圈子内,利用他人代码“套壳”开发LLMs现象的普遍存在。此种情况下,开源开发模式变为了一把双刃剑,出于开源的考虑,开发者不可能在公开代码时遮遮掩掩,但一旦将代码全部公开,就犹如将自己的智力成果拱手让人。3、违规训练同样,在任何人都可以参与进来的开源开发模式下,训练LLMs所使用的数据亦是开发者很难完全掌控的。训练的数据越多,LLMs的开发效果也就越好,这对于所有开发者而言都是一个现实的需求问题。但其另一个老生常谈的方面则是:没有任何人能够确保用于训练的数据完全合法合规。倘若只是参与开发的用户使用了违法或侵权的数据进行训练,开发者尚可以通过“开源减免责任”等制度层面的优惠来豁免自身的责任,但若他人恶意对其LLMs进行“投毒”,开发者所面临的则可能是全部努力付诸东流的惨痛后果。如最为典型的“AI投毒攻击”,即攻击者通过在训练数据中加入精心构造的异常数据或虚假数据,破坏原有的训练数据概率分布,导致模型在某些条件下产生分类或聚类错误,以破坏其训练数据集和准确性,最终导致大模型在特定点上的功能失灵。

02现有体系能否保护LLMs开发者的权利?

这一问题的答案很大程度上取决于对另一个问题的回答,即知识产权法律视角下的LLMs是什么性质?

由于构成人工智能实体的基本元素是程序代码,从形式上可以将其看作是一种“算法”,但问题是,现行的知识产权法律制度框架之下,只有《著作权法》第三条分类中列举的“计算机软件”,却并没有对于“算法”这一客体类型的明确规定。在著作权法的框架下,受到保护的实际上并非是算法的核心思想,即为了通过计算机达到某种目的而进行的编程行为。其所关注的只是算法的表现形式,也就是那些被写在程序里,具有独创性的代码。因此,传统的版权保护在应对智能化时代对算法保护的需求时就显得捉襟见肘,当侵权者绕开算法的“代码表现形式”,而采用其他代码编译相同“算法”时,其即可绕开著作权的保护,肆无忌惮地侵害相关开发者的权益。而另一方面,在专利法的框架下,由于生成式人工智能的算法本身在概念与理论上具有抽象性,因而在传统实践中“算法”一般被归类于《专利法》第二十五条第二项中所规定的“智力活动的规则和方法”,其不能被授予专利。虽然国家知识产权局于2023年12月21日发布了新修订的《专利审查指南》,其中已经在第二部分第九章中增加了第6节,对“包含算法特征或商业规则和方法特征的发明专利申请审查”进行了规定,对涉及人工智能、“互联网+”、大数据及区块链等行业的规则和方法的发明专利申请作出了规定。在世界范围内,如欧洲《人工智能法案》(AIA)、日本2018年《著作权法》修正案等也专门就人工智能这一智力活动成果所遭受侵权的保护进行了先导性的规定。但从实践层面上看,当前对于LLMs采用专利方式进行保护的途径仍不十分明朗。整体上而言,人工智能的知识产权保护,在世界范围内仍是一个有待达成统一和司法共识的问题。为避免陷入“处罚诚实者,鼓励作假者”的道德困境,现有的知识产权法律体系框架需要进行较为全面的调整。

03LLMs的权利保护与知识产权体系的变革

人工智能的发展已经触及到了既有知识产权保护体系的核心,正如世界知识产权组织总干事邓洪森先生在2020年11月4日的讲话中所提到的那样,人工智能的发展对现有知识产权体系提出了大量相互关联的问题,需要采用横向的方法,不应该从单个知识产权的角度来看待人工智能带来的问题,而应从整个知识产权体系的角度来整体看待这些问题。实际上,知识产权法律体系始终处在扩张的过程中。从人类开始进行工业化的活动,现代知识产权保护的客体就随着机械、电子、化学、物理等技术与科学的研究而不断迭代更新。其中,著作权的扩张最为明显。受保护的客体不断增加,著作权的保护范围亦不断扩大。在世界上第一部保护著作权的法典《安娜女王法》中,受保护的客体还只限于文字作品,到美国1790年通过的第一步著作权法中,保护的客体就已经扩展至了图书、地图和图表,以防止作者的作品遭到擅自印刷。而后,著作权所保护的客体逐渐扩大至新出现的摄影作品、电影作品、录音录像作品、计算机软件作品等新的作品类型。这种客体的扩张在很大程度上是技术,特别是传播技术发展的结果。技术的发展产生了在先前著作权法中曾没有保护的客体,由于在新的环境下不受限制地自由使用会对这类技术的发展构成严重妨碍,各国都注意通过修改著作权法的方式扩大作品的保护范围。[2]加之我国著作权法的框架体系中已经包含了“计算机软件”这一广义上的“同类”,将相关技术理念与法学理论进行进一步的对应与啮合,就目前看来,似乎是一种较为实际的探索方向。立法不是保护的终点而是起点。通过扩张作品、发明类型,设立生成式人工智能系统使用费知识产权回馈机制、简历数字化内容使用集中清算制度,重构数字化合理使用制度,以及增加非人工智能生成举证责任负担方式平衡人工智能技术发展与知识产权制度的矛盾;鼓励在人工智能大模型保护中使用区块链、数字水印等技术。通过技术与法律结合,来解决新技术所带来的矛盾与挑战。

04写在最后

从知识产权制度400余年的发展历史上看,知识产权制度的核心在于促进知识和信息的运用和传播。本质上讲,知识产权制度的存在即鼓励人类智力成果创新与传播的工具。随着新技术的出现和应用,法律体系也随之进行迭代,法律的理解和适用也随之进行突破,在AI为我们开启的未来时代,这种倾向也愈发变得明显。无应用则无权利。

以上是今天的分享,感恩读者![1] 参见肖飒团队:《开源才是未来?AI大模型,共享=共赢?》,https://mp.weixin.qq.com/s/KOnLuGxSIlYFOrK11IlIMA。[2] 参见冯晓青:《著作权扩张及其缘由透视》,政法论坛,2006年第6期,第74-87页。

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 首例AI生成声音人格侵权案!声音侵权风险解析

2024-05-19 by 01assets 请您留言

随着AI技术的大规模应用,各类AI侵权事件层出不穷。既AI图片侵权事件之后,全国首例AI生成声音人格侵权案也“浮出水面”。对于AI生成声音侵犯他人人格权这一事项,飒姐团队早在对AI翻唱的分析中便已经做出过分析(见《“AI翻唱天王天后”,掀起赛博侵权潮?!》),而今日文章便借首例AI生成声音人格侵权案为大家简要分析一下其内的责任承担问题。

01案情简介

本案原告殷某系一名配音师,其偶然发现自己的配音被他人用于制作各类作品并在多个App平台广泛传播。经过溯源,殷某发现作品中的自己的声音均来自于被告一A公司运营的平台的文本转语音功能,只要输入文本就能够生成与自己声音一致的语音。由此,殷某对涉案的五个公司提起诉讼。

由于案情较为复杂,涉及五个公司作为被告,因此飒姐团队将原告与五个被告之间的关系梳理成如下图标,方便大家理解。

从上图可知,本案的侵权行为之所以发生,是由于作为录制制品著作权人的B公司擅自将录音制品提供给C公司,并允许C公司进行商业或者非商业的使用,从而导致C公司利用B公司提供的包含殷某声音的录音制品形成了AI语音产品,C公司方将该产品在D公司的平台上线销售,最终导致殷某从A公司处发现了涉案的产品。

经过审理,法院最终判决A公司、C公司向原告赔礼道歉,B公司以及C公司向原告赔偿25万元损失。

02案例评析

(一)声音侵权应当如何认定?

《民法典》第一千零二十三条第二款明确规定,对自然人声音的保护,参照适用肖像权保护的有关规定。由此,未经声音所有人的同意,除非法律另有规定,任何人不得使用声音所有人的声音。在此前提下,即便B公司系包含殷某声音的录音制品的著作权人,除非殷某授权,其也没有使用或者许可他人使用殷某声音的权利,因此,B公司擅自提供录音制品给C公司供C公司AI训练,从而生成AI语音产品的行为,当然侵犯了殷某对于自己声音的相关人格权利。

在本案中,值得注意的是,法院对于原告声音权益是否及于涉案AI声音进行了较为详细的论述。之所以如此,是因为如果该声音权益不及于涉案AI声音,那么除去直接侵权人B公司、C公司之外,其余被告因为仅使用了涉案AI声音,就不会构成对原告殷某声音权益的侵害。对此,法院认为,应当从涉案AI声音是否具有可识别性,能否关联到特定自然人进行考虑。

具体而言,法院指出,自然人声音以声纹、音色、频率为区分,具有独特性、唯一性、稳定性特点,能够给他人形成或引起一般人产生与该自然人有关的思想或感情活动,可以对外展示个人的行为和身份,在此基础上,声音的可识别性指“在他人反复多次或长期聆听的基础上,通过该声音特征能识别出特定自然人”。因此,如果涉案AI声音能使一般社会公众或者相关领域公众根据音色、语调、风格等关联到特定自然人,那么应当认为这个声音是具有识别性的。据此,法院结合案件事实,认定涉案AI声音具有可识别性,原告声音权益及于涉案AI声音。

因此,考虑到A公司、D公司、E公司均使用了涉案AI声音,因此在满足其他侵权行为的构成要件的基础上就需要承担一定的侵权责任。

(二)侵权责任如何确认?

对于本案所诉侵权责任,各被告均提出了抗辩,但法院并没有全部予以采纳,而是对各被告的抗辩进行了说理,妥善处理了各被告的责任承担问题,具体内容如下:

主体抗辩理由法院观点
A公司系善意第三人,通过正规渠道购买产品,已尽到合理的注意义务,不构成侵权行为。肯定该抗辩,认为A公司主观上不存在过错,无须承担损害赔偿责任。
B公司作为录音制品著作权人,享有录音制品的著作权以及邻接权,其使用符合法律规定,不存在主观故意的侵权行为。否定该抗辩,认为B公司虽然有录音制品的著作权,但该权利不包括授权他人对制品中原告的声音进行AI化使用的权利。
C公司其通过与B公司签订协已经获得了涉案声音的授权,不存在任何侵权的主观过错,且涉案声音系AI化声音,不具有可识别性。否定该抗辩,C公司虽然与B公司签订了协议,但是该协议系未经原告本人知情同意下签署,授权C公司AI化使用原告声音之行为无合法权利来源。
D公司系云服务平台提供者,已尽到合理的注意义务,不构成侵权行为。肯定该抗辩,认为D公司主观上不存在过错,无须承担损害赔偿责任。
E公司既未使用涉案声音也未制作涉案声音,且对于侵权事宜并不知情,不应承担侵权责任。肯定该抗辩,认为E公司主观上不存在过错,无须承担损害赔偿责任。

由此,在综合考虑侵权情节、同类市场产品价值、产品播放量等因素的情况下,法院最终判决B公司和C公司承担了25万元的损害赔偿责任。

我国《民法典》的侵权责任以过错责任为原则,因此行为人主观上是否存在过错系判断侵权责任的主要构成要件。在本案中,B公司作为录音制品的著作权人,其明显知晓自己并没有获得过原告的声音使用授权,自然难言主观上不存在过错,同理C公司作为与B公司的直接合作者,除非其要求B公司提供相关授权的证明,否则也很难否定C公司的主观过错。在此基础上,D公司作为平台服务提供者,其只需要尽到一般的注意义务即可,除非该声音侵权十分明显,以至于D公司知道或者应当知道该产品涉嫌侵权,否则其通常不需要承担责任。至于A公司和E公司,由于一方其仅仅只是受另一方委托购买C公司的产品,双方均不参与前述任何相关行为,因此难以知晓侵权事实,主观上自然不存在过错。

综上所述,本案对于侵权责任的承担的认定是极为合理的。

03写在最后

如前所述,AI技术的铺开在目前的法律框架下势必会有大量侵权案件出现,但如何确定侵权行为以及如何准确判断侵权责任的有无与大小仍然是一个需要仔细斟酌的事项,并非所有参与者都存在侵权行为,也并非所有参与者都需要承担侵权责任。

分类: 01Assets, 元宇宙, 奇点专家, 观察与评论

肖飒团队 | 开源才是未来?AI大模型,共享=共赢?

2024-05-10 by 01assets 请您留言

4月16日,《人工智能法(示范法)2.0》(以下简称“《示范法2.0》”)发布,2.0版本的文稿对2023年8月发布的《人工智能法示范法1.0(专家建议稿)》进行了一次重大的迭代升级。其中,最引人注目的内容之一,即在《示范法2.0》的第七十一条,首次规定了开源人工智能开发者的法律责任减免。根据《示范法2.0》的规定,“以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。”这意味着法学界在利用人工智能法律规范促进发展的问题上,态度鲜明地支持人工智能开发者采用开源的发展模式,并通过专门的减免责条款设计等措施,鼓励人工智能研发的技术公开和共享。在往期的专栏中,飒姐团队一直强调“公共”和“开源”是AGI的核心价值。随着人工智能逐渐开始赋能各领域生产力的发展,唯有通过规范的设计,对其基于知识产权的“私益”与基于全人类技术发展的“公益”予以平衡,才能够真正实现“共赢”,促进AGI领域良性发展。

01大模型的开源与闭源之争

在AI大模型研发领域,“开源”与“闭源”两派的争论由来已久。二者最近的一次激烈交锋,即2024年3月初的马斯克诉OpenAI案,标志着双方的矛盾已经由单纯的技术竞争扩展到了反垄断等法律与合规领域。作为闭源大模型开发者的代表,在马斯克的指控中,OpenAI在接受了微软的注资之后,已经在事实上成为了微软控制下的闭源子公司,令其所开发的GPT-4等系列产品成为了微软攫取巨额商业利润的工具。为了实现盈利目标,OpenAI已逐渐背离了最初对于公共开源人工通用智能(AGI)的承诺,并开始在相关领域中构建科技霸权。虽然马斯克的上述指控直到目前为止都没有充分的证据支持,且基于其长期以来的“网红人设”,提起诉讼似乎也只是其为了自家XAI公司新开发的开源大模型进行营销的手段。但从这一诉讼产生的影响中亦不难看出,新兴开源大模型的开发者与长期在业界占据领导地位的“不那么Open”的OpenAI之间,确实已存在利益与开发理念上的诸多冲突。双方冲突的存在一方面是由于OpenAI确实靠闭源大模型的开发获得了名利双收的成果。虽然在其2015年初创之时,OpenAI确实是以“确保通用人工智能造福全人类”为自身的核心使命,并试图构建一家与传统科技公司不同的非盈利性机构;但其真正在ChatGPT的开发上实现破圈却是建立在微软不断向其抛去橄榄枝的基础之上。根据公开资料显示,OpenAI成立至今,微软共向其投资130亿美元,并掌握了OpenAI营利业务部份49%的股权。可见,马克思的指控也并非空穴来风,OpenAI如今在AI大模型开放领域取得的成就与其背离初衷,坚持为微软进行闭源产品开发的事实之间确实难以分割。而另一方面,该冲突的存在则是由于GPT-4确实至今在业界仍旧占据着技术上的引领地位。在AI大模型研发的竞争于世界范围内愈演愈烈的背景下,包括XAI的3140亿大模型Grok-1与Meta公司于前日发布的4000亿大模型Llama 3都作为开源大模型的代表,在各自的优势领域上对GPT-4提出了挑战。但挑战者始终是挑战者,作为闭源大模型“唯一王者”的GPT-4 turbo依旧在语言类大模型领域中占据着绝对的领导地位。作为放弃了商业导向,以公益性的数据获取和研发作为首要目标的开源大模型开发者,让其看着闭源开发者赚得盆满钵满的同时在技术上仍保持行业领先,心中属实不是滋味。

02
制度对开源与闭源矛盾的平衡

于是,在技术和经济性层面尚且不能解决开源大模型开发者与闭源大模型开发者间矛盾的情况下,法律制度层面率先提出了这一问题的解决方案。本次《示范法2.0》中对开源人工智能开发者法律责任的减免所进行的规定,在很大程度上向世界分享了具有我国特色的人工智能治理思路。首先,从《示范法2.0》第七十一条的规定中可以看出,所谓“开源人工智能的开发者”即针对以“免费且开源的方式提供人工智能”的主体,这一定义直接排除了盈利性的人工智能开发者。而对于非盈利的开源人工智能开发者实际上又通过第七十一条的两款规定分为了两类,即“同时以清晰的方式公开说明其功能及安全风险的”和“能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的”,前者直接不承担法律责任,后者则可以对法律责任酌情进行减免。这一思路,某种意义上是对民事法律“谁获益谁担责”原则的体现,对于没有利用开发的人工智能产品获得利益,且已经对自研产品的风险充分完成了合规工作的主体,法律应当予以鼓励,故视其合规程度的不同,对其予以不同程度的责任减免。其次,《示范法2.0》并没有明确列举减免法律责任的类型,而是直接采用了“不承担法律责任”与“减轻或免于承担法律责任”的表述。这意味着对于非盈利的开源人工智能开发者,在其完成了自身合规构建的前提下,对其法律责任的减免范围是非常宽泛的。采用这种方式的规定,既是对开源人工智能开发者个人利益与其为科研领域公益做出贡献之间的平衡,也是鼓励其加强自身合规构建,在技术研发过程中充分考虑可能存在的风险,并就安全风险等对社会进行公开说明。

03
技术开源与AGI的未来生态

实际上,虽然闭源大模型能够通过对知识产权的保护吸引更多的研发投入,并利用这一优势进一步稳固其在行业中的领先地位,但开源大模型本身亦具有许多闭源开发者所必须割舍的有利条件。如开源的开发模式依靠社区构建驱动创新,其允许全球范围内对领域感兴趣的开发者共同参与开发,在模型训练和数据获取上本身即更为高效。再如对代码进行开源可以很大程度提高程序的灵活性和可定制性,并使大模型具有更高的可审计性,通过社区成员对源代码和参数的不断审查,能够更好地降低AI的安全风险,提高大模型的合规程度。此外,闭源开发的代码始终具有反垄断审查的风险,相关开发者往往难以解释其无意通过技术垄断,达到限制市场的公平竞争的目的。因此,在未来,采用开源形式的开发者在法律风险规避、自身合规构建等方面是具有相当程度的优势的。

04
写在最后

实际上,从当前AGI领域发展的角度上,单纯讨论利益的平衡,对于智力成果“私益”的保护某种程度上是应当向人类技术未来的“公益”作出适当让步的。当然,这种“让步”并非是损害开发者因智力成果而享有的相关权益,而是通过《示范法2.0》中提到的此类方式,通过权利与责任的平衡,促进人工智能开发者能够更加理性地选择适合自己的赛道,无论开源或是闭源,最终目标都是促进AGI行业发展,推动全球科技创新和经济增长。

分类: 01Assets, 元宇宙, 奇点专家

OpenAI拟推搜索引擎

2024-05-06 by 01assets 请您留言

香港奇点财经5月6日报道。OpenAI最近注册了新域名”search.chatgpt.com”以及相应的安全证书,不过,目前访问该URL会显示“未找到”提示。传言称ChatGPT搜索引擎可能在5月9日发布,且可能在未来几天内与公众见面。

关于OpenAI正在筹备搜索引擎的猜测,最早来自于社交媒体平台X上的一张日志截图。用户@apples_jimmy在X上分享了这一信息,随后被多家媒体报道与转载。截图显示,OpenAI 最近注册了域名 search.chatgpt.com,他推测这可能意味着 OpenAI 正在开发一个搜索功能。同时,@apples_jimmy还透露说,OpenAI在2024年1月份发布了针对内部活动人员和营销职位的招聘广告,并在上个月成功招募了一名活动经理,这些动作似乎都指向公司正在积极准备即将到来的某项重要活动。

据外媒报道,ChatGPT搜索引擎预计将结合传统网络搜索引擎的功能与生成式人工智能。用户在提出问题或输入查询时,预计会收到结合AI生成内容与相关网页的结果,类似于Perplexity AI的服务。

目前,Perplexity AI采用聊天机器人的形式,允许用户提出问题,然后展示由人工智能生成的搜索结果。而Google Gemini提供的更像是一个纯粹的聊天结果,它不仅提供人工智能的分析,还会给出信息来源的链接,以及相同术语的Google搜索链接。

OpenAI的搜索引擎可能更接近于Google Gemini的方式,并且会内置于ChatGPT中,但会包含更多的实时数据。例如,用户可以询问当前广告牌排行榜上的热门歌曲,系统能够立即显示结果,无需等待或依赖缓存。

不过,大型语言模型面临的一个重大挑战是信息的截止日期问题,这与模型训练完成且无法添加新信息的时间有关。解决这个问题的方法之一是实时网络访问,这比简单的微调或扩展上下文窗口更为有效。Google、Bing和Perplexity等都有自己的网络爬虫,可以不断地搜索网络并更新数据库中的结果。这些数据可以反馈到聊天机器人中,使其能够实时检索信息,并结合其训练数据与搜索结果进行分析。但要实现这一点,需要深度集成搜索功能。

目前,谷歌在搜索引擎市场占据主导地位,市场份额接近90%,其次是微软的Bing。谷歌已经将AI功能融入其搜索引擎,而ChatGPT搜索引擎的推出可能会为其引入新的广告模式,并为OpenAI创造新的收入来源。

不过,OpenAI的首席执行官Sam Altman认为,OpenAI应当创造一个超越现有搜索引擎如谷歌的新型搜索引擎。他指出,仅仅复制谷歌展示广告和链接的传统搜索模式,并不能充分发挥人工智能的真正潜力。他提倡开发一种新型搜索引擎,这种引擎不仅能够提供信息检索,更能引导用户根据检索到的信息做出决策,是一种更加互动、用户驱动的搜索体验。这将超越目前仅提供信息列表的搜索方式,为用户提供更深层次的价值。

分类: 01Assets, 元宇宙, 公司前沿

AIGC能赚钱吗?

2024-05-04 by 01assets 请您留言

作者| 旭阳

来源 | 零壹智库

从ChatGPT到Sora,AIGC不仅在技术上取得了重大突破,更引领了商业模式和产业生态的变革。

AIGC的商业价值正在逐步显现。从几家上市公司的最新财报,或拟上市公司的招股书中,可窥其一斑。

出门问问,一家即将在港交所上市的人工智能企业,其2023年的AIGC解决方案收入达1.18亿元,约占总收入的四分之一,且在过去三年间实现了超过300%的年复合增长率。

“AI第一股”商汤科技,2023年生成式AI收入达到12亿元,占总收入的35%,同比增长近200%。预计在2024年,生成式AI业务将反超传统AI,占公司收入的比重增至50%左右。

在金融垂直领域,百融云创的2023年财报同样展示了AIGC的强大动力,其由AIGC驱动的BaaS业务收入达到17.9亿元,约占总收入的三分之二,同比增长38%。

科大讯飞2023年度业绩预报也显示,预计营业收入超过200亿元,较上年增长约7%;预计净利润6.45-7.30亿元,较上年增长15%-30%。这一增长得益于公司在大模型、核心技术和产业配套上的持续投入。

生成式AI业务的快速增长,正在改变上述公司的营收结构,为它们带来新的增长极。 01 

新的增长极

4月2日,已通过港交所聆讯的人工智能公司出门问问披露的资料显示,其2023年AIGC解决方案收入达到1.2亿元,占总收入的23.2%。而在2021—2022年,相应的收入分别为682.2万元、3985.7万元,2021—2023年复合年增长率超过300%。

智能设备曾是出门问问最为重要的一块业务,其营收在2021年占到85.0%的比例,2022—2023年逐步下滑至39.4%和32.3%。

相应地,另一块业务AI软件收入则从0.6亿元增至3.4亿元,复合年增长率达140%,收入占比也从15.0%上升至67.7%。

在出门问问的业务划分中,AI软件业务包括AIGC解决方案和AI企业解决方案。前者虽然营收占比相对最低,但增长迅猛,在与第一大客户大众汽车的知识产权协议到期后,有望成为主要的营收来源。

再往前,3月26日,AI领军企业商汤科技发布2023年财报显示,其生成式AI收入达到12亿元,占集团总收入的35%,同比增长近200%。这是公司成立十年以来,以最快速度实现从无到有,取得10亿元以上收入的新业务。

据悉,生成式AI业务中超过70%的客户在过去12个月内是商汤的新客户,而剩下30%的存量客户的客单价也录得约50%的增速。

2023年,商汤科技明确了新的三大业务板块:生成式AI,传统AI和智能汽车。商汤预计,生成式AI业务将在2024年反超传统AI,占公司收入的比重将增至50%左右,逐步成为核心业务。

为金融机构提供精准营销和智能风控服务的百融云创,也交出了几份不错的财报。

数据显示,2023年上半年由AIGC驱动的BaaS业务收入达到8.12亿元,占总收入的65.3%,同比增长36%;2023年全年,对应的收入则为17.9亿元,占总收入的66.7%,同比增长38%。

科大讯飞在人工智能赛道上深耕了20多年,其AIGC布局也较早,但没有专门披露AIGC相关营收。科大讯飞声称,“讯飞星火认知大模型”的发布对AI智能硬件销售的增长产生了显著推动作用。

业绩预报显示,科大讯飞2023年营业收入将超过200亿元,较上年增长约7%;预计净利润6.45-7.30亿元,较上年增长15%-30%。

从更广的视角来看,在AI领域持续大额投入多年,吃到生成式AI红利的百度、微软等巨头,以及“AI卖水人”英伟达,它们的业绩同样亮眼。

2023年是百度发力生成式AI的一年,其营收和利润均超预期。财报显示,百度2023年营收达1346亿元,同比增长9%;净利润287亿元,同比增长39%。

微软联合OpenAI引入生成式AI技术,智能云四季度收入258.8亿美元,同比增长20%,超过微软大盘。而得益于AI芯片需求暴增,英伟达2023年营收猛增265%,利润飙升769%。 02 

锚定业务场景

通用大模型群雄逐鹿,各大科技公司纷纷投入巨额资金以争夺市场的领导地位。它们在意的不是一城一地的得失(短期或者单项业务的盈利),而是未来的相对优势甚至赢者通吃。

这场竞争不仅仅是资本的较量,更是技术创新和业务应用的深度融合。以阿里为例,它投资了国内估值超过10亿美金的5家头部大模型创业公司,同时推出自己的“通义”系列产品,阿里电商、阿里云、钉钉等重要业务均集成了多种先进的大模型技术。

阿里没有披露与AIGC相关的业务营收或增长情况,但其部分投资以算力形式支付,即在投资协议中明确一定的额度用于购买阿里的算力,从而实现与被投公司的算力绑定。

相对而言,微软、百度和腾讯在基于AIGC的云业务或广告场景上,有明确的增量收入,或许可以提供一个参考。

微软CEO萨提亚·纳德拉透露,超过1.8万家公司正在使用Azure OpenAI服务,其中包括以前从未使用过Azure的客户。云计算产品Azure的收入增长,也有不少来自微软提供的GPT 4入口。

光大证券预计,2024—2026财年,Azure OpenAI收入将分别达到服务器产品和云服务收入的6.4%、9.8%、11.0%。

2023年Q4,百度智能云总营收84亿元,其中大模型为云业务带来约6.6亿元增量收入,这意味着约8.5%的增长率。百度还披露,其文心大模型重构后的广告系统也带来数亿元增量收入。

腾讯在2023年三季报也首次披露混元大模型为业务增收的效果——促进广告收入同比增长20%至257.2亿元。

前述几家公司中,出门问问的AIGC解决方案主要针对内容创作者,包括三大类产品:AI配音助手魔音工坊及其海外版DupDub;AI写作助手魔撰写作;AI数字人奇妙元,可提供一站式AI视频生成和虚拟直播解决方案。

出门问问官网显示,其AIGC解决方案合作品牌客户较广,包括抖音、快手、中国移动、中国电信、微信读书、工商银行、京东科技、江南布衣、Oracle等公司。

商汤科技的生成式AI建立在其“日日新”大模型体系之上,应用领域较为广泛,在金融、手机、医疗、汽车、地产、能源、传媒、工业制造等众多垂直行业,已与超过500家客户建立深度合作。例如,中国银行、招商银行、工商银行和上海银行等金融机构已采用日日新大模型,以构建其“数字员工”和“数字客服”系统。

百融云创的BaaS金融云,以交付KPI的模式获得佣金收入,促成的资产交易规模再创新高。

2023年,金融行业云撮合资产交易规模531.30亿元,同比增长93%;保险行业云促成总保费规模33.30亿元,同比增长56%。

BaSS金融云并非纯粹意义上的AIGC业务,而是以决策式AI进行用户筛选、再以生成式AI的智能语音机器人等工具触达客户。基于成熟的技术和业务,百融云创近几年业务向好。

从披露的信息来看,无论国内还是国外,大厂目前的AIGC营收主要来自云计算及广告,基础设施占了大头,且体量较小。

在部分TO B场景上,AIGC商业化落地效果显著,但基本都是建立在公司先前的资源或技术之上。没有长期的投入,就不会有奇迹。 03 

“大力”出奇迹?

人工智能属于典型的技术密集型行业,研发周期长,前期投入大,且需要持续不断的迭代,以适应市场需求。这也是绝大多数AI企业持续多年亏损的重要原因。

以商汤科技为例,2018—2021年研发投入分别为8.5亿元、19.2亿元、24.5亿元和36.1亿元;占营收比例分别为45.8%、63.3%、71.1%和76.9%,节节攀升,2022年甚至高达105.0%。

2023年上半年,商汤科技的研发费用17.8亿元,占营收比例的125%,继续走高。不过,2023年全年研发投入34.7亿元,同比下降了13.7%。

六年研发投入超过163亿元,累计亏损高达500亿元,不过近两年亏损有所收窄,均在60亿元左右。商汤AIGC的高增长建立在高投入之上,从体量上看,远未到盈利期。

再来看一下出门问问,其生成式AI业务起步也较早。2020年。出门问问开发出能够理解并生成文本的UCLAI,2023年在此基础上推出升级版“序列猴子”。后者除文本之外,还能够生成图像、3D内容和语音以及语音识别,具有利用更多数据训练及处理更复杂任务的能力。

2020—2023年,出门问问的研发开支分别为0.97亿元、0.92亿元、1.19亿元和1.55亿元,最近两年都在1亿元以上,且保持着30%左右的增幅。2023年研发投入占到营收的30%以上,但绝对数值依然很低,相对于市场上动辄数十亿的大模型训练成本,似乎不值一提。

出门问问在2022年扭亏为盈,当年经调整后的净利润为1.09亿元,2023年继续保持盈利,经调整后的净利润不足2000万元。

资金捉襟见肘,出门问问主打“小而美”策略,选择了一个相对容易变现的方向,专注于内容创作,同时为C端和B端用户提供服务。

数据显示,其付费用户及企业客户数量持续增加,已有超过900名累计注册用户和84万名累计付费用户。

不过,当前各大厂商及AIGC初创公司推出了多款免费好用的内容创作工具,用户的选择空间较大,出门问问的业务是否还能保持高速增长,需要打一个问号。

百融云创在技术上更注重于为具体业务服务,发布了多个大语言模型,包括适用于金融垂直场景的BR-LLM和适用于自动编程的BR-Coder,以及搭建大模型应用一站式开发平台Cybertron,最新的研发则瞄准低成本私有化部署的AI大模型、智能语音等B端应用。

2022年,公司的研发支出为3.7亿元,同比增长47%,占当年营收的18%;2023年研发投入继续小幅增长到3.8亿元。百融云创的研发投入规模持续提升,累计已达18亿元。 04 

展望

麦肯锡报告显示,生成式AI有望为全球经济贡献约7万亿美元的价值,而中国将贡献约2万亿美元,占全球总量的近1/3。

IDC也预计,到2027年,全球企业用于生成式AI解决方案的投资将达到1430亿美元。

生成式AI的未来毋庸置疑,但这个市场远未爆发,B端商业化逐步落地,C端才初露端倪。

人形机器人第一股优必选副总裁钟永认为,随着机器人与大模型的融合,未来C端的需求会有所增长。

在市场真正爆发之前,AIGC能赚钱吗?

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 当教培涌入AIGC,距离侵权还有多远?

2024-05-02 by 01assets 请您留言

自AIGC技术越发成熟,不仅国内各类AI大模型层出不穷,而且各种AI教培机构“异军突起”,开始了AI行业的“传道授业解惑”之旅。而在这类教学过程中,AI教培机构为了使学员更为深切地了解各类AI产品的使用方法和窍门,常常会用该产品输出的各类成品作为范例,这之中有的范例便是基于知名IP生成的。因此,一个值得思考的问题便产生了:“在AI教培课程中使用基于知名IP生成的AIGC作品是否侵犯IP所有者的著作权呢?”飒姐团队今日文章便对这个问题做一个简单分析。

01侵权行为的确认以及可能的正当化路径

确定某一行为是否侵犯了他人的著作权,其前提在于该行为本身是一个侵权行为,在此基础上,如不存在其他免责事由或者侵权责任阻却事由,那么就能够最终确认该行为的侵权性质。因此,解答这一问题的第一步,在于判断根据IP生成AIGC作品并予以使用的这一行为是否构成侵权。

而对于这一步的判断,相信各位读者也并不会有疑问——对于知名IP而言,如没有经过该IP所有者或其授权人的许可,生成AIGC作品并予以展示之行为当然侵犯了IP所有者或其授权人的改编权或者复制权等著作权,因而属于一种著作权侵权行为。因此,唯一值得考虑的是,该行为能否被认定为属于“合理使用”的范畴进而被正当化。这也是本文所讨论的核心问题。

而根据《著作权法》第24条之规定,此种情况下可能的正当化路径有三,即可能属于以下三种情况之一:

(1)为个人学习、研究或者欣赏,使用他人已经发表的作品;

(2)为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品;

(3)为学校课堂教学或者科学研究,翻译、改编、汇编、播放或者少量复制已经发表的作品,供教学或者科研人员使用,但不得出版发行。

02侵权行为的正当化分析

1、路径一:个人使用型合理使用

对于题述行为是否构成个人使用型合理使用,关键在于“个人目的”的判断,即是否是“为个人学习、研究或者欣赏”之目的而使用他人作品。

而这种“个人目的”的体现不仅仅在于行为人主观上是出于“学习、研究或者欣赏”之目的,而且在于行为人客观上仅仅在家庭或者极为有限的范围内为个人目的而进行复制。换言之,就个人使用型合理使用而言,这种“为个人学习、研究或者欣赏”必须被局限于一定范围内、不面向社会公众,正是因为这样的原因,《北京市高级人民法院侵害著作权案件审理指南》第7.10条明确规定“被告未经许可通过信息网络向他人提供作品,其提出属于‘为个人学习、研究或者欣赏使用他人已发表作品’的合理使用抗辩,不予支持。”

因此,基于前述论述和规定,由于题述行为系在网上教培过程中作出,该行为当然属于“未经许可通过信息网络向他人提供作品”之情况,故而无法以该行为属于个人使用型合理使用进行正当化。

2、路径二:适当引用型合理使用

对于适当引用型合理使用的构成,我国1991年出台的《著作权法实施条例》(已废止)第27条明确规定,必须具备以下条件:“(一)引用目的仅限于介绍、评论某一作品或者说明某一问题;(二)所引用部分不能构成引用人作品的主要部分或者实质部分;(三)不得损害被引用作品著作权人的利益。”在此基础上,上海市高级人民法院于2002年作出的判决中明确指出除前述要求外,“还应该符合著作权法第二十二条中关于应当指明作者名称,并且不得侵犯著作权人依照本法享有的其他权利的精神。”

尽管目前该实施条例已经废止,且2002年后《著作权法实施条例》删去了有关规定,但关于适当引用型合理使用的构成仍然有可参照之处。如《北京市高级人民法院侵害著作权案件审理指南》第7.11条便指出,判断被诉侵权行为是否属于适当引用的合理使用,一般考虑如下因素:(1)被引用的作品是否已经发表;(2)引用目的是否为介绍、评论作品或者说明问题;(3)被引用的内容在被诉侵权作品中所占的比例是否适当;(4)引用行为是否影响被引用作品的正常使用或者损害其权利人的合法利益。

依据该指南所规定的因素进行判断:(1)题述行为所引用的作品通常系根据知名IP进行改编而成,原作品已经发表;(2)引用该作品的目的通常在于说明AI产品的使用方式以及展示其效果,因此属于“为介绍、评论作品或者说明问题”;(3)被引用的内容在整个AI教培课程中通常只占一小部分,大部分内容仍然是对AI产品的介绍和教学,因此比例适当;(4)引用该作品之行为的目的在于教学,其并不存在替代原作品、原IP的可能性,也不会损害权利人的合法利益。

因此,根据指南的判断要素,在“指明作者姓名或者名称、作品名称”的前提下,通常情况下,题述行为有构成适当引用型合理使用的较大可能性。

3、路径三:为教学或科研目的使用作品型合理使用

对于此类合理使用的类型,其“教学或科研目的”的要求强调了主观上的“非营利性”,且其明确限制了使用人的身份和使用场合,即必须“供教学或者科研人员使用”且必须“为学校课堂教学或者科学研究”。相较于此,AI教培机构售卖课程当然具有盈利目的,且实际上针对的是社会公众,并没有对使用人员的身份进行限制,因此,可以判断出,题述行为并不属于此种类型的合理使用。

对此,《北京市高级人民法院侵害著作权案件审理指南》第7.12条亦明确规定,“未经许可以营利为目的,在面向社会公众开展的教育培训中翻译或者复制他人已发表作品的,被告主张属于著作权法第二十二条第一款第六项规定的合理使用情形的,不予支持。”

03写在最后

尽管本文的初步结论是“在AI教培课程中使用基于知名IP生成的AIGC作品因构成适当引用型合理使用而没有侵犯IP所有者的著作权”,但是细心的读者想必已经发现了,前面的论述中都使用了“通常”这一限定词,且要求必须“指明作者姓名或者名称、作品名称”。换言之,如果在AI教培课程中,行为人没有“指明作者姓名或者名称、作品名称”或者干脆使用了他人未发表的作品或者具有其他因素,那么该行为就仍然应当被认为侵犯了相关权利人的著作权。

分类: 01Assets, 元宇宙, 奇点专家

肖飒团队 | 某音整治AI创作,AI虚拟人主播路在何方?

2024-04-30 by 01assets 请您留言

3月27日,某音安全中心发布了《关于不当利用AI生成虚拟人物的治理公告》,旨在进一步对其平台内使用AI技术的生成物,尤其是以AI生成的虚拟人物作为主播进行短视频和直播内容创作的管理。鉴于本次发布的公告中采用了严厉程度远超以往的措辞,该公告发布后,引发了业内不少朋友对AI虚拟人主播在自媒体平台应用前景的担忧。那么,本次具有代表性的平台规则发布对AIGC的发展究竟是福是祸?新“禁区”的划定对于AI虚拟人主播未来应用又是好事还是坏事呢?

01AI生成虚拟人物主播,商机与风险并存

相较于早期通过实时动作捕捉,由“中之人”进行扮演的“套皮虚拟主播”,现阶段借助AI动画生成和语音合成技术,以AI虚拟人为主角的“AI虚拟主播”似乎在扩张势头上已有了前辈难以匹敌之勇。虽然目前该类技术在长视频生成和实时交互等方面仍存在较大迭代进步的空间,但在短视频和直播带货行业,由于播出内容和需求的场景相对固定,使用AI制作讨好市场特定群体需求的专属形象,并根据设置的提示词自动生成一定时间的语音及视频内容,这种成本更为低廉的内容生产方案越来越受到创作者的青睐。较劳动成本日渐高昂、直播工时相对固定且主播形象塑造困难,稍不注意就会“塌房”的传统真人直播,AI虚拟主播已体现出了相当程度的先天优势。尤其是在疫情时代后,电商平台直播带货与自媒体引流的市场需求不断攀升,产生了巨大的商机。许多自媒体平台本身也提供,甚至可以说是鼓励更多用户使用AIGC的便捷方式增加内容创作量。以我们今天的主角——某音为例,其虽并不提供直接的AI虚拟人物生成服务,但也早已上线了具备“AI图生图”和“AI生成视频”综合功能的创作模块。可见,即使是刚刚在规范问题上重踩了一脚刹车的某音,也绝不可能有将AI创作“一禁了之”的想法。但不可否认的是,在当前,由于AIGC技术极大降低了内容创作者的入门门槛,使曾经属于“艺术”领域的创作向着“技术”领域的机械操作转移,大量技术水平与合规意识良莠不齐的创作者怀着拥抱这一商机的心理参与其中,也的确造成了相当程度的法律与合规风险。首当其冲的即是应用AI技术进行欺诈所引发的法律和社会问题。根据相关安全报告,2023年度基于AI的深度伪造欺诈案件增长率高达3000%,惊人的增长趋势背后,是不当使用AI所带来的巨大法律风险。同时,由于AI生成虚拟人物以文字、图像、声音等多项AIGC为技术基础,其亦始终难以完全摆脱当前AIGC领域在角色设计、背景音乐、直播文案等方面所可能存在的侵犯他人知识产权的问题。此外,虚拟人物的形象对他人肖像权、隐私权、个人信息权益也存在潜在的侵权风险;将AIGC用于诱导性的产品宣传还可能引发的对消费者知情权和选择权的危害等。可以说,AI虚拟人主播等技术在短视频和直播带货领域中的应用,此刻处在的是庞大机遇与巨大风险相叠加的状态。

02从某音说起,AI生成虚拟主播的合规要点分析

因此,似乎也就不难理解作为行业先行者之一的某音平台,为什么在AI创作的合规管理上采取较为谨慎的态度了。实际上在AI虚拟主播这一方面,某音已经不是第一次给大家“泼冷水”了。早在2023年5月9日,其就发布了《关于人工智能生成内容的平台规范暨行业倡议》,首次明确了人工智能生成的视频、图片,和衍生的虚拟人直播在平台内的行为规范,并根据《互联网信息服务深度合成管理规定》制定了基于其平台规则的《人工智能生成内容标识水印与元数据规范》,对包括显著标识、避免混淆等要求做了进一步的细化。而某音平台的此次“禁令”主要针对的是在其平台上“屡禁不止”且呈扩大趋势的“使用AI生成虚拟人物发布违背科学常识、弄虚作假、造谣传谣的内容”的行为。具体而言提到了三种典型的情况:其一,是生成虚假外国人形象,以境外虚假人设,消费爱国心理、博取关注的行为。其二,是生成俊男美女虚假形象,骗取互动,或发布情感诱导等表达虚假情感的内容,将用户导流至私人交友聊天工具,甚至进行诈骗的行为。其三,是生成精英人士虚假人设,发布心灵鸡汤、财商、伪国学、厚黑学、伪成功学等不良内容,低质吸粉,甚至引流到站外以卖课、入群等方式获利的行为。可以看出,上述情形均以利用AI生成的某一类虚拟人物形象,针对具有情感需求的特定社会群体,开展低质吸粉、骗取流量,甚至引流诈骗的违规违法活动。此类活动中,AI虚拟人物本身并非用于直接欺骗,其是作为迎合特定群体喜好的引流媒介,充当后续欺诈等违法违规行为的“预备阶段”,具有相当程度的隐蔽性。因此,某音所禁止和限制的并非平台用户进行以AI虚拟主播为内容的创作,而是希望通过自身的合规构建,与其用户一道,尽可能控制相关领域存在的违法、违规风险。将这一行为单纯看作对用户使用AI创作的限制,多少是有点儿冤枉某音平台的意思,毕竟根本目标仍是规范可能存在风险的违规行为,用合规手段促进相关领域更好发展。

03用户or平台,AI虚拟主播合规是谁的责任?

某音平台之所以这样做,也是在履行其作为互联网服务平台,同时也是AI生成内容提供和传播者的责任。当前,我国对生成式人工智能服务的管理规范大多倾向于规定平台的责任。如在全国网络安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》中,对生成式AI的检验和评估责任,都主要针对相关服务的提供者。再如《生成式人工智能服务管理暂行办法》第十四条中对服务提供者的“避风港原则”所做的限制,要求其发现违法行为后立即进行整改并向主管部门报告;第十五条中要求服务提供者建立健全投诉、举报机制,以促进其对违规内容的及时处理。从此次某音所发布的公告中,也可看出其对相关规范的重申,在相对严厉的措辞之下,字里行间中,实际都透露出希望用户配合工作,共同监督,积极举报不当使用人工智能生成内容的情况。而在当前,平台与用户在AI生成内容管理上的结合点,实际主要集中于其重审规范中的第一条,即对于AI生成内容的“显著标识”。根据《生成式人工智能服务管理暂行办法》第十二条的规定,提供者应当按照《互联网信息服务深度合成管理规定》《网络安全标准实践指南——生成式人工智能服务内容标识方法》对图片、视频等生成内容进行标识。包括某音在内,大多数提供或接受AI生成物的自媒体平台,都对其人工智能生成物的标识方法和要求进行了明确的规定。某音官方目前采取的仍是由用户配合申报AI创作内容,并由平台添加相关提示文字的方式,这种模式在发布较为逼真的AI虚拟人内容时,除非创作者自行在文案中添加“虚拟偶像/虚拟人”等标签,否则在执行度上是存在缺陷的。本次公告中虽然对违规用户的处罚措施进行了较为严厉的重申,但限于当前的处理模式,更像是希望在用户和平台间进一步达成某种先礼后兵的默契。虽然以平台规则的构建,配合检测算法等技术手段,看似已经是当前相关服务提供者能够采取合规手段的最优解,但这种措施在这个机遇与风险并存的时代,其有效性仍有待实践的检验。需注意的是,虚拟人物形象从来不能成为其创作者责任的“挡箭牌”,AI创作合规的构建确实也并非是平台方的一厢情愿。在本次某音的公告中,最为凸显其规范严厉程度与平台治理决心的,即在罗列了典型违规行为后,“半摊牌”似的表示其会针对违规使用AI生成虚拟人物的行为,进行下架视频、封禁账号等内部处罚。同时,对已掌握的部分黑产团伙不当使用AI生成虚拟人物用于犯罪的线索,将采取报警打击的行为。诚然,上文提到的这种“默契”或许在用户与平台间也应当是客观存在的。进行违规的创作行为的创作者所要承担的当然不仅限于平台规则的处罚,视其严重程度亦有可能承担其他的法律后果,甚至是刑事责任。

04写在最后

我们总是在与大家强调,对新技术、新领域的规范并不一定会有阻碍发展的结果。“禁令”的颁布,往往也有其通过合规促进发展的一面。毕竟,只有行得正,才能走得远。

分类: 01Assets, 元宇宙, 奇点专家

Adobe宣布将推出AI图像生成工具

2024-04-23 by 01assets 请您留言

香港奇点财经4月23日报道。在 Photoshop 中添加基于人工智能(AI)的生成功能近一年后,本周二(4月23日),Adobe公司宣布,计划在2024年第四季度为其旗舰产品Photoshop,集成一款全功能AI图像生成工具,以应对来自OpenAI和Stability AI等公司的竞争压力。这些企业通过其基于文本提示生成图像的服务,正迅速占领市场份额。

Adobe的这款AI图像生成系统名为“Firefly”,该系统最初于约一年前推出,可以帮助用户添加、扩展或删除图像的特定部分。据路透社报道,在周二于伦敦举行的行业会议上,Adobe透露,全新的AI系统“Firefly Image 3”将支持完整的图像生成功能,预计将在2024年晚些时候推出。

Adobe表示,该系统是为了提升用户的工作效率。Adobe数字媒体首席技术官Ely Greenfield举例说明,设计师可以在纸上草拟一个场景,然后通过手机拍照上传至Photoshop,由软件生成具有多种风格特征的完整图像。Greenfield强调,这一功能将极大地简化设计流程,提高效率。

Firefly将使用公司合法授权的数据进行训练,以确保用户在使用过程中不会面临侵权的风险。与训练数据来源不明确、可能引发版权争议的AI模型相比,Firefly在商业使用上具有更高的安全性。

同时,为了防止该系统可能被用于制造虚假信息,Adobe宣布,所有通过Photoshop中的生成式AI工具创建的图像将自动嵌入不可篡改的“内容凭证”。这些凭证相当于图像的数字“营养标签”,明确指出图像是利用AI技术生成的,并将这一信息记录在文件的元数据中。

尽管如此,Adobe也指出,这些“内容凭证”并不构成防止图像滥用的绝对防线。目前仍然存在多种技术手段。可以绕过或移除元数据和水印,从而可能隐藏或篡改图像的真实来源和生成方式。

Adobe公司表示,Photoshop的AI辅助功能已经推动了其订阅用户数量增长了30%。Adobe目前已经开始向部分用户开放该软件的测试版,但尚未公布其对所有用户的正式开放时间。

Adobe公司在将AI技术融入其产品线已经有一段时间了。在上一年度的Adobe Max大会上,Adobe展示了Photoshop的一系列AI功能。此外,Adobe的Firefly系统也已经在Illustrator软件中得到应用,用于对矢量图形进行智能重新着色。Adobe还宣布了将Firefly技术整合到Adobe Express的计划,Adobe Express是一个云端设计平台,与Canva等在线设计服务平台竞争,但目前尚未公布具体的整合时间表。

Adobe并非唯一一家在其产品中融入生成式AI的公司。在过去一年中,无论是大型企业还是小型创业公司,都通过AI技术对它们的产品和服务进行了升级。谷歌和微软就分别为它们的摇钱树产品——搜索引擎和Office办公软件潜入了AIGC。最近,Meta也开始在其社交平台Facebook、Messenger、WhatsApp和Instagram中部署自己的AI聊天机器人。

分类: 01Assets, 元宇宙, 公司前沿

肖飒团队 | 情理VS法理——AI复活亲人这门生意到底怎么做?

2024-04-20 by 01assets 请您留言

又到一年清明时节,缅怀故人、寄托哀思是中华民俗的传统文化。然而今年清明的祭奠活动却与往年有了些许区别,不少电商平台的商家开始上架一项名为“AI复活亲人”的全新业务。按照某店铺的描述,用户只需要提供一张思念亲人的照片,支付数十元不等的价格,便可获得一段基于该照片生成的动画视频。而有些店铺更是推出了“AI复活亲人”的套餐服务,其价位从几十元的简单“AI配音”,到数百元的“逝者音频克隆”,再到数千元的顶配“实时文字语音互动”,用户可以根据自己的需要,购买各种客制化的升级。在某电商平台上,提供该项服务的不少店铺已于上架后卖出了上千份的不错销量。在往期的专栏中,飒姐团队已经和各位多次探讨过关于“AI复活数字人”的伦理与合规问题,而在清明节这样一个特殊的时间节点,面对普遍存在的市场需求,逝者的个人信息等合法权益应当如何予以保护?人们的情感需要与AI技术带来的法律问题之间又该如何找寻平衡点?本期,就让飒姐团队和大家继续聊聊。

01存在即合理?再谈“AI复活亲人”的法律问题

在“商汤科技‘AI复活’其已故创始人”及“某企业‘复活’旗下男星用于宣传”等事件中,我们已经聊过了数字人技术作为人工智能生成内容(AIGC)领域热门应用,在“复活”逝者时可能遭遇的伦理与合规挑战。在社会伦理是否应当容许用AI“复活”逝者的问题上,除了科技伦理界少数较为激进的声音外;大多数论者在一定范围内仍可达成共识,认为在获得亲人许可或有亲人直接参与,并不会造成不良社会影响的前提下,用于实现情感链接目标的“复活”可以获得包容。在法律合规的层面上,以往,我们对于数字人的关注往往放在对主体肖像权或隐私权的保护上。但除了上述权利外,能够用于识别死者身份的图像和声音信息,显然也属于死者个人信息的范畴。更有甚者,在客户购买上述“AI复活”的增值服务时,其需要进一步向卖家提供死者生前的影像记录、生活习惯,甚至其他生理性识别信息等。这毫无疑问已经造成了个人信息泄露和违规处理的法律风险。根据《个人信息保护法(以下简称“个保法”)》第十三条、第十四条的规定,个人信息处理者对他人个人信息的处理行为,在一般情况下均需获得权利主体基于知情和自愿的明确同意。那么,死者的这些个人信息是否也应受到同样的保护?近亲属有没有权利代替死者进行同意呢?

02
逝者的个人信息也受保护,用于缅怀亲人的“AI复活”也会侵权?

根据我国《个保法》第四十九条的规定,“自然人死亡的,其近亲属为了自身的合法、正当利益,可以对死者的相关个人信息行使本章规定的查阅、复制、更正、删除等权利;死者生前另有安排的除外。”可见,法律对死者的个人信息也同样做出了保护性的规定。在死者生前没有特殊安排的情况下,其去世后,仅能由其近亲属于“为了自身合法、正当利益”的范围内有限度地使用其个人信息。个人信息处理者擅自使用死者的个人信息,或近亲属将死者个人信息用于追求违法、不正当利益的行为,均会对死者的个人信息权益造成侵害。根据《民法典》第九百九十四条的规定,对于侵害死者相关权益的行为,其配偶、子女、父母或没有上述亲属时的其他近亲属,有权依法请求行为人承担民事责任。同时,针对侵害众多个人权益的,也可根据《个保法》第七十条的规定,由相关公益诉权主体向法院提起公益诉讼。因此,盲目将去世亲人的个人信息交给平台商家用于“AI复活”,真的有可能会无意中弄巧成拙,侵害到至亲的相关个人信息权益。

03
当情理与法理冲突,如何寻找技术与法律的“平衡点”

那么,难道我们就因为个人信息权益保护而陷入两难,放弃与“AI复活的亲人再见一面”的机会了吗?实际上,还是不需要如此悲观。对此,我们可以从死者近亲属以及被授权的个人信息处理者两个角度进行分析。对于死者的近亲属而言,《个保法》第四十九条在保护死者利益时采用了赋权模式,而非《民法典》第九百九十四条的侵权保护模式,这意味着《个保法》在个人信息保护层面赋予了死者近亲属一种可以积极行使权利。同时,考虑到当代信息技术日新月异的发展,第四十九条对于近亲属行使权力的方式,也采取了开放式的表述。单纯以缅怀亲人为目的的行为符合中华民族的传统思想,也并不违背社会的公序良俗。因此,在以“合法、正当”为原则的范围内,虽然《个保法》没有对相关行为进行明确的列举,但其依然存在被该条款解释所包容的可能。而对于被授权的信息处理者,也就是提供“AI复活”服务的商家和平台。与其达成“AI复活”服务合同,并授权其处理死者个人信息的,均是死者的近亲属。某种意义上,在此过程中死者的个人信息“利益”的保护是依附在《个保法》第四十九条赋予其近亲属的“权利”之上的。因此,基于死者近亲属权利基础的存在,商家和平台的个人信息保护义务并不会因为死者人格权的消灭而降低。其仍应严格遵守《个保法》第五章所规定的相关义务,按照死者近亲属同意的范围使用死者的个人信息,在处理过程中避免死者个人信息的泄露、篡改和丢失,并在完成信息处理任务后及时予以删除。对于涉及到“未成年人死者”等敏感个人信息的,处理者还应注意采取单独同意等特殊保护。

04
写在最后

对于数字人这一AIGC的全新领域,飒姐团队在相关问题上还是持较为乐观的观点。法理与情理之间从来都不存在不可调和的绝对矛盾,当社会大众普遍存在相关的情感需求,在法律没有明确禁止性规定的情况下,鲜明的反对就显得并没有什么必要了。而对于想要抓住“AI复活”这一商机的企业老友,深入学习《个保法》等相关领域的法律规定,加强企业自身的合规建设,永远是你们应对风险最有力的武器。

以上是今天的分享,感恩读者!

分类: 01Assets, 元宇宙, 奇点专家

Meta推出Llama 3模型及图像生成器

2024-04-19 by 01assets 请您留言

香港奇点财经4月19日报道。周四(4月18日),Meta宣布推出最新的大型语言模型Llama 3的早期版本,以及一款能够根据用户输入实时更新图片的图像生成器。Meta计划将这些新模型集成到其虚拟助手Meta AI中,并在Facebook、进行Instagram、WhatsApp和Messenger等应用程序进行宣传。

Meta AI为Llama3设置了一个登录页面以吸引用户体验AI功能,包括参与90年代的音乐问答游戏、提供家庭作业方面的帮助,以及绘制纽约市天际线等图片。Meta公司还宣称,在推理、编码和创意写作等方面,其Meta AI的性能已经超越了竞争对手,如Alphabet(谷歌的母公司)和法国的初创公司Mistral AI。

Meta公司投入了大量资金来升级和改造其计算基础设施,以支持生成式AI产品所需的大规模数据处理和复杂计算任务。为了更高效地开发和推广生成式AI产品,Meta将团队进行了整合,以便于跨部门协作和资源共享。同时,Meta选择公开发布其Llama语言模型。这意味着,其他开发者可以免费使用Llama模型来开发人工智能应用程序,这可能会吸引更多的开发者使用其技术,从而在市场中占据更有利的位置

Meta首席产品官Chris Cox在接受采访时表示,Llama 3模型已配备新的计算机编码功能,并在训练中融合了图像和文本,尽管目前该模型仅能输出文本。他透露,后续版本将提供更高级的推理功能,如制定更长的多步骤计划,并在未来几个月发布的版本中实现“多模态”功能,即同时生成文本和图像。

Cox强调,Meta AI的最终目标是帮助用户解决问题,简化生活,无论是与企业互动、写作还是规划旅行。他还提到,Llama 3的训练中包含图像将增强Ray-Ban Meta智能眼镜的功能,这款产品由Essilor Luxoticca制造,使Meta AI能够识别佩戴者视野中的物体并回答相关问题。此外,Meta公司还宣布与谷歌合作,将实时搜索结果整合到助手的响应中。

在Meta公司进行的这次产品更新之后,Meta AI将会被推向美国以外的更多市场,包括澳大利亚、加拿大、新加坡、尼日利亚和巴基斯坦等国家。然而,对于欧洲市场,由于该地区的隐私保护规则相对更为严格,Meta还在谨慎地探索合适的市场进入策略。这可能涉及到对产品进行必要的调整,以确保其符合欧洲的隐私法规和用户数据保护要求。例如,欧洲的通用数据保护条例(GDPR)为个人数据的处理设定了严格的标准,任何在欧洲运营的公司都需要遵守这些规定。

此外,Meta首席执行官扎克伯格提到了Llama 3的两个较小版本(参数数量较少的版本)在性能基准测试中的表现。性能基准测试是一种评估AI模型性能的方法,通常通过特定的测试集和评价标准来进行。他说,这两个较小版本的模型在这些测试中的得分,高于其他可用的免费模型。

扎克伯格还提到了Llama 3的最大版本,这个版本拥有4000亿个参数,目前正在训练中。更多的参数通常意味着模型可以捕捉更复杂的信息,但同时也需要更多的数据和计算资源。这不仅是技术上的挑战,也可能涉及到数据收集、处理和存储的成本问题。

分类: 01Assets, 元宇宙, 公司前沿

微软豪掷15亿美元投资阿联酋AI领军者G42

2024-04-17 by 01assets 请您留言

香港奇点财经4月17日报道。微软(Microsoft)宣布将向阿拉伯联合酋长国的人工智能(AI)领军企业G42投资15亿美元,作为协议的重要一环,微软总裁Brad Smith将加入G42的董事会,而G42将利用微软的Azure云平台,为其AI应用程序提供运行环境。

G42是阿联酋AI领域的佼佼者,业务范围广泛,涉及云计算、无人驾驶汽车等多个前沿领域。其背后的强大支持来自阿联酋国家安全顾问Sheikh Tahnoon bin Zayed Al Nahyan庞大的商业帝国。

Smith与G42首席执行官肖鹏均表示,此次合作是对两家公司现有合作伙伴关系的深化和拓展,也是在与阿联酋和美国政府充分协商后达成的共识。Smith进一步指出,微软在推进这一进程中得到了美国政府的鼓励。

Smith表示,随着合作的深入,微软将考虑在G42的数据中心托管部分自身应用程序。肖鹏拒绝透露具体的财务条款和G42在微软云服务上的预计投入,但他强调,此次投资使微软获得了G42的少数股权,为双方未来的合作奠定了坚实基础。此外,微软与G42还计划设立一个10亿美元的开发者基金,以进一步推动技术创新和人才培养。

在本次投资之前,微软和G42就已经合作推出了主权云产品,即为了满足特定地区或国家的数据安全和隐私保护需求而设计的云计算服务。同时,微软还在其Azure AI Cloud平台上推出了G42开发的Jais阿拉伯语大型语言模型。

尽管社会上存在AI可能取代人类的声音,微软公司却持有不同的观点。微软坚信,AI不仅不会取代员工,反而会使他们的工作效率变得更高,其呼吁企业和员工共同适应和拥抱这一技术。

据Fortune报道,微软CEO萨蒂亚·纳德拉认为AI能够创造更多的就业机会,并提高员工的满意度。其引用了微软在2023年发布的报告,报告中说明了AI会如何重塑微软业务,其中需要重点关注的三个方面分别是利用AI处理非生产性工作,缓解员工倦怠情绪,以及掌握与AI协同工作的技能。为了充分利用AI的优势,员工需要不断提升自己的“AI能力”,包括学习如何与AI系统有效互动、编写有效的提示以及识别AI偏见等技能。

为此,微软还曾举办过专门的人工智能活动。微软会在活动中展示其新研发的AI技术,微软计划通过集成类似于ChatGPT的AI技术,来改变其Office生产力应用程序(如Word、Excel、PowerPoint等)的功能和使用体验。

而在国内,北京金山办公软件旗下的WPS office也开始布局AI。WPS推出了具备大语言模型能力的生成式AI应用,暂定代号为“WPS AI”。与微软提出的想法类似,WPS也将智能功能融入了WPS的表格、文字、演示和PDF四大组件中。用户可以在桌面电脑和移动设备上使用这些功能,实现诸如扩写、缩写、总结、生成公式等任务,从而提高文档处理的效率。

分类: 01Assets, 元宇宙, 公司前沿

  • « 上一页
  • 1
  • 2
  • 3
  • 4
  • …
  • 6
  • 下一页 »

Copyright © 2025 · Outreach Pro on Genesis Framework · WordPress · 登录