奇点财经

数字资产研究院

  • 首页
  • 财经新闻
  • 关于我们
  • 团队介绍
    • 数字资产研究院简介
    • 团队介绍
  • 数字研究
  • 行业活动
  • 联系我们

马斯克推出多模态人工智能模型Grok

2024-04-15 by 01assets 请您留言

香港奇点财经4月15日报道。4月12日,由埃隆·马斯克创立的xAI推出了一个新的人工智能模型——Grok-1.5V。这个模型是一个多模态人工智能模型,能够处理文本以及视觉信息,包括文档、图表、屏幕截图和照片。

Grok-1.5V的前身,Grok,自2023年11月发布以来,主要服务于X Premium Plus账户的订阅者。马斯克还透露,特斯拉计划在其车辆中集成Grok的轻量级本机版本,以提升用户体验。

Grok的设计灵感源自于科幻作品《银河系漫游指南》,其目标是回答所有问题。软件提供“有趣”和“常规”两种模式,其中“有趣”模式更具叛逆性和幽默感,为用户提供更加个性化的交互体验。

目前Grok-1.5V尚未公开发布,xAI称将很快向早期测试者和现有Grok用户推出。在官方公告中,xAI展示了Grok-1.5V的多样应用场景。

首先,Grok可以解决专业领域的问题,用户可以向它展示一张流程图照片,并要求Grok将其翻译成Python代码;又或是提出一个问题,要求Grok编写Python代码来解决它。在日常生活中,Grok的应用同样广泛而实用。用户仅需上传食品的配料表,Grok便能迅速计算出其卡路里含量。又或是将出现破洞的甲板拍照上传,获取是否需要更换的建议。另外,Grok还具有“想像”的功能。用户可以上传儿童的简笔画,并要求Grok根据它写一个睡前故事。对于网络上的流行文化或热门梗,Grok也能提供详尽的解释。

除了推出Grok-1.5V之外,该公司还发布了名为RealWorldQA的基准数据集。这一基准测试打造了一系列模拟真实生活场景的案例,尽管这些案例对人类而言可能轻而易举,如比较家居用品的尺寸、解读交通标志或判断停车空间等,但对于人工智能模型而言,它们却构成了巨大的挑战。

xAI希望通过这些贴近实际问题的测试,推动模型在现实世界应用中的精确度和实用性的提高。xAI表示,在使用RealWorldQA进行的对比测试中,Grok-1.5V超越了OpenAI的GPT-4V和Google Gemini Pro 1.5。

Grok-1.5V的推出,标志着xAI在实现其使命的道路上迈出了坚实的一步。然而,马斯克对于AI技术的发展始终抱有审慎的态度,强调其应以服务人类社会为最终目标。2023年7月,马斯克正式宣布了人工智能公司xAI的创立,同年12月,该公司正式在内华达州注册,马斯克明确表示,xAI为非盈利性质的企业。

马斯克一直对AI可能给人类文明带来的风险保持高度警惕。xAI的网站主页上鲜明地标注着公司的使命:“增进人类对宇宙的理解”。最近,马斯克更是直言不讳地表示,在没有掌握至少四分之一的投票控制权的情况下,特斯拉在人工智能和机器人技术领域的研发让他感到不安。而在一个月前(2月29日),马斯克对OpenAI及其首席执行官奥特曼等人提起了诉讼,他指责奥特曼背离了初衷,将原本应该造福人类的技术变成了个人牟利的工具。

分类: 01Assets, 元宇宙, 公司前沿

肖飒团队 | 利用去世男星制作数字人,伦理与合规困境大讨论

2024-04-14 by 01assets 请您留言

01数字人“复活”离世演员引发“风暴”

在商汤科技2024年年会上,已经去世的商汤科技创始人汤晓鸥以数字人的形式现身,据透露商汤科技数字人团队利用汤晓鸥的历史视频数据训练了数字人,当然,商汤科技创设汤晓鸥数字人之前已经获得了汤晓鸥亲友的许可,甚至数字人在商汤科技年会上的发言,也是商汤数字人团队与汤晓鸥亲友共同拟定的。但近期有几则数字人新闻却出现了完全不同的情景,几天前一则我国某离世男演员被AI“复活”,某数字人企业利用该男星生前的营销资料做成AI数字人并发布相关视频,引发该男星父亲不满的新闻冲上热搜,视频中除了该离世男星外,还有多名已经离世的演员又一次“出现”,“复活”的明星们在视频里与观众打招呼,说着“其实我并没有真正离开”“我永远会陪着你们”等台词。该“复活”视频经网络发酵后引发巨量探讨,针对自己离世的儿子被“复活”成AI数字人一事,该离世男星的父亲公开表示自己对在网上传播开来的“儿子被复活”的影响不能接受,感到不舒适,希望对方尽快下架。“他(AI数字人企业)未经我们同意用我离世的儿子做视频,这是在揭伤疤。”另一位离世男星的亲属也表示强烈谴责并抵制利用离世演员肖像制作数字人炒作的行为,若不立即停止侵权行动,家人会采取一切法律手段维权。

02数字人引发的科技伦理问题

数字人显然已经成为人工智能生成内容(AIGC)领域一个热门应用,飒姐团队早在2022年末就发布了《数字人法律合规报告》,随着近两年大模型技术、深度合成技术的发展,AI数字人愈发逼真,其商业前景愈发明朗。当然,无论是AIGC从业者还是科学界都明确知道AI数字人不可能(至少近百年内)做到真正延续逝去的生命。实际上,所谓“血肉苦弱、机械飞升”的理念和国内某著名科幻电影中表现的“数字生命”离我们还很远很远。换句话说,利用数字人延续人类的生命,道路还很长,但是数字人引发的业务合规问题和科技伦理问题却离我们很近。在讨论数字人的业务合规问题之前,飒姐团队先带各位老友厘清数字人引发的伦理问题,毕竟当伦理争议解决清楚,那么剩下的合规问题也就迎刃而解了。就目前数字人业务实际来看,近期的伦理热点很直接——商家利用逝者的形象制作数字人,是否违反科技伦理?飒姐团队在文章开头提到的两个案例直接提供了两个不同的答案——在商汤科技的案例中,商汤科技数字人团队在制作汤晓鸥数字人的行为得到了汤晓鸥亲人的许可,亲人甚至也参与到了汤晓鸥数字人的制作之中,也正因如此商汤科技的行为并未引起太多争议,最终也取得了良好的社会效果。但在利用离世演员制作数字人的新闻中就出现了伦理争议——在没有亲人许可的情况下利用逝者形象制作数字人显然有悖于科技伦理。当然,目前科技伦理界也有激进的声音认为即使获得了亲人的许可,也不应利用逝者的形象制作数字人,因为一开始惟妙惟肖的数字人或许可以给逝者亲人极大的慰藉,但就目前的科技发展水平来看,距离真正实现“数字生命”,“复活”离世亲人还有近乎百年的路要走,现在的数字人只能给逝者亲人带来虚假的感情链接,让亲人逃避现实,反而无助于让逝者亲属从悲痛中真正走出来。因此无论如何都不能利用逝者的形象制作数字人,否则即违反伦理。飒姐团队在利用逝者制作数字人的问题上还是持较为开放的态度,法律是底线,换言之除非法律禁止一切情形下利用逝者形象制作数字人,否则当获得逝者亲人许可的时候,一般情形下利用逝者形象制作数字人不应看做是违反科技伦理之举动。

03利用逝者制作数字人引发的合规问题

许多自媒体在报道利用逝者肖像制作数字人时都提出过“显然侵犯了逝者的肖像权”这一说法,但实际上民法领域的一大共识就是“死者无权利”,“逝者的肖像权”这一提法显然不符合民法理论,但“死者无权利”并不等于死者的人格利益不受保护。以我国《民法典》规定的肖像权为例,《民法典》第一千零一十八条规定自然人享有肖像权,《民法典》第十三条规定,自然人从出生时起到死亡时止,具有民事权利能力,依法享有民事权利,承担民事义务。换言之,自然人享有民事权利的时间是“从出生时起,到死亡时止”,也正因如此,死者显然不享有民事权利,不享有《民法典》第一千零一十八条规定的肖像权。但是,我国《民法典》第九百九十四条明确规定,死者的姓名、肖像、名誉、荣誉、隐私、遗体等受到侵害的,其配偶、子女、父母有权依法请求行为人承担民事责任。这就是死者的人格利益保护。换言之,死者虽然没有肖像权等民事权利,但其肖像、姓名等人格利益依然受到保护。如果被侵害,死者的配偶、子女、父母均有权依法请求侵权人承担民事责任。也正因如此,在利用逝者的肖像制作虚拟数字人时,相关从业者务必获得逝者配偶、子女、父母的书面许可,以防止侵害死者的人格利益,做到相应的业务合规。

04写在最后

数字人是一项全新的产业,其合规要点众多,在对象是自然人时,不仅涉及肖像权等人格权的侵权审查,还涉及到相关的知识产权合规、内容合规等诸多事项。在对象是逝者时,最大的合规要点就是死者人格利益侵权审查等情形。飒姐团队在此提醒各位数字人从业者,务必做到自身业务合规。

分类: 01Assets, 元宇宙, 奇点专家

阿里云大规模降价 力挺AI增长

2024-04-09 by 01assets 请您留言

香港奇点财经4月9日报道。周一(4月9日),阿里云在春季发布会虚拟峰会上宣布了多项重大举措,其中包括针对国际客户的大规模降价,以及一系列新服务的推出,以进一步巩固和扩大其在全球云计算市场的地位。

阿里云在云基础设施服务领域拥有广泛的客户基础,是中国最大的云基础设施服务提供商,服务于中国80%的科技公司。近年来,阿里云国际业务也取得了显著进展,但仍面临着局势和芯片供应短缺的双重挑战。公司董事长蔡崇信在近期接受采访时表示,美国对英伟达先进芯片出口的限制,已对阿里云业务及高端计算服务能力产生了不利影响。

为应对这一局面,在最新一轮降价中,针对国际客户使用的中国以外数据中心的五类核心公共云产品,阿里云进行了价格调整,包括计算、存储、网络、数据库和大数据等,最高降幅高达59%,平均降幅达到23%,降价措施已于周一的春季发布会上宣布并立即生效。

此次降价优惠与2024年早些时候其向中国客户提供的优惠类似,其中弹性计算服务享受30%至59%的折扣;在对象存储服务(OSS)方面,资源计划(阿里巴巴长期协议的名称)的折扣更加具体。例如一年500GB套餐的价格从原来的63美元降至了16.99美元。MaxCompute、Hologres、DataWorks以及Realtime等核心大数据产品也在此次降价范围内

阿里云还大幅提升了免费数据传输限额,从原先的20GB增加至200GB,这一调整涵盖了云内移动的数据,而不仅仅指出口限额。这意味着用户在阿里云平台上进行云内数据移动时,可以享受更多的免费数据传输量,而不需要担心超出限额后产生的额外费用。这对于需要频繁进行数据传输或迁移的用户来说,是一个非常有利的政策。

除了降价措施,阿里云还在会上宣布了一系列协助客户开发人工智能的产品。其中包括一个管理跨模型架构和云的大型语言模型(LLM)集成和操作的服务,以及一个用于高性能计算任务的AI计算平台PAI-灵君智能计算服务,专门支持基础模型训练和推理等工作。企业可以利用阿里云提供的AI计算平台来加速大规模的训练过程,从而减少LLM训练所需的时间和资源。

阿里云声称,这些产品为企业提供了AI开发全流程的帮助,目前已在新加坡推出。其单个训练集群支持高达10万张卡,最小延迟仅为1.5微秒,最大吞吐量高达20TB。同时,阿里云还推出了一款能源专家人工智能产品,能够计算碳足迹并监控和预测能源消耗。

这些新服务将运行在第八代弹性计算服务(ECS)上,阿里云声称该服务的单位计算能力提高了60%。以前需要10分钟完成的工作,现在可能只需要6分钟就能完成。

该公司还表示,升级后的eRDMA网络(一种高速网络通信技术,允许计算机直接访问远程内存,减少数据传输的延迟)在某些情况下将延迟降至8微秒,几乎是实时传输。而NVMe SSD(一种新型的固态硬盘,与传统的硬盘相比,读写速度更快)的使用则进一步将IO延迟减少了15%至20%,这意味着无论是读取还是写入数据,都会更快。这对于数据库、大型文件存储等应用非常有益,可以提高整体系统的响应速度。当然,这些改进措施是否足以吸引更多用户,仍有待市场观察。

阿里云智能国际业务总裁Selina Yuan在会上表示,本次实施降价主要有两个目标:一是为了奖励那些长期订阅他们服务的客户,给予他们更大幅度的折扣;二是为了确保企业在规划人工智能应用时,能够有一个稳定的云服务平台作为基础,从而能够更好地制定他们的长期战略。

事实上,阿里云在价格策略上一直保持着积极的姿态。2023年5月,该公司曾将中国的一些核心产品和服务的价格下调了50%,而2024年2月更是针对中国客户推出了高达55%的折扣活动,创下了公司历史上的最大折扣幅度。

值得注意的是,阿里云仍面临着激烈的全球竞争。根据市场分析公司Canalys的数据,阿里云在全球云计算市场的份额仍落后于其美国竞争对手,如亚马逊网页服务、微软Azure和谷歌云等。


分类: 01Assets, 元宇宙, 公司前沿

ChatGPT3.5版本现无需账户即可使用

2024-04-02 by 01assets 请您留言

香港奇点财经4月2日报道。周一(4月2日),OpenAI在官方平台上发布公告,自即日起,用户无需注册账户即可畅享ChatGPT服务。此次调整仅针对ChatGPT,其他如DALL-E 3等OpenAI高端产品,仍维持原有的付费及账户注册机制。

OpenAI在博客中详细阐述了此次变更的初衷,希望逐步向对人工智能好奇的广大用户开放访问权限。自2022年底ChatGPT首次亮相以来,ChatGPT迅速走红,成为增长最为迅猛的服务之一。成功推出付费订阅模式,为用户提供更高级别的模型及其他产品。此前,用户需先注册OpenAI账户方可体验。

此次变革后,用户可轻松访问由GPT-3.5驱动的ChatGPT免费版本,无需繁琐的注册流程。然而,对于追求更高性能与准确性的用户,GPT-4 Turbo聊天机器人版本仍需创建OpenAI账户才可享用。GPT-3.5与GPT-4 Turbo在性能与准确性方面存在显著差异,GPT-4 Turbo以其卓越的表现脱颖而出。

与此同时,OpenAI的新品如人工智能语音克隆服务Voice Engine和视频创作平台Sora,目前仍对特定用户和合作伙伴开放,并不包含在此次调整范围内。

为确保用户体验的安全与合规性,OpenAI在调整过程中实施了一系列严格的内容保障措施。这包括对某些敏感提示类别进行更为精细的屏蔽,以杜绝不适当或违规内容的出现。此外,无论用户是否注册账户,均可选择是否将ChatGPT中的信息纳入OpenAI AI模型的训练数据中,从而确保个人数据的隐私与自主权。

OpenAI透露,ChatGPT已在全球185个国家和地区拥有超过1亿的周活跃用户。根据SimilarWeb的流量数据,ChatGPT在2月份的访问量高达16亿次,尽管面临谷歌Gemini平台的激烈竞争,但仍稳坐人工智能聊天机器人网站的头把交椅。不过,与2023年5月超过18亿次的访问高峰相比,近期流量略有回落。

OpenAI正致力于推动人工智能技术的普及与应用。本月,OpenAI将在日本东京设立亚洲首间办公室,继英国伦敦和爱尔兰都柏林之后,成为其在全球的第三个国际办事处。此外,OpenAI还积极参与AI治理架构的创建,以促进人工智能技术的健康发展。

值得一提的是,OpenAI执行长Sam Altman于2023年4月亲赴东京,与日本首相岸田文雄会面,双方就AI技术的隐私与安全问题展开深入讨论,并提及了在日本设立站点的可能性。同时,OpenAI还计划在日本招募本土人才,以进一步支持其在亚洲的业务拓展。


分类: 01Assets, 元宇宙, 公司前沿

一本通 | AIGC:合规领域视角下的多维度法律风险

2024-03-24 by 01assets 请您留言

中国信通院在《2022年人工智能生成内容(AIGC)白皮书》中指出,AIGC正在悄然引导着一场深刻的变革,将重塑甚至颠覆数字内容的生产方式和消费模式,是未来全面迈向数字文明新时代的支撑力量。

飒姐团队深耕于“科技+金融”领域,致力于用专业的理论知识和丰富的实践经验,对AIGC在应用、治理层面所暴露出来的版权问题、侵权困境等问题提出独到的见解和看法,以期帮助AIGC法律法规体系的良性发展。

为方便各位老友查询有关AIGC相关问题的专业法律解答,飒姐团队特将近期涉及AIGC的文章做成合集,感谢各位的长期支持!

01AIGC训练的侵权风险

大模型训练问题存在于生成式人工智能生命周期的伊始,如不能妥善解决,AIGC大模型的研发便始终处于侵权不确定状态。AIGC训练阶段究竟涉及哪些版权利用行为,在我国法律体系下应当如何判断责任的承担及豁免?这是我们迫切需要加以探讨的内容。肖飒团队 | 他人作品投喂AIGC:合理使用 or“偷吃”?肖飒团队 | Sora作品是否具有“可版权性”?是否存在侵犯他人著作权的可能?肖飒团队 | 全球AI巨头被诉,ChatGPT被按下“休止符”?肖飒团队 | OpenAI 再惹祸?个人信息合规成“锁喉”难题?

02AIGC作品著作权归属

AIGC的发展颠覆了我们对传统作者身份的认知,人类将不再是创造性作品的唯一来源。从AIGC著作权侵权第一案判决出现后,人们开始不断探索AIGC在我国著作权法体系下的可版权性和权利归属问题,试图寻找AI的“一席之地”。肖飒团队 | AIGC可版权性,还有“蹊径”可辟吗?肖飒团队 | Sora作品是否具有“可版权性”?是否存在侵犯他人著作权的可能?肖飒团队 | AI生成图片著作权第一案,“人机大战”胜负揭晓!肖飒团队 | AIGC北互最新案:“AI画师”得到“作者”身份?

03从AIGC平台侵权第一案,看AIGC平台侵权风险

AIGC平台侵权第一案的判决,加剧了各AIGC平台因素材选取及内容产出的不确定性陷入“被侵权”之风险。平台作为AIGC服务提供者,在面对用户生成、传播有关内容时可能触犯他人著作权的侵权风险时,难道真的是无能为力吗?且看飒姐团队如何分析。      肖飒律师团队 | AIGC平台侵权第一案!关键要点解析肖飒团队 | AIGC侵权,平台是否必须承担责任?  肖飒团队 | 用户侵权,AIGC平台有“免罪金牌”吗?

04AIGC企业合规

在数字化进程不断加速的宏观环境下,AIGC技术作为新型内容生产方式,有望为千行百业带来颠覆变革,开辟人类生产交互的新纪元。而合规不仅是遵守有关法律法规的“防御手段”,更是AIGC企业掌握战略主动的先手棋。要做到AIGC企业合规经营,需要有专业团队的知识支撑。

重磅新规!《生成式人工智能服务安全基本要求》简评

肖飒团队 | 香港最大AI诈骗——跨国公司被骗2亿港元,深度合成合规怎么走?

肖飒团队 | 如何避免Deepfake成为“法外狂徒”?

肖飒:写给AI创业者——小心那项不care的审查!

肖飒团队 | 以案说法——AIGC行业的法律风险与机遇

肖飒团队 | AI文生图网站的版权声明,到底声明了些什么?

05写在最后

自从人工智能技术开始应用在各大领域后,有关AIGC的法律和伦理问题就一直在困扰着学界和实务界,争议颇多。我们团队仍然会坚守在第一线为各位读者朋友们奉上最新的解读和分析,帮助朋友们了解最新的情况以及进展。若各位有任何法律上的疑问亟需解答,欢迎向飒姐团队咨询

分类: 01Assets, 元宇宙, 奇点专家, 监管行动, 观察与评论

肖飒团队 | 用户侵权,AIGC平台有“免罪金牌”吗?

2024-03-23 by 01assets 请您留言

近日,首例AIGC服务提供者侵权案宣判,引发了人们对AIGC技术法律合规问题的激烈讨论。以目前市面上最典型的文生图AIGC平台为例,平台作为AIGC服务提供者,在面对用户生成、传播有关内容时可能触犯他人著作权的侵权风险时,难道真的是无能为力吗?飒姐团队今天便和诸位谈谈,文生图AICG平台的著作权侵权责任与风险规避途径。

01用户AIGC后续使用侵权 — 平台是否共同侵权

通常来说,文生图AIGC平台属于应用层(2C),其不具有开发大模型的能力,而是基于基础层和中间层的开发,面向用户的需求,为用户提供将文字描述转化为图像的服务和工具。因此,AIGC如何利用和传播,取决于用户自己本身,平台很难知晓用户的后续使用方式和传播范围。当AIGC构成与他人作品实质性相似而涉嫌著作权侵权时,权利人很有可能主张AIGC平台与用户构成共同侵权,从而使平台遭受“无妄之灾”。

平台作为AIGC服务提供者为用户提供了内容生成服务,是否应该对用户的后续侵权行为承担责任,这存在争议。判断AIGC平台是否承担侵权责任的关键在于平台主观过错这一构成要件的认定问题上。《最高人民法院知识产权法庭裁判要旨摘要(2022)》指出:

从主观过错角度看,共同实施侵权行为主要包括三种情形:其一,共同故意实施的行为,这属于典型的共同侵权行为。其二,共同过失实施的行为,即基于共同的疏忽大意或者过于自信的过失而造成他人的损害。其三,故意行为与过失行为结合实施的行为,即数个行为人虽主观过错程度不一,但各自行为相结合而实施的行为,造成他人损害的。

 换言之,平台要承担侵权责任的前提是主观上至少存在过失。有关过失的认定,“过失客观化”是各国侵权责任法之通说,即根据一般合理人社会生活上的注意义务来进行判断,如果行为人违反该注意义务(违背了社会大众对其行为的信赖及期待),对于可能预见的结果没有采取积极有效的防止措施予以规避,除有法律规定的免责事由外,即构成过失。

正像我国首例AIGC服务提供者侵权案中法院认为的那样:赔偿损失的责任承担需要考虑被告的过错问题,AIGC具有一定工具属性,服务提供者在提供AIGC服务时应尽到合理注意义务。涉案平台未尽到合理注意义务,主观上存在过错,因此需要承担一定赔偿责任。反之,如果AIGC平台积极进行合规管理,尽到了合理注意义务,即使用户的后续使用行为造成了著作权侵权结果,平台因不具有结果回避可能性(即不符合侵权行为的主观过错要件)而不构成侵权。

02文生图AIGC平台的技术中立原则适用

数字时代的到来将“技术中立”这一命题推向了舞台中心,所谓避风港规则便是技术中立的具体体现。在著作权法上,技术中立原则也被称作“实质性非侵权用途原则”,这一原则始于美国著名的“索尼案”:

 在该案中,被告索尼公司销售的录像机可以即时通过电视机录制播放的节目,也可以通过定时器自动按预先设定的时间对某一指定频道的节目进行录制。与此同时,使用者还可以利用暂停和快进功能,实现跳过广告、观看欣赏等目的。原告提出,索尼公司虽然没有直接侵犯著作权,但其销售产品引诱、促成或实质性帮助了他人进行侵权行为,构成间接侵权(Indirect Infringement)。多数派法官认为,原告由于销售录像机之后就无法控制用户的使用行为,即不具备监督他人侵权行为的权利和能力,不应当承担间接责任。为了进行说理,法官参照专利法中的“通用商品原则”,首次在版权法提出了“技术中立”原则:某类产品或技术被用于合法用途还是非法用途并不在技术服务者的控制范围内,如果产品可能被广泛用于合法的、不受争议的用途(即具有实质性非侵权用途),即使提供者知道其产品或技术可能被用于侵权,也不能以此要求承担间接责任。

  究其本质,技术中立原则通过将服务提供者的间接责任限制在一个合理、可接受的范围内,体现了对技术创新和版权保护二者之间的利益权衡,这种平衡应是动态性的、回应性的。相应的,我国知识产权法律体系也体现了技术中立原则的精神,具体表现为“通知-删除”规则。根据我国《民法典》规定,网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽等必要措施,网络服务提供者接到通知后如及时采取必要措施移除侵权内容,便可以免于承担侵权责任。

飒姐团队认为,技术中立作为解决责任份分配的法律规则,必须结合侵权责任法相关规定才具有其合理性和正当性。换言之,可能我们不需要去过多讨论AIGC平台到底属于网络服务提供者(ISP)还是网络内容服务者(ICP),是否能够当然地直接适用“通知-删除”规则保护。我们需要做的,可能只是回归侵权责任承担的构成要件本质,根据个案的证据和事实来认定AIGC平台是否违背了注意义务而存在主观过错。

03文生图AIGC平台如何尽到合理注意义务?

上文也提及到,文生图AIGC平台通常不具有开发、训练大模型的技术条件,采用引入第三方接口的方式提供服务,在应用运行阶段,平台需要注意第三方开发者和服务使用者两方面的风险规避。针对第三方技术者,AIGC平台可以对其数据采集、算法伦理合规情况进行全面的调查,要求开发者披露数据来源、处理方式、算法机制、安全监管等有关信息,并通过签订协议明确双方的权利义务,分配责任,降低来自第三方的技术风险。

  针对用户后续AIGC使用行为的风险,根据《生成式人工智能服务管理暂行办法》、《互联网信息服务深度合成管理规定》,平台可以采取如下措施进行合规管理:

   ①提供显著标识功能,并提示深度合成服务使用者可以进行显著标识;对于具有生成或者显著改变信息内容功能的服务,应当在AIGC的合理位置进行显著标识;

   ②建立敏感提示词库,完善入库规则和程序,并采用技术或人工方式对使用者的输入提示和生成内容进行审核,及时屏蔽;

   ③制定管理规则、平台公约并公开,在服务协议、用户协议等有关文件中增加针对生成内容的权利归属约定、侵权责任承担、使用限制等条款,以显著、明确、合理方式提示使用者相关风险和义务,指导其认识和使用AIGC技术;

   ④建立健全且便捷的投诉、举报机制和入口,公布处理流程和反馈时限,及时受理、处理和反馈处理结果;

   ⑤发现违法内容后,应当及时采取停止生成、停止传输、消除等处置措施进行整改。如AIGC服务使用者后续行为涉嫌侵权,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。

04写在最后

技术中立原则对于看待技术创新和著作权保护之间的关系冲突具有重要的指导意义。合规不仅是企业在市场竞争中的“护身符”,还是企业的核心竞争优势所在。飒姐团队建议,AIGC企业应与法律合规团队沟通,构建完善高效的合规体系,为自己应得竞争优势,AIGC企业如有任何法律需求,欢迎联系飒姐团队!以上是今天的分享,感恩读者!

分类: 01Assets, 元宇宙, 奇点专家, 观察与评论

OpenAI回避Sora模型数据源问题

2024-03-19 by 01assets 请您留言

香港奇点财经3月19日报道。OpenAI首席技术官Mira Murati在接受《华尔街日报》采访时,对即将推出的视频生成人工智能模型Sora的训练数据来源问题给出了模棱两可的答复。在人工智能领域,模型的训练离不开庞大的数据集,这些数据集对于模型学习识别模式、进行预测或理解语言至关重要。

上周,当被问及Sora模型的数据来源时,Murati并未直接回应,而是含糊地表示:“我们使用了公开数据和授权数据。”进一步追问Sora是否利用YouTube、Instagram或Facebook等社交媒体平台的数据进行训练时,Murati则显得尤为谨慎,她回答:“我不太确定,如果这些数据是公开的,那么它们可能被使用,但我没有确切的信息。”

Murati自2018年起便加入OpenAI,领导了包括图像生成器模型DALL-E、语音识别工具Whisper以及最新版的聊天机器人GPT-4在内的多个热门项目。在2023年11月Sam Altman被OpenAI董事会罢免后,她还曾短暂担任公司的临时首席执行官。

随后,话题转向了OpenAI与图片库公司Shutterstock的合作关系。当被问及Shutterstock的数据是否用于训练Sora时,Murati虽然证实了Sora确实使用了Shutterstock的数据,但并未透露具体的使用情况,只是强调这些数据是公开或获得许可的。

在采访中,Murati似乎更倾向于采用保守的回应方式,她更倾向于强调数据的“公开可用”性质,以维护公司的商业利益。这种策略虽然可能在法律层面站得住脚,但在公众眼中却可能引发信任危机。

OpenAI在训练Sora模型时所使用的数据源问题无疑是一个敏感且复杂的话题。在涉及公开数据时,情况尤为复杂。这可能意味着Sora模型在训练过程中可能抓取了互联网上的大量“公开”内容,包括但不限于YouTube上的视频和社交媒体平台上的帖子,甚至是网民公开发表的文字、图片和视频,这些数据可能以某种方式被用于模型训练中。然而,需要注意的是,YouTube等平台的内容许可条款通常严格限制未经授权的使用。

对于受版权保护的内容更是如此。例如,一个电影预告片即使在YouTube上公开发布,也不意味着其他人可以随意在商业作品或博客中使用其中的片段,除非得到明确授权。但根据Murati的描述,OpenAI的Sora模型似乎能够访问这些内容用于学习目的,甚至可能间接从这些数据中获利。

值得一提的是,OpenAI过去曾因人工智能模型训练数据问题多次陷入法律纠纷。2023年7月,一些作家对该公司提起诉讼,指控ChatGPT根据受版权保护的内容生成了作者作品的摘要。同年12月,《纽约时报》也对微软和OpenAI提起类似版权侵权诉讼,指控这两家公司利用该报的内容训练人工智能聊天机器人。此外,还有一起集体诉讼在加利福尼亚州提起,指控OpenAI未经用户同意,从互联网上获取用户私人信息来训练ChatGPT。

对于OpenAI而言,如何在确保训练数据的合法性和合规性的同时,避免涉及法律纠纷,将是其未来面临的重要挑战。然而,从Murati的回应来看,OpenAI似乎并未给出明确的解决方案或回应。

分类: 01Assets, 元宇宙, 公司前沿

肖飒团队丨他人作品投喂AIGC:合理使用 or“偷吃”?

2024-03-17 by 01assets 请您留言

自AIGC席卷全球以来,无数有趣的图片、文本、视频纷纷产出,但随之而来的法律风险亦是愈演愈烈,不少国家都开始纷纷思考AIGC的著作权侵权问题。不久前的2024年2月宣判的AIGC平台侵权案件中,一审法院指出该平台生成的知名IP图片侵犯了该IP在中国的授权人的著作权(复制权及改编权)。飒姐团队曾在《飒视频 | AIGC平台侵权第一案宣判!平台如何合规?》中简要对该案进行说明,但无论是一审判决抑或是文中均没有对该种情况是否能够适用合理使用规则进行分析。飒姐团队今日文章,便为大家分析一下在AIGC背景下,服务提供者训练数据、生成作品的行为是否可以被“合理使用”正当化。

01
AIGC对合理使用的挑战

“合理使用”(Fair use)作为著作权法中的一项重要制度,是各国著作权制度中对著作权进行限制的主要方式。所谓“合理使用”,是指在一定条件下不经著作权人的许可,也不必向其支付报酬而对作品所进行的使用。此项制度被明确规定在我国《著作权法》第二十四条,该条涵盖了十三种(含一项兜底条款)构成合理使用的情况,在很长的一段时间里都发挥着举足轻重的作用。然而快速发展的科技促成的AIGC却对这项制度提出了挑战。这种挑战来源于AIGC对于训练数据的大量需求。对于AIGC技术而言,其必须以数据作为基础和“养料”,输入的数据量越多、数据类型越丰富,其所训练出的模型就越强大越可靠。因此,为了得到这样更强大更可靠的模型,企业往往不得不抓取大量的数据用于训练,这种行为就极其容易侵犯他人著作权。此外,在最后的作品生成阶段,其生成的作品还可能直接涉嫌侵犯著作权,典型的情况便是通过输入某些知名IP生成相关作品,其在企业没有获得授权的情况下,当然属于侵权行为。因此,问题在于,在现有制度下前述情况能否被囊括进“合理使用”的十三种情况之中?

02
个人使用的适用分析

在我国所规定的十三种情形中(除去兜底条款应为12种),可能适用的仅有第一项,即“为个人学习、研究或者欣赏,使用他人已经发表的作品”。那么前述场景下是否属于这种情况呢?飒姐团队认为,实务中认定存在很大的困难。针对于个人使用这一合理使用的情形,其必须明确的是,该情形仅限于纯粹为个人目的而进行的使用[1]。因此,是否属于此种“个人”目的是判断行为是否属于“个人使用”型合理使用的关键。而对于这种个人目的的理解,目前国内的司法实践普遍认为为个人学习、研究或者欣赏须是局限于一定范围内的、不面向社会公众的内部使用[2],进而否定了具有商业目的的使用。回到本文的场景下,在进行数据训练时,由于数据仅仅用于模型的训练,其基本上不会对外输出,也不存在面对社会公众的情况,因此,此时似乎此种行为符合“个人使用”中对个人目的的限制,从而可能被认为是“合理使用”。但是这种大规模的复制行为本身可能会对权利人的经济利益造成不合理的损害,进而属于“不合理地损害著作权人的合法权益”之情况,从而因违背“三步检验法”这一合理使用的基本标准而被排除出合理使用的适用范畴。相较于此,在作品生成阶段这种否定更为直接。由于AIGC服务往往提供给不特定多数人,且往往系有偿的、有条件的服务,因此其商业使用之目的十分明显,显然不属于“个人目的”的使用情况。对此,《北京市高级人民法院侵害著作权案件审理指南》第7.10条明确规定“被告未经许可通过信息网络向他人提供作品,其提出属于‘为个人学习、研究或者欣赏使用他人已发表作品’的合理使用抗辩,不予支持。”

03
困境还是突破?

那么这是否意味着在中国法项下,前述场景便不能适用合理使用规则呢?飒姐团队也认为并非如此。在2011年最高人民法院发布的《关于充分发挥知识产权审判职能作用推动社会主义文化大发展大繁荣和促进经济自主协调发展若干问题的意见》中,最高人民法院指出“妥当运用著作权的限制和例外规定,正确判定被诉侵权行为的合法性,促进商业和技术创新,充分保障人民基本文化权益……在促进技术创新和商业发展确有必要的特殊情形下,考虑作品使用行为的性质和目的、被使用作品的性质、被使用部分的数量和质量、使用对作品潜在市场或价值的影响等因素,如果该使用行为既不与作品的正常使用相冲突,也不至于不合理地损害作者的正当利益,可以认定为合理使用。”根据该文件,最高人民法院事实上在一定程度上授予了下级法院“在促进技术创新和商业发展确有必要的特殊情形下”对《著作权法》中的合理使用的限制的突破的权利,而且法院在实际案件中也有所应用。如在知名的谷歌数字图书馆案中[3],二审法院指出,“在《著作权法》第二十二条规定的具体情形外认定合理使用,应当从严掌握认定标准。除非使用人充分证明其使用行为构成合理使用,否则应当推定使用行为构成侵权。判断是否构成合理使用,一般应当考虑使用作品的目的和性质、受著作权保护的作品的性质、所使用部分的质量及其在整个作品中的比例和使用行为对作品现实和潜在市场及价值的影响等因素。上述考虑因素中涉及到的事实问题,应当由使用者承担举证责任。”因此,只要前述场景确实属于“促进技术创新和商业发展确有必要的特殊情形下”,通过个案判断,在目前人工智能在全球迅速发展,各国纷纷支持的背景下,完全有可能承认前述行为的正当化。

04
写在最后

尽管AIGC场景下训练数据以及作品生成有适用合理使用规则的空间,但是考虑到其确实并非法定的情形之一,因此这种适用极其依赖于法院的司法水平以及企业的合规体系。在此,飒姐团队还是建议各大企业尽量让训练数据来源合法,以保证自身合规性。同时,我们也期待立法者们能通过对现有法律体系的完善,构建出包容、开放的著作权法体系,促进社会良性发展。以上是今天的分享,感恩读者![1] 王迁著:《知识产权法教程》(第七版),中国人民大学出版社2021年版,页285。[2] 参见(2021)京0491民初26185号民事判决书。[3] 参见(2013)高民终字第1221号民事判决书。该案中,谷歌公司扫描了大量的书籍,将其文本存储在服务器中,并以此为用户提供全文检索服务,用户只需要输入关键词,谷歌便会对包含该关键词的作品的片段进行展示。

分类: 01Assets, 元宇宙, 奇点专家, 观察与评论

淡马锡传将投资OpenAI

2024-03-05 by 01assets 请您留言

香港奇点财经3月5日报道。据金融时报报道,新加坡淡马锡控股公司正在讨论投资OpenAI。

报道援引知情人士表示,近几个月来,淡马锡的高管多次会见了OpenAI首席执行官Sam Altman,不过,目前的谈判仍处于初期,双方尚未就任何投资事宜达成一致。

根据该国政府2月份公布的2024年财政预算,新加坡计划在未来五年内投资10亿美元来提升国家的人工智能能力。

淡马锡控股成立于1974年,是新加坡政府所全资拥有的几家公司中知名度最高的,它也是科技领域的活跃投资者。当前,该公司投资组合价值达3,820亿新元(合2,842.1亿美元),投资组合中的公司包括Roblox、腾讯以及阿里巴巴。

淡马锡对OpenAI的关注是其日益全球化的证明。2014年之前,这家投资公司在发达国家没有办事处,但现在其在亚洲以外的业务已从巴黎和伦敦延伸到旧金山和纽约。该基金管理层表示,人工智能将是他们接下来投资的重点。其在该领域的现有投资包括英国法律技术公司Robin AI、韩国无晶圆厂人工智能芯片初创公司Rebellions和硅谷生成式人工智能芯片设计公司d-Matrix。

此次谈判正值Altman的半导体业务计划提出之际,他希望为这一计划筹集约5万亿至7万亿美元的资金。如果半导体计划得以顺利进行,OpenAI对Nvidia制造的尖端芯片的依赖将大大减少。

去年,美国每3美元的投资中就有1美元被人工智能初创公司吸引,这反映出在OpenAI推出的ChatGPT关注度之高,除了自身的成功外,OpenAI还极大刺激了支持类似应用程序所需的芯片的投资。

OpenAI 2023年的年收入超过20亿美元,成为历史上增长最快的科技公司之一,只有少数硅谷公司(例如谷歌和Meta)能在成立10年内营收达到10亿美元。目前OpenAI的估值达到860亿美元,大约是2023年4月估值的三倍。

然而,尽管自ChatGPT的推出为OpenAI带来了大量利润,但Altman表示,由于构建和训练其模型的成本高昂,OpenAI仍处于亏损状态。

目前,除微软外,OpenAI的一些知名投资者包括Khosla Ventures、Thrive Capital、Andreessen Horowitz和红杉资本。Altman预计,未来几年建设人工智能基础设施成本会非常高,估计从数千亿美元到7万亿美元不等,这个数字让许多传统科技风险投资公司望而却步。

据知情人士透露,Altman还与中东和亚洲财力雄厚的投资者讨论了融资事宜,其中包括阿布扎比最富有、最有影响力的人物之一Sheikh Tahnoon bin Zayed al-Nahyan(谢赫·塔恩),Al Nahyan是阿拉伯联合酋长国六大家族的姓氏之一,是阿联酋阿布扎比酋长国的统治家族,坐拥世界第五大石油储量。而塔恩自己也担任国家安全顾问,并监督8000亿美元的阿布扎比投资管理局和另一家国家投资实体ADQ。

值得一提的是,一位知情人士表示,淡马锡最初感兴趣的其实是Altman的个人风险投资基金Hydrazine Capital,到了后来才将OpenAI纳入考虑范围。

据《财富》报道,密歇根大学在2023年早些时候向Hydrazine Capital的一个新基金开出了一张7500万美元的支票,这已经是该大学向该公司管理的基金开出的第二张支票。有关该基金文件的披露,证实了Sam Altman的这家公司除了他自己或他的兄弟朋友之外,还有投资机构的资本存在。

除了这家投资基金外,Sam Altman或许还将在Reddit上市后收入数百万美元,这要归功于他从2014年以来就对这家公司的押注。据报道,在Reddit首次公开募股之前,Altman就已经拥有它9.2%的投票权。

据CNBC报道,Altman于2021年还曾担任Reddit董事会成员,但于2022年1月左右辞职。Reddit的CEO Steve Huffman评价他说:“Altman是一位优秀得令人难以置信的董事会成员,我为他对公司所做的贡献表示感谢。”

分类: 01Assets, 元宇宙, 公司前沿

马斯克起诉OpenAI 控诉其违背初心

2024-03-04 by 01assets 请您留言

香港奇点财经3月4日报道。最近,马斯克(Elon Musk)正在起诉OpenAI及其首席执行官Sam Altman,称OpenAI背离了其非营利的初心,与微软合作盈利超过130亿美元,并控诉OpenAI拒绝公布其最新生成式人工智能产品的代码的行为。

根据美国加利福尼亚州法院上周披露的诉状,马斯克控诉OpenAI违反了其创始章程,构成了违约行为。在诉讼中,马斯克指控Altman和OpenAI总裁Greg Brockman没有遵守“创始协议”。据称,该协议明确规定OpenAI将作为“为了人类利益奋斗的非营利性公司”运营,马斯克要求OpenAI及Sam Altman等联合创始人退还他们从相关业务中获得的利润。

OpenAI于2015年成立,最初是一个非营利性人工智能研究小组,马斯克也是创始成员之一。然而,也正是因为这一性质,OpenAI难以吸纳顶级人才。2018年初,马斯克认为OpenAI的研发已经明显落后于谷歌,提议自己接管OpenAI并亲自来负责。但这遭到了其他成员的反对,马斯克随后退出了OpenAI。

马斯克的离开使得OpenAI的资金出现问题。因此在2019年,OpenAI性质发生转变,它成立了一个“利润上限”实体OpenAI LP,规定了后续投资者对公司的投资限制以及回报率。据CNBC报道,后续投资者投资后将获得OpenAI LP一定比例的利润,但有一个商定的上限,其余将流向非营利机构。

OpenAI LP在成立那年就从微软那里筹集了10亿美元。在短短几年内,这个营利性公司将OpenAI的价值提升到了900亿美元,其中Altman在推动该计划和公司成功方面发挥了关键作用。

值得一提的是,据外媒报道,2023年1月,OpenAI还从这微软那里额外获得了100亿美元的资金,两家公司保持着技术合作伙伴关系,微软将OpenAI的模型集成到了多种产品中。

当时,OpenAI的联合创始人之一Greg Brockman,曾在社媒Reddit中评论说,对于投资者来说,这种设定“感觉就像投资了一家相当成功的初创公司”。因为它限制了初创公司的投资额,并设置了投资回报的上限。这种限制和设置类似于已经成功的初创公司,这些公司通常会吸引高投资额,但随着公司的成长,投资回报率会相对稳定或略有降低。

这种模式在硅谷并不常见,因为长期以来,回报最大化一直是硅谷风险投资界的首要任务。而对于OpenAI的创始人和早期支持者之一马斯克来说,这种变化没有多大意义。马斯克已经多次在推特上表达了对OpenAI非常规结构及其对人工智能影响的担忧,尤其是考虑到微软对OpenAI的影响之大。

马斯克在诉状中频繁提及微软,尽管它并没有被列为被告。“直到今天,OpenAI的网站仍然声称其章程是确保AGI造福全人类。然而实际上,OpenAI已经转变为微软的闭源子公司。”诉讼文件称。

马斯克还要求法院确定GPT-4是否有资格成为通用人工智能,这可能会引发对人工智能领域的更深层次的讨论和监管,并对OpenAI与微软公司的合作产生影响。

目前,微软正因向OpenAI投资130亿美元而面临欧盟反垄断监管机构的审查。对此,该公司最近宣布将与法国初创公司Mistral AI建立新的合作伙伴关系。

此外,诉状还指出,OpenAI的开发人员曾承诺开源其工作,除非出于安全考虑可能需要采取不同的方法,但是现在OpenAI却拒绝公布产品代码。“OpenAI最初是作为一家开源(这就是为什么我将其命名为“Open”AI的原因)、非盈利公司来运行的,但现在它已经成为一家由微软控制的闭源、利润最大化公司。”马斯克在曾在2月份发推表示,“这不是我想要的。”

马斯克在诉状中自夸说,像他一样明智的人已经意识到通用人工智能会对人类造成威胁,但另一些人却将通用人工智能视为“利润和权力的来源”。

分类: 01Assets, 元宇宙, 公司前沿

Meta出手防AI干扰欧盟选举

2024-02-25 by 01assets 请您留言

香港奇点财经2月25日报道。2月25日,Facebook母公司Meta发布公告,在即将到来的欧洲议会选举之前,Meta将会成立一个专门团队来打击人工智能(AI)生成的虚假信息。

即将于今年6月6日至9日举行的欧盟议会选举,是2024年举行的一系列重大民意调查之一,2024年被称为历史上规模最大的选举年。包括美国、印度、墨西哥和南非在内的40多个国家的选民将前往投票站进行选举,这些国家的公民加起来几乎占世界人口的一半,预计达40亿人次,。

Meta欧盟事务主管Marco Pancini在公告中表示,Meta将为此成立“欧盟特定选举运营团队”,该团队将汇集公司各部门的专家,重点解决虚假信息,以及各种影响运营和因滥用人工智能带来的相关风险。

“我们认识到,速度在突发新闻事件中尤为重要。”Pancini在博客中表示。因此,在选举期间,Meta将使用“关键字检测”将相关内容分组到同一个位置,让欧盟所有事实核查人员更轻松地查找和评价与选举相关的内容。

为解决人工智能带来的风险,Meta还将新增加一项要求——要求用户在分享人工智能生成的视频或音频时进行标记,否则将视为违规并受到处罚。

Pancini表示,Meta已经对使用Meta AI创建的图像进行了标记,目前正在标记来自其他AI工具的图像,包括Google、OpenAI、Microsoft、Adobe、Midjourney和Shutterstock。

由于OpenAI的GPT-4和谷歌的Gemini等人工智能平台的推出,人们担心这些AI生成的虚假信息、图像和视频可能会影响选举选民,利用人工智能造假事件的层出不穷加剧了这类担忧。据AI jazeera报道,本月早些时候,巴基斯坦被监禁的前总理Imran Khan在该国议会选举前夕,利用人工智能生成了演讲,以寻求公民的支持。在上个月,一个自称为美国总统拜登的机器人电话还呼吁选民不要在新罕布什尔州初选中投票。

由于人工智能生成内容传播范围之广,2月16日,Meta和谷歌、微软、X、亚马逊和TikTok等其他19家科技公司一起签署了一项承诺,签署方承诺合作开发工具来检测和解决网络传播问题。该协议是保护在线社区免受人工智能虚假内容侵害的重要一步,将以各个公司正在进行的工作为基础,涉及打击的数字内容包括人工智能生成的音频、视频和图像,以及任何故意伪造或改变政治候选人的外表、声音或行为等的内容。

当然,这些科技巨头之所以肯联起手来共同维护互联网生态,也并不都是因为良心发现。根据欧盟新的数字服务法案(DSA),Facebook和TikTok等月均用户超过4500万的在线平台有义务采取措施打击虚假信息和选举操纵。

TikTok本月早些时候(2月14日)也表示,它将为27个欧盟国家建立某种系统,以减少有关选举的错误信息的传播。该公司在一份声明中表示,该工具将于下个月推出,以确保人们能够“区分事实与虚构”。此前,TikTok已为2021年开始的希腊、荷兰、波兰、斯洛伐克和西班牙的国家选举建立了类似的系统。

分类: 01Assets, 元宇宙, 公司前沿

谷歌拟推AI 编程模型Goose

2024-02-18 by 01assets 请您留言

香港奇点财经2月18日报道。谷歌近日推出了名为“Goose”的内部人工智能模型,以帮助员工更快地编写代码。

Goose描述为“Gemini的后代”,Goose接受了Google 25年工程知识的培训。据Business Insider查阅的内部文件显示,Goose是一款专门为员工提供的工具,旨在促进新产品的开发。

Goose是一个能够回答与Google特定技术相关问题的工具,它可以帮助用户解决与Google技术相关的问题,提供编写代码的支持,并且还能够通过自然语言输入来编辑代码,这使得编程过程更加方便和直观。

谷歌内部正在大力推动人工智能的使用,公司认为这是提高效率的关键。为此,他们进行了大规模的团队重组和裁员,以便更好地应用人工智能技术。最近的财报电话会议上,谷歌的财务主管Ruth Porat提到了这些举措,表明谷歌将通过运用人工智能来简化Alphabet(谷歌母公司)的运营,以抑制费用增长。

内部文件表明,Goose是谷歌开发集成人工智能的战略计划的一部分。除了Goose之外,谷歌还在其他领域广泛运用人工智能来提高效率。举例来说,他们利用人工智能来减少数据中心的能源消耗,这有助于节约资源。此外,谷歌还鼓励广告商利用人工智能驱动的自动化产品,以优化他们在谷歌平台上的广告支出,从而更有效地推广他们的产品或服务。

尽管谷歌在人工智能方面取得了一些进步,但他们坚称人工智能并没有取代人类。谷歌的首席商务官Philipp Schindler表示,公司不会因为人工智能的发展而进行人员重组或裁员。谷歌认为人工智能是为了增强工作效率,而不是取代人类工作。

DeepMind是谷歌的人工智能部门,成立于2010年。2023年12月,他们发布了第一个人工智能模型——Gemini,希望缩小谷歌与OpenAI之间的差距。Gemini可以处理文本、音频、图像等形式的提示。初次发布时,Gemini受到了积极的评价,因为它在基准测试中表现强劲,其附有详细的视频演示并且立即可用(尽管是削减版本)。

但随后,当AI工程师和爱好者仔细分析Gemini这个产品时,他们发现了一些问题。尽管Gemini本身是一个令人印象深刻的产品,但在谷歌演示模型时省略或夸大了一些细节,例如,当Gemini被要求识别石头剪刀布的游戏时,用户输入了一个提示:“这是一个游戏”,但是这个提示在最终演示中被省略了。

另外,谷歌的Gemini Ultra模型声称在各种基准测试中击败了ChatGPT-4,这个事实基本上是正确的,但谷歌引用的数字可能有些夸大。谷歌使用了与其他公司不同的方法来衡量AI的性能,但是,如果要对不同的模型进行比较,必须使用相同的提示方式,这样才能确保比较的公正性和准确性。谷歌选择了特定的提示方式来衡量Gemini Ultra的性能,这样可能会使该模型的表现看起来更好,但这可能并不意味着它在所有情况下都会胜过其他模型。

分类: 01Assets, 元宇宙, 公司前沿

  • « 上一页
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 下一页 »

Copyright © 2025 · Outreach Pro on Genesis Framework · WordPress · 登录