李开复:零一万物2C单款产品今年预计收入过1亿元,产品ROI接近1
"TC-PMF",李开复提出的大模型公司决胜新概念
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI
大模型能识别一张图里三个人在喝咖啡,好有意思。但那有什么用呢?
上面这个感慨,来自零一万物创始人兼 CEO 李开复博士。他在零一万物一周年发布会上表示,不应该只秀 demo,而应结合真实场景,解锁 2C 应用的创新:
我们所有的模型,对用户产生价值,才是真的有价值。
去年 3 月,李开复宣布以 Project AI2.0 之名入局大模型,而后领衔创新工场第七家塔尖孵化公司零一万物,冲入大模型赛道。
如今,零一万物成立一年有余,旗下模型陆续推出,成绩霸榜;开源闭源两手抓,同步推进;API 平台开放,全球可用;产品 AI 助手万知,小程序免费可用。
在大模型之路上全栈推进,似乎成了外界对零一万物的共同认知。
而且在市场方面,零一万物成立不足一年就跻身独角兽行列,被外界称为国产大模型五虎之一。
其海外 2C 产品上线 9 个月用户近千万,今年单款产品预计收入过亿元,产品 ROI(投入产出比)接近 1。
而就在现在,当大模型赛道来到第二年,参赛者从狂奔转向长跑马拉松之际,零一万物又推出了一箩筐新模型。
此次发布会,零一万物在闭源模型和开源模型方面都有新动作。
先说闭源方面。
此次零一万物重点推出的闭源模型是 Yi-Large。
如下图显示,零一万物官方给出的评测结果中,推理方面,Yi-Large 在 HumanEval 和 MATH 都位列第一,超越 GPT-4、Claude3 Sonnet、Gemini 1.5 Pro 以及 LLaMA3-70B-Instruct(都是时下大模型领域的佼佼者)。
第三方评测,Yi-Large 的中英双语能力也不俗。
李开复表示,Yi-Large 的下一步是采用 MoE 架构的 Yi-XLarge。
Yi-XLarge 已经启动训练,虽然时间不长,但根据跑分结果,Yi-XLarge 的效果都好于 Large。
在初期训练中,Yi-XLarge MoE 已经与 Claude-3-Opus、GPT4-0409 等国际厂商的最新旗舰模型互有胜负。
再来看看开源模型这边。
此次 Yi-1.5 开源系列可以说是大手笔,同时开源了 6 款模型,分别是:
- Yi-1.5-34B Base + Chat
- Yi-1.5-9B Base + Chat
- Yi-1.5-6B Base + Chat
此次开源的模型版本对此前用户反馈的数学、代码短板有了重点改进,在评测集上,Yi-1.5-34B 表现不逊色于 70B 参数尺寸的模型,在同尺寸中则有更好的表现。
李开复在现场表示,开源不是发布模型就结束了,维护社区也是重要的一环。
在国际开发社区内,零一万物 Yi 系列模型有各种应用,从学习、导航、销售、 API 应用、商业写作等,都已经开始积累早期用户。
另外,李开复很自豪看到开源社区上有很多基于 Yi 系列大模型的公益项目,“这么多面临病魔折磨的病人和家属,能够用大模型来了解怎么样得到最好的治疗。科技真正能造福人类,是特别让人欣慰的事情。”
最后,李开复宣布了 Yi API 平台多尺寸、多场景的全球上线。
他重点介绍了基于千亿参数 SOTA 基座模型打造的 Yi-Large API,目前价格是 20 元 / 100 万 tokens,约为 GPT-4-turbo 定价的三分之一;并表示,如果想有更高的性价比,可以选择下图第二排更具性价比的模型。
“我希望今天发布之后,无论是创业者、大公司、个人玩家,还是公益组织,都没有理由不尝试用一下我们的 Yi-Large 的 API。” 李开复说。
在移动互联网的鼎盛时期,PMF(Product-Market Fit,产品市场契合)曾是众多初创企业追求的核心目标。
然而,大模型时代的到来,带来了很多变革。
两个时代在创业基础设施层面存在着决定性的差异:
譬如,在移动互联网时代,用户规模增长所带来的边际成本很低。
但是在大模型时代,模型训练和推理成本构成了每一个创业公司必须要面临的增长陷阱。用户增长需要优质的应用,而优质应用离不开强大的基座模型,强大基座模型的背后往往是高昂的训练成本,接着还需要考虑随用户规模增长的推理成本。
因此,李开复认为,PMF 这一概念已经不能完整定义以大模型为基础的 AI-First 创业,应当引入 Technology(技术)与 Cost(成本)组成四维概念。
这就是 TC-PMF。
李开复表示:
做 Technology-Cost Product-Market-Fit(TC-PMF),技术成本和产品市场契合度,尤其推理成本下降是个 “移动目标”。
这比传统 PMF 难上一百倍。
他介绍了零一万物的 TC-PMF 方法论。
首先是全球化布局。
零一万物的目标是成为一家全球化的大模型公司。去年,欧美市场已经历 GPT 时刻,用户对 AI 应用的熟悉程度高,商业化进展较快,因此,零一万物选择先基于全球顶尖模型打造零一万物的海外产品,验证 TC-PMF。
今年,零一万物则开始接用自己的 SOTA 基座模型,不断完善产品的用户体验。
据介绍,零一万物海外 2C 产品,今年预计单款产品收入过亿元,产品 ROI 接近 1。
第二是模基共建。
零一万物认为,模型的训练、服务、推理设计,与底层 Infra 架构和模型结构必须高度适配。目前,零一万物全栈 AI Infra,端到端实现全球最先进的 FP8 训练框架,也是目前国内唯一达到这个成绩的队伍。
在多方面优化后,零一万物千亿参数模型训练成本,同比降幅达一倍之多。
第三则是模应一体,简单来说,就是产品从真实用户体验出发,和模型迭代形成正循环。
去年 9 月起,零一万物率先出海验证 TC-PMF,模型一上线立即和产品形成用户飞轮。
同时,运用自研性能 / 召回率最佳的向量数据库笛卡尔,零一万物部署成本只需要之前采购的第三方的 18%。
今天万知体验这么丝滑速度这么快,“一部分的理由就是来自于零一万物的 RAG 工程,来自我们自研的向量数据库”。
最后一点是 Al-First。
李开复在现场谈到,应用创新需要清晰回答 When、How、Who。
去年 3 月下旬,创新工场董事长兼 CEO 李开复正式宣布以 Project AI2.0 之名入局大模型。
3 个月后,李开复带麾下 AI 大模型公司零一万物正式对外发声,这也是创新工场塔尖孵化的第 7 家公司。
11 月,零一万物的首款开源大模型——Yi 系列大模型正式亮相,共有两款,分别是 Yi-34B 和 Yi-6B。成为彼时唯一成功登顶 HuggingFace 的国产大模型,且以 34B 的大小碾压 Llama-2 70B 和 Falcon-180B 等一众大尺寸大模型。
12 月,Yi-34B-Chat 公布新成绩,在 Alpaca 经认证的模型类别中,以 94.08% 的胜率,超越 LLaMA2 Chat 70B、Claude 2、ChatGPT。
今年以来,零一万物动作频频。
1 月,零一万物交出多模态大模型答卷,同属 Yi 系列,同样具有两个版本:Yi-VL-34B 和 Yi-VL-6B,面向全球开源。
官方给出的测试数据是,Yi-VL-34B 在英文数据集 MMMU 上准确率 41.6%,仅次于准确率 55.7% 的 GPT-4V,超越一系列多模态大模型。
紧接着,来 3 月,零一万物还在提速。
90 亿参数 Yi-9B 紧锣密鼓地面世了。它号称 Yi 系列中的 “理科状元”,“恶补” 了代码数学,同时综合能力也没落下。
尤其要提到,Yi-9B 对开发者格外友好,Yi-9B(BF 16)和其量化版 Yi-9B(Int8)都能在消费级显卡上部署。
仍是 3 月,零一万物 API 开放平台出场,共为开发者提供三个版本的模型,支持 200K 上下文窗口,并具备多模态能力。
进入 5 月,就在几天前,零一万物正式官宣了一站式 AI 工作平台——万知。
它可以做会议纪要、周报、写作助手,还可以速读任何文档,帮你做 PPT。
更关键的是,它更适合中国职场宝宝体质,是为国内打工人量身打造的神级生产力工具。
现在,李开复每天要在万知上进行 100 条左右的提问,了解产品的最新使用体验,及时反馈 badcase。
他提到,OpenAI 是融了超级超级多的钱,先追求 GPU,其次考虑应用,零一万物的模式则是用更少的芯片、更低的成本,找到 TC-PMF。
做一个伟大的大模型公司,底层不能差,但不能只有底层。
同样重要的是,应用怎么开创,怎么让做产品的人也懂模型,懂模型的人也做应用。
我们当然相信 AGI 会发生,我们也会推进 AGI 的发生,但同时我们是务实的,我们的精力不会花在行业预测上,也不会把大力出奇迹作为唯一思维。OpenAI 可以去尝试这条道路,但这不会是我们走的道路。
活动最后,李开复分享道,一年前,他就跟投资人自愿主动承诺:10 年内自己不会套现。
他说:
“我认为套现最好的方式是赶快上市,这是我们未来努力的方向。”