李开复:零一万物2C单款产品今年预计收入过1亿元,产品ROI接近1

"TC-PMF",李开复提出的大模型公司决胜新概念

衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

大模型能识别一张图里三个人在喝咖啡,好有意思。但那有什么用呢?

上面这个感慨,来自零一万物创始人兼 CEO 李开复博士。他在零一万物一周年发布会上表示,不应该只秀 demo,而应结合真实场景,解锁 2C 应用的创新:

我们所有的模型,对用户产生价值,才是真的有价值。

去年 3 月,李开复宣布以 Project AI2.0 之名入局大模型,而后领衔创新工场第七家塔尖孵化公司零一万物,冲入大模型赛道。

如今,零一万物成立一年有余,旗下模型陆续推出,成绩霸榜;开源闭源两手抓,同步推进;API 平台开放,全球可用;产品 AI 助手万知,小程序免费可用。

在大模型之路上全栈推进,似乎成了外界对零一万物的共同认知。

而且在市场方面,零一万物成立不足一年就跻身独角兽行列,被外界称为国产大模型五虎之一。

其海外 2C 产品上线 9 个月用户近千万,今年单款产品预计收入过亿元,产品 ROI(投入产出比)接近 1

而就在现在,当大模型赛道来到第二年,参赛者从狂奔转向长跑马拉松之际,零一万物又推出了一箩筐新模型。

此次发布会,零一万物在闭源模型和开源模型方面都有新动作。

先说闭源方面。

此次零一万物重点推出的闭源模型是 Yi-Large

如下图显示,零一万物官方给出的评测结果中,推理方面,Yi-Large 在 HumanEval 和 MATH 都位列第一,超越 GPT-4、Claude3 Sonnet、Gemini 1.5 Pro 以及 LLaMA3-70B-Instruct(都是时下大模型领域的佼佼者)。

第三方评测,Yi-Large 的中英双语能力也不俗。

李开复表示,Yi-Large 的下一步是采用 MoE 架构的 Yi-XLarge。

Yi-XLarge 已经启动训练,虽然时间不长,但根据跑分结果,Yi-XLarge 的效果都好于 Large。

在初期训练中,Yi-XLarge MoE 已经与 Claude-3-Opus、GPT4-0409 等国际厂商的最新旗舰模型互有胜负。

再来看看开源模型这边。

此次 Yi-1.5 开源系列可以说是大手笔,同时开源了 6 款模型,分别是:

  • Yi-1.5-34B Base + Chat
  • Yi-1.5-9B Base + Chat
  • Yi-1.5-6B Base + Chat

此次开源的模型版本对此前用户反馈的数学、代码短板有了重点改进,在评测集上,Yi-1.5-34B 表现不逊色于 70B 参数尺寸的模型,在同尺寸中则有更好的表现。

李开复在现场表示,开源不是发布模型就结束了,维护社区也是重要的一环。

在国际开发社区内,零一万物 Yi 系列模型有各种应用,从学习、导航、销售、 API 应用、商业写作等,都已经开始积累早期用户。

另外,李开复很自豪看到开源社区上有很多基于 Yi 系列大模型的公益项目,“这么多面临病魔折磨的病人和家属,能够用大模型来了解怎么样得到最好的治疗。科技真正能造福人类,是特别让人欣慰的事情。”

最后,李开复宣布了 Yi API 平台多尺寸、多场景的全球上线。

他重点介绍了基于千亿参数 SOTA 基座模型打造的 Yi-Large API,目前价格是 20 元 / 100 万 tokens,约为 GPT-4-turbo 定价的三分之一;并表示,如果想有更高的性价比,可以选择下图第二排更具性价比的模型。

“我希望今天发布之后,无论是创业者、大公司、个人玩家,还是公益组织,都没有理由不尝试用一下我们的 Yi-Large 的 API。” 李开复说。

在移动互联网的鼎盛时期,PMF(Product-Market Fit,产品市场契合)曾是众多初创企业追求的核心目标。

然而,大模型时代的到来,带来了很多变革。

两个时代在创业基础设施层面存在着决定性的差异

譬如,在移动互联网时代,用户规模增长所带来的边际成本很低。

但是在大模型时代,模型训练和推理成本构成了每一个创业公司必须要面临的增长陷阱。用户增长需要优质的应用,而优质应用离不开强大的基座模型,强大基座模型的背后往往是高昂的训练成本,接着还需要考虑随用户规模增长的推理成本。

因此,李开复认为,PMF 这一概念已经不能完整定义以大模型为基础的 AI-First 创业,应当引入 Technology(技术)与 Cost(成本)组成四维概念。

这就是 TC-PMF

李开复表示:

做 Technology-Cost Product-Market-Fit(TC-PMF),技术成本和产品市场契合度,尤其推理成本下降是个 “移动目标”。
这比传统 PMF 难上一百倍。

他介绍了零一万物的 TC-PMF 方法论

首先是全球化布局

零一万物的目标是成为一家全球化的大模型公司。去年,欧美市场已经历 GPT 时刻,用户对 AI 应用的熟悉程度高,商业化进展较快,因此,零一万物选择先基于全球顶尖模型打造零一万物的海外产品,验证 TC-PMF。

今年,零一万物则开始接用自己的 SOTA 基座模型,不断完善产品的用户体验。

据介绍,零一万物海外 2C 产品,今年预计单款产品收入过亿元,产品 ROI 接近 1。

第二是模基共建

零一万物认为,模型的训练、服务、推理设计,与底层 Infra 架构和模型结构必须高度适配。目前,零一万物全栈 AI Infra,端到端实现全球最先进的 FP8 训练框架,也是目前国内唯一达到这个成绩的队伍。

在多方面优化后,零一万物千亿参数模型训练成本,同比降幅达一倍之多。

第三则是模应一体,简单来说,就是产品从真实用户体验出发,和模型迭代形成正循环。

去年 9 月起,零一万物率先出海验证 TC-PMF,模型一上线立即和产品形成用户飞轮。

同时,运用自研性能 / 召回率最佳的向量数据库笛卡尔,零一万物部署成本只需要之前采购的第三方的 18%。

今天万知体验这么丝滑速度这么快,“一部分的理由就是来自于零一万物的 RAG 工程,来自我们自研的向量数据库”。

最后一点是 Al-First

李开复在现场谈到,应用创新需要清晰回答 When、How、Who。

去年 3 月下旬,创新工场董事长兼 CEO 李开复正式宣布以 Project AI2.0 之名入局大模型。

3 个月后,李开复带麾下 AI 大模型公司零一万物正式对外发声,这也是创新工场塔尖孵化的第 7 家公司。

11 月,零一万物的首款开源大模型——Yi 系列大模型正式亮相,共有两款,分别是 Yi-34B 和 Yi-6B。成为彼时唯一成功登顶 HuggingFace 的国产大模型,且以 34B 的大小碾压 Llama-2 70B 和 Falcon-180B 等一众大尺寸大模型。

12 月,Yi-34B-Chat 公布新成绩,在 Alpaca 经认证的模型类别中,以 94.08% 的胜率,超越 LLaMA2 Chat 70B、Claude 2、ChatGPT。

今年以来,零一万物动作频频。

1 月,零一万物交出多模态大模型答卷,同属 Yi 系列,同样具有两个版本:Yi-VL-34B 和 Yi-VL-6B,面向全球开源。

官方给出的测试数据是,Yi-VL-34B 在英文数据集 MMMU 上准确率 41.6%,仅次于准确率 55.7% 的 GPT-4V,超越一系列多模态大模型。

紧接着,来 3 月,零一万物还在提速。

90 亿参数 Yi-9B 紧锣密鼓地面世了。它号称 Yi 系列中的 “理科状元”,“恶补” 了代码数学,同时综合能力也没落下。

尤其要提到,Yi-9B 对开发者格外友好,Yi-9B(BF 16)和其量化版 Yi-9B(Int8)都能在消费级显卡上部署

仍是 3 月,零一万物 API 开放平台出场,共为开发者提供三个版本的模型,支持 200K 上下文窗口,并具备多模态能力。

进入 5 月,就在几天前,零一万物正式官宣了一站式 AI 工作平台——万知

它可以做会议纪要、周报、写作助手,还可以速读任何文档,帮你做 PPT。

更关键的是,它更适合中国职场宝宝体质,是为国内打工人量身打造的神级生产力工具。

现在,李开复每天要在万知上进行 100 条左右的提问,了解产品的最新使用体验,及时反馈 badcase。

他提到,OpenAI 是融了超级超级多的钱,先追求 GPU,其次考虑应用,零一万物的模式则是用更少的芯片、更低的成本,找到 TC-PMF。

做一个伟大的大模型公司,底层不能差,但不能只有底层。
同样重要的是,应用怎么开创,怎么让做产品的人也懂模型,懂模型的人也做应用。
我们当然相信 AGI 会发生,我们也会推进 AGI 的发生,但同时我们是务实的,我们的精力不会花在行业预测上,也不会把大力出奇迹作为唯一思维。OpenAI 可以去尝试这条道路,但这不会是我们走的道路。

活动最后,李开复分享道,一年前,他就跟投资人自愿主动承诺:10 年内自己不会套现。

他说:

“我认为套现最好的方式是赶快上市,这是我们未来努力的方向。”

注册登录 后评论
    // 作者
    量子位 发布于 掘金
    • 0
    // 本帖子
    分类
    关键词
    // 相关帖子
    Coming soon...
    • 0
    李开复:零一万物2C单款产品今年预计收入过1亿元,产品ROI接近1量子位 发布于 掘金