硅谷顶级 VC 如何看语音 AI?Greylock 合伙人揭秘 Voice Agent 构建的三层策略
来自社区伙伴深思圈:
你有没有想过,为什么和朋友打电话如此自然,但让AI理解你的语音却如此困难?我们每天都在用语音交流,从早上叫醒Siri到晚上和家人通话,语音似乎是人类最直观的交流方式。但当我们试图让机器也用这种方式与我们互动时,却发现背后隐藏着巨大的技术挑战。
最近读到 Greylock 合伙人 Sophia Luo 的一篇深度技术分析(https://greylock.com/greymatter/voice-agents-easy-to-use-hard-to-build/),她详细剖析了语音 AI agent 的技术架构和挑战。作为一个在AI领域深耕多年的投资人,Sophia的观察让我重新思考了语音AI的复杂性。她指出了一个看似矛盾的现象:语音交互对用户来说极其自然,但对开发者来说却是技术栈中最难攻克的部分之一。这种反差不仅揭示了技术的复杂性,也解释了为什么即使在AI大爆发的今天,真正高质量的语音AI产品仍然稀少。
我在过去几年里接触了无数AI产品,从文本生成到图像创作,但语音AI始终给我一种"几乎到了,但还没有"的感觉。每次体验那些号称革命性的语音助手时,总会在某个关键时刻被延迟、误解或者不自然的声音打断沉浸感。Sophia的分析让我明白,这不是某个公司工程能力的问题,而是整个技术栈固有的复杂性造成的。从她的研究中,我看到了语音AI面临的根本挑战,也看到了这个领域未来的机会和方向。
语音AI技术栈的三层架构
Sophia在分析中将语音AI的技术栈分为三个层次,每一层都代表着不同的技术投入和产品策略。我觉得这个分层框架非常有启发性,因为它揭示了不同公司选择不同路径的根本原因。
最底层是核心基础设施层(Core Infrastructure)。在这一层工作的团队需要从头构建整个语音架构,管理从跨平台音频SDK到实时监控,再到边缘环境部署的所有组件。他们还要支持检索增强生成(RAG)、外部系统集成和特定应用逻辑。这种方法需要深厚的基础设施和语音专业知识,但提供了最高级别的灵活性和控制能力。我理解为什么大公司愿意投入这么多资源在这一层——当你需要处理数百万用户的语音请求时,任何小的优化都能带来巨大的成本节约。
中间层是框架和开发者平台(Frameworks & Developer Platforms)。像Vapi和Retell这样的平台提供了减少构建自定义agent所需工作量的框架,开箱即用地提供函数调用、提示链和webhook支持。这些平台深受那些不想投入工程资源从零开始构建所有必需技术基础设施,但仍希望快速实现灵活、可配置基础设施的团队青睐。我观察到越来越多的中型公司选择这条路径,因为它在开发速度和技术控制之间找到了很好的平衡点。
最上层是端到端应用(End-to-End Applications)。这一层的公司通常构建自己的核心基础设施,为客户支持、医疗保健和家庭服务等细分领域提供全方位语音agent服务,向最终客户屏蔽技术复杂性。像Netic、Cresta、Bland和Simple这样的团队与最终用户密切合作进行实施,经常接入知识库、API和业务逻辑。在这一层,工作流集成和强大的市场推广策略最为重要。
我认为这种分层反映了语音AI市场的成熟度。与其他AI领域不同,语音AI的技术门槛高到足以支撑多层的生态系统。每一层都有其存在的合理性,也都面临着不同的挑战和机会。这种多层架构也解释了为什么语音AI领域的竞争格局如此复杂——不同层次的公司并不直接竞争,而是在各自的层次上寻找最优解。
语音AI的技术内核:看似简单的复杂性
Sophia详细分析了当前生产级语音系统的技术架构,大多数遵循三部分架构:语音转文本(STT)模型、大语言模型(LLM)和文本转语音(TTS)模型。大多数STT-LLM-TTS架构还集成了语音活动检测(Voice Activity Detection, VAD)层来检测用户何时开始和结束说话。
这种看似直观的架构背后隐藏着巨大的复杂性。我特别认同Sophia提到的一个观点:尽管端到端语音对语音(S2S)模型是一个有前景的替代方案,能够跳过从音频到文本再回到音频的中间转换,但目前还没有为大多数生产用例做好准备,主要是因为幻觉增加、函数调用限制、推理时间较慢和推理能力较弱。
我在实际体验中也感受到了这种技术选择的影响。使用STT-LLM-TTS架构的语音助手往往在理解复杂指令方面表现更好,但声音听起来不够自然。而那些声音更自然的系统,往往在处理复杂任务时表现不佳。这种权衡反映了当前技术的局限性,也指出了未来发展的方向。
Sophia指出的一个关键洞察是,无论使用哪种架构,提供高质量实时语音交互的根本挑战都是复杂的,需要解决整个技术栈的问题。这让我想起软件工程中的一个经典难题:分布式系统的复杂性往往不在于单个组件,而在于组件之间的交互。语音AI也是如此,真正的挑战在于让STT、LLM和TTS这三个组件无缝协作,同时保持低延迟和高质量。
延迟:语音AI的生死线
在Sophia分析的所有技术挑战中,延迟可能是最关键的一个。她提到,即使在理想条件下,WebRTC(低延迟音频传输的标准)在每个方向通常会引入大约250毫秒的延迟,这就创造了大约500毫秒的基线延迟。而在后端,STT、LLM和TTS模型通常按顺序调用,还可能涉及额外网络请求的函数调用,每个步骤都会增加延迟。
我深刻理解为什么延迟对语音交互如此致命。在文本交互中,用户可以接受几秒钟的等待时间,甚至会利用这个时间思考下一步操作。但在语音交互中,任何超过700毫秒的延迟都会让对话感觉不自然,破坏交互的流畅性。这种对延迟的极度敏感性,使得语音AI的工程挑战远超其他AI应用。
Sophia提到的投机性技术特别有趣:一些系统会在结束检测器完全确定用户已完成说话之前就发送LLM请求。虽然这可能导致冗余的推理调用,但能显著改善平均延迟。这种设计选择体现了生产级语音agent在速度、成本和交互质量之间的持续权衡。我认为这种权衡思维是语音AI工程师必须具备的核心能力——不是追求完美,而是在各种约束条件下找到最优解。
从商业角度看,延迟问题也解释了为什么很多语音AI公司选择专注于特定场景。在客服场景中,用户可能更容忍一些延迟,因为他们期望得到准确的答案。但在娱乐或社交场景中,任何明显的延迟都会破坏体验。这种场景差异为不同的技术选择和商业策略提供了合理性。
函数调用编排:让AI真正做事的关键
Sophia对函数调用编排(Function Calling Orchestration)的分析让我看到了语音AI与传统聊天机器人的根本区别。函数调用允许模型获取数据和执行操作,但在语音环境中,这变得异常复杂。语音agent必须不仅决定调用哪个函数,还要确定调用顺序、参数设置以及何时暂停等待用户输入——所有这些都要在严格的延迟约束和非确定性环境中完成。
我特别关注Sophia提到的函数调用类型:呼叫转接决策、升级到人工agent、数据查找、多步任务和复杂分支工作流。这些功能看似简单,但实际实现起来极其困难。想象一下,一个语音助手需要决定是否将客户转接给人工客服。它不仅要理解客户的问题复杂性,还要评估自己解决问题的能力,同时考虑当前的业务规则和客户等待时间。这种决策需要的不仅是技术能力,还有对业务逻辑的深度理解。
我在观察不同语音AI产品时发现,函数调用编排能力往往是区分产品质量的关键因素。那些只能进行简单对话的语音助手很快就会让用户失去兴趣,而能够实际完成任务的语音agent才有持久的价值。但后者的技术复杂性要高出几个数量级。这也解释了为什么大多数成功的语音AI公司都选择专注于特定的垂直领域——只有深入理解特定场景的业务流程,才能设计出有效的函数调用编排策略。
从产品设计角度,函数调用编排也对用户体验提出了新要求。用户需要理解语音助手的能力边界,知道什么任务可以通过语音完成,什么任务需要其他方式。这种用户教育比传统软件更加复杂,因为语音交互的自然性会让用户高估系统的能力。如何在保持交互自然性的同时,清晰传达系统边界,是语音AI产品设计的核心挑战之一。
幻觉和护栏:语音AI的安全边界
Sophia强调,在高风险或受监管领域避免幻觉至关重要,特别是当语音agent处理医疗保健、金融和其他高度监管行业的敏感工作流时。这让我想到语音AI面临的一个独特挑战:错误的代价更高。
在文本交互中,用户可以仔细阅读和验证AI的回复。但在语音交互中,信息传递的速度和方式都不利于用户进行实时验证。用户更容易被语音的权威性所影响,特别是当AI的声音听起来专业和自信时。这种心理效应使得语音AI的幻觉问题比文本AI更加危险。
Sophia指出的语音特定错误特别值得关注:发音错误、不当语调或语音改变。我注意到这些问题往往比内容错误更容易被用户察觉和记住。一个发音错误可能会立即破坏用户对系统专业性的信任,即使系统在其他方面表现完美。这种对语音质量的高敏感性,要求语音AI系统在护栏设计上比文本系统更加严格。
我认为护栏设计将成为语音AI公司的核心竞争力之一。不同行业和应用场景需要不同类型的护栏,这为专业化公司创造了机会。一个专注于医疗领域的语音AI公司,需要对医疗术语、诊断流程和法规要求有深入理解,才能设计出有效的护栏系统。这种专业化要求也解释了为什么通用语音AI很难快速占领所有市场。
从技术实现角度,语音护栏的实时性要求也带来了独特挑战。与文本系统不同,语音系统无法在生成完整回复后再进行检查,而必须在生成过程中实时监控和调整。这要求护栏系统具备与语音生成同样的低延迟特性,技术复杂度进一步提升。
中断和暂停:模拟人类对话的复杂性
Sophia对中断和暂停处理的分析让我深刻理解了为什么自然对话如此难以模拟。处理"嗯"、"是的"、"等等"、"不"和重叠语音等中断,以及区分用户是在与agent说话还是与房间里其他人说话,需要的不仅仅是基本的语音活动检测。
我特别认同她提到的状态管理复杂性:AI必须检测到中断发生了,理解中断期间说了什么,确定是否暂停、修订或丢弃之前的回复。它还需要保留上下文,比如知道自己刚才在说什么,并决定是恢复原来的思路、转向用户引入的新话题,还是并行管理两者。这需要精确的实时校准和复杂的状态管理来跟踪和优先处理对话线程。
我在日常对话中意识到,人类处理这些情况是如此自然,以至于我们很少意识到其复杂性。但当我试图从技术角度分析时,发现这需要多层次的认知处理:语音识别、语义理解、意图判断、上下文管理和响应策略选择。每一层都可能出错,而错误会快速累积,导致对话体验的崩溃。
Sophia区分了半双工系统(一次只能有一方说话)和全双工系统(双方可以同时说话)的差异,后者需要更高级的重叠语音和轮流处理。我认为这种技术选择反映了产品策略的差异。半双工系统更容易实现,但用户体验不够自然。全双工系统提供更自然的体验,但技术复杂度和成本都大幅提升。
从商业应用角度,中断处理能力往往决定了语音AI在特定场景下的可用性。在客服场景中,用户经常需要打断AI提供额外信息或纠正理解错误。如果系统无法优雅地处理这些中断,用户会快速转向人工客服,语音AI的价值就大打折扣。这也解释了为什么很多语音AI公司在某些场景下选择保留人工备选方案。
语音细节:魔鬼就在细节中
Sophia提到的语音细节处理让我意识到,语音AI面临的挑战远超我之前的认知。处理口音、不常见的名字、电话号码、地址和品牌术语在嘈杂环境中仍然容易出错。她举的例子特别生动:汽车经销商的语音agent应该正确发音汽车品牌,但这不是TTS模型自动编码的功能。其他例子包括说"9-1-1"而不是"九百一十一",或者"MIT"而不是"mitt"。
这些看似微小的细节却可能决定用户体验的成败。我想象一个客户致电汽车经销商咨询"BMW"信息,但语音AI却发音成"B-M-W"或其他错误读音,客户会立即质疑这个系统的专业性。这种细节错误的影响远超其比例,因为它们直接影响用户对系统可信度的判断。
我特别关注Sophia提到的上下文相关性。同样是"911",在紧急情况下应该读作"nine-one-one",在历史讨论中可能读作"nine eleven",在地址中可能读作"nine hundred eleven"。这种上下文理解需要的不仅是语音技术,还有对应用场景的深度理解。这也解释了为什么通用语音AI很难在所有场景下都表现完美。
从技术实现角度,这些细节处理需要大量的特殊化工作。每个行业、每个应用场景都有自己的术语、缩写和发音习惯。这种特殊化需求为专业语音AI公司创造了护城河,也解释了为什么语音AI市场会出现大量垂直化的产品。一个在医疗领域深耕的语音AI公司,会对医疗术语的正确发音投入大量精力,这种投入很难被通用系统快速复制。
我也注意到,这些细节问题往往在演示环境中不明显,但在真实使用中会被放大。这给语音AI的销售和推广带来了挑战——如何在有限的演示时间内展示系统在这些细节方面的能力?这也要求买方在评估语音AI系统时,必须进行足够真实和全面的测试。
背景噪音和多说话者检测:现实世界的复杂性
Sophia强调,区分用户的声音和其他说话者或环境噪音对于准确的转录和理解至关重要。现实世界环境很少提供干净的音频,而强健的说话者分离(diarization)在许多生产设置中仍然是一个未解决的问题。
我深刻理解这个挑战的现实意义。在办公室环境中,语音AI需要区分用户的指令和背景的同事对话。在家庭环境中,它需要知道用户是在和它说话,还是在和家人交流。在客服场景中,它可能需要处理用户在嘈杂环境中的来电。每种环境都有其独特的声学特征和挑战。
Sophia提到的交互式语音应答(IVR)系统、等待音乐和其他非语音音频的处理,让我意识到语音AI面临的挑战远不止理解人类语音。在实际应用中,语音AI经常需要与现有的电话系统集成,处理各种音频信号。这种集成能力往往决定了语音AI在传统业务环境中的可用性。
我特别关注多说话者场景的复杂性。在电话会议或多人对话中,语音AI需要识别谁在说话,理解对话的结构,甚至可能需要分别回应不同的说话者。这种能力对于会议助手、电话客服等应用至关重要,但技术实现极其困难。当前大多数语音AI系统都避免或简化了这些场景,这也限制了它们的应用范围。
从产品设计角度,背景噪音处理能力直接影响了产品的可用场景。一个只能在安静环境中工作的语音助手,其应用场景会大大受限。而一个能在嘈杂环境中稳定工作的系统,则可以应用于更广泛的场景。这种能力差异也解释了为什么一些语音AI公司选择专注于特定的使用环境,比如车载场景或家庭场景。
持久的基础设施需求:语音AI的技术底座
Sophia的分析中最有价值的部分之一是对持久基础设施需求的识别。她指出,无论团队是从头构建语音agent、利用开发者平台和框架,还是部署完全托管的应用程序,某些基础设施能力都是基础性的。
她特别强调的可靠性和质量需求让我看到了语音AI的技术门槛。在实践中,可靠性和质量体现在三个方面:实际语音本身的质量、对话内容和上下文记忆、以及对话流程和流可靠性。每个方面都需要专门的技术解决方案和持续的优化。
我特别认同她对语音特定幻觉的关注:意外笑声、品牌名称或实体的发音错误、电话和账号错误念读,或缩写发音错误。这些问题看似微小,但在专业环境中可能造成严重后果。想象一个银行的语音助手错误地念出客户的账号,或者医疗助手错误发音药物名称,这种错误的影响远超技术层面。
Sophia提到的对话流程和流可靠性也特别重要。语音agent需要避免尴尬的暂停、中断或轮流出错。同样重要的是底层流可靠性,包括处理丢包、重连和抖动等问题。我观察到,这些较低级别的问题虽然经常被忽视,但能实质性地降低感知的语音agent质量和响应性。
从商业角度看,这些基础设施需求创造了显著的技术壁垒。不是每个公司都有能力和资源来解决这些底层技术问题,这为专业的基础设施提供商创造了机会。同时,这些需求也解释了为什么语音AI领域的整合程度相对较低——技术复杂性使得垂直整合变得困难和昂贵。
我也注意到,这些基础设施需求在高度监管的行业中变得更加严格。在金融服务和医疗保健等领域,安全和合规标准是不可妥协的。这种监管要求进一步提高了技术门槛,也为那些能够满足这些要求的公司创造了护城河。
安全和合规:语音AI的信任基础
Sophia特别强调了在高度监管环境中的安全和合规要求,这让我深刻理解了语音AI商业化面临的挑战。与文本AI不同,语音AI的错误更难发现和纠正,这使得安全性变得更加关键。
我特别关注语音数据的隐私保护问题。语音包含了大量个人信息,不仅包括说话内容,还包括口音、情绪状态、健康状况等敏感信息。如何在提供有效服务的同时保护这些隐私信息,是语音AI公司必须解决的核心问题。这种隐私保护需求也推动了边缘计算和本地处理技术的发展。
合规要求在不同行业有显著差异。医疗行业需要符合HIPAA等健康信息保护法规,金融行业需要满足反洗钱和客户识别要求,政府部门有自己的安全标准。每种要求都需要特定的技术解决方案和流程设计。这种复杂性解释了为什么很多语音AI公司选择专注于单一行业。
我也观察到,合规要求往往与用户体验形成张力。更严格的安全措施通常意味着更复杂的验证流程和更保守的AI行为,这可能影响交互的自然性和效率。如何在安全和体验之间找到平衡,是语音AI产品设计的关键挑战。
从技术架构角度,安全和合规要求推动了语音AI系统设计的演进。传统的云端处理模式在某些场景下可能无法满足数据本地化要求,这推动了混合部署和边缘计算的采用。这种技术演进也为基础设施提供商创造了新的商业机会。
我对语音AI未来的思考
基于Sophia的深度分析和我自己的观察,我认为语音AI正处在一个关键转折点。技术的复杂性确实很高,但正是这种复杂性创造了持久的竞争优势和商业机会。
我预测语音AI领域会出现明显的分层和专业化趋势。底层基础设施将由少数几家技术实力雄厚的公司主导,中间层框架会出现多家专业化提供商,应用层则会高度分散和垂直化。这种结构类似于云计算的发展模式,但语音AI的技术门槛更高,分层会更加明显。
我特别看好在特定垂直领域深耕的语音AI公司。医疗、法律、金融等专业领域有着独特的术语、流程和合规要求,这些领域的语音AI需要深度的行业知识和长期的积累。通用系统很难快速进入这些领域,这为专业化公司创造了护城河。
从技术发展趋势看,我认为端到端语音模型(S2S)最终会成为主流,但这个过程可能比预期更长。当前的STT-LLM-TTS架构虽然复杂,但在可控性和可靠性方面有优势。在商业应用中,可靠性往往比自然性更重要,这延缓了S2S模型的采用速度。
我也看到了边缘计算在语音AI中的巨大潜力。随着专用AI芯片的发展和模型压缩技术的进步,在设备端运行高质量语音AI变得越来越可行。这不仅能解决延迟和隐私问题,还能降低运营成本。我预期未来几年会看到更多混合架构的出现,将部分处理迁移到边缘设备。
最后,我认为语音AI的发展会推动整个AI产业的技术进步。语音交互对实时性、可靠性和自然性的极高要求,迫使技术提供商在算法优化、硬件加速、系统架构等方面不断创新。这些创新最终会惠及整个AI生态系统。
语音AI可能是最难做的AI应用之一,但也可能是最有价值的。当我们最终突破技术障碍,实现真正自然、可靠、实用的语音交互时,它将彻底改变人们与技术的关系。那时,Sophia分析的这些技术挑战将成为行业发展的重要里程碑。
结尾

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么