Thinking Machines 推进全双工 AI 对话
TechCrunch AI··作者 Connie Loizos
关键信息
公司将这种方法称为“全双工”,即同时进行听和说,而不是大多数 AI 聊天系统常见的轮流对话模式。它同时强调这仍然只是研究预览,因此除了基准测试中的 0.40 秒外,实际体验、稳定性和真实场景下的延迟仍未得到验证。
资讯摘要
Thinking Machines Lab 是由前 OpenAI CTO Mira Murati 于去年创立的 AI 初创公司,它在周一公布了一个新的对话式 AI 方向。公司推出了所谓的“交互模型”,目标是让 AI 更像实时对话伙伴,而不是一个文本输入框。与传统聊天模型必须等用户说完再回应不同,这种模型被设计为可以一边处理输入、一边生成输出。其技术术语叫做“全双工”,更接近电话通话而不是聊天记录线程。Thinking Machines 表示,TML-Interaction-Small 的响应时间可达到 0.40 秒。
公司称这一速度接近自然人类对话,并且比 OpenAI 和 Google 的同类模型更快。不过,这次发布仍然只是研究预览,而不是面向公众的产品。官方说未来几个月会推出有限研究预览,并计划在今年晚些时候进行更广泛的发布。文章也指出,这个方向本身很有吸引力,但真实体验是否真能达到技术宣传的效果,还要等用户真正上手后才能判断。

资讯正文
Thinking Machines Lab 是由前 OpenAI 首席技术官 Mira Murati 去年创立的 AI 初创公司,该公司周一宣布了一项名为 interaction models 的新东西,从本质上说,这听起来像是一种会在你说话时打断你的 AI。
目前,你用过的每一个 AI 模型工作方式都一样:你说话,它倾听;它回应,你再倾听。Thinking Machines 正试图改变这一点,打造一种能在处理你的输入的同时生成回应的模型,因此它更像一次电话通话,而不是一串文字对话。
这种方式的技术术语是“full duplex”,该公司声称其模型 TML-Interaction-Small 的响应时间为 0.40 秒,大致接近自然的人类对话速度,而且明显快于 OpenAI 和 Google 的同类模型。
不过,这仍然只是一个研究预览,而不是一款产品。公司目前还没有向公众发布它。公司表示,未来几个月内会推出一个“有限研究预览”,并计划在今年晚些时候进行更广泛的发布。
那么,这到底意味着什么?我们也不确定。基准测试的表现令人印象深刻,而其背后的理念——交互性应该成为模型的原生能力——确实很有意思。至于真实使用体验是否能达到这些技术宣称,还要等人们真正用上它之后才会知道。
来源与参考
收录于 2026-05-13