谷歌AGI底座降临!首个原生全模态嵌入模型上线,已实现全模态SOTA

分类:AI资讯 浏览量:17

什么是原生全模态Embedding?

如果说 ChatGPT 等生成式 AI 大模型是 AI 用来表达的「嘴」,那么 Embedding(嵌入)模型就是负责理解与检索的「记忆神经」。

长期以来,这条记忆神经处于割裂状态。过去让 AI「听懂」播客,必须外挂语音识别模型先转成纯文本,导致说话人略带反讽的语调、背景里刺耳的警笛声等「冗余信息」瞬间灰飞烟灭。

如今,Gemini Embedding 2 直接「生吞」MP3 音轨的波形与高分辨率图片的原始像素,那些只可意会不可言传的感官细节,终于在数学空间里找到了精确的坐标。

核心突破

1. 斩断转录节点,消除信息损耗

「原生」二字的含金量在于拒绝任何形式的妥协与翻译。模型直接处理原始数据,保留最完整的信息。

2. 打通统一坐标系,解锁跨物种搜索

当五大数据类型(文本、图像、音视频、PDF)被压缩进同一个高维向量空间,数据的边界被彻底消解。开发者能够实现极其复杂的跨模态检索:

  • 抛入一段发动机异响的录音,系统会瞬间从海量的 PDF 维修手册中精准定位到故障部件的图纸
  • 上传一张极具后现代风格的建筑照片,系统能直接召回配乐风格极其相似的影视片段

3. 架构大简化

过去拼凑一个多模态检索应用,需要维护多个独立模型、花重金购买隔离的向量数据库、再编写极度复杂的重排算法。现在,这堆乱如麻的基建被浓缩成一次简单的 API 调用。

4. 为 Agent 拼上完整的记忆拼图

Agent 往往容易显得迟钝,根本原因就在于其「记忆」是割裂的。原生全模态 Embedding 赋予了 AI 一种连贯的底层认知模式,让机器终于能像人类一样,将听到的风声、看到的画面和读过的段落,无缝融合成一段完整的记忆。

「五合一」引擎能力

  • 文本:支持超 100 种语言,上下文高达 8192 个 token
  • 图像:单次请求最多摄入 6 张图片(支持 PNG 与 JPEG)
  • 视频:长达 128 秒的动态影像
  • 音频:长达 80 秒的录音脱离了转录工具的依赖,直接听懂音轨
  • 文档:跳过常规的 OCR 提取,最高 6 页的 PDF 可被原生读取

降本魔法

Gemini Embedding 2 沿用了巧妙的「俄罗斯套娃」表示学习技术(MRL)。这项技术允许开发者像拆解套娃一样,根据自身的存储预算灵活「折叠」向量的体积。

在默认的 3072 维满血状态下,模型自然能提供极致的检索基准。但真正让人惊艳的是它向下压缩时的韧性:

  • 维度砍到 1536 维时,MTEB 多语言性能得分依然坚挺在 68.17 分
  • 即使压缩到 768 维,其跑分也仅仅微跌了 0.18 分(67.99 分)

这意味着,开发团队完全可以在几乎不牺牲核心检索质量的前提下,大幅度削减存储与计算开销。

商业身位

环顾四周,这条赛道的火药味从未如此浓烈:

  • OpenAI 的 text-embedding-3 依然死死守在纯文本阵地
  • Cohere 的 Embed v4 遗漏了音视频两块关键拼图
  • Jina v4 拿下了图文与 PDF,同样对声音和动态影像无能为力

Gemini Embedding 2 恰好填补了市场空白,成为当下唯一覆盖五大模态的商用级全能选手,实现了全模态 SOTA!

避坑指南

对于准备尝鲜的工程团队而言,有几个现实的「坑」必须提前规避:

  1. 兼容性断层:新老模型的向量空间处于不同的维度规则下。从旧版迁移的系统,必须将海量历史数据全部重新编码并重建索引。
  2. 格式与时长阈值:目前音频仅支持 MP3 与 WAV,且有 80 秒硬性上限,较长的会议录音必须自行切片。
  3. 手动归一化:在代码调用层面,若选择非默认的低维度输出(如 768 维),开发者需要外挂脚本手动进行 L2 归一化处理。

当孤立的数据孤岛被彻底贯通,庞杂的现实世界才得以在代码的深海中投下清晰的倒影。

最深远的智能革命,往往藏在那些不动声色的基础设施里,悄然将万物重塑为同一种语言。

现在,可以通过 Gemini API 或 Vertex AI 开始使用 Gemini Embedding 2 模型。

微信微博邮箱复制链接