代号002:谷歌发布两款Gemini 1.5升级生产级模型「一流数学能力,价格砍半」

全文1374字,阅读约需4分钟,帮我划重点

划重点

01谷歌发布了两款更新后的可投入生产的Gemini模型:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002。

02这两个模型基于最近的实验性模型发布,包含了对5月份在Google I/O发布的Gemini 1.5模型的重大改进。

03通过最新的更新,1.5 Pro和Flash在生产环境中更好、更快、更具成本效益。

04在更具挑战性的MMLU-Pro和数学、视觉和代码生成用例中,这两个模型的性能都有所提升。

05此外,谷歌还降低了Gemini 1.5 Pro和1.5 Flash模型的输入和输出费用,自2024年10月1日起生效。

以上内容由腾讯混元大模型生成,仅供参考

图片



刚刚谷歌的 Gemini 模型又双叒叕升级了!谷歌发布了两款更新后的可投入生产的Gemini模型:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,以及以下更新内容:

  • 1.5 Pro的价格降低了50%以上(针对提示词 (prompt) <128K的输入和输出)

  • 1.5 Flash的速率限制提升了2倍,1.5 Pro提升了约3倍

  • 输出速度提升2倍,延迟降低3倍

这些新模型基于最近的实验性模型发布,包含了对5月份在Google I/O发布的Gemini 1.5模型的重大改进。开发者可以通过Google AI StudioGemini API免费访问最新模型。对于大型企业和Google Cloud客户,这些模型也可以通过Vertex AI获得

整体质量改进,特别是在数学、长上下文和视觉方面的显著提升

Gemini 1.5系列是针对广泛的文本、代码和多模态任务设计的模型。例如,Gemini模型可以用于从1000页的PDF中提取信息,回答包含超过1万行代码的代码库中的问题,分析长达一小时的视频并从中创建有用的内容,等等

通过最新的更新,1.5 Pro和Flash在生产环境中更好、更快、更具成本效益。在更具挑战性的MMLU-Pro(流行的MMLU基准的改进版本)中,有了约7%的提升。在数学(MATH)和HiddenMath(内部保留的数学竞赛问题集)基准测试中,这两个模型分别提升了约20%。在视觉和代码生成用例中,这两个模型的性能也有所提升(范围为2-7%),特别是在评估视觉理解和Python代码生成时

图片
图1:最新的Gemini模型,各项能力(包括推理、代码和数学)上的改进情况

提升了模型响应的整体有效性,这意味着在多个主题中,拒绝或无法提供帮助的情况减少,更多的回答是有帮助的

现在,响应风格根据开发者反馈变得更加简洁,旨在提高使用便利性并降低成本。对于像摘要、问答和信息提取这类用例,更新后模型的默认输出长度比以前的模型短5-20%左右。对于用户可能偏好更长回复的聊天产品,您可以阅读提示词策略指南,了解如何让模型更详细和更具对话性

有关迁移到最新Gemini 1.5 Pro和1.5 Flash版本的更多详细信息,请查看Gemini API模型页面

Gemini 1.5 Pro

今天,谷歌宣布对最强1.5系列模型Gemini 1.5 Pro进行价格调整,输入Token价格降低64%,输出Token价格降低52%,增量缓存Token价格降低64%,自2024年10月1日起生效,适用于提示词少于128K Token的情况。结合上下文缓存,这将继续降低使用Gemini构建的成本

图片
图2:Gemini 1.5 Flash模型的定价表,列出了每百万Token的输入和输出费用

速率限制提升

为了让开发者更容易使用Gemini构建应用程序,将1.5 Flash的付费层速率限制提升至2000 RPM,并将1.5 Pro提升至1000 RPM,相比之前分别是1000和360。在接下来的几周内,预计将继续提高Gemini API的速率限制,以便开发者能够利用Gemini构建更多应用。

输出速度提升2倍,延迟降低3倍

随着最新模型的核心改进,显著减少了1.5 Flash的延迟,并大幅提升了每秒输出Token数量

图片

图3:Google Gemini模型的延迟变化

Gemini 1.5 Flash-8B实验性更新

谷歌发布了一个进一步改进的Gemini 1.5模型,名为“Gemini-1.5-Flash-8B-Exp-0924”。这一改进版在文本和多模态用例上都有显著性能提升。现在可以通过Google AI Studio和Gemini API访问该模型


⭐星标AI寒武纪,好内容不错过




图片

👇👇