2月6日消息,谷歌发布博文,邀请所有 Gemini 应用用户,访问最新 Gemini 2.0 Flash 应用模型,并放开 2.0 Flash Thinking 推理实验模型。 2.0 Flash 模型最初于 2024 年 I/O 大会上亮相,凭借其低延迟和高性能,迅速成为开发者社区中的热门选择。该模型适用于大规模、高频率的任务,能够处理多达 100 万 tokens 的上下文窗口,展现出强大的多模态推理能力。Gemini 2.0 Flash 模型可以和 YouTube,Google Search 和 Google Maps 在内的应用程序进行交互,在多个应用场景下帮助用户发掘和拓展知识。 Gemini 2.0 Flash Thinking 模型基于 2.0 Flash 的速度和性能,这一模型经过训练,能够将提示分解为一系列步骤,从而增强其推理能力并提供更优质的响应。2.0 Flash Thinking Experimental 模型展示了其思考过程,用户可以看到其为何以某种方式回应、其假设是什么,并追踪模型的推理逻辑。这种透明性使用户能更深入理解模型的决策过程。