Skip to content

Gemini 系列模型使用指南

Google Gemini - 原生多模态 AI

更新于 2025 年 12 月


模型概览

Gemini 3.0 系列 (最新)

模型上下文特点适用场景
gemini-3.0-pro1M+最新旗舰复杂任务、多模态
gemini-3.0-deep-think1M+深度思考复杂推理

Gemini 2.5 系列

模型上下文特点适用场景
gemini-2.5-pro1M专业版长文档、复杂任务
gemini-2.5-flash1M快速版高性价比、实时应用
gemini-2.5-flash-lite1M极速版最低成本、高吞吐

Gemini 3.0 Pro

核心特性

  • 稀疏 MoE 架构: 更高效的计算
  • 64K 输出: 支持超长输出
  • 原生多模态: 文本、图像、音频、视频统一处理
  • 深度思考: 可控的推理深度

基础调用

python
from openai import OpenAI

client = OpenAI(
    api_key="sk-xxxxxxxx",
    base_url="https://api.bigaipro.com/v1"
)

response = client.chat.completions.create(
    model="gemini-3.0-pro",
    messages=[
        {"role": "user", "content": "分析人工智能对未来社会的影响"}
    ],
    max_tokens=8192
)

print(response.choices[0].message.content)

深度思考模式

python
response = client.chat.completions.create(
    model="gemini-3.0-deep-think",
    messages=[
        {"role": "user", "content": "证明黎曼猜想的一个特殊情况"}
    ]
)

Gemini 2.5 系列

核心优势

超长上下文

Gemini 支持高达 100 万 Token 的上下文窗口:

  • 处理整本书籍
  • 分析数小时的视频
  • 理解大型代码库

思考模型

Gemini 2.5 是"思考模型",可以在响应前进行推理:

python
# 可以控制思考预算
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {"role": "user", "content": "设计一个分布式数据库的一致性协议"}
    ]
)

极致性价比

  • Flash-Lite 版本价格极低
  • 适合大规模应用

Gemini 2.5 Pro

特点

  • 100 万上下文: 业界最长
  • 思考能力: 可控的推理深度
  • 多模态支持: 图像、音频、视频

长文档处理

python
# 处理超长文档
with open("book.txt", "r") as f:
    book_content = f.read()  # 可以是整本书

response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": f"""请阅读以下书籍内容并回答问题:

{book_content}

问题:
1. 这本书的主要论点是什么?
2. 作者使用了哪些论证方法?
3. 你认为最有说服力的章节是哪一章?为什么?"""
        }
    ],
    max_tokens=8192
)

代码库分析

python
import os

def read_codebase(directory):
    code = []
    for root, dirs, files in os.walk(directory):
        dirs[:] = [d for d in dirs if d not in ['node_modules', '.git']]
        for file in files:
            if file.endswith(('.py', '.js', '.ts', '.go', '.rs')):
                path = os.path.join(root, file)
                with open(path, 'r') as f:
                    code.append(f"// {path}\n{f.read()}")
    return "\n\n".join(code)

codebase = read_codebase("./src")

response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": f"""分析以下代码库:

{codebase}

请提供:
1. 架构概述
2. 主要模块功能
3. 潜在的改进建议"""
        }
    ]
)

Gemini 2.5 Flash

特点

  • 极速响应: 毫秒级延迟
  • 超低成本: 最具性价比
  • 思考能力: 支持可控推理

适用场景

  • 实时聊天
  • 内容分类
  • 快速摘要
  • 高并发服务
python
response = client.chat.completions.create(
    model="gemini-2.5-flash",
    messages=[
        {"role": "user", "content": "用三句话总结人工智能的发展历程"}
    ],
    max_tokens=200
)

Gemini 2.5 Flash-Lite

特点

  • 最低延迟: 首 Token 时间最短
  • 最低成本: 价格最优
  • 高吞吐: 适合大规模处理
  • 思考可选: 默认关闭思考,可按需开启

适用场景

  • 大规模分类任务
  • 内容摘要
  • 高吞吐应用
python
response = client.chat.completions.create(
    model="gemini-2.5-flash-lite",
    messages=[
        {"role": "user", "content": "分类这条评论的情感:这个产品太棒了!"}
    ],
    max_tokens=50
)

多模态使用

图像理解

python
import base64

# URL 方式
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "详细描述这张图片"},
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "https://example.com/image.jpg"
                    }
                }
            ]
        }
    ]
)

# Base64 方式
with open("chart.png", "rb") as f:
    image_data = base64.b64encode(f.read()).decode()

response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "分析这个图表的数据趋势"},
                {
                    "type": "image_url",
                    "image_url": {
                        "url": f"data:image/png;base64,{image_data}"
                    }
                }
            ]
        }
    ]
)

多图对比

python
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "比较这两张设计图的优缺点"},
                {
                    "type": "image_url",
                    "image_url": {"url": "https://example.com/design1.jpg"}
                },
                {
                    "type": "image_url",
                    "image_url": {"url": "https://example.com/design2.jpg"}
                }
            ]
        }
    ]
)

视频理解

Gemini 原生支持视频理解:

python
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "总结这个视频的主要内容"},
                {
                    "type": "video_url",
                    "video_url": {
                        "url": "https://example.com/video.mp4"
                    }
                }
            ]
        }
    ]
)

音频处理

python
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "转录并总结这段音频"},
                {
                    "type": "audio_url",
                    "audio_url": {
                        "url": "https://example.com/audio.mp3"
                    }
                }
            ]
        }
    ]
)

流式输出

python
stream = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[{"role": "user", "content": "写一篇科技文章"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

参数说明

参数说明Gemini 特点
max_tokens最大输出3.0 Pro 支持 64K
temperature随机性范围 0-2
top_p核采样范围 0-1
top_kTop-K 采样Gemini 特有
stop停止序列支持多个

定价

模型输入 ($/1M tokens)输出 ($/1M tokens)
gemini-3.0-pro$1.25$5.00
gemini-2.5-pro$1.25$5.00
gemini-2.5-flash$0.075$0.30
gemini-2.5-flash-lite$0.02$0.08

模型选择建议

任务类型推荐模型原因
长文档分析gemini-2.5-pro100 万上下文
视频理解gemini-2.5-pro原生多模态
实时对话gemini-2.5-flash速度快、成本低
大规模处理gemini-2.5-flash-lite极致性价比
最新功能gemini-3.0-pro最强能力
复杂推理gemini-3.0-deep-think深度思考

最佳实践

1. 利用长上下文

python
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": f"""以下是过去一年的所有会议记录:

{all_meeting_notes}

请:
1. 总结每个季度的主要决策
2. 识别反复出现的问题
3. 提取所有待办事项及其状态"""
        }
    ]
)

2. 多模态组合

python
response = client.chat.completions.create(
    model="gemini-2.5-pro",
    messages=[
        {
            "role": "user",
            "content": [
                {"type": "text", "text": "根据这份产品设计图和需求文档,评估实现难度"},
                {"type": "image_url", "image_url": {"url": design_image_url}},
                {"type": "text", "text": f"需求文档:\n{requirements_doc}"}
            ]
        }
    ]
)

3. 批量处理

python
import asyncio

async def process_batch(items):
    tasks = []
    for item in items:
        task = client.chat.completions.create(
            model="gemini-2.5-flash-lite",
            messages=[{"role": "user", "content": f"分类:{item}"}]
        )
        tasks.append(task)
    return await asyncio.gather(*tasks)

下一步


Gemini - 多模态 AI 的未来

BigAI Pro - 让 AI 触手可及