0

0

Gemini Pro API安全设置详解:如何有效避免内容阻断

心靈之曲

心靈之曲

发布时间:2025-11-19 13:36:07

|

766人浏览过

|

来源于php中文网

原创

Gemini Pro API安全设置详解:如何有效避免内容阻断

gemini pro api在自定义安全设置后仍可能阻断回复。本文将详细解释为何直接设置字典无效,并提供正确的python代码示例,指导开发者通过导入`safetysetting`、`harmcategory`和`harmblockthreshold`等类,以对象列表形式配置安全阈值,从而有效管理内容审核,确保api稳定输出,避免不必要的阻断异常。

理解Gemini Pro API的安全机制与阻断问题

Google Gemini Pro API集成了强大的内容安全检测机制,旨在过滤有害、不适宜或违反政策的内容。开发者在使用API时,即使尝试通过自定义safety_settings来放宽内容限制,仍可能遇到BlockedPromptException,提示内容因安全原因被阻断。这通常是因为对安全设置的配置方式存在误解。

最初,开发者可能尝试直接将一个字典传递给safety_settings参数,例如:

def get_gemini_response(question, safety_settings=None):
    if safety_settings is None:
        safety_settings = {
            'SEXUALLY_EXPLICIT': 'block_none',
            'HATE_SPEECH': 'block_none',
            'HARASSMENT': 'block_none',
            'DANGEROUS_CONTENT': 'block_none'
        }
    # ... 调用模型 ...

然而,这种字典形式的设置方式并不能被Gemini Pro API正确解析为有效的安全配置。API期望接收的是一个特定类型的对象列表,而不是简单的字符串映射。当API收到不符合预期的设置时,它会回退到默认的安全策略,或者无法正确应用自定义规则,从而导致即使开发者意图“不阻断任何内容”(block_none),仍然会因内容被判定为高风险而触发阻断异常,例如:

BlockedPromptException: block_reason: SAFETY safety_ratings { category: HARM_CATEGORY_SEXUALLY_EXPLICIT probability: NEGLIGIBLE } safety_ratings { category: HARM_CATEGORY_HATE_SPEECH probability: HIGH } safety_ratings { category: HARM_CATEGORY_HARASSMENT probability: NEGLIGIBLE } safety_ratings { category: HARM_CATEGORY_DANGEROUS_CONTENT probability: NEGLIGIBLE }

这个异常明确指出,即使其他类别概率较低,HARM_CATEGORY_HATE_SPEECH的概率为HIGH,这足以触发默认的阻断机制。

正确配置Gemini Pro API安全设置

要正确配置Gemini Pro API的安全设置,我们需要导入特定的类,并以SafetySetting对象的列表形式来定义每个有害类别的阻断阈值。

1. 导入必要的类

首先,从vertexai.preview.generative_models和google.cloud.aiplatform_v1beta1.types.content中导入相关类:

from vertexai.preview.generative_models import (
    GenerativeModel,
    HarmCategory, 
    HarmBlockThreshold,
    GenerationResponse
)
from google.cloud.aiplatform_v1beta1.types.content import SafetySetting
  • GenerativeModel: 用于实例化Gemini模型。
  • HarmCategory: 定义了各种有害内容类别,如HARM_CATEGORY_SEXUALLY_EXPLICIT、HARM_CATEGORY_HATE_SPEECH等。
  • HarmBlockThreshold: 定义了每个有害类别的阻断阈值,如BLOCK_NONE、BLOCK_ONLY_HIGH等。
  • SafetySetting: 一个数据结构,用于封装单个有害类别的阻断策略。
  • GenerationResponse: 模型生成的响应类型。

2. 构建SafetySetting对象列表

接下来,在调用model.generate_content()时,将safety_settings参数设置为一个包含SafetySetting对象的列表。每个SafetySetting对象应指定一个category(有害类别)和一个threshold(阻断阈值)。

以下是正确配置所有常见有害类别为“不阻断”(BLOCK_NONE)的示例:

Boba.video
Boba.video

AI动漫视频生成器

下载
from vertexai.preview.generative_models import (
    GenerativeModel,
    HarmCategory, 
    HarmBlockThreshold,
    GenerationResponse
)
from google.cloud.aiplatform_v1beta1.types.content import SafetySetting

def get_gemini_response_with_custom_safety(prompt_text: str, text: str) -> GenerationResponse:
    """
    使用自定义安全设置调用Gemini Pro模型。

    Args:
        prompt_text: 包含占位符的提示模板。
        text: 填充到提示模板中的实际文本。

    Returns:
        模型的生成响应。
    """
    model = GenerativeModel("gemini-pro")

    response: GenerationResponse = model.generate_content(
        prompt_text.format(text),
        generation_config={
            "max_output_tokens": 2048,
            "temperature": 0,
            "top_p": 1,
        },
        safety_settings=[
            SafetySetting(
                category=HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
                threshold=HarmBlockThreshold.BLOCK_NONE,
            ),
            SafetySetting(
                category=HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
                threshold=HarmBlockThreshold.BLOCK_NONE,
            ),
            SafetySetting(
                category=HarmCategory.HARM_CATEGORY_HATE_SPEECH,
                threshold=HarmBlockThreshold.BLOCK_NONE,
            ),
            SafetySetting(
                category=HarmCategory.HARM_CATEGORY_HARASSMENT,
                threshold=HarmBlockThreshold.BLOCK_NONE,
            ),
        ]
    )
    return response

# 示例用法
if __name__ == "__main__":
    example_prompt = "请描述以下文本内容:{}"
    # 假设这里有一个可能触发安全审查的文本
    example_text = "一个关于争议性事件的描述,可能包含敏感词汇。" 

    try:
        # 调用自定义安全设置的函数
        gemini_response = get_gemini_response_with_custom_safety(example_prompt, example_text)
        print("Gemini Pro 响应内容:")
        for part in gemini_response.candidates[0].content.parts:
            print(part.text)

        # 打印安全评分(即使设置为BLOCK_NONE,模型仍会返回评分)
        print("\n安全评分:")
        for rating in gemini_response.candidates[0].safety_ratings:
            print(f"  类别: {rating.category.name}, 概率: {rating.probability.name}")

    except Exception as e:
        print(f"调用Gemini Pro API时发生错误: {e}")

在这个示例中,我们创建了一个包含四个SafetySetting对象的列表,每个对象都明确指定了一个HarmCategory(如HARM_CATEGORY_SEXUALLY_EXPLICIT)和对应的HarmBlockThreshold.BLOCK_NONE。这意味着对于这些特定类别的有害内容,API将尝试不进行阻断。

注意事项与最佳实践

  1. 理解BLOCK_NONE的含义: 即使将阈值设置为BLOCK_NONE,模型仍然会对内容进行评估并返回安全评分。这表示API不会主动阻断该类别的内容,但如果内容被判定为极其有害或违反Google的服务条款,底层系统仍可能介入进行阻断。BLOCK_NONE旨在为开发者提供更大的灵活性,但并非完全取消内容审核。

  2. 谨慎调整安全设置: 根据您的应用场景和法律合规性要求,谨慎调整HarmBlockThreshold。除了BLOCK_NONE,还有其他阈值选项:

    • BLOCK_ONLY_HIGH: 只阻断高概率有害内容。
    • BLOCK_MEDIUM_AND_ABOVE: 阻断中等及以上概率的有害内容。
    • BLOCK_LOW_AND_ABOVE: 阻断低等及以上概率的有害内容。 选择合适的阈值,以平衡内容自由度和平台责任。
  3. API版本兼容性: 请注意,vertexai库和google.cloud.aiplatform_v1beta1是Google Cloud AI Platform SDK的一部分。随着SDK版本的迭代,导入路径或类名可能会有细微变化。请始终查阅最新的官方文档以确保代码的兼容性。

  4. 错误处理: 即使正确配置了安全设置,仍然建议在代码中加入错误处理机制,捕获BlockedPromptException或其他可能的API异常,以便在内容确实被阻断时能进行优雅处理,例如提示用户修改输入或记录日志进行分析。

  5. 内容评估透明度: 即使内容未被阻断,GenerationResponse中仍然会包含safety_ratings信息。开发者可以利用这些评分来了解模型对内容的风险评估,从而在应用程序层面进行额外的过滤或提示。

总结

正确配置Gemini Pro API的安全设置是确保API稳定运行、有效管理内容输出的关键。通过导入SafetySetting、HarmCategory和HarmBlockThreshold等类,并以对象列表的形式传递给safety_settings参数,开发者可以精确控制每个有害类别的阻断阈值。理解这些设置的真正含义,并结合应用程序的需求进行谨慎调整,将有助于构建更健壮、更符合预期的AI应用。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

738

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

219

2023.09.04

java基础知识汇总
java基础知识汇总

java基础知识有Java的历史和特点、Java的开发环境、Java的基本数据类型、变量和常量、运算符和表达式、控制语句、数组和字符串等等知识点。想要知道更多关于java基础知识的朋友,请阅读本专题下面的的有关文章,欢迎大家来php中文网学习。

1561

2023.10.24

字符串介绍
字符串介绍

字符串是一种数据类型,它可以是任何文本,包括字母、数字、符号等。字符串可以由不同的字符组成,例如空格、标点符号、数字等。在编程中,字符串通常用引号括起来,如单引号、双引号或反引号。想了解更多字符串的相关内容,可以阅读本专题下面的文章。

649

2023.11.24

java读取文件转成字符串的方法
java读取文件转成字符串的方法

Java8引入了新的文件I/O API,使用java.nio.file.Files类读取文件内容更加方便。对于较旧版本的Java,可以使用java.io.FileReader和java.io.BufferedReader来读取文件。在这些方法中,你需要将文件路径替换为你的实际文件路径,并且可能需要处理可能的IOException异常。想了解更多java的相关内容,可以阅读本专题下面的文章。

1188

2024.03.22

php中定义字符串的方式
php中定义字符串的方式

php中定义字符串的方式:单引号;双引号;heredoc语法等等。想了解更多字符串的相关内容,可以阅读本专题下面的文章。

1163

2024.04.29

go语言字符串相关教程
go语言字符串相关教程

本专题整合了go语言字符串相关教程,阅读专题下面的文章了解更多详细内容。

191

2025.07.29

c++字符串相关教程
c++字符串相关教程

本专题整合了c++字符串相关教程,阅读专题下面的文章了解更多详细内容。

111

2025.08.07

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

23

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号