配置并运行 LLM 扫描

配置提供程序访问权限,捕获代表性 LLM 序列,启用所需功能,并在受控测试环境中运行扫描。

开始之前

确保您拥有 Azure OpenAI 帐户。

过程

  1. 设置提供程序访问权限和密钥。请参阅配置提供程序访问权限
  2. 启用 LLM 配置并录制代表性 LLM 序列。请参阅配置 LLM 以验证 LLM 测试
  3. 如果 LLM 域与起始 URL 不同,请将其添加到“要测试的域”列表中。
  4. 可选: 如果您的工作流程需要身份验证,请在序列回放之前启用登录。
  5. 开始扫描并监控进度。如果测试环境中发生意外影响,请暂停或停止扫描。
  6. 审查调查结果、证据和补救指导。使用捕获的脚本和提示重现问题。
  7. 通过开箱即用的报告评估 LLM 风险并做好合规准备。

结果

扫描可识别漏洞并提供补救证据和指导。AppScan 在问题详细信息窗格下提供调查结果和证据,以简化诊断。 显示 LLM 漏洞的问题信息的问题详细信息页面
  • 问题信息:
    • 风险分类和严重程度。
    • LLM 测试交互显示导致 AppScan 引发漏洞的对话。
    • 由测试名称标识的受影响 LLM 漏洞。
  • LLM 交互:
    • 所有提示和响应的历史记录。
      注: 对于其他问题,这是“请求/响应”选项卡。
  • 如何修复:
    • 补救指导和参考。
    • 清除重现步骤和示例提示。

要过滤 LLM 漏洞,请在搜索问题栏中键入前缀“llm”。

在搜索结果中显示 LLM 问题的 LLM 扫描

下一步做什么

您可以生成《2025 年 LLM 应用 OWASP 前 10 大漏洞》报告。