Skip to content

OpenAI Response 接口格式调用

接口地址

https://www.dmxapi.cn/v1

调用示例

python
"""
╔═══════════════════════════════════════════════════════════════╗
║                  DMXAPI GPT-5系列及其他模型调用示例             ║
╚═══════════════════════════════════════════════════════════════╝

📝 功能说明:
   本脚本演示如何使用 OpenAI SDK 调用 DMXAPI 的 GPT-5系列及其他模型
   通过 responses.create 接口进行对话交互

═══════════════════════════════════════════════════════════════
"""

from openai import OpenAI
import json

# ═══════════════════════════════════════════════════════════════
# 🔑 步骤1: 初始化 DMXAPI 客户端
# ═══════════════════════════════════════════════════════════════
client = OpenAI(
    # 🔐 DMXAPI 密钥 (请替换为您自己的密钥)
    # 获取方式: 登录 DMXAPI 官网 -> 个人中心 -> API 密钥管理
    api_key="sk-**********************************",
    
    # 🌐 DMXAPI 服务端点地址
    # 所有 API 请求都将发送到此基础 URL
    base_url="https://www.dmxapi.cn/v1",
)

# ═══════════════════════════════════════════════════════════════
# 💬 步骤2: 创建对话请求
# ═══════════════════════════════════════════════════════════════
response = client.responses.create(  
    # 🤖 模型选择
    # gpt-5.2: GPT-5系列模型,支持高级推理,适用于复杂问题和深度分析
    model="gpt-5.2",
    
    # 💭 用户输入
    # 您想要向模型提出的问题或对话内容(gtp-5-codex如果跑不通的话,需要改成结构化的组格式)
    input="你好!",

    # 📏 最大输出令牌数
    # 控制模型响应的最大长度 (范围: 1 - 128000)
    # 注意: 实际输出可能少于此值
    # max_output_tokens=128000,

    # 🌡️ 温度参数 (范围: 0.0 - 2.0)
    # 控制输出的随机性和创造性:
    #   - 较低值 (0.0-0.3): 输出更确定、更一致,适合事实性任务
    #   - 中等值 (0.4-0.8): 平衡创造性和一致性
    #   - 较高值 (0.9-2.0): 输出更随机、更有创意
    # ⚠️ 建议只调整 temperature 或 top_p 其中之一
    # temperature=1,

    # 🎯 核采样参数 (范围: 0.0 - 1.0)
    # 控制采样的概率质量阈值:
    #   - 0.1: 只考虑概率最高的 10% 的词
    #   - 0.5: 只考虑概率最高的 50% 的词
    #   - 1.0: 考虑所有可能的词
    # 💡 较低的值会让输出更集中,较高的值会增加多样性
    # ⚠️ 建议只调整 temperature 或 top_p 其中之一
    # op_p=1,
    
    # 🧠 推理配置选项
    # 仅适用于 GPT-5 和 O 系列推理模型
    reasoning={
        # 推理精力等级:
        "effort": "none"
    },
)


# ═══════════════════════════════════════════════════════════════
# 📤 步骤3: 输出响应结果
# ═══════════════════════════════════════════════════════════════
# 🖨️ 将响应对象转换为格式化的 JSON 字符串并打印到控制台
# 
# 参数说明:
#   - indent=2:           使用 2 个空格缩进,提高 JSON 可读性
#   - ensure_ascii=False: 保留中文字符,不转义为 Unicode 编码
print(json.dumps(response.model_dump(), indent=2, ensure_ascii=False))

返回示例

json
{
  "id": "resp_030315874d6d301e00693fc2e4ff4c8192a1bc3ec97d3172ee",
  "created_at": 1765786341.0,
  "error": null,
  "incomplete_details": null,
  "instructions": null,
  "metadata": {},
  "model": "gpt-5.2",
  "object": "response",
  "output": [
    {
      "id": "msg_030315874d6d301e00693fc2e540908192af21c52a2e4e7f3c",
      "content": [
        {
          "annotations": [],
          "text": "你好!我在。想聊什么,或者需要我帮你做什么?",
          "type": "output_text",
          "logprobs": []
        }
      ],
      "role": "assistant",
      "status": "completed",
      "type": "message"
    }
  ],
  "parallel_tool_calls": true,
  "temperature": 1.0,
  "tool_choice": "auto",
  "tools": [],
  "top_p": 0.98,
  "background": false,
  "conversation": null,
  "max_output_tokens": null,
  "max_tool_calls": null,
  "previous_response_id": null,
  "prompt": null,
  "prompt_cache_key": null,
  "prompt_cache_retention": null,
  "reasoning": {
    "effort": "high",
    "generate_summary": null,
    "summary": null
  },
  "safety_identifier": null,
  "service_tier": "default",
  "status": "completed",
  "text": {
    "format": {
      "type": "text"
    },
    "verbosity": "medium"
  },
  "top_logprobs": 0,
  "truncation": "disabled",
  "usage": {
    "input_tokens": 8,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens": 21,
    "output_tokens_details": {
      "reasoning_tokens": 0
    },
    "total_tokens": 29
  },
  "user": null,
  "billing": {
    "payer": "developer"
  },
  "store": true
}

注意事项

  1. API密钥安全: 请妥善保管您的API密钥,不要泄露
  2. 测试建议: 建议在正式环境前先进行测试调用
  3. 技术支持: 如遇问题可联系 DMXAPI 技术支持

© 2025 DMXAPI OpenAI 新接口

一个 Key 用全球大模型