OpenAI Response 接口格式调用
接口地址
https://www.dmxapi.cn/v1模型名称
gpt-5-proo3-progpt-5-codex
调用示例
python
"""
╔═══════════════════════════════════════════════════════════════╗
║ DMXAPI GPT-5-Pro 调用示例 ║
╚═══════════════════════════════════════════════════════════════╝
📝 功能说明:
本脚本演示如何使用 OpenAI SDK 调用 DMXAPI 的 GPT-5-Pro 模型
通过 responses.create 接口进行对话交互
═══════════════════════════════════════════════════════════════
"""
from openai import OpenAI
import json
# ═══════════════════════════════════════════════════════════════
# 🔑 步骤1: 初始化 DMXAPI 客户端
# ═══════════════════════════════════════════════════════════════
client = OpenAI(
# 🔐 DMXAPI 密钥 (请替换为您自己的密钥)
# 获取方式: 登录 DMXAPI 官网 -> 个人中心 -> API 密钥管理
api_key="sk-**********************************",
# 🌐 DMXAPI 服务端点地址
# 所有 API 请求都将发送到此基础 URL
base_url="https://www.dmxapi.cn/v1",
)
# ═══════════════════════════════════════════════════════════════
# 💬 步骤2: 创建对话请求
# ═══════════════════════════════════════════════════════════════
response = client.responses.create(
# 🤖 模型选择
# gpt-5-pro: 高级推理模型,适用于复杂问题和深度分析
model="gpt-5-pro",
# 💭 用户输入
# 您想要向模型提出的问题或对话内容
input="你好!",
# 📏 最大输出令牌数
# 控制模型响应的最大长度 (范围: 1 - 128000)
# 注意: 实际输出可能少于此值
max_output_tokens=128000,
# 🌡️ 温度参数 (范围: 0.0 - 2.0)
# 控制输出的随机性和创造性:
# - 较低值 (0.0-0.3): 输出更确定、更一致,适合事实性任务
# - 中等值 (0.4-0.8): 平衡创造性和一致性
# - 较高值 (0.9-2.0): 输出更随机、更有创意
# ⚠️ 建议只调整 temperature 或 top_p 其中之一
temperature=1,
# 🎯 核采样参数 (范围: 0.0 - 1.0)
# 控制采样的概率质量阈值:
# - 0.1: 只考虑概率最高的 10% 的词
# - 0.5: 只考虑概率最高的 50% 的词
# - 1.0: 考虑所有可能的词
# 💡 较低的值会让输出更集中,较高的值会增加多样性
# ⚠️ 建议只调整 temperature 或 top_p 其中之一
top_p=1,
# 🧠 推理配置选项
# 仅适用于 GPT-5 和 O 系列推理模型
reasoning={
# 推理精力等级:
# - minimal: 最小推理 (快速,适合简单问题)
# - low: 低等推理 (较快,适合一般问题)
# - medium: 中等推理 (平衡,适合中等难度问题)
# - high: 高等推理 (深度思考,适合复杂问题)
# 📌 注意: gpt-5-pro 模型默认且仅支持 high 级别
"effort": "high"
},
)
# ═══════════════════════════════════════════════════════════════
# 📤 步骤3: 输出响应结果
# ═══════════════════════════════════════════════════════════════
# 🖨️ 将响应对象转换为格式化的 JSON 字符串并打印到控制台
#
# 参数说明:
# - indent=2: 使用 2 个空格缩进,提高 JSON 可读性
# - ensure_ascii=False: 保留中文字符,不转义为 Unicode 编码
print(json.dumps(response.model_dump(), indent=2, ensure_ascii=False))返回示例
json
{
"id": "resp_03ed26108543ce5c00690db1dd5e2c8196885370158ad6577f",
"created_at": 1762505181.0,
"error": null,
"incomplete_details": null,
"instructions": null,
"metadata": {},
"model": "gpt-5-pro-4",
"object": "response",
"output": [
{
"id": "rs_03ed26108543ce5c00690db21b7b148196932ab91f41e19f83",
"summary": [],
"type": "reasoning",
"content": null,
"encrypted_content": null,
"status": null
},
{
"id": "msg_03ed26108543ce5c00690db21b7bd88196bfae7936ed3575cf",
"content": [
{
"annotations": [],
"text": "你好!我是你的AI助手。有什么我可以帮你的吗?比如回答问题、写作润色、翻译、编程调试、学习/旅行规划等。",
"type": "output_text",
"logprobs": []
}
],
"role": "assistant",
"status": "completed",
"type": "message"
}
],
"parallel_tool_calls": true,
"temperature": 1.0,
"tool_choice": "auto",
"tools": [],
"top_p": 1.0,
"background": false,
"conversation": null,
"max_output_tokens": 128000,
"max_tool_calls": null,
"previous_response_id": null,
"prompt": null,
"prompt_cache_key": null,
"reasoning": {
"effort": "high",
"generate_summary": null,
"summary": null
},
"safety_identifier": null,
"service_tier": "default",
"status": "completed",
"text": {
"format": {
"type": "text"
},
"verbosity": "medium"
},
"top_logprobs": 0,
"truncation": "disabled",
"usage": {
"input_tokens": 8,
"input_tokens_details": {
"cached_tokens": 0
},
"output_tokens": 299,
"output_tokens_details": {
"reasoning_tokens": 256
},
"total_tokens": 307
},
"user": null,
"content_filters": null,
"store": true
}注意事项
- API密钥安全: 请妥善保管您的API密钥,不要泄露
- 接口格式要求:
gpt-5-pro模型必须使用response接口格式调用 - 测试建议: 建议在正式环境前先进行测试调用
- 技术支持: 如遇问题可联系 DMXAPI 技术支持
© 2025 DMXAPI OpenAI 新接口
