【Python大语言模型系列】大语言应用服务API接口开发案例+源码
这是我的第376篇原创文章。
一、引言
使用 Flask 创建一个简单的 API 接口,该接口接收用户输入的文本,并调用一个大模型(例如使用 OpenAI 的 API)来检测这段文本中是否包含脏话。下面是一个简单的实现示例。
二、实现过程
2.1 接口开发
代码示例:
from flask import Flask, request, jsonify
import openai
app = Flask(__name__)
# 请替换为你的 OpenAI API 密钥
openai.api_key = 'xxxx'
openai.api_base = 'xxxx'
def check_for_profane_language(text):
# 这里可以使用 OpenAI 的 API 来检测脏话
try:
# 使用 ChatGPT 接口
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "你是一个可以检测文本是否包含脏话的助手。"},
{"role": "user", "content": f"请判断以下文本是否包含脏话:\n\n{text}\n\n请只返回 '包含' 或 '不包含'。"}
],
max_tokens=20,
temperature=0
)
return response['choices'][0]['message']['content'].strip()
except Exception as e:
return str(e)
@app.route('/check_swearing', methods=['POST'])
def check_swearing():
data = request.json
text = data.get('text', '')
if not text:
return jsonify({'error': '请提供文本'}), 400
result = check_for_profane_language(text)
return jsonify({'result': result})
if __name__ == '__main__':
app.run(host='0.0.0.0', debug=True)
说明:
这个代码段创建了一个 Flask 应用,并定义了一个 /check_swearing 的 POST 接口。用户需要以 JSON 格式发送请求,要求格式为 {"text": "用户输入的文本"}。
check_for_profane_language函数:
函数通过调用 OpenAI 的 API 检测输入文本中是否包含脏话。返回结果是一个 JSON 格式,其中包含检测结果。
2.2 接口测试
使用方法:
启动 Flask 应用:在命令行中运行上述代码。发送一个 POST 请求到 http://127.0.0.1:5000/check_swearing,请求体为 {"text": "要检测的文本"}。
注意事项:
请确保将API_KEY替换为你自己的 OpenAI API 密钥。根据 OpenAI 的使用政策和定价,可能会产生费用,确保在使用时了解相关限制。
import requests
url = "http://127.0.0.1:5000/check_swearing" # 替换为实际服务地址
headers = {"Content-Type": "application/json"}
payload = {"text": "你是个250"}
response = requests.post(url, json=payload, headers=headers)
print(response.json())
if response.status_code == 200:
result = response.json()
print("检测结果:", result['result'])
else:
print("请求失败:", response.status_code, response.text)
响应结果:
作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。
原文链接: