本文主要描述如何在CentOS Linux操作系统中安装部署OpenClaw以及对接阿里云千问大模型服务。
阿里云大模型平台安装部署千问大模型服务
登录阿里云大模型部署平台:
安装运行大模型的支撑工具:
pip install 'git+https://github.com/sgl-project/sglang.git#subdirectory=python&egg=sglang[all]'
使用支撑工具运行大模型服务:
SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path Qwen/Qwen3.5-2B --port 8000 --tp-size 1 --mem-fraction-static 0.8 --context-length
测试大模型接口服务:
curl http://127.0.0.1:8000/model_info
测试大模型接口服务:
curl http://127.0.0.1:8000/v1/chat/completions
-H "Content-Type: application/json"
-d '{
"model": "Qwen/Qwen3.5-2B",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "请简要介绍一下量子计算。"}
],
"temperature": 0.7,
"max_tokens": 512
}'
在阿里云大模型部署平台中创建API Key,用于OpenClaw远程调用:
CentOS Linux操作系统安装部署OpenClaw
登录本地CentOS Linux操作系统,开始安装部署OpenClaw:
curl -fsSL https://openclaw.ai/install.sh | bash
在CentOS Linux操作系统中配置系统参数:
sudo systemctl edit openclaw-gateway.service
[Service]
Environment=OPENCLAW_NO_RESPAWN=1
Environment=NODE_COMPILE_CACHE=/var/tmp/openclaw-compile-cache
Restart=always
RestartSec=2
TimeoutStartSec=90
使用本地模式配置OpenClaw:
openclaw onboard –mode local
使用手工配置:
使用重新配置:
使用完全配置:
设置大模型为阿里云千问:
设置阿里云千问大模型的型号:
设置阿里云千问大模型的API Key:
设置网关的基本属性:
忽略设置网络通道(在web管理控制台中设置):
忽略设置网页搜索(在web管理控制台中设置):
忽略设置技能(在web管理控制台中设置):
忽略设置插件(在web管理控制台中设置):
安装设置完成,使用以下链接访问web管理控制台:
重新启动网关服务:
openclaw gateway --port 18789
查看网关服务的运行状态:
openclaw gateway status
查看OpenClaw的运行状态:
openclaw status
在浏览器中访问OpenClaw的web管理控制台:
在web管理控制台中与阿里云千问大模型对话:
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/271838.html