Ollama:
官方安装程序
llama.cpp:
编译安装方式,v100架构比较老,建议编译安装稳定
地址:https://github.com/ggml-org/llama.cpp

运行:
cmake -B build -DGGML_CUDA=ON cmake --build build --config Release
运行编译指令:
cmake -B build -DGGML_CUDA=ON -DCMAKE_BUILD_TYPE=Debug
cmake --build build --config Debug -j16
运行网页端,进入/build/bin 中,终端运行
./llama-server --model /home/xx/LLM/models/models_all/Qwen3.5-35B-A3B-Q3_K_S.gguf --host 0.0.0.0 --port 8080
LMstudio:
官网下载 安装包进行安装
VLLM
正在学习
网址:https://openclaw.ai/
推荐安装方式:
1、一键脚本安装(省事情,下载较慢,建议开魔法)
curl -fsSL https://openclaw.ai/install.sh | bash
2、使用npm 继续安装
安装位置:/home/xx6/.openclaw
注意事项:
nodejs:要22以上:v24.14.0
npm版本问题: 10.9.4
# Install OpenClaw npm i -g openclaw
Meet your lobster
openclaw onboard
配置环境
🦞目录介绍
🏠 Workspace 目录说明
📂 工作区位置
位置: /home/gy/.openclaw/workspace/
📄 核心配置文件
1.
AGENTS.md - 工作区规则手册
作用: 定义 AI 助手在工作区中的行为准则
内容模板:
- Name: 用户姓名
- What to call them: 称呼方式
- Pronouns: 代词
- Timezone: 时区
- Notes: 个人偏好、项目、兴趣等
- TOOLS.md - 本地工具配置笔记
作用: 记录环境特定的配置信息
内容模板:
- Name: AI 名称
- Creature: AI 类型(AI/机器人/幽灵等)
- Vibe: 性格特征
- Emoji: 签名表情
- Avatar: 头像图片路径
- HEARTBEAT.md - 心跳检查任务列表
作用: 配置定期自动检查的任务
当前状态: 空文件(默认跳过心跳 API 调用)
说明: 首次启动后应删除此文件
📅 记忆目录
文件命名: YYYY-MM-DD.md
🔄 工作流程示意
用户消息
↓
[OpenClaw 主程序]
↓
读取配置文件
├─ SOUL.md (人格)
├─ USER.md (用户信息)
├─ AGENTS.md (行为规则)
└─ memory/YYYY-MM-DD.md (当日上下文)
↓
调用 Skills (如果需要)
└─ 从 ~/.openclaw/extensions/openclaw-lark/skills/
↓
执行操作
├─ 读取文件
├─ 执行命令
├─ 调用 API
└─ 查询网络
↓
生成回复
↓
更新记忆 (可选)
├─ 更新 daily notes
└─ 更新 MEMORY.md (重要信息)
到此这篇关于ubuntu (V100)中 部署openclaw,并链接飞书的文章就介绍到这了,更多相关openclaw链接飞书内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/248282.html