OpenHarness(简称oh)是由香港大学数据科学研究院(HKUDS) 数据智能实验室开源的轻量级AI智能体驾驭框架(Agent Harness),核心定位是为大语言模型(LLM)提供完整的运行时基础设施,将普通LLM快速转化为具备工具调用、记忆管理、安全治理、多智能体协同能力的全能AI助手。
该项目于2026年4月1日正式发布,采用MIT开源协议,完全免费可商用。其设计理念是“模型即智能体,代码即驾驭”(The model is the agent. The code is the harness.),不训练新模型,而是专注于为已有大模型构建高效、安全、可扩展的“骨架”,解决智能体开发中工具集成、记忆管理、安全管控、循环执行等通用痛点。
OpenHarness最大亮点在于极致轻量化:仅用1.17万行Python代码、163个文件,实现了Claude Code(51.2万行TypeScript代码)约98%的工具覆盖能力、61%的命令覆盖能力,体积缩小44倍,同时保持完整的智能体核心能力与高度兼容性,兼容Anthropic官方Skills技能包、Claude Code插件生态,支持任意大模型(OpenAI、Kimi、DeepSeek、通义千问、本地Ollama模型等)接入。
OpenHarness构建了10大核心子系统,覆盖智能体全生命周期能力,功能特色可归纳为6大核心维度:
作为框架核心,实现“思考→调用工具→执行→观察结果→再决策”的标准智能体闭环,具备三大关键能力:
- 双层记忆架构:工作记忆(实时管理对话上下文)+ 持久记忆(
MEMORY.md文件跨会话存储);
- 上下文优化:自动上下文压缩(突破Token限制)、会话历史管理、多轮对话续接;
- CLAUDE.md自动注入:自动发现项目目录下的
CLAUDE.md文件,注入项目规范、接口文档等上下文。
- 一键启动:单命令
oh即可启动完整智能体环境,支持3种使用模式:
- 交互式TUI(React终端界面):日常开发对话,可视化命令选择、权限弹窗;
- 单次提问模式:
oh -p "任务指令",快速执行单任务;
- 脚本集成模式:嵌入Python代码,批量自动化执行;
- 跨平台兼容:支持Windows、Mac、Linux全系统,Python 3.10+即可运行;
- 零配置上手:内置默认配置,支持API密钥自动读取、模型自动适配。
OpenHarness采用模块化、低耦合、高内聚的架构,拆分为10个边界清晰的子系统,每个模块带完整Pydantic类型校验与权限检查:
子系统名称 核心职责 技术实现 Engine(核心引擎) 智能体主循环控制 Python异步框架,流式处理工具调用与结果反馈 Tools(工具系统) 43+内置工具管理与执行 基类BaseTool+Pydantic输入校验,插件化注册 Memory(记忆系统) 上下文与持久记忆管理 文件存储(MEMORY.md)+ 内存缓存,自动压缩算法 Permissions(权限系统) 安全管控与沙箱隔离 路径正则匹配、命令白名单、交互式钩子 Skills(技能系统) Markdown技能加载与解析 动态解析.md文件,映射为工具调用模板 Plugins(插件系统) 扩展能力支持 事件钩子、自定义命令、智能体类型注册 Agents(智能体系统) 多智能体管理与协同 主从架构、任务队列、消息通信机制 UI(交互界面) React+Ink终端TUI 前端组件化,实时状态展示、权限弹窗 Gateway(网关层) 多模型接入适配 OpenAI/Anthropic兼容协议,支持自定义API格式 Telemetry(可观测) 日志、监控、成本追踪 全链路埋点、Token计数、成本报表生成
- 轻量化复刻:1.1万行代码实现Claude Code核心能力,代码量减少97.7%,性能无明显损耗;
- 模型无关设计:抽象网关层,支持OpenAI、Anthropic、Kimi、DeepSeek、通义千问、Ollama本地模型等任意LLM接入,通过
--api-format参数切换协议;
- 流式处理优化:全链路异步流式,工具调用结果实时返回,减少用户等待时间;
- 安全沙箱:基于系统权限隔离+路径白名单,双重保障文件与命令执行安全;
- 生态兼容:100%兼容Anthropic Skills技能包、Claude Code插件,降低迁移成本。
OpenHarness凭借轻量化、全功能、高安全特性,适配个人开发、企业生产、学术研究三大核心场景,覆盖10+细分领域:

# 检查Python版本
python –version # 安装OpenHarness pip install openharness # 验证安装 oh –version
模式1:交互式TUI(推荐)# 直接启动,自动读取环境变量API密钥
oh # 或指定模型与API密钥 oh –api-key sk-xxx –model gpt-4o # 支持本地Ollama模型 oh –api-format openai –base-url http://localhost:11434/v1 –model llama3
启动后进入React终端界面,支持:
模式2:单次提问模式
# 单命令执行任务
oh -p "分析当前目录代码,列出3个优化点" # 指定输出格式 oh -p "生成项目README文档" –output README.md
模式3:脚本集成模式# Python代码嵌入
from openharness import OpenHarness
# 初始化 agent = OpenHarness( api_key="sk-xxx", model="gpt-4o", tools=["file", "shell", "search"] # 启用指定工具 )
# 执行任务 result = agent.run("分析data.csv数据,生成可视化图表") print(result)
- API配置:支持环境变量(
OPENAI_API_KEY、ANTHROPIC_API_KEY)或命令行参数 - 工具配置:
/.openharness/config.yaml配置工具白名单、权限路径 - 记忆配置:
MEMORY.md存储持久记忆,CLAUDE.md注入项目上下文 - 权限配置:
# 权限示例 permissions: file: allow_paths: ["./projects", "./data"] deny_paths: ["/etc", "/.ssh"] shell: allow_commands: ["ls", "grep", "git"] deny_commands: ["rm -rf", "sudo"]
添加自定义工具from pydantic import BaseModel, Field
from openharness.tools.base import BaseTool, ToolResult
class WeatherInput(BaseModel): city: str = Field(description="城市名称")
class WeatherTool(BaseTool): name = "weather" description = "获取城市天气" input_model = WeatherInput
async def execute(self, context, input: WeatherInput) -> ToolResult: # 调用天气API return ToolResult(success=True, data=f"{input.city}:晴天,25℃")
# 注册工具 agent.register_tool(WeatherTool())
加载自定义技能 创建skills/my_skill.md:
# 技能:项目文档生成
描述 自动生成项目技术文档、API文档、使用手册 输入 - project_path: 项目路径 - doc_type: 文档类型(tech/api/user) 执行 1. 读取项目代码与配置 2. 分析模块与接口 3. 生成对应格式文档
启动时自动加载:oh --skills-dir ./skills
选取Claude Code(官方原型)、LangChain(主流框架)、AutoGPT(经典智能体) 三大同类产品,从核心维度对比:
OpenHarness vs Claude Code
OpenHarness vs LangChain
OpenHarness vs AutoGPT
Q:OpenHarness支持哪些大模型?
A:支持所有兼容OpenAI/Anthropic协议的大模型,包括OpenAI GPT系列、Kimi、DeepSeek、通义千问、文心一言、Llama 3、本地Ollama模型等,通过--api-format参数切换协议即可。
Q:本地部署是否需要GPU?
A:不需要。OpenHarness仅作为框架运行,模型调用依赖云端API或本地Ollama,框架本身CPU即可流畅运行,内存占用<180MB。
Q:如何保障本地文件安全?
A:内置多级权限管控:1. 路径白名单/黑名单配置;2. 文件操作交互式审批弹窗;3. Shell命令白名单;4. 沙箱隔离执行;5. 全链路操作日志记录。
Q:是否支持Windows系统?
A:完全支持Windows 10及以上版本,支持PowerShell、WSL环境,工具与权限功能与Mac/Linux一致。
Q:如何添加自定义工具/技能?
A:工具通过Python类继承BaseTool实现并注册;技能通过Markdown文件编写,放置在skills目录自动加载,详细步骤见官方文档。
Q:记忆数据存储在哪里?
A:持久记忆存储在当前目录MEMORY.md文件,上下文记忆在内存中,会话结束后自动同步到文件,支持跨会话恢复。
Q:与OpenClaw、nanobot的关系?
A:OpenHarness是底层驾驭框架,OpenClaw、nanobot是基于OpenHarness开发的CLI智能体应用,可直接通过oh命令集成使用。
Q:生产环境是否稳定可用?
A:项目已通过114+单元测试、6套E2E测试,支持生产环境,但敏感场景建议配合权限严格配置与监控。
Q:如何更新到最新版本?
A:执行pip install --upgrade openharness即可更新,更新后执行oh --version验证版本。
Q:是否支持离线使用?
A:支持离线模式:1. 接入本地Ollama模型;2. 禁用网络工具;3. 仅使用本地文件/Shell工具,完全离线运行。
OpenHarness作为香港大学数据科学研究院开源的轻量级AI智能体驾驭框架,以极致轻量化设计、完整核心能力、高度安全管控与极简使用体验,重新定义了AI智能体开发的基础设施标准,通过1.1万行Python代码高效实现了Claude Code的核心能力,同时突破模型绑定、闭源限制、本地部署等痛点,兼容任意大模型与Anthropic生态,内置43+工具、多级权限、持久记忆与多智能体协同功能,一行命令即可启动完整智能体环境,既满足个人开发者快速构建AI助手的需求,也适配企业私有部署、学术研究验证的场景,凭借开源开放、安全可控、高效易用的核心优势,成为AI智能体开发领域极具竞争力的轻量化解决方案,为开发者提供了低门槛、高效率、高安全的智能体开发新选择。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/253412.html