claude code 的web search无法使用如何解决?
由于claude code的各种限制,懒得折腾就直接接入国内大模型(qwen3.5-plus,具体接入方法见大模型服务平台百炼控制台)。在获取网页内容时遇到一些问题。最开始与ClaudeCode 排疑 - 知乎类似,即:
Fetch(https://huggingface.co/microsoft/VibeVoice-Realtime-0.5B) ⎿ Error: Unable to verify if domain huggingface.co is safe to fetch. This may be due to network restrictions or enterprise security policies blocking claude.ai.
根据ClaudeCode 排疑 - 知乎,在.claude/settings.json设置
“skipWebFetchPreflight”: true
发现WebFetch能获取网页内容,但claude code会多次获取并且无法返回相关结果(后面知道属于是“摘要”),如:
● Fetch(https://k.sina.com.cn/article_7857201856_1d45362c001902v6uq.html)
⎿ Received 53.3KB (200 OK)
● Bash(curl -s “https://k.sina.com.cn/article_7857201856_1d45362c001902v6uq.html"; -H ”User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64)
AppleWebKit/537.36" -L 2>/d…)
⎿ 广西贵港一女子将车停家门口半月,发现踩刹车时有异响,一查天塌了:车底被老鼠囤了20斤红薯和玉米-新浪汽车
(sinaads = window.sinaads || []).push({}) 正文 … +30 lines (ctrl+o to expand)
● 已读取该文章,内容如下:
即,claude code最终还是调用了curl直接获取网页内容。郁闷~
网上实在找不到解决方法,后来干脆直接问claude code:
❯ 为什么你每次fetch完后还要用curl
● 这是因为 WebFetch 工具出现了 API 错误:
Error: model claude-haiku-4-5- is not supported
WebFetch 内部依赖一个不支持的模型来处理网页内容,所以调用失败了。我转而使用 curl 直接获取网页 HTML,然后用 grep 提取文本内容作为替代方案。
简单来说:
- WebFetch → 失败(模型不支持)
- curl → 成功(直接获取原始 HTML)
如果 WebFetch 能正常工作,我就不需要额外再用 curl 了。
这说的,好像你还有脾气了。
于是,我继续,
❯ 我应该如何让WebFetch正常工作
● 这个问题出在 WebFetch 工具的内部配置上。错误信息显示它尝试使用 claude-haiku-4-5- 模型来处理网页内容,但这个模型在当前环境中不可用。
这是系统级别的配置问题,作为用户你可能无法直接修复。以下是几种可能的解决方案:
可选方案
- 使用 curl + Bash 作为替代(目前可行的方法) curl -s “URL” | grep -oP ‘…’
- 尝试简化 URL - 有时某些网站会阻止爬虫,可以试试:
- 使用移动版 URL(如 m.sina.com.cn)
- 某些网站可能需要特殊处理
- 反馈给系统管理员 - 这是根本解决方案:
- 问题:WebFetch 依赖的模型 claude-haiku-4-5- 不可用
- 需要更新配置以使用可用的模型
- 使用 WebSearch 间接获取信息 - 对新闻类网站,搜索结果有时也能提供所需内容
总结:这不是你的问题,是当前环境的配置问题。在修复之前,我会继续使用 curl 方式来帮你获取网页内容。
当然不是我的问题,继续问:
❯ 如何将WebFetch使用的模型改为qwen3.5-plus
● Searched for 1 pattern, read 1 file (ctrl+o to expand)
● 我找到了配置文件!问题在于 WebFetch 工具的模型配置是由后端 API 服务决定的,而不是由本地配置文件控制。
当前配置
{
"env": { "ANTHROPIC_MODEL": "qwen3.5-plus" // 主模型已正确设置 }, "skipWebFetchPreflight": true
}
问题根源
WebFetch 工具内部调用了一个硬编码的模型 claude-haiku-4-5- 来处理网页内容。这个配置在:
- 后端 API 服务 - 即 https://coding.dashscope.aliyuncs.com/apps/anthropic
- 不在本地配置文件的控制范围内
可能的解决方案
方案 1:修改后端 API 配置(需要管理员权限)
如果你能访问部署这个 API 服务的管理后台,可以修改 WebFetch 工具的默认模型配置。
方案 2:使用自定义脚本替代
创建一个本地脚本来替代 WebFetch:
#!/bin/bash # ~/bin/fetch-url curl -s “$1” | lynx -dump -stdin
方案 3:继续使用 curl + 文本提取
这是当前最实用的方法,我已经在使用了。
总结:这个配置不在本地,而是在阿里云 DashScope 的后端服务上。如果你有该服务的管理权限,可以登录管理后台修改 WebFetch 的工具配置;否则,我们继续使用 curl 方式来获取网页内容。
肯定不可能修改后端 API 服务(https://coding.dashscope.aliyuncs.com/apps/anthropic),但这些回复让我大概知道了WebFetch的工作原理(关于此,这篇博文也有帮助:搞懂 Claude Code 联网搜索 2 种方式:自带 WebSearch 和 6 大 MCP 搜索插件对比指南 - Apiyi.com Blog)
在 Claude Code 中使用自定义模型服务 | Rokcso‘s Blog中,提到了环境变量,除了ANTHROPIC_MODEL还有ANTHROPIC_SMALL_FAST_MODEL ,于是在.claude/settings.json设置:
“ANTHROPIC_SMALL_FAST_MODEL”: “glm-4.7”
这边应该要阿里code plan所能支持的模型才行。
推荐模型:qwen3.5-plus(支持图片理解)、kimi-k2.5(支持图片理解)、glm-5、MiniMax-M2.5 更多模型:qwen3-max-2026-01-23、qwen3-coder-next、qwen3-coder-plus、glm-4.7
结果,竟然解决了问题。不过返回摘要的速度好像慢了点,可能跟所选择的模型有关,毕竟glm-4.7也曾是旗舰模型。
后来,查阅官方文档Claude Code 设置 - Claude Code Docs,发现ANTHROPIC_SMALL_FAST_MODEL已经被弃用(实际上还可用),于是改为设置ANTHROPIC_DEFAULT_HAIKU_MODEL,也能正常运行。
.claude/settings.json 示例:
{
"env": { "ANTHROPIC_AUTH_TOKEN": "your-token", "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic", "ANTHROPIC_MODEL": "qwen3.5-plus", "ANTHROPIC_SMALL_FAST_MODEL": "glm-4.7" }, "skipWebFetchPreflight": true
}
Claude Code 的搜索是通过 MCP 服务器 提供。如果没连上可用的搜索或者抓取工具,就会搜不到。
首先,自己检查是否有MCP。
列出已连接的 MCP 服务器,看看有没有类似 fetch / web-search / gemini-google-search 等
claude mcp list
如果没有,可以在配置文件中添加搜索服务所需的 API Key。例如:
- Tavily:
TAVILY_API_KEY - SerpApi:
SERPAPI_API_KEY - Google:
GOOGLE_SEARCH_API_KEY和GOOGLE_SEARCH_ENGINE_ID
另外,你也可以添加爬取类 MCP 来读取网页正文(配合搜索效果更好)。
claude mcp add fetch -s user – npx -y @kazuph/mcp-fetch
如果你使用“基于 Anthropic Web Search API 的 MCP”,API Key 需要被启用 web search 能力,否则搜索会直接失败。
还有就是,网络的原因也会导致无法进行搜索。
WSL 下最易出现 “0 searches”;优先在 原生 macOS/Linux 或 Windows 主机 跑 Code,或把搜索放到 Claude Desktop/网页端执行。
如果是在公司或者学校里面的,网络也可能被拦截,
如果你没办法订阅Claude Pro/Max账号,可以在0011.ai中使用,因为它不仅可以使用Claude code,还能使用Codex,这是目前公认的最强AI编程模型
使用 tavily 的 mcp,或者其他免费的搜索 mcp,不过都有限额。可以购买 GLM 的编码 pro 会员,支持联网和图片识别的 mcp
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/249722.html