使用Void(平替Cursor)的测试记录

使用Void(平替Cursor)的测试记录在网上了解到 Void 是一款开源的 AI 代码编辑器 堪称 Cursor 的开源平替 其功能强大 可兼容各类模型 并支持本地运行 使用户能够全面掌控自身数据 真正做到安全可控 我尝试使用这款允许本地 AI 运行的 IDE 检验一下实际效果 选取的测试用例 请它帮我生成一份英语单词拼写测验题 网页 用于小学英语练习 我想在 wordspell exam 目录下编写一个 html 页面

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



在网上了解到,Void 是一款开源的 AI 代码编辑器,堪称 Cursor 的开源平替。其功能强大,可兼容各类模型,并支持本地运行,使用户能够全面掌控自身数据,真正做到安全可控。

我尝试使用这款允许本地 AI 运行的 IDE,检验一下实际效果。

选取的测试用例:请它帮我生成一份英语单词拼写测验题(网页)。用于小学英语练习。

  • Webhook请求地址:
  • 请求方式:
  • 请求头:
  • 请求体:
    界面现代化简约一点,适配iPad和pc。



第二次,我先用提示词转换成更有逻辑性的策划文档。

转换后的提示词:


我们要在 目录下开发一个英语单词拼写练习的 HTML 页面,用于用户进行单个单词的拼写训练。页面需要具备以下功能:


  • 在 HTML 或 JS 中内置一个单词列表(数组),例如:
     
  • 每次打开页面时,从这个词库中随机抽取 20 个单词,作为本次练习的题目。

  • 每次只显示一个单词,用户逐个答题。
  • 界面布局如下:
     
  • 输入框样式:类似验证码的格式,比如 (4 个下划线),根据单词长度自动调整。
  • 输入框只允许输入字母,大小写不敏感。

  • 用户在输入框中输入单词,点击“确认”按钮。
  • 系统判断是否正确:
    • 正确:进入下一题
    • 错误:记录错误,并进入下一题
  • 所有题目答完后,自动跳转到结果页

  • 显示总得分(百分制)
  • 展示所有错误的单词及正确答案
  • 例如:
     

  • 在结果页生成后,自动发送 POST 请求到指定地址
    • URL:
    • Method:
    • Headers:
       
    • Body 示例:
       
    • 注意:实际发送的内容应包含用户得分、错误单词列表等信息,具体格式可由你定义。

  • 简洁现代风格,适配 PC 和 iPad
  • 使用响应式设计(如 Flex 或 Grid),确保在不同设备上显示正常。

  • 前端技术:HTML + CSS + JavaScript
  • 状态管理:可以用 或 变量保存当前题号、用户输入、错误记录等
  • 样式建议:使用 布局,字体大、间距合理
  • 移动端适配:使用 设置和媒体查询(Media Query)

这个页面的核心是:

  • 随机抽取 20 题
  • 逐题答题,显示字符数
  • 结果页展示得分和错误信息
  • 自动发送 webhook

然后让它做,好家伙,它做的直接写成python了。

那么问题出在哪里,30B的模型不可能连这个需求都不理解吧?

用不满意,怀疑是量化的问题。

准备换8bit量化,基于信息:

  • 因为查资料有人说Qweb3-4B不量化版本都很强的。
  • 问豆包,说8bit量化效果跟全尺寸的接近,4bit量化可以观测到明显性能下降。

所以,拟先更换为可流畅运行的(16GB)版本,试其效果;继而再以(32.46GB)版本进一步验证,以期获得更优结果。

测试14B配合void,但是发现出问题了,void持续在报错。我把上下文调到40960后重新继续。

还是报错

 
  

奇了怪了,换成试试看,重新执行,又可以生成html但是不自动插入到文件里,只显示在agent对话里。但void agent面板里不报错。

换成30B-A3B 8bit,和4bit一样,生成html但是不能自动写入到文件里,而且对需求的理解没做到位,比如根本没有实现提交webhook的需求。

观察记录:

  • Qwen3-14B Dense模型 8bit的运行速度显著慢于Qwen3-30B-A3B MoE的4bit。占内存小一些但速度慢。
  • Qwen3-30B-A3B 8bit的速度也比14B快,说明Dense模型速度没有MoE快。
  • void应该是在某些方面没有适配好千问模型,所以导致内容无法插入到具体文件。

就算是,他对我的需求居然理解都不到位,我很震惊。我提出的6个要求,他居然都不能复述出来。感觉全是幻觉。

晚上吃完饭后,我脑子清醒了,再研究了一下配置,无意间发现了一个配置,在模型开关旁边有个加号,点击可以打开advanced settings,这玩意默认给contextWindow是4096,reserved是8192,我改成40960和我LM Studio设置一致,并减少reserved之后,终于能听懂我的需求了:

听懂需求后输出的html看起来是对的,但是——

这一版的问题在于,代码在浏览器运行会报错。

人肉检查了一下,发现30B的代码写得上下衔接有问题。莫非千问30B不适合写代码?

速度明显比本地30B的慢多了

能够自动在输出html后执行写入文件操作

能够代码运行不报错,完整实现了需求中提出的所有功能,走完单词拼写和检查流程,也有提交webhook。

奇怪,难道void搭配coder模型就可以写入文件?

目前还没有在本地部署这个模型,所以无法确认在void中不能自动写入文件本地部署的问题还是qwen3模型的问题。也不需要验证了,反正云端调用是免费的,那就不需要本地运行了。

嗯看来搭配void目前免费方案最靠谱的就是这个openrouter/qwen2.5-coder-32b(free)模型了。

  • Qwen2.5-Coder-32B-Instruct:Free:属于中等偏上水平,适合日常开发任务,在中文编程场景中表现较好。
  • DeepSeek-R1-Zero:Free:属于入门级模型,适合简单代码生成和学习使用,对于复杂任务支持有限。
  • Qwen3-30B-A3B:属于高端模型,具备较强的代码理解和生成能力,可应对复杂开发需求。
  • 初学者或简单任务:可选择免费的入门级模型,如 DeepSeek-R1-Zero:Free。
  • 专业开发者:建议使用 Qwen3-30B-A3B 或 GPT-4 Turbo 等高端模型。
  • 中文场景优先:Qwen 系列是不错的选择。

为什么我今天的测试例子,感觉qwen2.5-coder-32b比Qwen3-30B-A3B靠谱呢?看来我还需要继续观察观察了。

计划下周在小程序开发场景进一步试试看谁写小程序项目靠谱。

  • Void 是一款开源的 AI 代码编辑器,可作为 Cursor 的平替使用。
  • Void 支持本地运行,用户可以全面掌控数据,确保安全可控。
  • 测试目标是使用 Void 生成一个英语单词拼写测验的 HTML 页面。
  • 第一次测试中,模型未完全理解需求,生成的内容不符合预期。
  • 优化提示词后,模型仍未能正确生成 HTML 页面,而是输出了 Python 代码。
  • 更换为 Qwen3-14B 和 Qwen3-30B 的 8bit 量化版本后,模型仍存在理解偏差和功能缺失。
  • Void 在写入文件时出现错误,可能与模型适配或配置有关。
  • 调整 Void 的上下文窗口设置后,模型开始正确生成 HTML 内容,但代码存在运行错误。
  • 使用 OpenRouter 上的 Qwen2.5-Coder-32B 模型时,模型能够正确生成并写入 HTML 文件。
  • Qwen2.5-Coder-32B 在测试中表现优于 Qwen3-30B-A3B,适合当前需求。
  • 未来计划在小程序开发场景中进一步测试不同模型的表现。

小讯
上一篇 2026-04-04 14:08
下一篇 2026-04-04 14:06

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/223433.html