2026年[Python 原创]【开源更新】【懒人一键运行包】低配置运行本地大语言模型AI【新增微信自动回复】

[Python 原创]【开源更新】【懒人一键运行包】低配置运行本地大语言模型AI【新增微信自动回复】Meow AI 是打造属于自己的本地轻量级大语言模型 AI 2024 01 05 支持手动停止对话 2024 01 19 支持编辑对话实现简单的手动微调 2024 01 23 支持配置导入 导出 支持自定义 AI 性格人设 2024 03 01 完全使用 RWKV 架构 实现更小的模型体积 降低运行内存和 CPU 占用 2024 04 26 优化整体架构 2024 07 08 支持扩展功能

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



“Meow-AI”是打造属于自己的本地轻量级大语言模型AI

  • 2024-01-05:支持手动停止对话  
  • 2024-01-19:支持编辑对话实现简单的手动微调  
  • 2024-01-23:支持配置导入/导出,支持自定义AI性格人设
  • 2024-03-01:完全使用RWKV架构,实现更小的模型体积,降低运行内存和CPU占用
  • 2024-04-26:优化整体架构
  • 2024-07-08:支持扩展功能,支持微信自动聊天  
  • 2024-07-21:完成一键懒人运行包

1. 持续对话

2. 手动调整对话

注:手动添加修改更多的自己预设的对话,对后续的实现自己想要的聊天效果有很大帮助
image

3. 配置导入导出

4. 调教AI人设性格

5. 扩展功能

6. 一键懒人运行包

  1. 完成更多功能扩展
  2. 待续……

#使用transformers读取本地模型 model = AutoModelForCausalLM.from_pretrained(output_folder, trust_remote_code=True).to(torch.float32) tokenizer = AutoTokenizer.from_pretrained(output_folder, trust_remote_code=True) #文本预测 inputs = tokenizer(prompt, return_tensors=“pt”) output = model.generate(inputs[“input_ids”], max_new_tokens=1, do_sample=True, temperature=1.0, top_p=0.3, top_k=0, ) text=tokenizer.decode(output[0].tolist(), skip_special_tokens=True)#这个就是对于我们输入的文本进行预测后的结果

其实实现对话聊天的效果基于文本的续写实现,基于已有的文本对下一个即将出现的字符进行预测。  

小讯
上一篇 2026-03-22 07:43
下一篇 2026-03-22 07:41

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/247418.html