Ruby 在 2026 年构建 AI 智能体的**目标语言

Ruby 在 2026 年构建 AI 智能体的**目标语言其实外网最近有个言论 说构建 agent 智能体 ruby 在 2026 年是**的目标语言 这是德国的一个 AI 专家 Carmine Paolino 说的 他本人也是 RubyLLM 的维护者 我来给大家分析一下 他的看法 在下面这个油管视频 https youtu be fAHif8MNCfw si r1pMgqjynidZ 一般 我们要抓住 AI 的风口 是指的使用

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



其实外网最近有个言论,说构建 agent 智能体,ruby 在 2026 年是**的目标语言!

img

这是德国的一个 AI 专家 Carmine Paolino 说的,他本人也是 RubyLLM 的维护者,我来给大家分析一下,他的看法,在下面这个油管视频。

https://youtu.be/fAHif8MNCfw?si=r1pMgqjynidZkvTB

一般,我们要抓住 AI 的风口,是指的使用 AI 去解决现实的问题,而不是训练大模型。训练大模型肯定是 python 这个毋庸置疑,但是这不是普通人能接触的行业,上千万财力也只是入门,一般就是我们靠他们训练好的模型,然后去解决问题,这个是抓住 AI 的风口。

也就是说,类似于调个 API HTTP接口。

在这个领域,主流的有三个语言方向,分别是 python 、nodejs、ruby 。其实大部分都是前两者,但实际上 ruby 更适合。ruby 的文化特点就是对抗【过度工程】,而 RubyLLM 就做的非常好。

因为 ruby 在调 AI API 的业务逻辑上,更佳的优雅。能大大减轻我们在写智能体业务逻辑时候的【认知负荷】。让你有更快的上手速度、更少的意外错误、更轻松的代码重构。

img

看看这些语言案例的初始化吧。

首先是 Python 。

用 Python 写 AI 应用时,我们都知道那个 langchain 库吧,很成熟了。但是:

from langchain.chat_models import init_chat_model
from langchain.messages import HumanMessage

model = init_chat_model("gpt-5.2", model_provider="openai")
response = model.invoke([HumanMessage("Hello!")])

你可以看到,里面得写提供商、消息数组等等,略显复杂。

然后是 nodejs 或者 JavaScript 的。

import { generateText } from 'ai';
import { openai } from '@ai-sdk/openai';

const { text } = await generateText({
  model: openai('gpt-5.2'),
  prompt: 'Hello!',
});

同样也是。

而 ruby 的呢?

require 'ruby_llm'
RubyLLM.chat.ask "Hello!"

就优雅很多。

你可能觉得牵强,但实际上开发体验,是程序员很看重的事情!

不然后来也不会诞生 Python 了,谁上来都汇编 C++ 一把梭哈了 ~ 简化是很重要的事。

你可能说说,那 ruby 后台不也得配置吗?没错,把复杂性藏在背后,显式优于隐式非常重要。

Python 那边,看着就心智负担很重,JS 那边就又强类型和模块化味道很重,只有 ruby 非常的优雅,看起来才比较符合软件开发。本来就是给大模型说个话嘛 ~

再来看 token 的追踪,看看当前的会话的 token 量。

Python 的 LangChain :

# chatGPT 接口
response = model.invoke([HumanMessage("Hello!")])
response.response_metadata['token_usage']
# 结果: {'completion_tokens': 12, 'prompt_tokens': 8, 'total_tokens': 20}

# LangChain (Claude):
response.response_metadata['usage']
# {'input_tokens': 8, 'output_tokens': 12}

# LangChain (Gemini):
response.response_metadata
# 额.... 啥也没有

不同的协议,不同的格式,又是不同的秘钥、不同的结构。烦躁死了 ~

而 rubyLLM 就人性多了,你直接写:

response.tokens.input   # => 8
response.tokens.output  # => 12

一切都是统一的。

再来个终极的示例:

from langchain_openai import ChatOpenAI
from langchain.agents import create_agent

model = ChatOpenAI(model=“gpt-5-nano”)

graph = create_agent(

model=model,
tools=[search_docs, lookup_account],
system_prompt="You are a concise support assistant",

)

inputs = ]}

for chunk in graph.stream(inputs, stream_mode=“updates”):

print(chunk)

本来 Python 就是以简单唯美,但就这样一个简单的自动化决策循环,各种结构孔洞,看着就麻烦。

而 JS 更是一群花花的括号:

import { ToolLoopAgent } from ‘ai’;
import { openai } from ‘@ai-sdk/openai’;

const supportAgent = new ToolLoopAgent({ model: openai(‘gpt-5-nano’), system: ‘You are a concise support assistant.’, tools: { searchDocs, lookupAccount }, });

const { text } = await supportAgent.generateText(], });

本来就是问一句话而已,其实犯不着搞这么麻烦。

看看 rubyLLM :

require ‘ruby_llm’

class SupportAgent < RubyLLM::Agent model “gpt-5-nano” instructions “You are a concise support assistant.” tools SearchDocs, LookupAccount end

SupportAgent.new.ask “How do I reset my API key?”

一目了然。很美观。

你根本不知道一目了然、美观,在程序员眼里是多么重要!你的精力能放到真正重要的事情上!

而 RubyLLM+ Rails ,整个库的设计,把这种哲学发挥的很好。

当然,如果你把这套哲学 API ,原封不动的移植过去不就行了。是的,但没必要,因为 py 和 JS 已经有它们成熟的库了,而 Ruby 的库也已经有自己的生态了(而且霸榜 Hacker news ,star 3.8k,生态建设程度也不差)。所以移过去,基本意义不大。

小讯
上一篇 2026-03-28 10:56
下一篇 2026-03-28 10:54

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/250129.html