Net程序员学习Ai-1

Net程序员学习Ai-11 无 1 机器学习介绍概念 2 人工智能概念介绍 3 掌握环境的安装使用 4 掌握通义千问注册流程 人工智能 AI 传统 AI 规则系统 搜索算法等 机器学习 ML 传统机器学习 SVM 决策树 随机森林等 深度学习 DL CNN 计算机视觉 RNN 自然语言处理 结果达到要求 上线服务 没有达到要求

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



1.
1.机器学习介绍概念
2.人工智能概念介绍
3.掌握环境的安装使用
4.掌握通义千问注册流程











人工智能(AI)

├── 传统AI(规则系统、搜索算法等)

└── 机器学习(ML)

├── 传统机器学习(SVM、决策树、随机森林等)

└── 深度学习(DL)

├── CNN(计算机视觉)
├── RNN(自然语言处理)
└── ...















































    • - 结果达到要求,上线服务
      - 没有达到要求,重新上面步骤



    • - 结果达到要求,上线服务
      - 没有达到要求,重新上面步骤



    • - 由特征值+目标值(部分数据集没有)构成
    • - 训练数据(70%-80%)和测试数据(20%-30%)
假设上面的房价预测,只有五个样本,对应的
真实值为:100,120,125,230,400
预测值为:105,119,120,230,410







import matplotlib.pyplot as plt
%matplotlib inline
plt.figure(figsize=(20,8),dpi=100)
plt.plot([1,2,3],[3,4,5])
plt.show()
























python -m venv 文件夹名
例如: python -m venv testjupyter
进入到testjupyter文件夹下的Scripts文件夹,安装jupyter










# 输入命令
jupyter notebook



    notebook的文档格式是.ipynb
    命令模式下回车Enter鼠标双击
    Esc
    • Ctrl+Enter
    Shift+Enter
    • M
    • A
    • B
    Y
    • Z
    • L
    • Ctrl+Shift+P
    • 快速跳转到首个cell,Crtl+Home
    • 快速跳转到最后一个cell,Crtl+End
    双击D
    • 为一行或多行代码添加/取消注释:Ctrl+/
    补全代码:变量、方法后跟Tab键
    • 回退:Ctrl+Z
    • 重做:Ctrl+Y
    多光标操作:Ctrl键点击鼠标
pip install jupyterlab-language-pack-zh-CN

注意:在 Windows 系统中,路径分隔符应使用双反斜杠 \ 或者原始字符串 r'D:My FolderAandeleAJupyter'

Qwen-7B是阿里云研发的通义千问大模型系列中的一个重要成员,它是一个具有70亿参数规模的语言模型。以下是关于Qwen-7B参数的详细介绍:

1. 参数规模
参数数量:Qwen-7B拥有70亿(7B)参数,这使得它在处理自然语言任务时具有强大的能力。
2. 架构与技术特点
基于Transformer架构:Qwen-7B采用了类似于LLaMA等模型的Transformer架构,这种架构在处理自然语言任务时表现出色。
优化与改进:Qwen-7B在标准Transformer的基础上进行了多项优化和改进,如使用非连接嵌入、旋转位置嵌入、RMSNorm代替LayerNorm等,以提升模型的性能和效率。
3. 预训练与性能
预训练数据:Qwen-7B在超过2.2万亿个标记(token)的自建大规模预训练数据集上进行了训练,这些数据集涵盖了文本、代码等多种数据类型,广泛覆盖通用领域和专业领域。
模型性能:Qwen-7B在多个评测数据集上展现出了出色的表现,包括自然语言理解与生成、数学运算解题、代码生成等领域。相较于同规模的开源模型,Qwen-7B在多个基准测试上通常表现更好,甚至在某些情况下超越了更大规模的语言模型。
4. 特定功能与特性
多语言支持:Qwen-7B采用了一个包含151,851个标记的词汇表,这使得它在分词效率方面具有优势,并且更加友好地支持其他语言。用户可以轻松在Qwen-7B基础上训练特定语言的7B语言模型。
长上下文支持:Qwen-7B及其衍生模型均支持长达8K的上下文长度(就是8000多个中文字符),这为用户提供了更大的输入空间,有助于模型在处理复杂对话或长文本时保持连贯性和准确性。
插件调用与优化:Qwen-7B-Chat在插件调用方面做出了特定优化,使得模型能够有效调用插件并升级为Agent。这一特性使得用户可以开发基于Qwen-7B的LangChain、Agent甚至Code Interpreter等应用。
5. 部署与应用
部署环境:为了保证Qwen-7B的稳定运行,通常需要较大的内存和存储空间。例如,在部署Qwen-7B-Chat时,可能需要至少64 GiB的内存和100 GiB的数据盘空间。
应用场景:Qwen-7B可以应用于多种自然语言处理任务中,包括但不限于聊天机器人、问答系统、文本生成等。通过微调和优化,Qwen-7B还可以适应特定领域或任务的需求。












































































































ChatGPT是一款由OpenAI公司开发的人工智能技术驱动的自然语言处理工具,全称为“Chat Generative Pre-trained Transformer”。以下是关于ChatGPT的详细介绍:

一、技术背景
模型架构:ChatGPT基于GPT(Generative Pre-trained Transformer)模型架构,特别是GPT-3.5或GPT-4架构(具体版本可能随时间更新)。GPT系列模型是OpenAI在自然语言处理(NLP)领域的重要研究成果,通过深度学习技术理解和生成人类语言。
神经网络:ChatGPT使用了Transformer神经网络架构,这是一种用于处理序列数据的模型,特别擅长处理文本数据。
二、功能特点
对话生成:ChatGPT可以与用户进行自然、流畅的对话,提供实时的智能问答功能。这种能力在客户服务、智能助手和聊天机器人等领域具有很高的价值。
文本生成:除了对话,ChatGPT还具备强大的文本生成能力,可以根据给定的主题、关键词或开头,自动生成结构合理、内容丰富的文章、新闻、广告等。
编程帮助:ChatGPT可以理解和生成编程语言,为程序员提供实时的编程帮助,如解答代码问题、提供代码示例、帮助检查和调试程序。
语言翻译:支持多语言处理,能够实现多语言之间的实时翻译,为跨语言交流提供便利。
教育辅导:可以作为在线教育辅导工具,帮助学生解答学术问题,提供定制化的学习建议和资料。
创意写作:帮助用户进行故事创作、诗歌写作等,激发灵感、拓展思路。
数据分析与摘要:从大量数据和文本中提取关键信息,生成简洁明了的摘要,在商业分析、学术研究等领域具有应用价值。
三、训练方式
预训练:ChatGPT在大量无标签的文本数据上进行预训练,学习语言结构、语法和语义等知识。
强化学习:OpenAI采用了“从人类反馈中强化学习”(Reinforcement Learning from Human Feedback, RLHF)的训练方式,对ChatGPT进行微调,以提高其生成内容的准确性和质量。





































































































ChatGLM是一种由清华技术成果转化的公司智谱AI研发的支持中英双语的对话机器人。
ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:

更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的预训练模型中最强的性能。
更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。































Kimi模型是由月之暗面科技有限公司(Moonshot AI)推出的一款基于深度学习和自然语言处理技术的人工智能模型。以下是对Kimi模型的详细介绍:

一、技术背景与特点
技术基础:Kimi模型采用了深度学习技术,特别是神经网络,来模拟人类大脑的工作原理,实现智能决策和学习能力。
超长上下文学习:Kimi模型通过优化网络结构和工程设计,实现了高达200万字的无损上下文输入,远超GPT-4等模型。这种能力使得Kimi在处理长文本和复杂对话时,能够保持连贯性和一致性。
多模态对齐:Kimi模型支持多模态信息的处理,包括文本、语音、视觉等。通过将不同模态的信息映射到统一的语义空间,Kimi实现了跨模态的理解和交互,提高了应答的多样性和准确性。
个性化调优:Kimi模型支持针对不同应用场景和角色设定的个性化调优。在基础模型之上进行微调,以匹配用户偏好和特定场景的需求。
二、功能与应用
强大的数据处理和分析能力:Kimi能够快速理解和回应用户的问题,为用户提供及时、准确的信息支持。
广泛的知识覆盖:Kimi拥有广泛的知识库,能够提供包括科技、文化、历史、教育等多个领域的信息,满足用户多样化的知识需求。
便捷的文件处理:用户可以将不同格式的文件发送给Kimi,如TXT、PDF、Word文档、PPT幻灯片、Excel电子表格等,Kimi能够阅读这些文件内容并提供相关的回答,极大地方便了用户的资料整理和信息查询。
智能搜索功能:Kimi具备访问互联网的能力,可以安全地获取网络上的信息,并根据用户的问题生成更直接、更准确的答案。
三、用户交互体验
友好的用户交互界面:Kimi设计了友好的用户交互界面,使得用户可以轻松地与其进行交流,无需复杂的操作。
高效使用建议:为了提高用户的使用效率,Kimi提供了一些高效使用的小技巧,如明确具体的问题、使用关键词、分步提问等。






























































































文心一言(英文名:ERNIE Bot)是百度基于文心大模型技术推出的生成式对话产品,被外界誉为“中国版ChatGPT”。它作为百度全新一代知识增强大语言模型,是文心大模型家族的新成员,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。以下是文心一言的详细介绍:

一、技术背景
文心大模型技术:文心一言基于百度在人工智能领域深耕多年的文心大模型ERNIE技术,具备跨模态、跨语言的深度语义理解与生成能力。
飞桨深度学习平台:文心一言依托于百度的飞桨深度学习平台,持续从海量数据和大规模知识中融合学习,具备知识增强、检索增强和对话增强的技术特色。
二、发展历程
内测与发布:百度于2023年2月官宣文心一言将在三月份完成内测,面向公众开放。3月16日,百度在北京总部召开新闻发布会,正式发布文心一言。
云服务上线:文心一言云服务于3月27日上线,之后逐步向全社会全面开放。
版本迭代:文心一言不断进行技术升级,提升模型性能和推理效率,以满足不同场景下的应用需求。
三、功能特点
生成式对话:文心一言能够与用户进行自然语言对话,理解用户意图并生成相应的回复。
知识增强:通过融合海量数据和大规模知识,文心一言能够提供更准确、更丰富的信息支持。
多模态生成:除了文本生成外,文心一言还具备文生图等多模态生成能力,满足用户多样化的创作需求。
写作辅助:文心一言可以自动分析用户的文本内容,给出智能化的写作建议和纠错提示,帮助用户提高写作效率和质量。
四、应用场景
智能客服:在客服领域,文心一言可以代替人工客服与用户进行对话,解决用户问题,提高服务效率。
内容创作:在文学创作、商业文案创作等领域,文心一言可以辅助用户生成高质量的内容。
智能搜索:文心一言与百度搜索等应用结合,可以为用户提供更智能、更个性化的搜索体验。
行业赋能:在金融、能源、媒体、政务等千行百业中,文心一言可以助力企业实现智能化变革,提升生产力和创新能力。


























































































































pip install dashscope
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    export DASHSCOPE_API_KEY=""



    echo $DASHSCOPE_API_KEY
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    export DASHSCOPE_API_KEY="sk-e7646bb1ca104d1dbb0f1560d848e75e"



    # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    echo "export DASHSCOPE_API_KEY='sk-e7646bb1ca104d1dbb0f1560d848e75e'" >> ~/.bashrc



    source ~/.bashrc
    echo $DASHSCOPE_API_KEY
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    export DASHSCOPE_API_KEY="sk-e7646bb1ca104d1dbb0f1560d848e75e"



    echo $DASHSCOPE_API_KEY
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    export DASHSCOPE_API_KEY="sk-e7646bb1ca104d1dbb0f1560d848e75e"



    # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    如果您的Shell类型是Zsh,运行以下命令
    echo "export DASHSCOPE_API_KEY='sk-e7646bb1ca104d1dbb0f1560d848e75e'" >> ~/.zshrc

    如果您的Shell类型是Bash,运行以下命令
    echo "export DASHSCOPE_API_KEY='sk-e7646bb1ca104d1dbb0f1560d848e75e'" >> ~/.bash_profile































    # 如果您的Shell类型是Zsh,运行以下命令
    source ~/.zshrc

    # 如果您的Shell类型是Bash,运行以下命令
    source ~/.bash_profile
























    echo $DASHSCOPE_API_KEY
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    set DASHSCOPE_API_KEY="YOUR_DASHSCOPE_API_KEY"



    echo %DASHSCOPE_API_KEY%
  • # 用您的 DashScope API-KEY 代替 YOUR_DASHSCOPE_API_KEY
    setx DASHSCOPE_API_KEY "YOUR_DASHSCOPE_API_KEY"



    echo %DASHSCOPE_API_KEY%
import os
from dashscope import Generation

messages = [
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '你是谁?'}
]
response = Generation.call(
# 若没有配置环境变量,请用百炼API Key将下行替换为:api_key = "sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"),
model="qwen-plus", # 模型列表:https://help.aliyun.com/zh/model-studio/getting-started/models
messages=messages,
result_format="message"
)

if response.status_code == 200:
print(response.output.choices[0].message.content)
else:
print(f"HTTP返回码:{response.status_code}")
print(f"错误码:{response.code}")
print(f"错误信息:{response.message}")
print("请参考文档:https://help.aliyun.com/zh/model-studio/developer-reference/error-code")















































































































































from http import HTTPStatus
import dashscope


def call_with_prompt():
response = dashscope.Generation.call(
model=dashscope.Generation.Models.qwen_turbo,
prompt='请介绍一下通义千问'
)
# 如果调用成功,则打印模型的输出
if response.status_code == HTTPStatus.OK:
print(response)
# 如果调用失败,则打印出错误码与失败信息
else:
print(response.code)
print(response.message)

if __name__ == '__main__':
call_with_prompt()


























































































































1.人工智能的发展历史
2.目前常用的大模型的类型
3.jupyter notebook的安装使用
4.通义千问的注册及调用

















小讯
上一篇 2026-04-27 21:04
下一篇 2026-04-27 21:02

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/279054.html