0%

所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。

再次感谢大家的关注,谢谢!

什么是MCP-Client?

MCP-ClientModel Context Protocol(模型上下文协议)架构中的一个重要组件,用于连接AI模型(如ClaudeGPT等大型语言模型)与外部数据源、工具和服务的桥梁。

MCP(Model Context Protocol)是由Anthropic公司在2024年底首次提出并开源的一种开放标准协议,旨在解决大语言模型(LLM)与外部世界的连接问题。这一协议的核心价值在于打破了AI模型的”信息孤岛”限制,使模型能够以标准化的方式访问和处理实时数据,显著扩展了大模型的应用场景。

MCP架构中,有三个关键组件:

  1. MCP服务器(Server):轻量级服务程序,负责对接具体数据源或工具(如数据库、API等),并按照MCP规范提供标准化的功能接口。每个MCP服务器封装了特定的能力,如文件检索、数据库查询等。
  2. MCP客户端(Client):嵌入在AI应用中的连接器,与MCP服务器建立一对一连接,充当模型与服务器之间的桥梁。它负责发现可用服务、发送调用请求、获取结果,并将这些信息传递给AI模型。
  3. 宿主应用(Host):运行LLM的应用程序或环境,如Claude桌面应用、Cursor IDE等。宿主通过集成MCP客户端,使其内部的模型能够调用外部MCP服务器的能力。

MCP-Client的工作原理是基于JSON-RPC 2.0协议,通过标准化的接口与MCP服务器进行通信。它能够自动发现可用的MCP服务器及其提供的工具,并将这些信息以结构化的方式提供给大语言模型,使模型能够理解可用的工具及其功能,从而根据用户需求决定何时何地调用这些工具。

阅读全文 »

MCP Server概念

MCP Server 是一个中间层服务器,它主要负责处理和管理 AI 模型的上下文信息,确保模型能够高效且准确地理解和响应用户请求。它作为应用程序和AI模型之间的桥梁,优化了信息的传递和处理过程。

​ 根据MCP协议定义,Server可以提供三种类型的标准能力,Resources、Tools、Prompts,每个Server可同时提供者三种类型能力或其中一种。

  • Resources:资源,类似于文件数据读取,可以是文件资源或是API响应返回的内容。比如
  • Tools:工具,第三方服务、功能函数,通过此可控制LLM可调用哪些函数。
  • Prompts:提示词,为用户预先定义好的完成特定任务的模板。
阅读全文 »

基础概念

什么是Cursor?

Cursor是一个革新性的AI驱动的代码编辑器(IDE),它基于Visual Studio Code构建,但集成了强大的AI功能,旨在提升开发者的编程效率。以下是Cursor的主要特点:

  1. 核心功能:

    • AI驱动的代码编辑和自动完成

    • 内联代码修改和历史记录追踪

    • GPT模型的无缝集成

    • 专门的代码智能体用于全面的代码库管理

    • 全面支持适配MCP协议

    • 多编程语言支持

  2. 主要特色:

    • Tab智能补全 - 能准确预测并补全多行代码

    • 内联聊天 - 直接在代码中进行AI辅助编辑和查询

    • 侧边栏聊天 - 提供更全面的AI助手功能

    • 上下文感知 - 能理解整个代码库的上下文

阅读全文 »

什么是uv工具

uv 是一个用于 Python 包管理的现代工具,它旨在替代 pipvirtualenv,提供更快、更高效的包安装与虚拟环境管理体验。uv 是由 Astral 团队开发的,并逐渐成为 Python 社区中的一个热门替代工具。

简而言之,uv 是一个 超快的 Python 包管理器,它集成了:

  • 包安装(替代 pip
  • 虚拟环境管理(替代 virtualenv
  • 锁定文件(兼容 pip-toolsPoetry
阅读全文 »

DatasetsHugging Face开源,用于轻松访问和共享音频、计算机视觉和自然语言处理(NLP)任务的数据集。只需一行代码即可加载数据集,并使用强大的数据处理方法快速让你的数据集准备好在深度学习模型中进行训练。在Apache Arrow格式的支持下,以零拷贝读取的方式处理大型数据集,没有任何内存限制,以实现最佳速度和效率。
并且Datasets还与Hugging Face Hub深度集成,允许我们轻松加载数据集并与更广泛的机器学习社区共享数据集。

Datasets可以用来构建3中形式的数据:

  1. 文本
  2. 音频
  3. 图像

为了演示效果,在这里我仅以文本数据为例进行相关演示,关于音频和图像的使用,各位可以前往Hugging Face官网学习。

阅读全文 »

Transformers中的Tokenizers(分词器)是处理文本的重要组件,它将原始文本转换为模型能够理解的数字序列。

Tokenizers的作用:

  1. 文本预处理:将原始文本转换为token序列
  2. 词汇映射:将token映射为数字ID,这些ID是模型实际处理的输入
  3. 特殊标记添加:添加[CLS], [SEP], [PAD]等特殊标记
  4. 处理长度限制:对过长序列进行截断,对过短序列进行填充
阅读全文 »

1. 基本介绍

1.1 HuggingFace

Hugging Face 是一个专注于人工智能和机器学习的开源社区和平台,它已经成为 AI 领域最重要的社区之一。

阅读全文 »

需求:完成一个Seq2Seq模型,实现往模型中输入一串数字,输出这串数字+0

例如:

  • 输入:15925858456,输出:159258584560
1
2
3
4
import torch
import numpy as np
import torch.nn as nn
import torch.nn.functional as F
阅读全文 »

数据说明

数据来源:清华大学的THUCNews新闻文本分类数据集

  • 训练集:180000
  • 验证集:10000
  • 测试集:10000

总共来自十个类别:金融,房产,股票,教育,科学,社会,政治,体育,游戏,娱乐

阅读全文 »