所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。
再次感谢大家的关注,谢谢!
所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。
再次感谢大家的关注,谢谢!
MCP-Client
是Model Context Protocol
(模型上下文协议)架构中的一个重要组件,用于连接AI
模型(如Claude
、GPT
等大型语言模型)与外部数据源、工具和服务的桥梁。
MCP(Model Context Protocol)
是由Anthropic
公司在2024年底首次提出并开源的一种开放标准协议,旨在解决大语言模型(LLM
)与外部世界的连接问题。这一协议的核心价值在于打破了AI
模型的”信息孤岛”限制,使模型能够以标准化的方式访问和处理实时数据,显著扩展了大模型的应用场景。
在MCP
架构中,有三个关键组件:
Server
):轻量级服务程序,负责对接具体数据源或工具(如数据库、API
等),并按照MCP规范提供标准化的功能接口。每个MCP
服务器封装了特定的能力,如文件检索、数据库查询等。Client
):嵌入在AI
应用中的连接器,与MCP
服务器建立一对一连接,充当模型与服务器之间的桥梁。它负责发现可用服务、发送调用请求、获取结果,并将这些信息传递给AI
模型。Host
):运行LLM
的应用程序或环境,如Claude
桌面应用、Cursor IDE
等。宿主通过集成MCP
客户端,使其内部的模型能够调用外部MCP
服务器的能力。MCP-Client
的工作原理是基于JSON-RPC 2.0
协议,通过标准化的接口与MCP
服务器进行通信。它能够自动发现可用的MCP
服务器及其提供的工具,并将这些信息以结构化的方式提供给大语言模型,使模型能够理解可用的工具及其功能,从而根据用户需求决定何时何地调用这些工具。
MCP Server
是一个中间层服务器,它主要负责处理和管理 AI 模型的上下文信息,确保模型能够高效且准确地理解和响应用户请求。它作为应用程序和AI
模型之间的桥梁,优化了信息的传递和处理过程。
根据MCP协议定义,Server可以提供三种类型的标准能力,Resources、Tools、Prompts,每个Server可同时提供者三种类型能力或其中一种。
Datasets
由Hugging Face
开源,用于轻松访问和共享音频、计算机视觉和自然语言处理(NLP
)任务的数据集。只需一行代码即可加载数据集,并使用强大的数据处理方法快速让你的数据集准备好在深度学习模型中进行训练。在Apache Arrow格式的支持下,以零拷贝读取的方式处理大型数据集,没有任何内存限制,以实现最佳速度和效率。
并且Datasets
还与Hugging Face Hub
深度集成,允许我们轻松加载数据集并与更广泛的机器学习社区共享数据集。
Datasets
可以用来构建3中形式的数据:
为了演示效果,在这里我仅以文本数据为例进行相关演示,关于音频和图像的使用,各位可以前往Hugging Face
官网学习。
Transformers
中的Tokenizers
(分词器)是处理文本的重要组件,它将原始文本转换为模型能够理解的数字序列。
Tokenizers
的作用:
token
序列token
映射为数字ID
,这些ID
是模型实际处理的输入[CLS]
, [SEP]
, [PAD]
等特殊标记需求:完成一个Seq2Seq模型,实现往模型中输入一串数字,输出这串数字+0
例如:
1 | import torch |