资源是模型上下文协议(MCP)中的一种核心基本元素,它使服务器能够公开数据和内容,这些数据和内容可供客户端读取,并用作大语言模型(LLM)交互时的上下文信息。 官方文档:https://modelcontextprotocol.io/docs/concepts/resources 一、资源简介 (一
模型上下文协议 (MCP) 中的 Transports(传输)为客户端和服务器之间的通信提供了基础。传输处理消息发送和接收方式的基本机制。 一、消息格式 Transports 底层的消息消息格式,一般情况下无需开发者关心。我们简单了解一下。 MCP 使用 JSON-RPC 2.0 作为其传输格式。传
本文参考官方案例,使用 Node.js 语言,从零开始构建一个 MCP Server 和一个 MCP Client,并基于标准 IO 实现本地调用。 官方文档:https://modelcontextprotocol.io/quickstart/server 一、开发 MCP Server 基于美国
MCP,即 Model Context Protocol(模型上下文协议),是 Anthropic 推出的一项开放标准。其核心目标是统一大型语言模型(LLM)与外部数据源及工具之间的通信协议。在当下,AI 模型常受数据孤岛问题制约,难以充分释放潜力,MCP 的出现正是为攻克这一难题。它赋予 AI 应
本文重点介绍使用微调框架unsloth,围绕DeepSeek R1 Distill 7B模型进行高效微调,并介绍用于推理大模型高效微调的COT数据集的创建和使用方法,并在一个medical-o1-reasoning-SFT数据集上完成高效微调实战,并最终达到问答风格优化&知识灌注目的。 你能收获什么
Rerank 指的是重排序模型,在信息检索、自然语言处理等领域有着重要作用。可以有效的提高检索结果准确性、融合多源信息、提升模型性能、挖掘潜在语义关系、平衡召回率和精确率。 一、Xinference 安装 Xinference 是一个性能强大且功能全面的分布式推理框架,特别适用于大语言模型(LLM
Firecrawl 是一项 API 服务。它能够获取 URL,对相应的网页进行抓取操作,并将抓取到的内容转换成格式规范的 Markdown 格式文本或者结构化数据。 可以实现对所有能够访问到的子页面进行抓取,并且为每个子页面提供格式规范、清晰的数据。使用该服务无需站点地图。 官方服务地址:https
Dify 是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等。 官方平台:https://dify.ai/zh 开源社区版:https://github.com/langgenius/dify 一、使用 Docker Compos
由于国内网络环境,Ollama 的自动安装脚本在服务器上经常网络超时。可以参考本文的手动安装方式。 Linux 自动安装命令:curl -fsSL https://ollama.com/install.sh | sh Linux 手动安装官方文档参考:https://github.com/ollam
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种LLM运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,是一个强大的 AI 部署解决方案。 开源地址:https://github.com/open-webu
近日,来自 UC 伯克利的研究团队基于 Deepseek-R1-Distilled-Qwen-1.5B,通过简单的强化学习(RL)微调,得到了全新的 DeepScaleR-1.5B-Preview。 训练细节 目前,研究团队已开源数据集、代码和训练日志。 开源地址:https://github.co
使用 Ollama 作为大模型能力基座 官网:https://ollama.com/ GitHub:https://github.com/ollama/ollama 安装 Ollama 各平台下载地址:https://ollama.com/download 也可使用 Docker 部署:https:
2024年6月7日,AI 教父杰弗里·辛顿(Geoffrey Hinton)在联合国 AI for Good 大会上分享了 AI 在医疗和教育领域的潜力、网络犯罪和假视频的威胁以及提倡建立更严格的监管框架等话题。这场对谈共46分钟。 主要观点 此次对谈中,Hinton 有很多令人深思的金句与观点: