资源是模型上下文协议(MCP)中的一种核心基本元素,它使服务器能够公开数据和内容,这些数据和内容可供客户端读取,并用作大语言模型(LLM)交互时的上下文信息。 官方文档:https://modelcontextprotocol.io/docs/concepts/resources 一、资源简介 (一
模型上下文协议 (MCP) 中的 Transports(传输)为客户端和服务器之间的通信提供了基础。传输处理消息发送和接收方式的基本机制。 一、消息格式 Transports 底层的消息消息格式,一般情况下无需开发者关心。我们简单了解一下。 MCP 使用 JSON-RPC 2.0 作为其传输格式。传
本文参考官方案例,使用 Node.js 语言,从零开始构建一个 MCP Server 和一个 MCP Client,并基于标准 IO 实现本地调用。 官方文档:https://modelcontextprotocol.io/quickstart/server 一、开发 MCP Server 基于美国
MCP,即 Model Context Protocol(模型上下文协议),是 Anthropic 推出的一项开放标准。其核心目标是统一大型语言模型(LLM)与外部数据源及工具之间的通信协议。在当下,AI 模型常受数据孤岛问题制约,难以充分释放潜力,MCP 的出现正是为攻克这一难题。它赋予 AI 应
Docker作为一款强大的容器化平台,极大地改变了应用程序的部署和管理方式。通过一系列简洁而功能丰富的命令,开发者和运维人员能够高效地创建、运行、管理和分享容器。本文将全面介绍常用的Docker命令,帮助你深入掌握Docker的使用技巧。 一、基础镜像操作命令 (一)搜索镜像 在Docker Hub
本文重点介绍使用微调框架unsloth,围绕DeepSeek R1 Distill 7B模型进行高效微调,并介绍用于推理大模型高效微调的COT数据集的创建和使用方法,并在一个medical-o1-reasoning-SFT数据集上完成高效微调实战,并最终达到问答风格优化&知识灌注目的。 你能收获什么
在使用Docker的过程中,随着时间的推移,各种缓存和未使用的数据会不断占用磁盘空间,影响系统性能。本文将详细介绍如何清理Docker的磁盘缓存,帮助你释放宝贵的磁盘空间。 一、查询磁盘使用情况 在清理之前,我们首先需要了解当前Docker占用磁盘空间的情况。通过docker system df命令
微信公众号和服务号都提供了事件通知接入能力,开发者可以自行接入通知并做后续业务处理。 本文以 SpringBoot 工程为例,介绍通过开源 SDK 简化接入流程。 一、引入微信公众号 Java SDK 开源地址:https://github.com/binarywang/WxJava Maven 依
在 macOS 系统里,.DS_Store 文件主要用于存储目录的自定义视图设置。虽然这些文件在使用 Finder 时颇为实用,但在 Git 仓库中,它们却可能带来不必要的困扰。为了维持代码库的整洁有序,以下是有效忽略 .DS_Store 文件的具体最佳实践方法。 1. 设置全局忽略文件 首先,我们
微信小程序内容审核是确保小程序合规性、安全性和用户体验的重要环节。当小程序涉及自定义内容发布时,通常需要开发者自行接入内容审核 API。 本文以 SpringBoot 工程为例,介绍通过开源 SDK 简化接入流程。 一、引入微信小程序 Java SDK 开源地址:https://github.com
Rerank 指的是重排序模型,在信息检索、自然语言处理等领域有着重要作用。可以有效的提高检索结果准确性、融合多源信息、提升模型性能、挖掘潜在语义关系、平衡召回率和精确率。 一、Xinference 安装 Xinference 是一个性能强大且功能全面的分布式推理框架,特别适用于大语言模型(LLM
Firecrawl 是一项 API 服务。它能够获取 URL,对相应的网页进行抓取操作,并将抓取到的内容转换成格式规范的 Markdown 格式文本或者结构化数据。 可以实现对所有能够访问到的子页面进行抓取,并且为每个子页面提供格式规范、清晰的数据。使用该服务无需站点地图。 官方服务地址:https
Dify 是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等。 官方平台:https://dify.ai/zh 开源社区版:https://github.com/langgenius/dify 一、使用 Docker Compos
由于国内网络环境,Ollama 的自动安装脚本在服务器上经常网络超时。可以参考本文的手动安装方式。 Linux 自动安装命令:curl -fsSL https://ollama.com/install.sh | sh Linux 手动安装官方文档参考:https://github.com/ollam
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种LLM运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,是一个强大的 AI 部署解决方案。 开源地址:https://github.com/open-webu
近日,来自 UC 伯克利的研究团队基于 Deepseek-R1-Distilled-Qwen-1.5B,通过简单的强化学习(RL)微调,得到了全新的 DeepScaleR-1.5B-Preview。 训练细节 目前,研究团队已开源数据集、代码和训练日志。 开源地址:https://github.co
现象 在 macOS Sequoia 15 版本中,经常遇到突然卡顿现象,查看活动监视器发现,有一个或多个 WebThumbnailExtension 进程,每个进程大概占用 400M 左右内存,且 CPU 占用较高。 原因 原因其实是 Excel 文件的图标预览图生成失败导致的。 在 macOS
使用 Ollama 作为大模型能力基座 官网:https://ollama.com/ GitHub:https://github.com/ollama/ollama 安装 Ollama 各平台下载地址:https://ollama.com/download 也可使用 Docker 部署:https:
在Linux系统中,有多种方法可以查询端口是否被占用,下面为你详细介绍几种常见的方式。 1. 使用netstat命令 netstat是一个用于查看网络连接、路由表和网络接口统计信息的工具,结合特定选项可以方便地查询端口占用情况。 命令语法 netstat -tulnp | grep 端口号 -t:
2024年6月7日,AI 教父杰弗里·辛顿(Geoffrey Hinton)在联合国 AI for Good 大会上分享了 AI 在医疗和教育领域的潜力、网络犯罪和假视频的威胁以及提倡建立更严格的监管框架等话题。这场对谈共46分钟。 主要观点 此次对谈中,Hinton 有很多令人深思的金句与观点: