在 LLM 应用开发领域,Dify 作为开源的开发平台,凭借其灵活的功能和易用性,成为众多开发者构建 AI 应用的首选工具。然而,在实际使用过程中,不少用户发现 Dify 内置的文档提取器在处理特定文件格式时存在明显局限性,其中Word 2003 格式(.doc 文件)的支持问题尤为突出 —— 当尝
上周末,Anthropic 一口气放出了很多内部核心贡献工程师的分享。他们把 MCP 协议的设计哲学、开发技巧、未来计划也同步放了出来。 如今,没有哪家大厂不拥抱 MCP。不止国内的阿里、字节、腾讯、百度、京东,即便是国外的即便是 Anthropic 死对头的 OpenAI 也表示全面支持 MCP
随着 Coze 的开源,很多圈内的小伙伴猜测会对 Dify 造成直接威胁,也看到不少关于本地部署 Coze 的例子。 本文从项目代码出发,从产品理念,架构设计,应用开发,技术栈对比,部署,生态,企业场景选择分析等方面进行一个全面的对比 代码地址:
资源是模型上下文协议(MCP)中的一种核心基本元素,它使服务器能够公开数据和内容,这些数据和内容可供客户端读取,并用作大语言模型(LLM)交互时的上下文信息。 官方文档:https://modelcontextprotocol.io/docs/concepts/resources 一、资源简介 (一
模型上下文协议 (MCP) 中的 Transports(传输)为客户端和服务器之间的通信提供了基础。传输处理消息发送和接收方式的基本机制。 一、消息格式 Transports 底层的消息消息格式,一般情况下无需开发者关心。我们简单了解一下。 MCP 使用 JSON-RPC 2.0 作为其传输格式。传
本文参考官方案例,使用 Node.js 语言,从零开始构建一个 MCP Server 和一个 MCP Client,并基于标准 IO 实现本地调用。 官方文档:https://modelcontextprotocol.io/quickstart/server 一、开发 MCP Server 基于美国
MCP,即 Model Context Protocol(模型上下文协议),是 Anthropic 推出的一项开放标准。其核心目标是统一大型语言模型(LLM)与外部数据源及工具之间的通信协议。在当下,AI 模型常受数据孤岛问题制约,难以充分释放潜力,MCP 的出现正是为攻克这一难题。它赋予 AI 应
本文重点介绍使用微调框架unsloth,围绕DeepSeek R1 Distill 7B模型进行高效微调,并介绍用于推理大模型高效微调的COT数据集的创建和使用方法,并在一个medical-o1-reasoning-SFT数据集上完成高效微调实战,并最终达到问答风格优化&知识灌注目的。 你能收获什么
Rerank 指的是重排序模型,在信息检索、自然语言处理等领域有着重要作用。可以有效的提高检索结果准确性、融合多源信息、提升模型性能、挖掘潜在语义关系、平衡召回率和精确率。 一、Xinference 安装 Xinference 是一个性能强大且功能全面的分布式推理框架,特别适用于大语言模型(LLM
Firecrawl 是一项 API 服务。它能够获取 URL,对相应的网页进行抓取操作,并将抓取到的内容转换成格式规范的 Markdown 格式文本或者结构化数据。 可以实现对所有能够访问到的子页面进行抓取,并且为每个子页面提供格式规范、清晰的数据。使用该服务无需站点地图。 官方服务地址:https
Dify 是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等。 官方平台:https://dify.ai/zh 开源社区版:https://github.com/langgenius/dify 一、使用 Docker Compos
由于国内网络环境,Ollama 的自动安装脚本在服务器上经常网络超时。可以参考本文的手动安装方式。 Linux 自动安装命令:curl -fsSL https://ollama.com/install.sh | sh Linux 手动安装官方文档参考:https://github.com/ollam
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种LLM运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,是一个强大的 AI 部署解决方案。 开源地址:https://github.com/open-webu
近日,来自 UC 伯克利的研究团队基于 Deepseek-R1-Distilled-Qwen-1.5B,通过简单的强化学习(RL)微调,得到了全新的 DeepScaleR-1.5B-Preview。 训练细节 目前,研究团队已开源数据集、代码和训练日志。 开源地址:https://github.co
使用 Ollama 作为大模型能力基座 官网:https://ollama.com/ GitHub:https://github.com/ollama/ollama 安装 Ollama 各平台下载地址:https://ollama.com/download 也可使用 Docker 部署:https:
2024年6月7日,AI 教父杰弗里·辛顿(Geoffrey Hinton)在联合国 AI for Good 大会上分享了 AI 在医疗和教育领域的潜力、网络犯罪和假视频的威胁以及提倡建立更严格的监管框架等话题。这场对谈共46分钟。 主要观点 此次对谈中,Hinton 有很多令人深思的金句与观点:
一、环境准备 安装 python 详细过程省略,官网地址:https://www.python.org/ 安装 huggingface_hub 依赖 pip install -U huggingface_hub 设置代理环境变量 export HF_ENDPOINT=https://hf-mirr
定义 余弦相似度(Cosine Similarity)是一种用于衡量两个非零向量之间相似程度的指标。其基本原理是通过计算两个向量夹角的余弦值来判断它们的相似性。具体而言,余弦相似度被定义为两个向量的点积与它们的范数乘积之比,其公式为: \text{余弦相似度} = \cos(\theta) = \f