Back to Nodes

ModelScope

Last updated Dec 23, 2025

n8n node for ModelScope API-Inference services including LLM, Vision, and Text-to-Image models

61 Weekly Downloads
459 Monthly Downloads

Included Nodes

ModelScope
ModelScope Chat Model

Description

n8n-nodes-modelscope

![npm version](https://badge.fury.io/js/n8n-nodes-modelscope)
![License: MIT](https://opensource.org/licenses/MIT)

这是一个用于 n8n 的 ModelScope API 集成节点包,提供双节点架构支持大语言模型、视觉模型、文生图与向量化(Embedding)模型的调用,以及 AI Agent/Chain 集成功能。

节点架构

本包提供两个互补的节点:

🔧 ModelScope 节点

传统的 API 调用节点,支持:

  • 🤖 大语言模型 (LLM): 支持对话完成,包括 Qwen、GLM、DeepSeek 等主流模型
  • 👁️ 视觉模型 (Vision): 支持图像理解和视觉问答
  • 🎨 文生图模型 (Image): 支持文本到图像的生成,包括 Qwen-Image 等模型
  • 📈 向量化模型 (Embedding): 支持文本向量生成,现已集成 Qwen/Qwen3-Embedding-8B,并支持批量输入
  • 异步处理: 支持文生图任务的异步处理和状态轮询
  • 🔗 ModelScope Chat Model 节点

    AI Agent/Chain 集成节点,专为 n8n AI 工作流设计:

  • 🤖 LangChain 集成: 基于 ChatOpenAI 的 LangChain 兼容接口
  • 🔄 AI Agent 支持: 可与 n8n AI Agent 和 AI Chain 节点无缝集成
  • ⚙️ 丰富配置: 支持温度、最大令牌数、频率惩罚等高级参数
  • 🎯 专业化: 专注于大语言模型的 AI 工作流集成
  • 功能特性

  • 🔐 安全认证: 使用 ModelScope API Token 进行身份验证
  • 🎛️ 丰富配置: 支持温度、最大令牌数、图像尺寸等参数调节
  • 🚀 双重集成: 既支持传统 API 调用,也支持现代 AI Agent 工作流
  • 📊 完善错误处理: 包含详细的错误处理和状态反馈机制
  • 安装

    通过 npm 安装

    npm install n8n-nodes-modelscope
    

    通过 n8n 社区节点安装

    1. 在 n8n 界面中,转到 Settings > Community Nodes
    2. 点击 Install a community node
    3. 输入 n8n-nodes-modelscope
    4. 点击 Install

    配置

    获取 ModelScope API Token

    1. 访问 ModelScope 并注册账号
    2. 登录后,进入 个人中心 – API Token
    3. 创建新的 API Token
    4. 复制生成的 Token

    在 n8n 中配置凭据

    1. 在 n8n 工作流中添加 ModelScope 节点
    2. 点击 Create New Credential
    3. 输入您的 ModelScope API Token
    4. 保存凭据

    使用方法

    ModelScope 节点使用

    #### 大语言模型 (LLM)

    支持与大语言模型进行对话:

  • 模型选择: ZhipuAI/GLM-4.6、deepseek-ai/DeepSeek-V3.1、Qwen/Qwen3-235B-A22B-Instruct-2507 等
  • 消息模板: 自定义、代码生成、文本分析、翻译等预设模板
  • 参数配置: 温度、最大令牌数、流式输出等
  • 示例配置:

    {
      "resource": "llm",
      "operation": "chatCompletion",
      "model": "ZhipuAI/GLM-4.6",
      "messages": [
        {
          "role": "user",
          "content": "请帮我写一个 Python 函数来计算斐波那契数列"
        }
      ],
      "temperature": 0.7,
      "maxTokens": 2048
    }
    

    #### 视觉模型 (Vision)

    支持图像理解和视觉问答:

  • 模型选择: Qwen/Qwen3-VL-235B-A22B-Instruct、Qwen/Qwen3-VL-30B-A3B-Instruct 等
  • 图像输入: 支持图像 URL
  • 视觉问答: 对图像内容进行描述、分析、问答
  • 示例配置:

    {
      "resource": "vision",
      "operation": "visionChat",
      "model": "Qwen/Qwen3-VL-235B-A22B-Instruct",
      "imageUrl": "https://example.com/image.jpg",
      "prompt": "请描述这张图片的内容",
      "temperature": 0.7,
      "maxTokens": 2048
    }
    

    #### 文生图模型 (Image)

    支持根据文本描述生成图像:

  • 模型选择: Qwen/Qwen-Image 等
  • 提示词: 支持正面和负面提示词
  • 图像配置: 多种尺寸选择、生成步数调节
  • 异步处理: 自动处理异步任务和状态轮询
  • 示例配置:

    {
      "resource": "image",
      "operation": "textToImage",
      "model": "Qwen/Qwen-Image",
      "prompt": "一只可爱的小猫坐在花园里,阳光明媚,高质量,4K",
      "negativePrompt": "blurry, low quality, distorted",
      "size": "1024x1024",
      "steps": 30,
      "timeout": 5
    }
    

    #### 向量化模型 (Embedding)

    支持将文本生成向量,可用于检索/存储/RAG 等场景:

  • 模型选择: Qwen/Qwen3-Embedding-8B
  • 编码格式: float(返回数值数组,适合直接检索/入库)或 base64(压缩传输/存档)
  • 批量模式: 开启 Batch Mode 后可一次处理多条文本,输出的 data 与输入顺序一一对应
  • 单条示例配置:

    {
      "resource": "embedding",
      "operation": "createEmbedding",
      "model": "Qwen/Qwen3-Embedding-8B",
      "input": "你好",
      "encodingFormat": "float"
    }
    

    批量示例配置:

    {
      "resource": "embedding",
      "operation": "createEmbedding",
      "model": "Qwen/Qwen3-Embedding-8B",
      "batch": true,
      "inputs": {
        "item": [
          { "text": "你好" },
          { "text": "世界" }
        ]
      },
      "encodingFormat": "float"
    }
    

    ModelScope Chat Model 节点使用

    ModelScope Chat Model 节点专为 n8n AI 工作流设计,可与 AI Agent 和 AI Chain 节点无缝集成:

    #### AI Agent 集成

    1. 在工作流中添加 AI Agent 节点
    2. 在 AI Agent 的 Chat Model 配置中选择 ModelScope Chat Model
    3. 配置模型参数和选项

    #### AI Chain 集成

    1. 在工作流中添加 AI Chain 节点
    2. 在 AI Chain 的 Language Model 配置中选择 ModelScope Chat Model
    3. 配置模型参数和选项

    #### 配置选项

  • 模型选择: 支持多种大语言模型
  • 温度 (Temperature): 控制输出的随机性 (0.0-2.0)
  • 最大令牌数 (Max Tokens): 限制输出长度
  • 频率惩罚 (Frequency Penalty): 减少重复内容 (-2.0-2.0)
  • 存在惩罚 (Presence Penalty): 鼓励话题多样性 (-2.0-2.0)
  • Top P: 核采样参数 (0.0-1.0)
  • 响应格式: 文本或 JSON 格式
  • 推理努力: 控制模型推理深度 (低/中/高)
  • #### Embedding Pipeline 模式

    该节点新增 Mode 选择:

  • Chat Model: 输出 Model(语言模型)
  • Embedding Pipeline: 输出 Chain(包含向量管道)
  • Embedding Pipeline 下:

  • Embeddings Model: 选择 Qwen/Qwen3-Embedding-8B
  • Options/Top K: 设置近邻数量(默认 5)
  • 输出 Chain 对象包含 vectorStoreembeddings,可在下游执行:
  • – 入库:await chain.vectorStore.addTexts(["文本1","文本2"])
    – 检索:const hits = await chain.vectorStore.similaritySearch("查询语句", chain.topK)

    支持的模型

    大语言模型 (LLM)

  • ZhipuAI 系列:
  • – ZhipuAI/GLM-4.6
    – ZhipuAI/GLM-4.5

  • DeepSeek 系列:
  • – deepseek-ai/DeepSeek-V3.2-Exp
    – deepseek-ai/DeepSeek-V3.1
    – deepseek-ai/DeepSeek-R1-0528

  • MiniMax 系列:
  • – MiniMax/MiniMax-M2

  • Qwen 系列:
  • – Qwen/Qwen3-235B-A22B-Instruct-2507
    – Qwen/Qwen3-235B-A22B-Thinking-2507
    – Qwen/Qwen3-Next-80B-A3B-Instruct
    – Qwen/Qwen3-Coder-480B-A35B-Instruct
    – Qwen/Qwen3-Next-80B-A3B-Thinking

  • 更多模型持续更新中…
  • 视觉模型 (Vision)

  • Qwen/Qwen3-VL-235B-A22B-Instruct
  • Qwen/Qwen3-VL-30B-A3B-Instruct
  • 更多模型持续更新中…
  • 文生图模型 (Image)

  • Qwen/Qwen-Image
  • 更多模型持续更新中…
  • 向量化模型 (Embedding)

  • Qwen/Qwen3-Embedding-8B
  • 更多模型持续更新中…
  • 使用限制

  • 每用户每天总计 2000 次 API 调用
  • 单个模型每天不超过 500 次调用
  • 部分大模型限制 200 次/天
  • 文生图任务为异步处理,生成时间通常为 30 秒 – 5 分钟
  • 错误处理

    节点包含完善的错误处理机制:

  • 401 错误: API Token 无效或过期
  • 429 错误: 请求频率超限或配额不足
  • 400 错误: 请求参数错误
  • 500 错误: 服务器内部错误
  • 开发

    本地开发

    克隆仓库

    git clone https://github.com/xwang152-jack/n8n-nodes-modelscope.git cd n8n-nodes-modelscope

    安装依赖

    npm install

    构建

    npm run build

    链接到本地 n8n

    npm link cd ~/.n8n/nodes npm link n8n-nodes-modelscope

    项目结构

    n8n-nodes-modelscope/
    ├── nodes/
    │   ├── ModelScope/                     # 传统 API 调用节点
    │   │   ├── ModelScope.node.ts          # 主节点文件
    │   │   ├── utils/                       # 工具与常量
    │   │   │   ├── apiClient.ts
    │   │   │   ├── constants.ts
    │   │   │   └── errorHandler.ts
    │   │   └── resources/
    │   │       ├── llm/                    # 大语言模型资源
    │   │       ├── vision/                 # 视觉模型资源
    │   │       ├── image/                  # 图像生成资源
    │   │       └── embedding/              # 向量化资源
    │   └── ModelScopeChain/                # AI Agent/Chain 集成节点
    │       ├── ModelScopeChain.node.ts     # Chat Model 节点文件
    │       └── utils/
    │           └── loadModels.ts           # 模型加载工具
    ├── credentials/
    │   └── ModelScopeApi.credentials.ts     # API 凭证配置
    ├── package.json                        # 项目配置
    ├── tsconfig.json                       # TypeScript 配置
    └── README.md                          # 项目文档
    

    贡献

    欢迎提交 Issue 和 Pull Request!

    许可证

    MIT License – 详见 LICENSE 文件

    相关链接

  • ModelScope 官网
  • ModelScope API 文档
  • n8n 官网
  • n8n 社区节点文档