三分钟让Dify接入Ollama部署的本地大模型

若 Dify 为:

  • Docker 部署,建议填写局域网 IP 地址,如:http://192.168.1.100:11434 或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434
  • 若为本地源码部署,可填 http://localhost:11434
  • 模型类型:对话
  • 模型上下文长度:4096模型的最大上下文长度,若不清楚可填写默认值 4096。
  • 最大 token 上限:4096模型返回内容的最大 token 数量,若模型无特别说明,则可与模型上下文长度保持一致。
  • 是否支持 Vision:当模型支持图片理解(多模态)勾选此项,如 llava

点击 “保存” 校验无误后即可在应用中使用该模型。