跳转到内容

如何使用Ollama调用大模型API服务

本文旨在指导用户通过在JYGPU极智算平台上部署 Ollama 与常见大语言(LLM)模型 API 服务的完整操作。

💡

Ollama是一款开源的AI模型训练与部署工具,可让用户在本地轻松训练、优化并部署AI模型,支持多种模型架构,还提供简单易用的界面和API接口,助力高效开发与应用。JYGPU提供了标准化的 API 接口,让您能够便捷地通过 API 调用方式访问和使用所有功能。

1、GPU容器实例部署

1.1 打开极智算-算力市场: https://www.jygpu.com/markets,选择【GPU容器实例】

打开极智算-算力市场

1.2 选择GPU类型

基于自身需要进行配置,参考配置为单卡 4090 。点击【创建容器实例】

选择GPU类型

1.3 选择预制Ollama镜像

这里选择 Ollama镜像,点击【创建】。

选择预制Ollama镜像

1.4 耐心等待实例拉取镜像并启动,通常只需要5s-10s

实例拉取镜像

1.5 实例启动完成

在快捷工具出,能看到一个公开访问链接。这个链接就是 Ollama 服务的 API 访问地址。

将这个 API 地址复制下来,就可以在任何支持 Ollama 协议的应用程序中使用。

实例启动完成

1.6 验证Ollama启动成功

快捷工具栏处点击【Ollama】,就可以看到以下内容,说明Ollama服务部署并运行了。

验证Ollama启动成功

2、安装所需要的大模型

Ollama 部署完成了,该镜像内未予置任何大模型,您可根据需要安装所需要的模型。

2.1 访问Ollama官网:https://ollama.com选择【Models

Ollama官网

2.2 搜索您需要的模型,这里以阿里QWEN3为例

阿里QWEN3

2.3 复制该条命令至刚才启动的容器实例SSH远程连接终端

powershell
ollama run qwen3:8b

连接终端

注:容器实例如何进行SSH连接请参考以下文档

https://doc.jygpu.com/guide/ssh-connect.html

2.4 等待QWEN3模型下载完成

QWEN3模型下载

2.5 模型下载完成后,出现该对话界面,表示模型已经部署成功

部署成功

3、在第三方客户端调用该模型API,本文以Dify为例

Dify-【设置】-【模型供应商】-【添加模型】

添加模型

此处填写在步骤1.6获得的ollama API地址

ollama API地址

点击【保存】,即可看到模型API已经调用成功

调用成功

我们在Dify工作区建立一个测试用对话应用,可以看到已经成功调用我们在容器实例部署的qwen3:8b模型,并能提供智能对话服务

智能对话服务

注:关于第三方客户端Dify的使用教程请参考网络教程,或咨询客服

3、保存该已经部署好模型的容器镜像

保存模型

控制台-选择该容器实例-点击【更多】-点击【保存镜像】

镜像保存后,即便该实例释放,在新的实例中您也可以通过选择已保存的镜像再次调用该模型API