热爱技术,追求卓越
不断求索,精益求精

springboot项目使用langchain4j访问ollama本地的大模型

部署本地大模型可参考《Windows本地部署DeepSeek R1大模型

1、依赖

如果是调用本地ollama部署的大模型,需要使用如下依赖:

<!--LangChain4j 针对 ollama 的 Spring Boot starter-->
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-ollama-spring-boot-starter</artifactId>
    <version>1.10.0-beta18</version>
</dependency>

若调用的是外部大模型,则使用如下依赖

<!--LangChain4j 针对 open ai 的 Spring Boot starter-->
<dependency>
	<groupId>dev.langchain4j</groupId>
	<artifactId>langchain4j-open-ai-spring-boot-starter</artifactId>
	<version>1.10.0-beta18</version>
</dependency>

2、配置

配置把open-ai换成ollama即可,open-ai是调用外部模型时使用。

langchain4j: 
  #open-ai:
  ollama:  
    chat-model: 
      base-url: http://192.168.2.131:11434
      #api-key: 12345
      model-name: deepseek-r1-1.5b

3、实例代码

/**
 * 
 */
package cn.lovecto.yuen.agents.controller;

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;

import cn.dev33.satoken.annotation.SaIgnore;
import dev.langchain4j.model.chat.ChatModel;


@SaIgnore
@RestController
public class ChartController {
	
	@Autowired
	private ChatModel  chatModel;

	@GetMapping("/chat")
    public String model(@RequestParam(value = "message", defaultValue = "Hello") String message) {
        return chatModel.chat(message);
    }

}

运行后,访问如图:

赞(0)
未经允许不得转载:LoveCTO » springboot项目使用langchain4j访问ollama本地的大模型

热爱技术 追求卓越 精益求精