沈阳网站外包,家里做服务器开网站,做网站多少钱,免费vps云服务器R1大模型推出后#xff0c;Deepseek官网的API也更新了#xff0c;我们可以看到 chat 接口的响应数据结果里多了一个reasoning_content 字段
于是我们的JBoltAI SDK 以及 SpringBoot版以及Jfinal版JBoltAI Platform 迅速跟进#xff0c;提供了对深度思考的支持#xff1a;…R1大模型推出后Deepseek官网的API也更新了我们可以看到 chat 接口的响应数据结果里多了一个reasoning_content 字段
于是我们的JBoltAI SDK 以及 SpringBoot版以及Jfinal版JBoltAI Platform 迅速跟进提供了对深度思考的支持
//1. 将大模型注册为全局资源
ResourceCenter.registerAI(ai-chatgpt1, AIModel.DEEP_SEEK, JBoltAITestConfig.DEEPSEEK_API_KEY);//2.指定使用DeepSeek大模型发起聊天会自动从全局资源中调取deepseek的资源
JBoltAI.chat(AIModel.DEEP_SEEK).setModelName(deepseek-reasoner).contextMessages(Arrays.asList(new AIMessage(AIMessageRole.user, 你好我叫张三丰请问你是谁),new AIMessage(AIMessageRole.assistant, 你好我是人工智能大模型有什么我可以帮你的))).prompt(请你重复下我的名字).onThinking((e, think, status) - {if (status ThinkStatus.START) {System.out.println( 思考开始 );} else if (status ThinkStatus.RUNNING) {System.out.print(think);} else if (status ThinkStatus.COMPLETE) {System.out.print(think);System.out.println( 思考结束 );System.out.println( 开始回答 );}}).onSuccess((e,msg) - {System.out.print(msg.getContent());}).publish().await();
在上面的例子中我们模拟构造了一个上下文环境让AI基于历史消息进行回答。 这里的核心就是onThinking 回调和 onSuccess 回调。在onThinking 回调中我们可以获取到R1大模型的思考过程通过status可以知道当前思考过程的进度。在onSuccess 回调中我们可以获取到R1大模型的正式回答内容。
我们发起的AI聊天是以event事件的形式执行的框架底层有一个事件调度器会根据系统负载和ai资源的可用情况自动分配资源给事件去执行。
默认情况下AI聊天事件是流式输出的所以onThinkging 和 onSuccess 回调会随着AI的流式响应而触发多次。当然我们也可以控制事件的输出方式为非流式的这一点我们的JBoltAI 框架是非常灵活的并且我们以统一的编码方式让开发者可以非常容易的去使用近二十种主流的大模型、平台开发者无需关心各个模型的参数差异接口差异无需更改代码就可以无缝切换不同的大模型。
欢迎大家使用的 JBoltAI 开发框架来加速开发你的AI应用和知识库应用。