调用蓝耘Maas平台大模型API打造个人AI助理实战
大数据时代,个人隐私很难得到保障,如果我们需要借助大模型解决一些私人问题,又不想隐私被泄露和所用的大模型公司收集,这里我提供一个解决方案调用大模型的API实现一个本地化个人ai助理帮助我们解决问题,这是一个很好的解决办法。本次实验主要是借助蓝耘的Maas平台来调用大模型API,打造专属的AI助理。考虑到有些读者可能不了解Mass平台究竟是什么,这里做简单介绍。MaaS 平台即 “模型即服务”(Mo
本文介绍如何使用蓝耘MaaS平台调用大模型API,打造保护隐私的本地化AI助理。内容涵盖需求分析、环境配置、模型选择、API调用流程及完整Python代码实现UI界面交互功能。蓝耘平台提供免费超千万长期有效Token,降低使用成本,为隐私保护下的智能问题解决提供新方案。
目录
前言
大数据时代,个人隐私很难得到保障,如果我们需要借助大模型解决一些私人问题,又不想隐私被泄露和所用的大模型公司收集,这里我提供一个解决方案:调用大模型的API实现一个本地化个人ai助理帮助我们解决问题,这是一个很好的解决办法。本次实验主要是借助蓝耘的Maas平台来调用大模型API,打造专属的AI助理。
需求分析与环境配置
在开始动手实验之前,我们首先要明确我们的需求和进行环境配置。不清楚需求,干起活就会没有清晰的思路,没有好环境,就没有办法实现我们的AI助理。
明确需求
- 功能层面, AI 助理需要能够精准理解我们的私人问题,并根据我们个人情况能给出准确且详细的解答。
- 数据层面,涉及私人数据,我们要确保所有输入给AI 助理的数据仅在本地环境中处理,不会被上传至外部服务器。
- 交互层面,有可视化图形界面窗口,AI 助理应该具备自然流畅的对话风格,并且响应迅速。
环境准备
注册蓝耘平台账号
如果还未拥有蓝耘平台账号的小伙伴,需前往蓝耘平台官网注册一下账号。(https://cloud.lanyun.net//#/registerPage?promoterCode=0131)
获取 API 密钥
成功登录蓝耘平台后,点击Maas平台找到 “API KEY管理” 选项,点击 “创建API KEY” 平台将为你生成一串唯一的 API 密钥。这串密钥是你调用蓝耘 Maas 平台 API 的重要凭证,务必妥善保管,切勿向他人透露,以免造成安全风险。
选择合适的大模型
蓝耘 Maas 平台提供了多种大模型供选择,如 DeepSeek - R1、DeepSeek - V3、QwQ - 32B 等。
每个模型在自然语言处理、图像识别、代码生成等方面各有专长。鉴于我们打造个人 AI 助理主要用于处理文本类的私人问题,在自然语言处理方面表现卓越的 DeepSeek - R1 模型是不错的选择。它具备强大的语义理解能力,能深入剖析我们输入的问题,并生成高质量的回答。
在平台的模型介绍页面,我们可详细了解各模型的特点、适用场景以及调用价格(蓝耘平台会免费赠送超千万 Token,并且长期有效,可以支持我们使用很长一段时间),综合评估后确定符合自身需求的模型。
蓝耘Mass平台介绍
考虑到有些读者可能不了解Mass平台究竟是什么,这里做简单介绍。
MaaS 平台即 “模型即服务”(Model as aService)平台,是一种依托云计算的人工智能服务模式。模型即服务(MaaS)平台面向企业开发者、创业者及非技术背景用户,提供开箱即用的热门AI模型服务,支持零代码体验、API快速集成与灵活计费,降低AI应用开发门槛,加速业务创新。允许用户通过API接口或其他方式访问和使用预先训练好的机器学习模型,无需自己从头开始训练模型,使得即使没有深厚机器学习背景的用户也能享受到高水平的AI技术支持。(引用蓝耘官方介绍)
平台也支持各种文本、图像、视频大模型的选择。
API调用
完成上述需求分析与环境配置后,接下来进入更关键的 API 调用与功能实现环节。
大模型API介绍
大模型API是大模型对外提供服务的接口。通过API,开发者不需要了解大模型复杂的内部结构和运行机制,就能将大模型强大的功能集成到自己的应用、系统中。同时我们也可以调用大模型的API对模型进行微调、推理训练等。
API 调用流程
确定调用方式
蓝耘 Maas 平台为开发者提供了清晰且便捷的 API 调用方式。以常见的 HTTP 请求为例,我们可以借助各类编程语言中的 HTTP 请求库来发起调用。在 Python 语言中,常用的requests库能够方便地构造请求。我们要根据所选大模型 API 的要求,确定请求的 URL 地址。
构造请求参数
请求参数是 API 调用的关键部分,它决定了我们向大模型传递的信息以及期望得到的响应形式 。
- 认证信息:将之前获取的蓝耘平台 API 密钥包含在请求头中,获取调用权限。
- 模型相关参数:指定要调用的具体模型名称,在请求参数中明确设置模型参数。根据需求设置生成文本的最大长度(max_tokens),如设置为 200,意味着大模型生成的回答不超过 200 个 token;控制生成文本的随机性(temperature),取值范围在 0 - 1 之间,这里设置为 0.7,生成的文本会相对更具多样性。
Python 使用requests库调用蓝耘 Maas 平台大模型 API 代码:
import requests
url ="https://maas-api.lanyun.net/v1/chat/completions"
headers ={"Content-Type":"application/json","Authorization":"Bearer 这里改成自己的API密钥"}
data ={"model":"/maas/deepseek-ai/DeepSeek-R1","messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":"Hello!"}]}
response = requests.post(url, headers=headers, json=data)if response.status_code ==200:
result = response.json()print(result)else:print(f"请求失败,状态码: {response.status_code}")
不懂的朋友可以再看看官方文档,想快速实现的也可以直接用我的代码。
利用Jupyter Notebook环境我们先试试,模型API是否调用成功
AI助理回答:Hello! How can I assist you today? 😊
调用的deepseek-r1模型API,deepseek也是有深度思考和正常输出的,还给我们回复了一个微笑的可爱表情包。看来已经进入助理角色了。
可交互AI助理开发
上面那个界面,对于不懂代码的用户来说,比较不友好,我们要开发的是在UI窗口能直接用自然语言进行交互的AI助理。这次开发环境是 VS code,用python代码实现。
1.首先是蓝耘Mass平台API调用,进行设置API信息,这一步是我们调用大模型的关键
self.api_url ="https://maas-api.lanyun.net/v1/chat/completions"
self.api_key ="请替换为您的实际API密钥"# 请替换为您的实际API密钥
API调用主要是用到python的requests库,因为这个库是python的第三方库,我们本地可能并没有安装,调用的时候就会报错。
别担心,我们只需要在终端输入命令
pip install requests
就能完成库的安装,看见有“Successfully installed”就是安装成功了。
2.选择需要调用的模型为deepseek -r1模型,并且给模型设置身份为私人助理
headers ={"Content-Type":"application/json","Authorization":f"Bearer {self.api_key}"}
data ={"model":"/maas/deepseek-ai/DeepSeek-R1","messages":[{"role":"system","content": self.system_role
},{"role":"user","content": user_message
}]}
这里可以看到,我们给模型的身份和我们自己的身份。
# 初始化对话
self.append_message("系统","私人助理已就绪,请问有什么可以帮您?")# 设置系统角色
self.system_role ="你是一位专业的私人助理,负责帮助用户处理各种事务。你的回答应该简洁、专业且友好。"
3.交互窗口的开发
主窗口和基本的设置,将窗口大小设置为600*500的块
self.root.geometry("600x500")
用户输入区域(输入框+发送按钮)
# 输入框框架
self.input_frame = tk.Frame(root)
self.input_frame.pack(padx=10, pady=5, fill=tk.X)# 输入框
self.user_input = tk.Entry(self.input_frame)
self.user_input.pack(side=tk.LEFT, fill=tk.X, expand=True)
self.user_input.bind("<Return>", self.send_message)# 绑定回车键发送# 发送按钮
self.send_button = tk.Button(self.input_frame, text="发送", command=self.send_message)
self.send_button.pack(side=tk.RIGHT)
消息显示功能实现
defappend_message(self, sender, message):
self.chat_history.configure(state='normal')
self.chat_history.insert(tk.END,f"{sender}: {message}\n\n")
self.chat_history.configure(state='disabled')
self.chat_history.see(tk.END)# 自动滚动到底部
消息发送功能实现
defsend_message(self, event=None):
user_message = self.user_input.get()ifnot user_message.strip():return
self.append_message("你", user_message)
self.user_input.delete(0, tk.END)# 禁用控件防止重复发送
self.send_button.config(state=tk.DISABLED)
self.user_input.config(state=tk.DISABLED)# 使用线程发送请求
threading.Thread(target=self.get_ai_response, args=(user_message,)).start()
上面就是我们实现的主要代码了,现在运行看看效果。
最上面是整个窗口的名字“Deepseek-R1 私人助理”,初始时,系统会告诉我们他是你的私人助理,并且询问你是否需要帮助,下面的框可以输入我们的请求,比如我下面的prompt“你好,现在是晚饭时间,为我推荐清淡且富有营养的晚餐”,点击右下角的发送按钮,发送请求就好。
现在,是不是已经开始期待我们的私人助理会给出怎么样的回答了,一起看看吧。(十几秒的时间AI助理就能给我们回复,还是很快的,不需要像本地部署的大模型一样要等很久才能收到回复)
我们的小助理给出了一份很不错的食谱,接下来告诉小助理我们的忌口食物和喜爱食物,让他调整食谱。小助手根据我的喜好为我提供了新食谱,考虑到营养问题,把一日三餐的食都提供了,还告诉我应该怎么搭配,怎么食用。真所谓考虑的面面俱到,我对我的小助理非常满意。
这里我们的小助手是有长记忆的,可以支持进行多轮对话,不用担心token不够,蓝耘平台给我们提供了免费的千万token。
4.可调整:
- 窗口界面可根据自己的喜好进行调整美化。
- 可以根据自己的喜好对助手回复风格进-行设置,还可以让助手扮演自己喜欢的角色。
- 模型可更换,用完了deepseek-r1的token也可以换成其他的。
平台可以看到调用API的数量和token用量,实时监控并更新,方便我们查看
5.为了让更多人都能轻松实现这一AI私人助理,我决定把完整的代码分享给大家。
import tkinter as tk
from tkinter import scrolledtext, messagebox
import requests
import threading
classAIChatApp:def__init__(self, root):
self.root = root
self.root.title("DeepSeek-R1 私人助理")
self.root.geometry("600x500")# 设置API信息
self.api_url ="https://maas-api.lanyun.net/v1/chat/completions"
self.api_key ="请替换为您的实际API密钥"# 请替换为您的实际API密钥# 创建聊天历史显示区域
self.chat_history = scrolledtext.ScrolledText(root, wrap=tk.WORD, state='disabled')
self.chat_history.pack(padx=10, pady=10, fill=tk.BOTH, expand=True)# 创建用户输入区域
self.input_frame = tk.Frame(root)
self.input_frame.pack(padx=10, pady=5, fill=tk.X)
self.user_input = tk.Entry(self.input_frame)
self.user_input.pack(side=tk.LEFT, fill=tk.X, expand=True)
self.user_input.bind("<Return>", self.send_message)
self.send_button = tk.Button(self.input_frame, text="发送", command=self.send_message)
self.send_button.pack(side=tk.RIGHT)# 初始化对话
self.append_message("系统","私人助理已就绪,请问有什么可以帮您?")# 设置系统角色
self.system_role ="你是一位专业的私人助理,负责帮助用户处理各种事务。你的回答应该简洁、专业且友好。"defappend_message(self, sender, message):
self.chat_history.configure(state='normal')
self.chat_history.insert(tk.END,f"{sender}: {message}\n\n")
self.chat_history.configure(state='disabled')
self.chat_history.see(tk.END)defsend_message(self, event=None):
user_message = self.user_input.get()ifnot user_message.strip():return
self.append_message("你", user_message)
self.user_input.delete(0, tk.END)# 禁用发送按钮和输入框,避免重复发送
self.send_button.config(state=tk.DISABLED)
self.user_input.config(state=tk.DISABLED)# 在新线程中发送请求,避免界面冻结
threading.Thread(target=self.get_ai_response, args=(user_message,)).start()defget_ai_response(self, user_message):try:
headers ={"Content-Type":"application/json","Authorization":f"Bearer {self.api_key}"}
data ={"model":"/maas/deepseek-ai/DeepSeek-R1","messages":[{"role":"system","content": self.system_role
},{"role":"user","content": user_message
}]}
response = requests.post(self.api_url, headers=headers, json=data)if response.status_code ==200:
result = response.json()
ai_response = result.get('choices',[{}])[0].get('message',{}).get('content',"未能获取有效回复")
self.append_message("助理", ai_response)else:
self.append_message("系统",f"请求失败,状态码: {response.status_code}")
messagebox.showerror("错误",f"API请求失败: {response.status_code}")except Exception as e:
self.append_message("系统",f"发生错误: {str(e)}")
messagebox.showerror("错误",f"发生异常: {str(e)}")finally:# 重新启用发送按钮和输入框
self.root.after(0,lambda:[
self.send_button.config(state=tk.NORMAL),
self.user_input.config(state=tk.NORMAL),
self.user_input.focus()])if __name__ =="__main__":
root = tk.Tk()
app = AIChatApp(root)
root.mainloop()
总结
在大数据隐私风险下,我们可以尝试利用蓝耘 Maas 平台调用大模型 API 实现打造本地化 AI 助理,保护隐私数据不被泄露。通过 Python 代码实现 API 调用,开发带 UI 的交互助理,支持多轮对话。重中之重是蓝耘平台免费送超千万长期有效 Token,降低使用成本,为隐私保护下的智能问题解决提供新方案,为我们的AI助理实现提供了坚实的保障。
零基础如何高效学习大模型?
为了帮助大家打破壁垒,快速了解大模型核心技术原理,学习相关大模型技术。从原理出发真正入局大模型。在这里我和MoPaaS魔泊云联合梳理打造了系统大模型学习脉络,这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码免费领取🆓**⬇️⬇️⬇️
【大模型全套视频教程】
教程从当下的市场现状和趋势出发,分析各个岗位人才需求,带你充分了解自身情况,get 到适合自己的 AI 大模型入门学习路线。
从基础的 prompt 工程入手,逐步深入到 Agents,其中更是详细介绍了 LLM 最重要的编程框架 LangChain。最后把微调与预训练进行了对比介绍与分析。
同时课程详细介绍了AI大模型技能图谱知识树,规划属于你自己的大模型学习路线,并且专门提前收集了大家对大模型常见的疑问,集中解答所有疑惑!
深耕 AI 领域技术专家带你快速入门大模型
跟着行业技术专家免费学习的机会非常难得,相信跟着学习下来能够对大模型有更加深刻的认知和理解,也能真正利用起大模型,从而“弯道超车”,实现职业跃迁!
【精选AI大模型权威PDF书籍/教程】
精心筛选的经典与前沿并重的电子书和教程合集,包含《深度学习》等一百多本书籍和讲义精要等材料。绝对是深入理解理论、夯实基础的不二之选。
【AI 大模型面试题 】
除了 AI 入门课程,我还给大家准备了非常全面的**「AI 大模型面试题」,**包括字节、腾讯等一线大厂的 AI 岗面经分享、LLMs、Transformer、RAG 面试真题等,帮你在面试大模型工作中更快一步。
【大厂 AI 岗位面经分享(92份)】
【AI 大模型面试真题(102 道)】
【LLMs 面试真题(97 道)】
【640套 AI 大模型行业研究报告】
【AI大模型完整版学习路线图(2025版)】
明确学习方向,2025年 AI 要学什么,这一张图就够了!
👇👇点击下方卡片链接免费领取全部内容👇👇
抓住AI浪潮,重塑职业未来!
科技行业正处于深刻变革之中。英特尔等巨头近期进行结构性调整,缩减部分传统岗位,同时AI相关技术岗位(尤其是大模型方向)需求激增,已成为不争的事实。具备相关技能的人才在就业市场上正变得炙手可热。
行业趋势洞察:
- 转型加速: 传统IT岗位面临转型压力,拥抱AI技术成为关键。
- 人才争夺战: 拥有3-5年经验、扎实AI技术功底和真实项目经验的工程师,在头部大厂及明星AI企业中的薪资竞争力显著提升(部分核心岗位可达较高水平)。
- 门槛提高: “具备AI项目实操经验”正迅速成为简历筛选的重要标准,预计未来1-2年将成为普遍门槛。
与其观望,不如行动!
面对变革,主动学习、提升技能才是应对之道。掌握AI大模型核心原理、主流应用技术与项目实战经验,是抓住时代机遇、实现职业跃迁的关键一步。
01 为什么分享这份学习资料?
当前,我国在AI大模型领域的高质量人才供给仍显不足,行业亟需更多有志于此的专业力量加入。
因此,我们决定将这份精心整理的AI大模型学习资料,无偿分享给每一位真心渴望进入这个领域、愿意投入学习的伙伴!
我们希望能为你的学习之路提供一份助力。如果在学习过程中遇到技术问题,也欢迎交流探讨,我们乐于分享所知。
*02 这份资料的价值在哪里?*
专业背书,系统构建:
-
本资料由我与MoPaaS魔泊云的鲁为民博士共同整理。鲁博士拥有清华大学学士和美国加州理工学院博士学位,在人工智能领域造诣深厚:
-
- 在IEEE Transactions等顶级学术期刊及国际会议发表论文超过50篇。
- 拥有多项中美发明专利。
- 荣获吴文俊人工智能科学技术奖(中国人工智能领域重要奖项)。
-
目前,我有幸与鲁博士共同进行人工智能相关研究。
内容实用,循序渐进:
-
资料体系化覆盖了从基础概念入门到核心技术进阶的知识点。
-
包含丰富的视频教程与实战项目案例,强调动手实践能力。
-
无论你是初探AI领域的新手,还是已有一定技术基础希望深入大模型的学习者,这份资料都能为你提供系统性的学习路径和宝贵的实践参考,助力你提升技术能力,向大模型相关岗位转型发展。
抓住机遇,开启你的AI学习之旅!
更多推荐
所有评论(0)