logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

二、智能体应用开发平台——Dify(1)

Dify是⼀款开源的⼤语⾔模型(LLM) 应⽤开发平台,它融合了后端即服务 Backend asService 和 LLMOps 的理念,使开发者可以快速搭建⽣产级的⽣成式 AI 应⽤;即使是⾮技术⼈员,也能参与到 AI 应⽤的定义和数据运营过程中来。LLMOps(Large Language Model Operations)是⼀个涵盖了⼤型语⾔模型开发、部署、维护和优化的⼀整套实践和流程。⽬的

二、智能体应用开发平台——Dify(1)

Dify是⼀款开源的⼤语⾔模型(LLM) 应⽤开发平台,它融合了后端即服务 Backend asService 和 LLMOps 的理念,使开发者可以快速搭建⽣产级的⽣成式 AI 应⽤;即使是⾮技术⼈员,也能参与到 AI 应⽤的定义和数据运营过程中来。LLMOps(Large Language Model Operations)是⼀个涵盖了⼤型语⾔模型开发、部署、维护和优化的⼀整套实践和流程。⽬的

shell那点事儿——运维工程师必会shell脚本

运维工程师必会shell脚本一、脚本案例1、信号控制2、判断脚本参数3、-z 判断 及 正则表达式4、脚本中EOF创用建文件5、for 循环,printf 打印九九乘法表6、expect实现交互式自动化7、expect与EOF实现批量ssh免密8、批量创建用户9、函数的位置变量10、函数的两种传参方式11、函数传参数组12、while循环实现累加求和13、利用数组统计ip出现次数14、批量登录主机

#linux#运维
二、认识大模型

大模型是大规模语言模型(Large Language Model)的简称。语言模型是一种人工智能模型,他被训练成理解和生成人类语言。“大”在“大语言模型”中的意思是指模型的参数量非常大。比如ChatGPT,文心一言等

文章图片
#人工智能#AIGC
十、基于OpenAI大模型开发——Function calling之自动生成tool

前面章节我们介绍了如何使用Function calling功能使大模型调用外部工具(api),如果有很多工具需要大模型去调用,我们需要一个个去生成吗?事实上是不需要的,可以发现tools中的各个function格式是一样的,所以可以封装一个函数来帮我们生成tool里面function内容,减少工作量。定义function,一定要写好注释,如param、return,大模型会根据这个信息去识别too

#人工智能
八、基于OpenAI大模型开发——Function calling

用官方的解释,就一句话,“Enable models to fetch data and take actions.”,可以使大模型获取数据并采取行动。简单来说,外部系统的API或功能就像一个工具箱,提供了多种工具供大模型选择。大模型能够自主判断并选择最合适的工具来获取所需的数据,随后根据这些工具的结果进行下一步的操作和决策。这种灵活性不仅提升了大模型的智能水平,也使其在处理复杂任务时更加高效。

#人工智能
七、基于OpenAI大模型开发——api调用

前面文章介绍了关于大模型和Prompt工程的内容,从本篇文章开始,我们开始编码实战。API使用的是OpenAI的API,模型为gpt-3.5-turbo与gpt-4o-mini。

#python#人工智能
nginx那点事儿——nginx中关于root、alias及localtion、proxy_pass后面是否有/的区别

nginx那点事儿——nginx中关于root、alias及localtion、proxy_pass后面是否有/的区别一. nginx root与alias区别二. root 或 alias 或 location 或proxy_pass 后面加和不加 / 有啥区别一. nginx root与alias区别root和alias都用来指定页面路径,但用法不同使用位置不同[root]语法:root pa

#nginx#linux#运维
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择