logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

浅谈大模型私有化+精调:面向垂直行业与特定场景之需

大模型私有化(Model Private Deployment)指的是将预训练的大型人工智能模型(如GPT、BERT等)部署到企业自己的硬件环境或私有云平台上。与公有云服务或模型即服务(Model-as-a-Service)相比,私有化部署能够给企业带来更高级别的数据安全性和自主控制能力。对数据隐私和安全要求高、需要自主控制AI模型运行环境的企业而言,或者在特定地理位置因法律法规限制不能使用公有云

文章图片
#人工智能
一文阐述:多模态特征融合方法总结

由于本人的研究是文本、语音和图像三者模态数据的融合,所以针对的是这三种模态的特征融合方法进行总结。本文章会从方法、总结网址和综述文章进行介绍。方法:首先,在特征提取之后,多模态特征融合的方法分为四种:特征级融合、决策级融合、混合级融合和模型级融合。其中:特征级融合。也称为早期融合,是多模态识别系统最常用的策略。它表示在提取后立即从不同模态提取的特征连接成单个高维特征向量的方法。多模态早期融合方法常

文章图片
#python#开发语言#人工智能
Embedding 模型的选择和微调

万物皆可 Embedding。在推荐系统、自然语言处理和计算机视觉等领域,Embedding 是一个非常重要的概念。Embedding 的本质是一种将高维稀疏数据转换为低维稠密向量的技术,通过这种转换,能够捕捉数据中的语义或特征关系。具体来说,Embedding 用一个多维稠密向量来表示事物的多维特征,从而在一个连续的向量空间中刻画事物之间的相似性和差异性。这种表示方式不仅提高了计算效率,还增强了

文章图片
#人工智能
大语言模型(LLM)如何更好地继续预训练(Continue PreTraining)

预训练(Pretraining)是一个非常消耗资源的工作,尤其在 LLM 时代。随着LLama2的开源,越来越多人都开始尝试在这个强大的英文基座模型上进行中文增强。但,我们如何才能保证模型在既学到「中文知识」的情况下,又不丢掉原有的「英文知识」呢?今天给大家带来一篇 Continue Pretraining 的论文(来自何枝大佬,知乎@何枝),Continual Pre-Training of L

文章图片
#语言模型#人工智能#自然语言处理 +1
从零开始构建基于ChatGPT的嵌入式(Embedding)本地医疗客服问答机器人模型(看完就会,看到最后有惊喜)

代码全部开源,GitHub地址为:前端完全也能搭建, 前端完全也能搭建, 前端完全也能搭建, 本文中我使用的是后端语言golang,来调用的所有外部接口,但它们均是restful api,所以如果你使用的是其他语言,那么是完全可以替换的,包括nodejs或者直接使用前端请求都是可以实现我的功能的。后面有机会会使用vue3来添加一个页面,现在主要通过postman或者apifox来调试接口,主要为了

文章图片
#机器人#人工智能
部署私有化大模型ollama,造一个私人小秘书

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。在现在世面有众多的大模型,如果能训练

文章图片
#人工智能
构建本地知识库(上): langchain+ollama构建本地大模型应用

本章主要阐述了本地构建基于大模型的应用程序的过程。从资源准备分析到实际搭建,一步步的指导应该如何在本地搭建一个基于大模型的应用程序。感兴趣的小伙伴可以自己动手试一下。下一篇文章中我们基于此利用RAG技术来构建完整的本地知识库。PS:本人电脑配置:windows系统,4核8G。​。

文章图片
#人工智能
Ollama——零基础运行私有大模型

Ollama 是一个在你自己的电脑上运行大型语言模型的工具,支持各大互联网企业发布的各种开源模型,如 Llama 3、Llama2、Phi 3、Mistral 和 Gemma等。用户可以在 macOS、Linux 和 Windows(预览版)操作系统上使用该工具,并且可以创建自己的模型。

文章图片
#人工智能#语言模型#自然语言处理
Ollama运行本地LLM大模型简单教程:大显存很重要

以上就是这段时间我们在研究本地部署的LLM大模型的体验,NVIDIA Chat RTX目前虽然比最早的体验版好用了不少,但依然处于很早期的状态,要自行添加指定模型比较麻烦,而且不能联系上下文这点体验并不好,不过想装来玩玩还是可以的,毕竟它的安装和使用都很简单,内置的小模型对显存容量需求也不高,8GB以上的显卡就可以跑。Ollama搭配Page Assist这组合胜在够简单,比较适合刚接触这方面的新

文章图片
#人工智能#语言模型#自然语言处理
Langchain中使用Ollama提供的Qwen大模型进行Function Call实现天气查询、网络搜索

Function Call,或者叫函数调用、工具调用,是大语言模型中比较重要的一项能力,对于扩展大语言模型的能力,或者构建AI Agent,至关重要。

文章图片
#网络#人工智能#语言模型
到底了