logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【LLM】用 FastAPI 搭建「OpenAI 兼容」DeepSeek-OCR 服务 + 简洁WebUI

用 FastAPI 搭建「OpenAI 兼容」DeepSeek-OCR 服务 + 简洁前端。一份后端 + 一个静态页面 = 本地 OCR 服务 + OpenAI 兼容 + 开箱即用前端。支持 data: / 本地 / 远程多种图片输入,便于在不同部署形态下使用。轻松扩展:流式输出、批处理、队列、鉴权、审计、容器化等。

文章图片
如何在本地部署大模型并实现接口访问( Llama3、Qwen、DeepSeek等)

本文详细介绍了如何在本地服务器上部署大模型(如DeepSeek、Llama3、Qwen等),并通过接口实现外部调用。首先,从HuggingFace或魔搭网站下载模型,使用git lfs和screen确保大文件完整下载;接着,使用FastAPI封装模型推理过程,支持多GPU运行并通过CUDA_VISIBLE_DEVICES指定显卡,提供完整的app.py代码实现模型加载和接口响应;然后,通过cond

文章图片
#AI
【人工智能】— 逻辑Agent、一般逻辑、Entailment 蕴涵、命题逻辑、前向链接、反向链接、Resolution归结

合取范式(CNF)是一个逻辑学术语,它表示为文字的析取式的合取式,其中每个文字都是一个变量或者它的否定形式,而每个合取项都是由一个或多个文字的析取组成的,这些合取项被称为clauses。逻辑中的关键概念之一是蕴涵,它指的是两个命题之间的关系,其中一个命题逻辑上可以推导出另一个命题。蕴涵表示一个语句逻辑上跟随另一个语句而出现,即如果一个语句A蕴涵另一个语句B,那么当A为真时,B也必须为真。这种蕴涵关

文章图片
#人工智能#算法
【人工智能】— 神经网络、前向传播、反向传播、梯度下降、局部最小值、多层前馈网络、缓解过拟合的策略

都是神经网络训练中常用的重要算法。是指将输入数据从输入层开始经过一系列的权重矩阵和激活函数的计算后,最终得到输出结果的过程。在前向传播中,神经网络会将每一层的输出作为下一层的输入,直到输出层得到最终的结果。是指在神经网络训练过程中,通过计算损失函数的梯度,将梯度从输出层开始逆向传播到输入层,以更新每一层的权重参数。在反向传播中,通过计算梯度,可以得到每个神经元的误差,进而调整其权重和偏置,以最小化

文章图片
#人工智能#神经网络
【人工智能】— 神经网络、M-P 神经元模型、激活函数、神经网络结构、学习网络参数、代价定义、总代价

成本函数(Cost)的定义可以是网络输出与目标之间的欧氏距离或交叉熵。在神经网络训练中,成本函数用于衡量神经网络的预测结果与真实标签之间的差异。成本函数的选择取决于具体的任务和网络结构。

文章图片
#人工智能#神经网络#学习
【深度学习】—激活函数、ReLU 函数、 Sigmoid 函数、Tanh 函数

我们已经了解了如何使用非线性激活函数(如 ReLU、sigmoid 和 tanh)来构建具有更强表达能力的多层神经网络。值得一提的是,如今借助开源的深度学习框架,只需几行代码即可快速构建模型,而在 20 世纪 90 年代,训练这些网络可能需要数千行 C 或 Fortran 代码。

文章图片
#深度学习#人工智能
【大语言模型】—— Transformer 如何工作:Transformer 架构的详细探索

Transformer模型是近年来深度学习领域最具革命性的突破之一,它通过自注意力机制彻底改变了序列数据处理方式。2017年谷歌提出的Transformer架构摒弃了传统的循环神经网络(RNN),完全依赖注意力机制实现并行处理,大幅提升了模型效率。该架构由编码器和解码器堆叠组成,通过位置编码保留序列信息,在机器翻译等任务中表现出色。Transformer不仅为GPT、BERT等大模型奠定基础,还推

文章图片
#语言模型#transformer#架构
【大语言模型】—— 自注意力机制及其变体(交叉注意力、因果注意力、多头注意力)的代码实现

本文介绍了注意力机制的几种变体及其PyTorch代码实现。主要包括: Self-Attention:基础自注意力机制,通过Q、K、V计算注意力权重,适用于序列内部建模。 CrossAttention:让一个序列关注另一个序列,典型应用于Transformer解码器-编码器交互和多模态任务。 CausalAttention:通过三角掩码实现因果性,确保只能关注当前位置之前的token,适用于自回归生

文章图片
#语言模型#人工智能#自然语言处理
角谷定理的递归实现

角谷定理输入一个自然数,若为偶数,则把它除以2,若为奇数,则把它乘以3加1。经过如此有限次运算后,总可以得到自然数值1。求经过多少次可得到自然数1java代码实现public class ( ){static int s ;public static void main(String [] args){Scanner input = new Scanner(System.in);System.ou

【大语言模型】—— Transformer的QKV及多头注意力机制图解解析

【摘要】本文通过图解方式解析Transformer中的QKV及多头注意力机制。首先指出传统神经网络和RNN在翻译任务中的局限性,引入位置编码解决词序问题。详细拆解注意力机制:通过Q/K/V矩阵计算词间相似度,加权融合上下文信息形成新词向量。重点阐述多头注意力原理,通过多组QKV并行计算增强模型表达能力,最终拼接各头输出完成信息整合。整个过程可视化展示了Transformer如何突破序列建模瓶颈,实

文章图片
#语言模型#transformer#人工智能
    共 55 条
  • 1
  • 2
  • 3
  • 6
  • 请选择