logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python连接Doris数据库使用指南

在现代应用程序开发中,数据库是存储和管理数据的核心组件。Python 作为一种强大的编程语言,提供了多种库来连接和操作数据库。本文介绍了如何使用 pymysql 库连接到 MySQL 或 Apache Doris 数据库。首先,本文概述了数据库连接的基本步骤,包括建立连接、执行查询、处理结果和关闭连接。然后,详细讲解了使用 pymysql 库的代码示例,展示了如何通过 Python 程序实现与数据

文章图片
#数据库#python#oracle
VLLM + one-api + next-chat:打造私有化的聊天大模型

本文讨论了如何使用 VLLM、OneAPI 和 ChatGPT-Next-Web 打造私有化的聊天大模型。首先介绍了 VLLM 的关键技术和部署方法,包括内存优化、推理加速、模型量化等,以及通过 docker 镜像进行部署和启动服务。接着阐述了 OneAPI 的概述、部署过程,包括启动镜像、登录、添加 API、测试渠道、添加令牌和使用服务等步骤。最后说明了 ChatGPT-Next-Web 的概述

文章图片
#AIGC#人工智能
Nature:使用语义熵检测大语言模型中的幻觉

大语言模型(LLM)如ChatGPT和Gemini在推理和问答方面表现出色,但经常产生错误输出或未经证实的答案,被称为“幻觉”。这些幻觉在法律、新闻和医学等领域带来了可靠性问题,导致错误信息传播和潜在的严重后果。本文提出了一种基于熵的统计方法,用于检测大型语言模型(LLM)中的“虚构内容”(confabulations),即生成的任意且错误的信息。通过计算生成内容的语义熵,该方法能够在不同任务和数

文章图片
#人工智能#自然语言处理
LORA概述: 大语言模型的低阶适应

LoRA的核心思想在于优化预训练语言模型的微调过程,通过有效地处理权重矩阵的变化(即梯度更新的累积),使其具有“低秩”结构。简而言之,这意味着可以通过低秩分解有效地表示变化矩阵。具体来说,对于预训练权重矩阵W₀,其更新量可以表示为∆W = BA,其中B和A都是低秩矩阵(例如,秩为r,r明显小于矩阵维度d)。在训练期间,W₀被冻结,而B和A中的参数是可训练的。这明显减少了适应的可训练参数数量。如下图

文章图片
#语言模型#人工智能#自然语言处理
CPM-Bee大模型微调

CPM-Bee是一个完全开源、允许商用的百亿参数中英文基座模型,也是CPM-Live训练的第二个里程碑。它采用Transformer自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。开发者和研究者可以在CPM-Bee基座模型的基础上在各类场景进行适配来以创建特定领域的应用模型。

文章图片
#深度学习#AIGC
机器学习之数据分析常用方法

solver只能选择liblinear,因为l1正则化损失函数不是连续可导的,而其他三种都是需要二阶导数。L1:预测效果差、模型特征多,需要让一些不重要的特征系数归零,从而让模型稀疏化。若class__weight 和 sample_weight都使用,权重就是。balance:根据数据量自动分配,样本量越多,权重越低。samme.r:(默认)样本集预测错误的比例进行划分。自定义权重比例:{0:0

#数据分析#python#pandas +1
git 上传文件到gitlab

输入git push origin master,将代码上传至远程仓库的master节点。在C:\Windows\System32\drivers\etc中,配置hosts文件。输入git pull origin master,将远程仓库进行下拉,获取同步。输入git commit -m “add new file”,提交代码。打开 id_rsa.pub,复制密钥,粘贴到下图中,点击增加密钥。输入

文章图片
#git#gitlab#github +1
人脸识别之facenet解读与技术点

人脸识别之facenet解读128维特征的提取流程L2正则化损失函数Triplet Loss:Cross Entropy Loss128维特征的提取流程1.主干特征提取网络提取特征层2.全局平均池化铺平3.全连接输出128维特征向量4.此时128维特征向量就是输入图片的特征表示L2正则化L2:向量各元素平方和再求平方根作用:平滑特征x= Lambda(lambda x: K.l2_normaliz

#tensorflow#pytorch#人脸识别 +2
YOLOV7详细解读(四)训练自己的数据集

继美团发布YOLOV6之后,YOLO系列原作者也发布了YOLOV7。YOLOV7主要的贡献在于:1.模型重参数化YOLOV7将模型重参数化引入到网络架构中,重参数化这一思想最早出现于REPVGG中。2.标签分配策略YOLOV7的标签分配策略采用的是YOLOV5的跨网格搜索,以及YOLOX的匹配策略。3.ELAN高效网络架构YOLOV7中提出的一个新的网络架构,以高效为主。4.带辅助头的训练。

文章图片
#深度学习#python#人工智能
大型语言模型在网络安全领域的应用综述

得益于大型语言模型(LLMs)的突破性进展,自然语言处理(NLP)在过去十年间实现了飞速发展。LLMs 正逐渐成为网络安全领域的一股强大力量,它们能够自动检测漏洞、分析恶意软件,并有效应对日益复杂的网络攻击。具体而言,LLMs 被广泛应用于软件安全领域,可从代码和自然语言描述中识别漏洞,并生成相应的安全补丁。同时,LLMs 也被用于分析安全策略和隐私政策,帮助识别潜在的安全违规行为。在网络安全领域

文章图片
#语言模型#人工智能#网络安全
    共 61 条
  • 1
  • 2
  • 3
  • 7
  • 请选择