
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
深度学习(Deep Learning)是机器学习的分支,是一种以人工神经网络为架构对数据进行特征学习的算法。深度学习中的形容词“深度”是指在网络中使用多层。深度学习核心思想是通过模仿人脑的神经网络来处理和分析复杂的数据,从大量数据中自动提取复杂特征,擅长处理高维数据,如图像、语音和文本。

深度学习(Deep Learning)是机器学习的分支,是一种以人工神经网络为架构对数据进行特征学习的算法。深度学习中的形容词“深度”是指在网络中使用多层。深度学习核心思想是通过模仿人脑的神经网络来处理和分析复杂的数据,从大量数据中自动提取复杂特征,擅长处理高维数据,如图像、语音和文本。

神经网络是一种模仿生物神经网络的机器学习模型,由输入层、隐藏层和输出层组成。前向传播过程中,数据通过各层神经元进行加权计算和激活函数变换,最终产生预测结果。激活函数(如Sigmoid、Tanh等)为网络引入非线性因素,使其能拟合复杂函数。合理设置神经元权重和激活函数对网络性能至关重要。全连接神经网络中,相邻层神经元两两相连,每个连接都有权重参数。网络通过调整这些参数来学习数据特征,实现分类或回归任

集成学习是一种通过组合多个弱学习器来提高预测性能的机器学习方法,主要包括bagging和boosting两类。bagging通过有放回抽样生成多个训练集,训练独立模型后平权投票;boosting则逐步调整样本权重,加权投票提升模型性能。随机森林是基于bagging的典型算法,通过构建多棵决策树并投票输出结果,具有抗过拟合和泛化能力强的特点。文中以泰坦尼克号生存预测为例,展示了随机森林的实际应用,包

本文介绍了使用vLLM框架进行大模型本地化部署的完整流程。主要内容包括:1)环境安装与配置,推荐使用docker方式;2)两种模型部署方式(命令行参数和配置文件);3)通过OpenAI SDK进行API测试调用;4)性能测试脚本开发,评估首token时间、QPS等关键指标;5)在腾讯Cloud Studio平台上的实战操作演示。文章以Qwen2.5-1.5B模型为例,详细说明了从环境搭建到性能测试

本文介绍了使用vLLM框架进行大模型本地化部署的完整流程。主要内容包括:1)环境安装与配置,推荐使用docker方式;2)两种模型部署方式(命令行参数和配置文件);3)通过OpenAI SDK进行API测试调用;4)性能测试脚本开发,评估首token时间、QPS等关键指标;5)在腾讯Cloud Studio平台上的实战操作演示。文章以Qwen2.5-1.5B模型为例,详细说明了从环境搭建到性能测试

摘要:本文介绍了bitsandbytes模块的量化原理及其在大模型部署中的应用。该工具通过INT8/INT4量化技术显著减少显存占用(INT8为FP32的25%,INT4为12.5%),同时利用GPU的TensorCore加速推理。实验表明,Qwen1.5-14B-Chat模型在INT8和INT4量化后仍保持流畅对话和代码生成能力,而预训练模型Qwen2.5-32B量化后不具备对话能力。使用vLL

摘要:本文介绍了bitsandbytes模块的量化原理及其在大模型部署中的应用。该工具通过INT8/INT4量化技术显著减少显存占用(INT8为FP32的25%,INT4为12.5%),同时利用GPU的TensorCore加速推理。实验表明,Qwen1.5-14B-Chat模型在INT8和INT4量化后仍保持流畅对话和代码生成能力,而预训练模型Qwen2.5-32B量化后不具备对话能力。使用vLL

输出不符合人类价值观:模型可能输出歧视性、暴力、违法等内容。逻辑错误或胡编乱造:模型容易自信地给出错误答案,即“幻觉”问题(hallucination)。拒绝有用问题或出现偏见:模型可能拒答合法的问题,或者带有文化偏见。仔细思考大模型为什么会输出的内容不符合人类的价值观?在大语言模型的预训练和有监督微调的过程中,主要训练目标是根据上下文内容来预测下一个词元,但是,这一过程并未充分考虑人类的价值观或

输出不符合人类价值观:模型可能输出歧视性、暴力、违法等内容。逻辑错误或胡编乱造:模型容易自信地给出错误答案,即“幻觉”问题(hallucination)。拒绝有用问题或出现偏见:模型可能拒答合法的问题,或者带有文化偏见。仔细思考大模型为什么会输出的内容不符合人类的价值观?在大语言模型的预训练和有监督微调的过程中,主要训练目标是根据上下文内容来预测下一个词元,但是,这一过程并未充分考虑人类的价值观或








