
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Parquet文件数据处理与解析
目录1、KDD99 入侵检测数据集2、NSL KDD 入侵检测数据集3、UNSW_NB15 入侵检测数据集4、NASA MDP 软件缺陷数据集5、CNNVD 软件安全漏洞数据集6、NVD 软件安全漏洞数据集1、KDD99 入侵检测数据集该数据集是从一个模拟的美国空军局域网上采集来的9个星期的网络连接数据,分成具有标识的训练数据和未加标识的测试数据。测试数据和训练数据...
基于vLLM高效部署多模态大模型Qwen2.5-VL实战指南及优化策略

目录一、Bert 预训练模型准备二、Bert 模型文本分类1、数据准备2、代码实现3、分类过程与结果一、Bert 预训练模型准备中文预训练模型下载当Bert遇上Keras:这可能是Bert最简单的打开姿势keras-bert不同模型的性能对比如下(可根据自己的数据选择合适的模型,模型越大需要训练的时间越长)模型开发集测试集...
一、基于Windows的YOLOv4目标检测1、环境配置环境准备:Win10、CUDA10.1、cuDNN7.65、Visual Studio 2019、OpenCV 3.4(1)Visual Studio2019企业版安装(2)NVIDIA驱动下载与安装(3)下载并安装CUDA10.1,下载安装cuDNN7.65对于cudnn直接将其解开压缩包,然后需要将bin,include,lib中的文件复
目录1、基于TF的关键词提取2、根据词频将文本转化为向量3、基于树模型的重要特征选择5、完整代码实现6、分类结果1、基于TF的关键词提取使用TF词频对训练集clean_data_train进行关键词提取,选取topK个关键词作为特征词,即topK=10000。# 训练集中词频统计,并计算TF值def words_tf():train_data = pd...
知识蒸馏(Knowledge Distillation, KD)是一种模型压缩与优化技术,旨在将复杂高性能模型(教师模型,Teacher Model)的 “知识” 迁移到轻量模型(学生模型,Student Model)中,使学生模型在参数量和计算成本大幅降低的同时,尽可能保留教师模型的性能。
Milvus向量数据库部署、图像化管理及使用

IK分词器(IK Analyzer)是Elasticsearch中广泛使用的中文分词插件,专门针对中文文本进行高效的分词处理。
基于vLLM高效部署:Qwen2.5与DeepSeek-R1-Distill-Qwen实战指南








