logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

网络安全相关数据集介绍

目录1、KDD99 入侵检测数据集2、NSL KDD 入侵检测数据集3、UNSW_NB15 入侵检测数据集4、NASA MDP 软件缺陷数据集5、CNNVD 软件安全漏洞数据集6、NVD 软件安全漏洞数据集1、KDD99 入侵检测数据集该数据集是从一个模拟的美国空军局域网上采集来的9个星期的网络连接数据,分成具有标识的训练数据和未加标识的测试数据。测试数据和训练数据...

#网络安全
基于vLLM高效部署多模态大模型Qwen2.5-VL实战指南及优化策略

基于vLLM高效部署多模态大模型Qwen2.5-VL实战指南及优化策略

文章图片
#人工智能
Bert文本分类(基于keras-bert实现)

目录一、Bert 预训练模型准备二、Bert 模型文本分类1、数据准备2、代码实现3、分类过程与结果一、Bert 预训练模型准备中文预训练模型下载当Bert遇上Keras:这可能是Bert最简单的打开姿势keras-bert不同模型的性能对比如下(可根据自己的数据选择合适的模型,模型越大需要训练的时间越长)模型开发集测试集...

基于Darknet的YOLOv4目标检测

一、基于Windows的YOLOv4目标检测1、环境配置环境准备:Win10、CUDA10.1、cuDNN7.65、Visual Studio 2019、OpenCV 3.4(1)Visual Studio2019企业版安装(2)NVIDIA驱动下载与安装(3)下载并安装CUDA10.1,下载安装cuDNN7.65对于cudnn直接将其解开压缩包,然后需要将bin,include,lib中的文件复

#计算机视觉#目标检测
基于树模型的lightGBM文本分类

目录1、基于TF的关键词提取2、根据词频将文本转化为向量3、基于树模型的重要特征选择5、完整代码实现6、分类结果1、基于TF的关键词提取使用TF词频对训练集clean_data_train进行关键词提取,选取topK个关键词作为特征词,即topK=10000。# 训练集中词频统计,并计算TF值def words_tf():train_data = pd...

从大模型到轻量级部署:知识蒸馏优化技术

知识蒸馏(Knowledge Distillation, KD)是一种模型压缩与优化技术,旨在将复杂高性能模型(教师模型,Teacher Model)的 “知识” 迁移到轻量模型(学生模型,Student Model)中,使学生模型在参数量和计算成本大幅降低的同时,尽可能保留教师模型的性能。

#深度学习
Elasticsearch全文检索中文分词:IK分词器详解与Docker环境集成

IK分词器(IK Analyzer)是Elasticsearch中广泛使用的中文分词插件,专门针对中文文本进行高效的分词处理。

#全文检索#elasticsearch#中文分词
基于vLLM高效部署:Qwen2.5与DeepSeek-R1-Distill-Qwen实战指南

基于vLLM高效部署:Qwen2.5与DeepSeek-R1-Distill-Qwen实战指南

文章图片
#人工智能#自然语言处理
    共 98 条
  • 1
  • 2
  • 3
  • 10
  • 请选择