logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

知识体系篇-数据标注与处理(05)模型测试与评估:模型公平性与偏见检测

AI模型公平性与偏见检测摘要 本文系统介绍了AI模型偏见问题及其检测方法。偏见主要来源于训练数据、标注过程和算法优化目标,会通过模型预测放大社会不平等。文章详细解析了四种公平性定义(统计均等、均等机会、预测率均等和个体公平),指出这些标准存在理论矛盾,需根据业务场景权衡选择。通过Python代码示例演示了贷款审批场景下的偏见检测方法,包括统计均等差异计算、均等机会指标(TPR/FPR)分析和差异影

文章图片
#大数据#人工智能#机器学习 +1
知识体系篇-数据标注与处理(05)模型测试与评估:模型公平性与偏见检测

AI模型公平性与偏见检测摘要 本文系统介绍了AI模型偏见问题及其检测方法。偏见主要来源于训练数据、标注过程和算法优化目标,会通过模型预测放大社会不平等。文章详细解析了四种公平性定义(统计均等、均等机会、预测率均等和个体公平),指出这些标准存在理论矛盾,需根据业务场景权衡选择。通过Python代码示例演示了贷款审批场景下的偏见检测方法,包括统计均等差异计算、均等机会指标(TPR/FPR)分析和差异影

文章图片
#大数据#人工智能#机器学习 +1
知识体系篇-数据标注与处理(04)模型测试与评估:模型鲁棒性测试

摘要 本文系统介绍了模型鲁棒性测试的核心概念与方法。鲁棒性指模型在面对输入扰动、噪声和对抗攻击时保持稳定性能的能力,与准确率不同,它关注的是扰动数据下的表现稳定性。文章详细阐述了四大测试类型:自然扰动测试(如拼写错误)、对抗攻击测试(如FGSM攻击)、分布偏移测试(如领域迁移)和边界条件测试(如极端输入)。实战部分提供了Python实现的文本扰动工具库,包含标点插入、同音字替换等扰动方法,以及系统

文章图片
#python#开发语言#数据挖掘 +4
知识体系篇-数据标注与处理(03)模型测试与评估:A/B测试设计与实施

定义:将用户随机分为两组,分别使用不同版本(A版本/B版本),对比关键指标差异,用统计学方法判断差异是否显著。核心原则:同时段 → 同用户池 → 随机分流 → 对比指标 → 统计判断类比:医学上的"双盲实验"——A组吃新药,B组吃安慰剂,看新药是否真的有效。A/B测试 vs 多臂老虎机A/B测试(固定分流) 多臂老虎机(动态分配)流量固定50/50分配 流量动态调整等实验结束才决策 实时学习最优方

文章图片
#人工智能#数据挖掘#分类 +2
知识体系篇-数据标注与处理(02)模型测试与评估:自动化测试框架与工具

本文介绍了自动化测试在AI模型开发中的重要性及主流框架选型。主要内容包括: 自动化测试的必要性:解决手动测试效率低、易遗漏等问题,实现快速反馈、全面覆盖和持续集成。 主流测试框架对比: pytest:通用Python测试框架 Great Expectations:数据质量验证 DeepChecks:ML/DL模型评估 LangSmith/Promptfoo:LLM应用测试 AI Verify:公平

文章图片
#neo4j#机器学习#人工智能 +3
知识体系篇-数据标注与处理(01)模型测试与评估:模型测试方法论

本文介绍了模型测试的方法论,重点对比了模型测试与传统软件测试的区别。模型测试具有概率性输出、关注预期分布而非绝对对错等特点。文章提出模型测试的五大维度:功能正确性、性能、鲁棒性、公平性和安全性,并构建了从基础到高级的测试金字塔。测试策略采用分层方法,包括数据验证、模型单元测试、集成测试和端到端测试,每层都有具体测试目标和实现方法。文中还提供了Python代码示例,展示如何实现数据格式校验、模型输出

文章图片
#机器学习#算法#人工智能 +2
知识体系篇-数据标注与处理(07)模型训练与调优:Prompt Engineering(提示工程)基础

Prompt Engineering(提示工程)基础摘要 提示工程是通过优化输入文本(Prompt)来提升大语言模型输出质量的技术。核心方法包括四种范式:Zero-shot(无示例)、One-shot(单示例)、Few-shot(多示例),其中Few-shot效果最佳但消耗更多计算资源。思维链(CoT)技术通过引导模型逐步推理,显著提升复杂任务准确率。角色提示通过设定专业身份(如"资深数

文章图片
#大数据#人工智能#机器学习 +2
知识体系篇-数据标注与处理(06)模型训练与调优:模型微调(Fine-tuning)技术详解

模型微调技术概述 模型微调(Fine-tuning)是迁移学习的关键技术,通过调整预训练模型参数使其适应特定任务。相比从零训练,微调能大幅降低计算成本(如GPT-3微调仅需数千条数据和几十美元)。微调方法主要包括: 全量微调:解冻所有层参数,适合数据量大的场景 部分微调:仅解冻顶层网络层,平衡效果与计算开销 参数高效微调(PEFT):如LoRA、Adapter等方法,仅训练少量参数(0.1%-5%

文章图片
#人工智能#数据挖掘#分类 +2
知识体系篇-数据标注与处理(05)模型训练与调优:超参数调优方法与实践

本文介绍了机器学习模型训练中的超参数调优方法与实践。主要内容包括: 超参数定义与分类:区分模型参数与超参数,列举常见训练超参数和模型结构超参数,分析关键超参数的影响范围。 超参数搜索策略对比: 网格搜索:全面但计算量大 随机搜索:效率更高 贝叶斯优化:智能导向 进化算法:全局搜索 代码实现:提供Python代码示例展示三种主流调优方法(网格搜索、随机搜索、贝叶斯优化)的具体实现,包括参数空间定义、

文章图片
#人工智能#数据挖掘#分类 +2
知识体系篇-数据标注与处理(03)模型训练与调优:模型评估指标详解:准确率/召回率/F1/AUC一次全搞懂

本文详细介绍了机器学习模型评估的核心指标,包括分类和回归任务的常用评价方法。重点讲解了准确率、精确率、召回率和F1分数的计算公式及适用场景,通过癌症筛查案例说明单一指标的局限性。文章还深入解析了混淆矩阵、ROC曲线与AUC值的原理,比较了PR曲线与ROC曲线的区别,并介绍了多分类评估中的宏平均与微平均计算方法。最后提供了回归任务评估指标(MAE、MSE、RMSE、R²等)和Python代码实现示例

文章图片
#机器学习#算法#人工智能 +4
    共 147 条
  • 1
  • 2
  • 3
  • 15
  • 请选择