
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
一个完整的Web安全体系测试可以从部署与基础结构,输入验证,身份验证,授权,配置管理,敏感数据,会话管理,加密,参数操作,异常管理,审核和日志记录等几个方面入手Web安全性测试数据加密:某些数据需要进行信息加密和过滤后才能进行数据传输,例如用户信用卡信息、用户登陆密码信息等。此时需要进行相应的其他操作,如存储到数据库、解密发送要用户电子邮箱或者客户浏览器。目前的加密算法越来越多,越来越复杂,但
在做性能测试测试时候,如果被测试的系统页面很简单,并且性能很好,这样会导致压力机得tcp链接数不够而导致如下错误:HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\tcpip\Parameters\TcpTimedWaitDelay to 30and HKEY_LOCAL_MACHINE\System\CurrentControlSe
以前在selenium RC 里面有一个getTable方法,是得到一个单元格中的文本。其详细描述如下:Java代码 /** Gets the text from a cell of a table. The cellAddress syntax tableLocator.row.column , where row and column star
摘要: RAG(检索增强生成)和KAG(知识增强生成)是两种提升大语言模型性能的知识增强技术。RAG通过实时检索外部文本资源生成动态响应,适用于开放域问答和时效性任务;KAG则利用结构化知识图谱确保事实准确性,适合专业领域的实体问答。两者各有优势:RAG灵活性强但依赖检索质量,KAG准确性高但图谱构建成本大。实际应用中,二者可互补结合,形成混合系统。选择时需考虑任务需求、数据形式和可靠性要求。未来
本文介绍了一套用于评估大语言模型(LLM)高并发性能的异步压测框架。该框架通过模拟不同并发请求,从吞吐量(QPS)、延迟(P99)、Token生成速度(TPS)和首Token响应时间(TTFT)等多个维度评估模型表现。文章详细解析了核心设计思路,包括Prompt加载器、异步请求处理、并发控制等模块的实现代码,并展示了实际压测结果数据。测试结果表明,随着并发量增加,模型响应延迟上升而TPS下降,但仍

摘要:随着AI模型评测中单一裁判模型的使用日益普遍,其主观偏差、评分随机性和标准不一致等问题逐渐显现。为提升评测的客观性,本文提出采用多裁判模型测评机制。该机制通过并行调用多个独立裁判模型进行评分,采用一致性判定和自动聚合方法处理结果,并对争议项进行人工复核。研究表明,这种方法能有效减少单一偏见、提高评分置信度,并量化评估稳定性。实践表明,多裁判模型机制显著提升了评测可靠性,同时兼容现有系统流程。

最近要针对大模型进行压力测试,才接触到了大模型推理框架 sglang、vllm,于是要抓紧给自己补补课。随着人工智能技术的不断进步,大规模模型(简称“大模型”)因其在自然语言处理、图像识别等领域的卓越表现而受到了广泛关注。这些模型通常拥有数以亿计甚至更多的参数,能够学习到更加复杂的数据特征和模式。然而,如何有效地部署并运行这些大模型成为了新的挑战。这时,大模型推理框架的作用就显得尤为重要了。
LLM 的命名标识不仅用于区分模型版本,更透露了模型设计目标、技术特性与适用场景。从基础的‑Base、指令微调的‑Instruct,到对话优化的‑Chat、知识蒸馏的‑Distill,再到专注数学、代码的‑Math‑Coder,以及面向图像、视频、音频的‑VL‑Video‑Audio,每个后缀都代表了特定的设计理念。量化、混合专家、强化学习等技术标识,则揭示模型在效率和能力上的优化策略。
LLM 的命名标识不仅用于区分模型版本,更透露了模型设计目标、技术特性与适用场景。从基础的‑Base、指令微调的‑Instruct,到对话优化的‑Chat、知识蒸馏的‑Distill,再到专注数学、代码的‑Math‑Coder,以及面向图像、视频、音频的‑VL‑Video‑Audio,每个后缀都代表了特定的设计理念。量化、混合专家、强化学习等技术标识,则揭示模型在效率和能力上的优化策略。
微调类别核心思想典型方法优点全参数微调更新全部参数,通过监督数据和 RLHF 调整行为SFT + 奖励模型 + RLHF/PPO性能最高,适合复杂任务选择性微调只更新部分权重(偏置、最后几层或自动选出的参数)Freeze Layers、BitFit、PASTA 等参数少、实现简单加性微调在模型层之间插入小型适配器,只更新适配器Bottleneck Adapter、Adapter Fusion、MA








