
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
该综述以“配置使用流程”为框架,系统梳理了2022年至今35篇基于LLM的软件配置研究,清晰呈现了LLM在配置生成(提示增强为主)、验证(传统技术+LLM辅助)、运维(诊断修复闭环探索)三阶段的应用现状。研究发现,当前LLM已在网络配置、K8S配置等场景展现出实用价值,但仍面临泛化能力弱、可解释性差、依赖高质量资源等挑战。未来,需通过轻量微调、跨领域迁移学习、智能体闭环架构等技术,推动LLM从“特

现有仓库级代码补全方法多基于检索增强生成(RAG),但存在查询构建不恰当、检索路径单一、检索器与代码LLM错位三大问题。为此,本文提出CodeRAG框架:首先,通过对数概率引导的探测策略,利用代码LLM的置信度筛选关键代码块构建检索查询;其次,融合稀疏检索、密集检索与数据流引导检索,实现多路径代码知识获取;最后,设计偏好对齐的BESTFIT重排序机制,用Qwen3-8B筛选最优知识,并蒸馏为轻量重

现有仓库级代码补全方法多基于检索增强生成(RAG),但存在查询构建不恰当、检索路径单一、检索器与代码LLM错位三大问题。为此,本文提出CodeRAG框架:首先,通过对数概率引导的探测策略,利用代码LLM的置信度筛选关键代码块构建检索查询;其次,融合稀疏检索、密集检索与数据流引导检索,实现多路径代码知识获取;最后,设计偏好对齐的BESTFIT重排序机制,用Qwen3-8B筛选最优知识,并蒸馏为轻量重

本研究针对专有云LLM隐私风险高、本地LLM评估缺失的问题,扩展AI代码生成评估框架FACE(支持Ollama离线运行、JSON数据整合、断点续跑),采用3589道Kattis题(禁止分享答案,确保评估真实性),对8个6.7-9B参数的本地LLM开展测试。结果显示:本地LLM整体接受率低,最佳的Yi-Coder(5.7%)和Qwen2.5-Coder(5.4%),仅为Gemini 1.5(10.9

本研究针对专有云LLM隐私风险高、本地LLM评估缺失的问题,扩展AI代码生成评估框架FACE(支持Ollama离线运行、JSON数据整合、断点续跑),采用3589道Kattis题(禁止分享答案,确保评估真实性),对8个6.7-9B参数的本地LLM开展测试。结果显示:本地LLM整体接受率低,最佳的Yi-Coder(5.7%)和Qwen2.5-Coder(5.4%),仅为Gemini 1.5(10.9

为解决真实Web应用攻击数据量小、差异性大及攻击载荷多样化导致大模型训练效果差的问题,提出基于联邦大模型的网络攻击检测方法(FL-LLMID)。首先,设计面向大模型微调的联邦学习网络,服务器对客户端本地模型的增量参数进行增量聚合,提升参数聚合效率并避免网络流量数据暴露;其次,构建CodeBERT-LSTM攻击检测模型,通过CodeBERT对应用层数据有效字段向量编码,结合LSTM分类,实现高效We

为解决真实Web应用攻击数据量小、差异性大及攻击载荷多样化导致大模型训练效果差的问题,提出基于联邦大模型的网络攻击检测方法(FL-LLMID)。首先,设计面向大模型微调的联邦学习网络,服务器对客户端本地模型的增量参数进行增量聚合,提升参数聚合效率并避免网络流量数据暴露;其次,构建CodeBERT-LSTM攻击检测模型,通过CodeBERT对应用层数据有效字段向量编码,结合LSTM分类,实现高效We

为解决真实Web应用攻击数据量小、差异性大及攻击载荷多样化导致大模型训练效果差的问题,提出基于联邦大模型的网络攻击检测方法(FL-LLMID)。首先,设计面向大模型微调的联邦学习网络,服务器对客户端本地模型的增量参数进行增量聚合,提升参数聚合效率并避免网络流量数据暴露;其次,构建CodeBERT-LSTM攻击检测模型,通过CodeBERT对应用层数据有效字段向量编码,结合LSTM分类,实现高效We

随着软件服务系统日益庞大、复杂,基于日志的故障诊断对保证软件服务的可靠性至关重要。已有的日志故障诊断方法虽能确定故障类型,但无法为推理过程提供解释,导致难以在生产环境部署。为此,本文提出LogCoT框架,通过Auto-FSC算法利用超大规模闭源LLM提取日志语义,生成可解释根因分析报告;结合无类别标注指令优化与有类别标注参数微调,优化Mistral基座模型;再用LLMf-IPO算法纠正错误结果,对

随着软件服务系统日益庞大、复杂,基于日志的故障诊断对保证软件服务的可靠性至关重要。已有的日志故障诊断方法虽能确定故障类型,但无法为推理过程提供解释,导致难以在生产环境部署。为此,本文提出LogCoT框架,通过Auto-FSC算法利用超大规模闭源LLM提取日志语义,生成可解释根因分析报告;结合无类别标注指令优化与有类别标注参数微调,优化Mistral基座模型;再用LLMf-IPO算法纠正错误结果,对
