
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文系统介绍了Java Web中Listener和Filter两大核心组件。Listener用于监听Servlet容器事件(如应用启动/关闭、Session创建销毁),通过事件驱动模型实现回调;Filter采用责任链模式拦截请求/响应,实现权限控制、日志记录等功能。文章详细对比了两者的配置方式(web.xml/注解)、执行顺序、典型应用场景及注意事项,强调Listener适合全局资源管理,Filt
Java的Condition接口提供了比Object.wait()/notify()更精细的线程协调机制,主要特点包括:1)一个Lock可创建多个Condition,实现多条件精准唤醒;2)支持await()、signal()等方法,可响应中断;3)基于AQS实现,通过独立等待队列管理线程。典型应用如生产者-消费者模型,使用时需注意循环检查条件、避免死锁等最佳实践。Condition通过多条件队列
量化是一种模型压缩技术,通过降低参数精度(如FP32→INT8)减小模型体积,而LoRA则是通过低秩适配器实现高效微调,仅训练少量新增参数。QLoRA结合二者优势,先对模型进行4-bit量化,再应用LoRA微调,使单卡GPU也能训练大模型。实战示例展示了如何使用LoRA微调代码生成模型,包括数据准备、模型配置、训练和推理全流程,并对比了不同场景下的超参数设置建议。三种技术形成了一套递进的模型瘦身+
DeepSeek是什么,DeepSeek-R1-Zero,DeepSeek-R1大模型,MoE(Mixture-of Experts),RL(Reinforcement Learning),KD(Knowledge Distillation)学习记录

本文介绍了如何搭建一个完全本地化的RAG(检索增强生成)系统,结合LangChain、Milvus、Ollama和Streamlit等技术。系统具备文档处理、向量存储、本地大语言模型和友好交互界面,支持多种文件格式,确保数据隐私。文章详细说明了环境配置、核心代码实现、高级功能扩展和部署方案,提供了从开发到生产的一站式解决方案,适用于企业知识库、智能客服等场景,兼顾安全性和可扩展性。

量化是一种模型压缩技术,通过降低参数精度(如FP32→INT8)减小模型体积,而LoRA则是通过低秩适配器实现高效微调,仅训练少量新增参数。QLoRA结合二者优势,先对模型进行4-bit量化,再应用LoRA微调,使单卡GPU也能训练大模型。实战示例展示了如何使用LoRA微调代码生成模型,包括数据准备、模型配置、训练和推理全流程,并对比了不同场景下的超参数设置建议。三种技术形成了一套递进的模型瘦身+
本文全面介绍了RAG(检索增强生成)技术的背景、定义、优缺点及实战应用。RAG通过结合外部知识检索和大模型生成能力,有效解决了大语言模型的知识局限性和幻觉问题,成为企业知识管理的热门方案。文章详细阐述了RAG的技术架构、演进历程及适用场景,并提供了一个本地RAG系统的实战项目。RAG技术具有知识更新快、成本低、可解释性强等优势,但也面临检索质量依赖、文档处理复杂等挑战,特别适合企业知识库、专业咨询
本文对比了StableDiffusionWebUI和ComfyUI两种AI图像生成工具。StableDiffusionWebUI界面简洁易用,适合新手快速生成基础图像;而ComfyUI功能更强大,提供高级参数调整和实时预览,更适合专业用户深度定制。两者都基于扩散模型技术,通过逐步去噪生成高质量图像,但ComfyUI对硬件要求更低。文章还解释了扩散模型的工作原理和训练过程。建议初学者选择WebUI入
Stable Diffustion, AIGC, AI智能画图,本地,Nvidia GeoForce 1080 8G*2

什么是json5,它和json有什么区别,主要用在哪些场景?








