logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

手把手1B进行lora微调,然后量化模型案例(简单跑通代码,入门系列)

手把手1B进行lora微调,然后量化模型案例(简单跑通代码,入门系列)

VAE和Stable Diffusion的关系

VAE和Stable Diffusion的关系

文章图片
rerank一般用什么模型

文章摘要: Rerank模型在RAG/检索系统中用于优化粗排结果,显著提升准确率。主流方案包括轻量级Cross-Encoder(如MiniLM-L6、BGE-Reranker,适合实时搜索)和中小型LLM Reranker(如4B参数的NV-Mistral,适合复杂推理)。开源模型推荐BGE系列,商业API可选Cohere或Amazon Bedrock。选型需平衡语言、上下文长度和延迟,轻量级优先

#RAG
卓望一面:如何做日志脱敏

Java日志脱敏是保护用户隐私的重要措施,主要方法包括:1)利用Log4j2的正则替换功能或Logback的自定义转换器,在日志框架层实现脱敏;2)自定义Appender或Layout,对日志内容进行深度处理;3)重写敏感对象的toString()方法,直接输出脱敏数据;4)使用第三方脱敏工具库,通过注解标记敏感字段。其中日志框架的扩展机制是最推荐的方式,既能降低代码侵入性,又能保持灵活性和性能。

#单元测试
Bert和GPT区别

摘要:BERT和GPT均基于Transformer架构,但BERT采用双向编码结构,适合文本理解任务(如分类、问答);GPT使用单向解码器,专注文本生成(如对话、续写)。BERT通过MLM和NSP预训练,而GPT基于自回归语言建模。BERT输出整句向量,GPT逐步生成文本。BERT家族优化理解能力,GPT系列侧重生成规模与流畅度,两者分别代表NLP的理解与生成方向。

#bert#人工智能
ollama使用gpu运行大模型

ollama使用gpu运行大模型

latex导入大括号报错:LaTeX Error: Environment aligned undefined. aligned not inside math mode

latex导入大括号报错:LaTeX Error: Environment aligned undefined. aligned not inside math mode

error during connect: Get “http://%2F%2F.%2Fpipe%2FdockerDesktopLinuxEngine/v1.46/containers/json“:

error during connect: Get "http://%2F%2F.%2Fpipe%2FdockerDesktopLinuxEngine/v1.46/containers/json":

文章图片
ollama使用gpu运行大模型

ollama使用gpu运行大模型

    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择