logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeepSeek V4价格暴降75%!Claude Code实战400万Tokens,终于可以爽用了

DeepSeek V4 这次降价,放在全行业涨价的背景下看,冲击力很大。短期:2.5 折是限时优惠,5 月 5 日到期。到期后价格大概率会回升,但下半年有再次降价的预期。长期:DeepSeek 的降价底气来自国产算力的崛起。昇腾 950 批量上市后,成本结构会进一步优化。如果国产芯片产能跟上,这个价位有望常态化。选型:Flash 是日常主力,性价比几乎无对手。Pro 在特惠期间是 Agent Co

文章图片
#人工智能#AI
DeepSeek V4价格暴降75%!Claude Code实战400万Tokens,终于可以爽用了

DeepSeek V4 这次降价,放在全行业涨价的背景下看,冲击力很大。短期:2.5 折是限时优惠,5 月 5 日到期。到期后价格大概率会回升,但下半年有再次降价的预期。长期:DeepSeek 的降价底气来自国产算力的崛起。昇腾 950 批量上市后,成本结构会进一步优化。如果国产芯片产能跟上,这个价位有望常态化。选型:Flash 是日常主力,性价比几乎无对手。Pro 在特惠期间是 Agent Co

文章图片
#人工智能#AI
Spring Boot 3.3+Java 21+Spring AI+RustFS打造的智能面试平台开源啦!

InterviewGuide:基于大模型的智能面试辅助平台 摘要:Guide开源了一个基于Spring Boot 3.3和Java 21的智能面试辅助系统,集成了Spring AI、PostgreSQL(pgvector)和Redis等技术。该项目提供三大核心功能:简历智能分析(支持PDF/DOCX/TXT)、AI模拟面试(个性化问题生成)和知识库RAG检索(支持多格式文档)。系统采用Redis

文章图片
#java#spring#spring boot +1
7 道 RAG 基础概念知识点/面试题总结

RAG 的核心思想是:在让 LLM 回答问题或生成文本之前,先从一个大规模的知识库(如数据库、文档集合)中检索出相关的上下文信息,然后将这些信息与原始问题一并提供给 LLM,从而“增强”其生成能力,使其能够产出更准确、更具时效性、更符合特定领域知识的回答。检索通常在线进行的,当用户提交一个问题时,系统会使用已索引的文档来回答问题。段子归段子,RAG(检索增强生成)确实是当下 LLM 应用开发的核心

文章图片
#人工智能#java#kafka +3
IntelliJ IDEA 2026.1 EAP 3 紧急发布,AI 能力再次加强,回收站终于有了!

有时候,最好的创新不是添加新功能,而是修正一个长期存在的错误决策。配合 Claude Code 等工具时,Worktree 更有用——每个会话对应一个 worktree,上下文完全隔离。工具也做了优化,不再每次调用都触发全量项目刷新,大型 Java 项目里卡顿感会少很多。修复了处理空文本时失败的问题——这改善了 LLM "先创建后填充"的工作流稳定性。这次 2026.1 EAP 3 没有什么"大功

文章图片
#intellij-idea#人工智能#elasticsearch +4
万字拆解 LLM 运行机制:Token、上下文与采样参数

当我们把大模型作为一个核心组件接入业务系统时,第一步就是要抛弃拟人化的业务直觉,建立起工程师的客观视角。Token 是成本与性能的物理标尺:它不仅决定了你的计费账单和推理延迟,更决定了模型对文本的理解粒度。做容量规划时,必须按 Token 算账,而不是按字数算账。上下文窗口是极其稀缺的资源:哪怕模型宣称支持 1M 上下文,也不意味着可以毫无节制地堆砌数据。为 Prompt、RAG 检索片段、历史对

文章图片
#人工智能
字节二面:Redis 能做消息队列吗?怎么实现?

回到最初的问题:Redis 到底能不能做 MQ?如果业务简单、量小、追求极致性能,且能容忍极小概率的数据丢失,使用是最优解,因为它省去了部署维护 MQ 的成本,可以复用现有的 Redis 组件(大部分需要用到 MQ 的项目,通常都会需要 Redis)。如果是金融级业务、海量数据、需要严格保证不丢消息,必须选择等更成熟的 MQ。Redis 常见面试题总结(上)(Redis 基础、应用、数据类型、持久

文章图片
#人工智能#java#kafka +4
Java + LangChain 实战入门,开发大语言模型应用!

在本教程中,我们将详细探讨LangChain,一个用于开发基于语言模型的应用程序的框架。我们将首先了解语言模型的基础概念,这些知识将对本教程有所帮助。尽管 LangChain 主要提供 Python 和 JavaScript/TypeScript 版本,但也可以在 Java 中使用 LangChain。我们会讨论 LangChain 作为框架的构建模块,然后尝试在 Java 中进行实验。在本教程中

文章图片
#java#语言模型
万字详解 RAG 基础概念:什么是 RAG? 为什么需要?工作原理是?

RAG (Retrieval-Augmented Generation,检索增强生成)是一种将强大的信息检索 (Information Retrieval, IR)技术与生成式大语言模型 (LLM)相结合的框架。RAG 的核心思想是:在让 LLM 回答问题或生成文本之前,先从一个大规模的知识库(如数据库、文档集合)中检索出相关的上下文信息,然后将这些信息与原始问题一并提供给 LLM,从而“增强”其

文章图片
#人工智能#AI
万字拆解 LLM 运行机制:Token、上下文与采样参数

当我们把大模型作为一个核心组件接入业务系统时,第一步就是要抛弃拟人化的业务直觉,建立起工程师的客观视角。Token 是成本与性能的物理标尺:它不仅决定了你的计费账单和推理延迟,更决定了模型对文本的理解粒度。做容量规划时,必须按 Token 算账,而不是按字数算账。上下文窗口是极其稀缺的资源:哪怕模型宣称支持 1M 上下文,也不意味着可以毫无节制地堆砌数据。为 Prompt、RAG 检索片段、历史对

文章图片
#人工智能
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择