logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

文献阅读:On the Influence of Context Size and Model Choice in Retrieval-Augmented Generation Systems

本文探讨了检索增强生成(RAG)系统中上下文规模、模型选择和检索策略对性能的影响。研究发现:1)随着上下文片段数量增加(1-15个),系统性能稳步提升,但超过20-30个时会出现饱和或下降;2)不同LLM在不同领域表现各异,Mistral和Qwen在生物医学任务表现突出,GPT和Llama在百科全书任务更优;3)开放检索场景极具挑战性,BM25检索器表现优于语义检索。实验采用BioASQ-QA和Q

文章图片
#人工智能#算法#大数据 +4
文献阅读:Step-by-Step Fact Verification System for Medical Claims with Explainable Reasoning

本文介绍了一种分步式医学事实核查系统,该系统通过大型语言模型(LLM)迭代生成问题、收集证据并验证医学主张的真实性。研究比较了传统三阶段流程(文档检索、证据提取、判决预测)与新型分步式方法在三个医学数据集(SCIFACT、HEALTHFC、COVERT)上的表现。结果显示,分步式系统显著提升了F1分数(最高提升5.2),特别是在处理复杂医学概念时优势明显。研究还探讨了内部/外部知识源、谓词逻辑推理

文章图片
#rnn#深度学习#自然语言处理 +3
文献阅读:Step-by-Step Fact Verification System for Medical Claims with Explainable Reasoning

本文介绍了一种分步式医学事实核查系统,该系统通过大型语言模型(LLM)迭代生成问题、收集证据并验证医学主张的真实性。研究比较了传统三阶段流程(文档检索、证据提取、判决预测)与新型分步式方法在三个医学数据集(SCIFACT、HEALTHFC、COVERT)上的表现。结果显示,分步式系统显著提升了F1分数(最高提升5.2),特别是在处理复杂医学概念时优势明显。研究还探讨了内部/外部知识源、谓词逻辑推理

文章图片
#rnn#深度学习#自然语言处理 +3
文献阅读:FActBench: A Benchmark for Fine-grained Automatic Evaluation of LLM-Generated Text

本文摘要:论文提出医疗领域LLM事实核查基准FActBench,针对摘要、RAG等4类任务评估6种主流模型。通过改进FActScore方法,结合NLI和CoT技术提出"一致投票"机制,实验表明该方法与专家评估相关性最佳。研究发现LLM在开放式医疗问答中易产生幻觉,但在提供上下文的摘要任务中表现可靠。不同规模模型差异不显著,知识源多样性可提升准确性。该研究为医疗NLP应用提供了实

文章图片
#语言模型#深度学习#人工智能 +2
文献阅读:MedSEBA: Synthesizing Evidence-Based Answers Grounded in Evolving Medical Literature

本文介绍了一种基于NLP技术的MedSEBA系统,旨在解决医学信息检索中的立场识别问题。该系统通过PubMed检索相关文献,利用大型语言模型(GPT-4o)生成结构化答案,包括核心论据、立场标签和时间轴可视化。相比传统检索工具,MedSEBA能评估研究对特定医学问题的支持程度,并整合分歧结论。系统采用向量相似度重排序文献,并通过元数据分析提高结果可靠性。尽管存在摘要完整性等局限,但该系统为医学研究

文章图片
#自然语言处理#人工智能#语言模型 +2
循环神经网络的问题:梯度消失与梯度爆炸|Problems with RNNs: Vanishing and Exploding Gradients

本文探讨了循环神经网络(RNN)在序列建模中的梯度问题。文章首先指出RNN在实际训练中表现出"短视"特性,难以记住长距离信息,其核心原因是反向传播中的梯度消失问题。通过数学推导分析了梯度消失的本质,并对比了梯度爆炸现象。文中用语言模型案例说明梯度消失如何影响模型捕捉长期依赖关系,最后介绍了梯度裁剪这一常用解决方案。作者将持续分享斯坦福CS224N课程相关内容,欢迎访问博客网站r

文章图片
#rnn#深度学习#自然语言处理 +4
困惑度|Perplexity

本文介绍了语言模型的核心概念和评价指标。语言模型本质上是预测下一个词的概率分布系统,RNN等架构是实现语言模型的工具。文章重点阐述了困惑度(Perplexity)的定义和作用,将其理解为模型预测时的"等可能性选择"数量,并揭示其与交叉熵损失函数的数学关系。通过对比n-gram模型与深度学习模型的困惑度数据,展示了RNN、LSTM等架构在语言建模上的优势。困惑度越低,表明模型对语

文章图片
#人工智能#数据挖掘#机器学习 +3
循环神经网络RNN|Recurrent Neural Networks, RNN

本文介绍了循环神经网络(RNN)的核心架构及其在自然语言处理中的应用。首先分析了传统神经网络在处理序列数据时的局限性,然后详细阐述了RNN的权值共享机制和隐藏状态的核心计算公式。文章重点讲解了如何构建RNN语言模型,包括词嵌入、隐藏状态更新和预测输出分布等关键环节。同时介绍了训练RNN时使用的交叉熵损失函数和Teacher Forcing策略,以及随时间反向传播(BPTT)算法的实现原理和优化技巧

文章图片
#rnn#深度学习#自然语言处理 +4
固定窗口神经语言模型|A fixed-window neural Language Model

本文介绍了基于固定窗口的神经语言模型,对比传统n-gram模型具有解决稀疏性和存储优化的优势。文章首先回顾语言模型的任务本质是预测序列中的下一个词,然后详细阐述了固定窗口模型的四个核心步骤:输入层词向量转换、拼接机制、隐藏层计算和输出层softmax处理。虽然该模型相比n-gram有所突破,但仍存在上下文长度受限、权重不均衡等问题,这些问题推动了后续RNN模型的发展。作者正在学习斯坦福大学CS22

文章图片
#语言模型#人工智能#自然语言处理
Supervised Learning|监督学习

监督学习是机器学习的一种方法,通过已标注数据训练模型进行预测或分类。它分为回归(预测连续值,如房价)和分类(预测离散类别,如垃圾邮件识别)两种主要类型。典型应用包括垃圾邮件过滤、语音识别、机器翻译、广告点击预测和自动驾驶等。监督学习的关键在于利用已知"输入-输出"对训练模型,使其能够对新数据做出准确判断。更多计算机相关知识可访问博客网站rn.berlinlian.cn。

文章图片
#python#机器学习#深度学习
    共 20 条
  • 1
  • 2
  • 请选择