
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大型语言模型(llm)可以对广泛的信息进行检索、推理和推断。在健康方面,迄今为止,大多数LLM工作都集中在临床任务上。然而,很少整合到临床任务中的移动和可穿戴设备为个人健康监测提供了丰富、连续和纵向的数据来源。本文提出一个新模型,个人健康大型语言模型(PH-LLM),一个经过微调的Gemini版本,用于对数字时间序列个人健康数据的文本理解和推理,用于睡眠和健身应用。

大型语言模型(LLMs)在理解和推理长文本上下文方面的能力是各领域进步的关键。然而,它们在识别相关上下文和记忆搜索方面仍存在困难。为了解决这个问题,我们引入了Query-aware Inference for LLMs(Q-LLM)系统,该系统旨在像人类认知一样处理广泛的序列。通过专注于与给定查询相关的记忆数据,Q-LLM能够在固定窗口大小内准确捕捉相关信息,并为查询提供精确答案。它不需要额外的训

在传统的RAG框架中,检索单元通常较短,如100字的维基百科段落。检索器需要在庞大的语料库中搜索,这增加了检索负担。为了减轻这种负担,作者提出了LongRAG框架,包括“长检索器”和“长阅读器”,将整个维基百科处理成4K-token的单位,使检索单元减少至60万,大大减轻了检索器的负担,显著提高了检索性能。在不需要训练的情况下,LongRAG在NQ和HotpotQA(全维基)上达到了62.7%和6

该论文提出了一种名为NoiseBoost的方法,通过噪声扰动来缓解多模态大语言模型(MLLM)中的幻觉问题。论文分析指出,幻觉主要源于大语言模型固有的总结机制,导致对语言符号的过度依赖,而忽视了视觉信息。NoiseBoost通过在视觉特征中加入噪声扰动,作为一种正则化手段,促进视觉和语言符号之间的注意力权重平衡。实验结果显示,NoiseBoost不仅在监督微调和强化学习中提升了模型性能,还首次实现

本论文介绍了一种能够实现全双工操作的生成性对话系统,允许无缝互动。该系统基于大型语言模型(LLM),并与感知模块、运动功能模块以及一个简单的有限状态机(称为神经FSM)结合。感知和运动功能模块协同工作,使系统能够同时与用户进行说话和聆听。LLM生成文本标记以响应查询,并通过发出控制标记给神经FSM来自主决定何时开始回应、等待或打断用户。这些任务通过在实时对话的序列化视图上进行下一个标记的预测来完成

如果你在过去几年中与开发人员有过接触,很有可能会在对话中提到“WebAssembly”。WebAssembly(又名Wasm)是一项新兴技术,它有可能从根本上改变软件应用程序的构建和运行方式。大约10年前,我们对容器和Kubernetes(现在已经无处不在的基础设施软件)说过同样的话。这篇文章将强调为什么我们对Wasm感到兴奋,以及我们认为它为新创业公司的创始人提供了机会。
自然语言处理, 抑郁症筛查, 机器学习模型, 文本分类, 非正常声音, AI 语音技术, 音乐创作, 自动语音识别模型, 在-context 学习, 多模态, 大型语言模型, 病理信息学, 组织准备, 视觉-语言模型, 日本专科医生考试, 医学影像学, AE-GPT, 流感疫苗不良事件, 信息抽取, 低比特量化, LLaMA3, 模型性能, 效率优化, 服务系统, 价值共创, 工程设计, 人机交互

之前开源了,但是对非计算机专业来说,门槛有点高,再加上docker hub镜像被屏蔽,更是不容易上手啊。也有考虑用dify或者扣子去复刻一个,但是从专业用户的角度出发通过界面来拖拽配置实在是不高效,没有自己写代码来的直接,但是对非计算机专业的用户确实不友好。为了降低一下门槛,稍微进行了改进。下面开始正文:这个开源项目其中有个环节是利用firecrawl抓取论文,然后转成对大模型友好的LLM格式。

MERAdiag系统采用预训练大语言模型(LLMs)与对比学习框架,以提高在医疗记录中识别和预测ICD-9和ICD10等不同版本诊断代码的能力。该方法基于一个精心设计的提示机制,将历史医学信息转化为文本序列供模型理解,并通过对比学习进行微调,增强对特定任务的理解。参数值智能体数量3通讯轮次3每个智能体的记忆观察数10最大订购量100领先时间2温度0.1最大输出标记数90库存成本1后备成本1订单成本
大型语言模型(LLMs)在处理长文档问答(QA)时面临着无法适应其小上下文窗口的问题。为了解决这一问题,大多数现有工作集中在从文档中检索相关上下文,并将其表示为纯文本。然而,像PDF、网页和演示文稿等文档天然地具有不同页面、表格、部分等结构。将这些结构化文档表示为纯文本与用户对这些文档丰富结构的心理模型不一致。当系统必须查询文档以获取上下文时,这种不一致性会凸显出来,使得看似简单的问题也会难倒QA
