
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本博客的目的是了解图和 LLM 协同工作的现状和局限性。我将首先关注大型语言模型 (LLM) 时代的图机器学习。本文的目的是详细介绍图机器学习 (Graph ML) 的历史以及使用 Graph ML 和 LLM 的当前状态查找 Graph ML 与 LLM 结合使用的主要类别及其优点和局限性以及可能的解决方案。现在,我们如何开始处理图?我们确实希望获得某种图的矢量表示,以便进行机器学习。但是,我们

随着科技的迅猛发展,显卡在人工智能、数据处理、高性能计算等领域的应用变得至关重要。本文将介绍几家主要的国产显卡厂商及其产品,并回顾英伟达GPU的架构演进,分析其在不同应用场景中的选择理由,探讨国产显卡与英伟达显卡的优劣势。JM系列:如JM5400、JM7200等,广泛应用于军事和工业领域,适用于图形渲染和嵌入式应用。第一代AI加速卡,专为AI运算设计的张量运算(Tensor Core)架构。代表型

本文整理一些文本向量化(embedding)和信息检索的知识,它们是如今大模型生成文本时常用的技术 —— “增强检索生成”(RAG)—— 的基础。RAG (Retrieval-Augmented Generation,检索增强生成),是一种利用信息检索(Information Retrieval) 技术增强大模型生成效果(generation)的技术。RAG 在步骤上很简单。本文主要关注以上 1

大语言模型(LLMs)为人工智能技术在医疗领域作出重大贡献创造了前所未有的机遇,对医疗大语言模型的探索涵盖了从辅助临床医生做出更准确的决策,到提升患者护理质量与治疗效果,包括增强医学知识理解、提高诊断准确性、提供个性化治疗建议等多个方面。目前对医疗大语言模型(Med-LLMs)的探索,主要集中在识别患者特定因素,以便为临床决策提供有效的支持,并给出治疗建议。这些研究可分为以下几个关键领域:即医学语

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。如果你能在15天内完成所有的任务,那

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。但根据实际使用场景和习惯,在知识库数量并不是很大的场景(亿级以下),考虑到使用习惯和学习复杂度,也可以选择PgSQL等关系型数据库。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在

确保生成的文本符合指定的标准,例如主题一致性、安全性和风格一致性。

是一个开源多模型大型语言模型,可以一边听、一边说,一边思考。具有实时端到端语音输入和流音频输出对话功能。Mini -Omni模型架构。Mini-Omni训练方法分为三个不同的阶段:模态对齐。此阶段的目标是增强文本模型理解和生成语音的能力。Mini -Omni的核心模型完全冻结,仅在两个适配器中允许梯度。在此阶段,我们使用来自语音识别和语音合成的数据来训练模型的语音识别和合成能力。适应性训练。一旦新

大模型与数据分析的融合正成为推动企业发展的关键力量。大模型在数据分析领域展现出了强大的能力。它能够以接近人类的水平理解和处理自然语言,快速、准确地解析大量非结构化数据,如文本、用户评价和社交媒体内容等。同时,大模型还能通过自然语言交互,让非技术人员轻松获取数据和分析结果,提供清晰的数据解释和可视化,帮助用户更好地理解数据。此外,大模型擅长在海量数据中揭示复杂的关联,进行智能推理和预测,为企业决策提

文心一言是百度基于文心大模型打造的生成式AI产品,具备跨模态、跨语言的深度语义理解与生成能力。2023年10月,文心大模型4.0版本发布,实现基础模型的全面升级,理解、生成、逻辑、记忆四大能力显著提升,综合能力可直接对标GPT-4。通义千问是阿里自研的AI大语言模型,2023年10月31日发布了2.0版本,相较于1.0版本,在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上均有显著提升








