logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Vanna AI:告别代码,用自然语言轻松查询数据库,领先的RAG2SQL技术让结果更智能、更精准!

Vanna,是一款革命性的AI SQL智能体,可以将复杂的SQL查询简化为日常语义对话。在生成式AI的助力下,Vanna 让数据库查询变得前所未有的简单和直观。它是基于 OpenAI 和 Google 提供的大语言模型(LLM)。Vanna 通过预训练模型,结合你的数据库进行微调,可以快速帮你量身打造一个定制化的AI助手。Vanna 是一个获得 MIT 许可的开源 Python RAG(检索增强生

文章图片
#人工智能
揭秘大模型提升秘诀:RAG系统中的文本分块策略

LangChain 还预定义了其他编程语言(如 Go、C++、Java)等的分割符列表,方便用户快速定义新的文本切块类。如果需要处理未提供的文本格式,可以参照已有的类实现。自定义示例:创建一个用于切分 Java 代码的文本切块类。"\n\n", # 空行"\n", # 换行", # 语句结束" ", # 空格"" # 无分隔符text = "..." # 待处理的 Java 代码print(doc

文章图片
InternVL 1.5:开源多模态大模型的“黑马”,性能比肩GPT-4V! (开源免费|可商用)

InternVL 1.5 是一款开源的多模态大型语言模型,它在处理高分辨率图像和支持多语言方面取得了显著进展。该模型通过强大的视觉编码器和动态分辨率适配技术,以及整合全面的双语数据集,缩小了与商业模型之间的性能差距。在 OCR 相关任务和双语场景理解中,InternVL 1.5 展现了其增强后的能力,成为了先进人工智能系统中的有力竞争者。

文章图片
大语言模型初学者指南 (2023)

简而言之,大语言模型是在巨大数据集上训练以理解人类语言的深度学习模型。其核心目标是准确地学习和理解人类语言。大语言模型使机器能够像我们人类解释语言一样解释语言,彻底改变了计算机理解和生成人类语言的方式。大语言模型学习语言中单词之间的模式和关系。例如,它理解语言的句法和语义结构,如语法、单词顺序以及单词和短语的含义。它获得了掌握整个语言本身的能力。过去,语言处理严重依赖于遵循预定义指令的基于规则的系

文章图片
#人工智能#自然语言处理
Graph RAG:知识图谱赋能大语言模型的新范式

从依赖自身“记忆”到学会“查资料”,再到拥有“知识地图”,Graph RAG 的出现,标志着 AI 问答技术进入了一个全新的阶段。传统的 RAG 技术虽然能够为 LLM 提供更丰富的知识来源,但它就像一个只会“照本宣科”的学生,缺乏对知识的真正理解。而 Graph RAG 则赋予了 AI 更强大的推理能力和逻辑思维能力,让 AI 能够像人类一样理解世界、解决问题。当然,Graph RAG 也并非完

文章图片
#知识图谱#人工智能
Monica - 你的 GPT-4 人工智能助手

官方地址:https://monica.im/?c=X0OHBN1S (仅限今天,通过这里注册可免费获取100次Monica查询)Monica 是一款由 ChatGPT API 提供支持的扩展程序,它可以与您讨论任何事情,使用 80 多个模板生成文案,以及翻译、改写和解释任何网页上的文本。它在所有网站上都可用,可以通过按 Cmd+M 来访问。🔥你的 GPT-4 人工智能助手ChatGPT Plu

文章图片
#人工智能
Monica - 你的 GPT-4 人工智能助手

官方地址:https://monica.im/?c=X0OHBN1S (仅限今天,通过这里注册可免费获取100次Monica查询)Monica 是一款由 ChatGPT API 提供支持的扩展程序,它可以与您讨论任何事情,使用 80 多个模板生成文案,以及翻译、改写和解释任何网页上的文本。它在所有网站上都可用,可以通过按 Cmd+M 来访问。🔥你的 GPT-4 人工智能助手ChatGPT Plu

文章图片
#人工智能
Bito AI——智能编程辅助软件,提升10倍开发效率!(New)

其实对于Bito这款AI编程工具的介绍我早在4月26号就发布过了,为什么今天还会继续发布,主要考虑以下原因:1)、前面写这篇文章的时候,有一些问题跟官方沟通会在后续的版本发布,现在新版本发布了,今天会顺带在原来的基础上更新新版本提供的新功能和新特性。2)、可以免费白嫖GPT-4,其实Bito的聊天功能是基于OpenAI和ChatGPT的底层能力构建优化的,对于复杂的问题会自动路由到GPT-4模型来

文章图片
#人工智能#gpt-3#spring boot +1
新手入门:大语言模型训练指南

本文是一份全面的新手指南,旨在指导初学者如何有效地培训大型语言模型(LLM)。文章首先介绍了Transformer架构的基础知识,这是现代LLMs的核心。接着,它深入探讨了预训练和微调的概念,强调了这些步骤在模型开发中的重要性。文章还详细讨论了低阶适应(LoRA)技术,这是一种新兴的高效训练方法,可以显著降低大型模型训练的计算和内存成本。此外,指南涵盖了关键的超参数调整,如批量大小、学习率和梯度累

文章图片
#语言模型#人工智能#自然语言处理
零门槛微调大模型:基于 Ludwig 低代码框架使用 LoRA 技术微调实践

Ludwig 就像一位武功高强的引路人,为你打开了 AI 世界的大门。它简单易用,功能强大,即使是初学者也能轻松上手。Ludwig 的低代码框架为将大语言模型 (LLM) 微调至特定任务提供了一种高效便捷的途径,它在易用性和强大的自定义能力之间取得了良好的平衡。通过利用 Ludwig 全面的模型开发、训练和评估功能,开发人员可以构建出针对特定用例量身定制的强大且高性能的 AI 模型,以满足各种现实

文章图片
#低代码#LoRA
    共 108 条
  • 1
  • 2
  • 3
  • 11
  • 请选择