logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

七天入门LLM大模型 :魔搭社区和LLM大模型基础知识

我们通常会看到某模型研发机构开源了base模型和chat模型,那base模型和chat模型有什么区别呢?首先,所有的大语言模型(LLM)的工作方式都是接收一些文本,然后预测最有可能出现在其后面的文本。

文章图片
#机器人#人工智能
为什么都放弃了LangChain?

或许从诞生那天起,LangChain 就注定是一个口碑两极分化的产品。看好 LangChain 的人欣赏它丰富的工具和组建和易于集成等特点,不看好 LangChain 的人,认为它注定失败 —— 在这个技术变化如此之快的年代,用 LangChain 来构建一切根本行不通。夸张点的还有:「在我的咨询工作中,我花了 70% 的精力来说服人们不要使用 langchain 或 llamaindex。这解决

文章图片
全新Llama 3.2系列:性能提升明显,但真的是最优选择吗?(已测试)

令人兴奋的消息,Meta发布了Lllam3.2系列模型,当前的基准显示,Llama 3.2 在各种基准测试中表现优于 Claude3.5 Haiku 以及 GPT-4o-mini;加上前几天的Qwen2.5,这是他们的第1次开源多模态大模型,总共有4个;其中两个是视觉模型(11B、90B)。90B可能是目前最大的视觉模型了,我记得前面一个比较大的是剩下的两个是1B和3B的,这些模型专为边缘计算和移

文章图片
#人工智能
一文读懂RAG和LLM微调,教你结合业务场景落地LLM应用

1. 需要外部知识吗?对于以前摘要的风格进行摘要的任务,主要数据源将是以前的摘要本身。如果这些摘要包含在静态数据集中,就不太需要持续外部数据检索。但是,如果有一个频繁更新的摘要动态数据库,目标是不断与最新条目对齐的话,RAG可能在这个场景更好发挥作用。\2. 需要模型适配吗?这个用例的核心是适应专业领域或特定的写作风格。微调特别擅长捕捉风格细微差异、语调变化和特定领域的词汇,因此对于这个维度来说,

文章图片
#人工智能#算法#深度学习
垂直领域的大模型应该如何构建?RAG还是微调呢?

在构建大型语言模型 (LLM) 应用程序时,开发人员可以通过两种常见方式整合专有数据和特定于领域的数据:检索增强生成 (RAG) 和微调。RAG使用外部数据增强提示,而微调则将其他知识合并到模型本身中。然而,这两种方法的优缺点尚不清楚。论文提出了一个用于微调和 RAG 的管道,并介绍了多种流行的 LLM(包括 Llama2-13B、GPT-3.5 和 GPT-4)的两者的权衡。我们的流程由多个阶段

文章图片
#搜索引擎#人工智能
Ollama 如何排除故障

有时,Ollama 可能无法如你所愿运行。解决问题的一个好方法是查看日志。(使用 docker ps 可以找到容器的名字)如果你是在终端里手动运行 ollama serve,那么日志会显示在该终端上。在 Windows 上运行 Ollama 时,日志的存放位置有一些不同。Ollama 内置了多个为不同 GPU 和 CPU 向量特性编译的大语言模型(LLM)库。Ollama 会尝试根据你的系统能力选

文章图片
#人工智能#语言模型
借助ollama实现AI绘画提示词自由,操作简单只需一个节点!

只需要将ollama部署到本地,借助comfyui ollama节点即可给你的Ai绘画提示词插上想象的翅膀。具体看详细步骤!第一步打开ollama官网:https://ollama.com/,并选择models显存太小选择的是llama3\8b参数的instruct-q6_k的这个模型。运行方式也很简单,只要你网络没问题,直接在终端里,运行ollama run llama3:8b-instruct

文章图片
#AI作画#人工智能#自然语言处理
多模态大模型最全综述来了!7位微软研究员大力合作,5大主题,成文119页

多模态大模型来了!由撰写,——它从和两类多模态大模型研究方向出发,全面总结了五个具体研究主题:视觉理解视觉生成统一视觉模型LLM加持的多模态大模型多模态agent‍并重点关注到一个现象:多模态基础模型已经从专用走向。Ps. 这也是为什么论文开头作者就直接画了一个的形象。谁适合阅读这份综述(报告)?用微软的原话来说:只要你想学习多模‍态基础模型的基础知识和最新进展,不管你是专业研究员,还是在校学生,

文章图片
#人工智能
到底了