logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeepSeek + AnythingLLM 简单三步搭建个人知识库,现在的我强的可怕!

如果你有以下需求之一:1. 想将自己积累了很久的笔记整合起来,方便自己分析。2. 想建立自己的素材库。3. 你(或你的孩子)想通过对话聊天的方式学习新知识。那么建议你跟着这篇教程,赶紧搭建一套个人知识库,来快速检自己想要的信息。

文章图片
#人工智能#语言模型#DeepSeek
【保姆级教程】手把手教你把DeepSeek部署在你的电脑上,适合零基础小白!!

把大模型部署在自己的电脑上,有很多好处,但我要先泼一盆冷水。如果你之前没用过AI产品,或者平时用AI也不多,不推荐搞本地部署。有更简单的方法,可以让你用上AI。

文章图片
#人工智能#语言模型#DeepSeek
一文搞懂大模型训练加速框架DeepSpeed的使用!建议零基础小白人手一份!!

在AI领域,常见的深度学习框架TensorFlow、PyTorch和Keras无疑是开发者们的得力工具,但随着模型规模的急剧膨胀,这些传统框架在应对大模型时往往会显得力不从心。比如Pytorch的分布式并行计算框架DDP(Distributed Data Parallel),尽管实现了数据并行,但是当模型大小超过单个GPU显存限制时显得捉襟见肘。此时,开发者往往只能手动进行复杂模型的参数拆分到各个

文章图片
#人工智能#语言模型#DeepSeek
AI大模型RAG15种分块策略进行汇总介绍,零基础小白收藏这一篇就够了!!

在构建检索增强生成 (RAG) 时,针对特定用例和文档类型优化分块至关重要。不同的场景根据文档大小、内容多样性和检索速度有不同的要求。让我们根据这些因素探讨一些优化策略。选择正确的分块策略取决于多个因素,包括文档类型、上下文保留的需求以及检索速度和准确性之间的平衡。无论您是处理学术论文、法律文档还是混合内容文件,选择合适的方法都可以显著提高 RAG 的有效性。通过迭代和优化分块方法,您可以适应不断

#RAG#语言模型
手把手教你本地部署Deepseek-r1,飞机上也能实现AI自由

国产大模型Deepseek R1模型对标ChatGPT O1,可以直接本地运行的“GPT-4.0”,这篇文章,教你如何把Deepseek R1模型部署到本地。废话不多说,直接进入正题。首先,第一步,搜索“Ollama”,进入到Ollama的官网,注意是羊驼的图标。

文章图片
#人工智能#语言模型#DeepSeek
企业AI落地开源三剑客:Dify、RAGFlow、n8n,一文讲清!!

过去的两年里,AI可谓席卷各行各业,企业用AI,大家都面临着这样一个问题:AI这么强大,我的企业如何能充分用起来?如何能用好AI?如何能更安全更便宜地使用AI?所以今天就给大家介绍下,企业AI落地开源三剑客:Dify、RAGFlow、n8n。

#人工智能
一文看懂“提示词” vs “提示词工程” vs “上下文工程”,零基础小白收藏这一篇就够了!!

很多人分不清楚什么是“提示词”(Prompt),什么是“提示词工程”(Prompt Engineering),现在还又多了一个概念叫“上下文工程”(Context Engineering),这又和“提示词工程”什么区别?

文章图片
#人工智能
从零部署Qwen大模型:vLLM实战指南,零基础小白收藏这一篇就够了!!

在人工智能技术飞速发展的今天,大型语言模型(LLM)已成为技术创新的核心驱动力。本文将手把手教你使用高性能推理引擎vLLM部署Qwen大模型,并提供Python和Java两种语言的实现代码,帮助不同技术背景的开发者快速上手。

文章图片
#人工智能
一文带你搞懂!AI 本地部署中的 ollama 是什么?零基础小白收藏这一篇就够了!!

Ollama 是一个开源工具,专为在本地计算机上高效运行大型语言模型(LLM,如 deepseek-r1、qwen2.5 等)而设计。它简化了模型的下载、部署和管理流程,让用户无需复杂配置即可在本地体验和开发基于大语言模型的应用。

文章图片
#人工智能
通俗讲解大语言模型内部运行原理Transformer,看到就是赚到!

在过去几年中,大语言模型(Large Language Model, LLMs)成为了人工智能领域的关键突破之一,尤其是GPT-3和GPT-4等模型,它们被广泛应用于自然语言处理(NLP)相关的任务,如文本生成、翻译、对话系统等。这些模型之所以备受瞩目,不仅因为它们能够处理海量数据,还因为它们在理解、生成和推理语言方面表现出强大的能力。

文章图片
#语言模型#transformer#人工智能
    共 1353 条
  • 1
  • 2
  • 3
  • 136
  • 请选择