logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

10个python入门小游戏,零基础打通关,就能掌握编程基础

不会python就不能用python开发入门级的小游戏?当然不是,,并且即使你没有python基础,只要跟着这十个小游戏的开发详细教程去做,以及有了全部的源码,那就能自己开发出这样十个python入门小游戏。不仅如此,在玩好这十个小游戏的过程中,还可以掌握python的基础知识点哦!

文章图片
#python#开发语言#数据分析
【ai_agent】从零写一个agent框架(二)如何让一个workflow/agent跑起来,runtime模块设计

上篇文章我们大致演示了一下ai_agent的食用方法。这里我们做一下核心模块runtime的设计和实现。一个agent也好,workflow也好,他们单个实现起来并不复杂,困难的是如何将他们有机的组合起来,能够按照一定的逻辑流转起来。并且能够层层嵌套,能力无限。现实中应用肯定不局限于这几种情况,但通过一定的流程编辑基本都可以解决,只是复杂性会比较高。

#人工智能#自然语言处理
【ai_agent】从零写一个agent框架(一)打造最强开放agent编辑框架,拳打dify,脚踩coze

之前我们讲过了想将LLM能力在具体的应用中实践,最好的方法是做成一个agent。本系列我们就从零写一个agent框架,方便我们构造和运行agent。

文章图片
#人工智能#自然语言处理#产品经理
大模型开发应用之路:从提示词到通用人工智能

对于企业而言,构建一个符合自身业务需求的知识库是至关重要的。通过RAG、微调等技术手段,我们可以将通用的大模型转变为对特定行业有着深度理解的“行业专家”,从而更好地服务于企业的具体业务需求。这样的知识库基本上适用于每个公司各行各业,包括:市场调研知识库、人力资源知识库、

文章图片
#人工智能#自然语言处理
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验

环节要求CPU >= 4 核如果你并没有在本机安装 Docker(Windows、Mac,或者 Linux), 可以参考文档 Install Docker Engine 自行安装。是Linux内核中的一个重要参数,它定义了一个进程可以拥有的最大内存映射区域数。内存映射区域通常指的是内存映射文件、匿名内存映射等。性能优化:通过增加vm.max_map_count的值,可以允许应用程序创建更多的内存映

文章图片
#人工智能#自然语言处理#AI
利用生成式人工智能和大语言模型:医疗融合的全面路线图

生成人工智能(AI)和大型语言模型(LLMs),如ChatGPT,秉持着革新医疗保健和医学领域数据管理和信息管理的承诺。然而,现有文献未能为非人工智能专业人士提供集成它们的充足指导。本研究通过进行范围性文献回顾来解决将生成AI和LLMs整合到医疗保健和医学实践中的迫切需求。它揭示了支撑这些技术的独特机制,如从人类反馈中进行强化学习(RLFH),包括少样本学习和链式思维推理,这使它们与传统基于规则的

文章图片
#人工智能#语言模型#自然语言处理 +1
为什么都放弃了LangChain?

或许从诞生那天起,LangChain 就注定是一个口碑两极分化的产品。看好 LangChain 的人欣赏它丰富的工具和组建和易于集成等特点,不看好 LangChain 的人,认为它注定失败 —— 在这个技术变化如此之快的年代,用 LangChain 来构建一切根本行不通。夸张点的还有:「在我的咨询工作中,我花了 70% 的精力来说服人们不要使用 langchain 或 llamaindex。这解决

文章图片
LangChain与Elasticsearch向量数据库的完美结合

在过去的一年中,生成式 AI (Generative AI) 领域取得了显著的进展。许多新的服务和工具应运而生。其中,LangChain 已成为构建大语言模型 (LLM) 应用程序(例如检索增强生成 (RAG) 系统)最受欢迎的框架之一。该框架极大地简化了原型开发,并使开发者能够轻松实验不同的模型和检索系统。最近Elasticsearch将其集成从社区包升级为官方的 LangChain 合作伙伴包

文章图片
#elasticsearch#数据库#人工智能
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama

Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模型的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。不管是著名的羊驼系列,还是最新的AI新贵Mistral,等等各种开源大语言模型,都可以用Ollama实现一键安装并运行,支持的更多模型的列表可以查看Ollama官网。本文就让我们一起入门Ollama。

#人工智能#语言模型
大语言模型(LLM)分布式高效训练技术综述:背景、并行、计算、内存、通信、容错、展望

NVIDIA的NCCL[331]和AMD的RCCL[332]是高度优化的库,通常在它们各自的AI加速器上比基于MPI的集体通信库表现更好。这些库通常根据网络拓扑和输入张量大小等条件选择预定义算法来执行集体操作。

文章图片
#人工智能
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择