logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

人工智能领域的AGI指的是什么?

AGI,全称为,中文一般翻译为“通用人工智能”,是人工智能(AI)研究中的一个目标和理念,指的是一种能够像人类一样在广泛的任务中表现出智能的人工系统。与当前大多数专门处理某种特定任务的和的能力。

文章图片
#人工智能
SenseVoice:下一代智能语音交互系统与竞品分析

上表现突出,尤其适合中小企业及行业定制化需求。若需多语言支持或全球化服务,可结合 Google 或 Azure 的解决方案。等功能,适用于智能客服、语音助手、实时会议转录等场景。在中文场景下准确率接近科大讯飞,但云端API成本低于阿里云。是一款基于深度学习的智能语音交互系统,支持。提供金融、医疗、法律等领域的术语优化模型。(端到端优化,响应速度 <200ms)(支持多语种、方言、噪声环境)(云端、

#人工智能#语言模型#开源协议
扩散模型(Diffusion Model)详解:原理、发展与应用

近年来,扩散模型在生成式AI领域(如Stable Diffusion、DALL·E 2)表现突出,逐步取代了传统的。:相比GAN,扩散模型推理需多次迭代(但Consistency Models等新方法在改进)。αˉt=∏s=1t(1−βs)αˉt​=∏s=1t​(1−βs​) 是累积噪声因子。:扩散模型+LLM(如Stable Diffusion 3结合语言模型)。过程,逐步对输入数据(如图像)添

#人工智能
18个最佳开源低代码开发平台

低代码/无代码开发平台使用图形向导构建软件,而不是像传统方法那样使用计算机编程语言来构建应用程序。在本文中,我们介绍面向个人和企业用户的18个开源的最佳低代码/无代码平台。低代码/无代码指的是提供可视化开发工具,支持拖放,内置组件浏览器和逻辑构建器。低代码/无代码的概念并不新鲜,这可以追溯到十多年前的无代码编程技术 (PWCT) 以及类似的系统。然而,这一概念在开发人员社区中并未得到支持。如今,数

文章图片
#低代码#开源
BackAgent:面向生产环境的下一代自主AI智能体框架深度解析

《BackAgent:企业级智能体框架的探索与实践》摘要 BackAgent代表了一类新兴AI智能体框架,专注高可靠性的后台自动化任务,其核心特性包括模块化架构(规划器、工具模块、记忆系统等)、安全控制机制及自主反思能力。相比AutoGPT等实验性智能体,它更强调生产环境适用性;与RPA平台相比,则具备处理非结构化任务的优势。当前构建BackAgent的技术栈(如LangChain)虽开源,但完整

#人工智能
BackAgent:面向生产环境的下一代自主AI智能体框架深度解析

《BackAgent:企业级智能体框架的探索与实践》摘要 BackAgent代表了一类新兴AI智能体框架,专注高可靠性的后台自动化任务,其核心特性包括模块化架构(规划器、工具模块、记忆系统等)、安全控制机制及自主反思能力。相比AutoGPT等实验性智能体,它更强调生产环境适用性;与RPA平台相比,则具备处理非结构化任务的优势。当前构建BackAgent的技术栈(如LangChain)虽开源,但完整

#人工智能
​Janus Pro

模型名称开发公司:​DeepSeek(中国杭州)开源许可:​MIT 许可,支持商业用途发布平台模型规模:​提供 1B 和 7B 参数版本架构特点:​采用统一的 Transformer 架构,结合 SigLIP-Large-Patch16-384 编码器,实现图像理解与生成的融合 ​Janus Pro 作为一款开源的多模态 AI 模型,在性能、灵活性和社区支持方面表现出色,尤其适合需要本地部署和高度

#人工智能#pytorch
deepseek-coder-6.7b-instruct安装与体验-success

【代码】deepseek-coder-6.7b-instruct安装与体验。

文章图片
#python#pytorch#开发语言
RTX 4090单卡服务器部署Qwen2.5-Omni多模态大模型可行性分析:推理与微调实践指南

若需生产级多卡部署,建议考虑RTX 4090 + 云服务(如AWS P4d实例)弹性扩展。:FP16/BF16性能接近A100(312 TFLOPS),适合LLM推理和微调。:无法多卡并联扩展显存(如部署Qwen2.5-72B需量化或模型并行)。:24GB显存可容纳较大模型(如Qwen2.5-7B全参数加载)。(FP16约14GB显存),支持多模态输入(如图文问答)。:需额外加载CLIP等视觉编码

#服务器#运维
vLLM 与 Ollama 部署与应用

vLLM 与 FastChat 的结合可以实现高性能的大语言模型(LLM)服务。以下是详细的 Docker 部署步骤。Ollama 支持在本地环境中轻松运行多个大语言模型,以下是在 macOS 上的部署步:。如果返回预期的文本输出,说明部署成功 citeturn0search1。Ubuntu 20.04 或以上版。NVIDIA GPU(如 A100。

#人工智能#语言模型
    共 102 条
  • 1
  • 2
  • 3
  • 11
  • 请选择