logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

人工智能时代医疗大健康微服务编程:架构与实践(代码部分)

本文通过代码实现展示了AI与医疗微服务的融合方案。第一章构建了一个基于FastAPI的患者注册微服务,包含FHIR标准数据模型、API端点和Docker容器化配置;第二章介绍了服务治理方案,包括使用Consul实现服务发现、通过Kong网关配置路由和JWT认证。全文采用"代码即文档"的方式,提供了一个可落地的智慧医疗平台微服务架构参考实现,覆盖从基础服务开发到安全部署的关键环节

文章图片
#架构#人工智能#微服务
流处理、实时分析与RAG驱动的Python ETL框架:构建智能数据管道(上)

Python生态的蓬勃发展和技术的持续创新(如无GIL Python、Mojo、更高效的流处理引擎、小型化本地LLM)正在不断突破瓶颈。未来的Python ETL框架将更加AI原生、性能卓越、开发友好、云原生就绪,成为企业构建实时智能应用、驱动数据驱动决策的基石。

文章图片
#python#etl#开发语言
多模态推理效率革命:GitCode+昇腾NPU部署llava-1.5-7b-hf的实践全维度性能测试

本文分享了在GitCode平台上使用昇腾NPU部署llava-1.5-7b-hf模型的全流程实践。作者基于前期CodeLlama-7B模型部署经验,详细介绍了环境搭建、模型适配和性能优化过程。文章重点展示了GitCode Notebook的NPU配置选择(昇腾910B)、模型下载、环境安装(使用阿里云镜像加速)以及测试代码实现。通过图文并茂的方式,为开发者提供了在国产算力平台上运行多模态大模型的实

文章图片
#华为云#云计算
基于Fragmentation+Hybrid VQE的蛋白局部基态能量高效计算(一)

摘要: 项目Quantum-Bio-FragVQE-001旨在3–6个月内开发结合分子片段化与混合变分量子本征求解器(VQE)的工作流,用于计算蛋白活性位点基态能量。分五个阶段: 准备阶段:配置量子/经典计算环境,选择活性位点体系; 预处理:分子片段化、哈密顿量生成及量子比特映射优化; 量子求解:测试多种Ansatz,优化噪声下的VQE收敛,应用误差缓解策略; 误差分析:重构总能量并量化片段化、噪

文章图片
#健康医疗#量子计算
多模态推理效率革命:GitCode+昇腾NPU部署llava-1.5-7b-hf的实践全维度性能测试

本文分享了在GitCode平台上使用昇腾NPU部署llava-1.5-7b-hf模型的全流程实践。作者基于前期CodeLlama-7B模型部署经验,详细介绍了环境搭建、模型适配和性能优化过程。文章重点展示了GitCode Notebook的NPU配置选择(昇腾910B)、模型下载、环境安装(使用阿里云镜像加速)以及测试代码实现。通过图文并茂的方式,为开发者提供了在国产算力平台上运行多模态大模型的实

文章图片
#华为云#云计算
解锁医疗AI新引擎:从数据库与编程语言透视合成数据生成(代码部分)

本文介绍了基于PostgreSQL和Python的医学AI数据库操作实现,以及MinIO对象存储管理。主要内容包括:1)使用psycopg2库连接PostgreSQL数据库并初始化5个核心表(患者、训练模型、合成任务、合成影像和评估指标);2)封装数据库增删改查操作类MedicalAIDB,提供模型记录插入、任务创建、状态更新等功能;3)示例演示了DDPM模型参数记录和合成任务创建流程。系统采用哈

文章图片
#人工智能#数据库#健康医疗 +1
开源协同∞智算赋能:GitCode+昇腾NPU部署CodeLlama全流程实践

昇腾NPU部署CodeLlama-7B,踩了不少坑,也总结了一些经验。CodeLlama在代码生成这块确实好用,昇腾NPU的算力也够用,就是部署过程需要折腾一下。整个流程从环境搭建到性能调优,中间遇到的问题不少,比如模型格式转换、内存优化、推理速度提升

文章图片
#华为云
多模态推理效率革命:GitCode+昇腾NPU部署llava-1.5-7b-hf的实践全维度性能测试

本文分享了在GitCode平台上使用昇腾NPU部署llava-1.5-7b-hf模型的全流程实践。作者基于前期CodeLlama-7B模型部署经验,详细介绍了环境搭建、模型适配和性能优化过程。文章重点展示了GitCode Notebook的NPU配置选择(昇腾910B)、模型下载、环境安装(使用阿里云镜像加速)以及测试代码实现。通过图文并茂的方式,为开发者提供了在国产算力平台上运行多模态大模型的实

文章图片
#华为云#云计算
多模态推理效率革命:GitCode+昇腾NPU部署llava-1.5-7b-hf的实践全维度性能测试

本文分享了在GitCode平台上使用昇腾NPU部署llava-1.5-7b-hf模型的全流程实践。作者基于前期CodeLlama-7B模型部署经验,详细介绍了环境搭建、模型适配和性能优化过程。文章重点展示了GitCode Notebook的NPU配置选择(昇腾910B)、模型下载、环境安装(使用阿里云镜像加速)以及测试代码实现。通过图文并茂的方式,为开发者提供了在国产算力平台上运行多模态大模型的实

文章图片
#华为云#云计算
开源协同∞智算赋能:GitCode+昇腾NPU部署CodeLlama全流程实践

昇腾NPU部署CodeLlama-7B,踩了不少坑,也总结了一些经验。CodeLlama在代码生成这块确实好用,昇腾NPU的算力也够用,就是部署过程需要折腾一下。整个流程从环境搭建到性能调优,中间遇到的问题不少,比如模型格式转换、内存优化、推理速度提升

文章图片
#华为云
    共 39 条
  • 1
  • 2
  • 3
  • 4
  • 请选择