logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ray 设计思想总结

Ray 是为动态、细粒度、高并发的 AI/ML 工作负载量身打造的运行时,其Object Store + 异步 Pull + 去中心化调度架构极具启发性。但在借鉴时,应聚焦其内存模型与调度哲学,而非简单套用序列化方式。同时,明确其边界——不是万能分布式框架,而是 AI 时代的“分布式胶水”。Ray 的异步 pull 模型是其面向动态、细粒度、高并发 AI 任务的核心设计之一。它通过“懒加载 + 按

#wpf
REST/gRPC/队列通信模式对比

RISELab 的研究重点是“实时智能与安全”,因此 Ray 被设计为支持低延迟、高吞吐、可扩展且容错的分布式执行引擎,特别适合构建实时 AI 系统。研究人员和工程师希望有一个统一的框架,既能用于分布式训练、也能用于推理服务、自动调参、模拟仿真等场景,而无需为每种任务使用不同的系统。传统的分布式系统(如 Spark)基于批处理模型,任务调度开销大,难以支持细粒度、动态的任务图(task graph

#wpf
Dify 的介绍

如果您需要自定义配置,请参考文件中的注释,并更新.env文件中对应的值。此外,您可能需要根据您的具体部署环境和需求对文件本身进行调整,例如更改镜像版本、端口映射或卷挂载。完成任何更改后,请重新运行。您可以在此处找到可用环境变量的完整列表。

文章图片
LangServe 介绍和使用

LangServe 是 LangChain 的官方服务化框架,包含以下核心模块:步骤2:初始化项目步骤3:添加自定义链步骤4:编写链逻辑步骤5:配置服务端路由核心配置文件解析环境变量配置(.env)依赖管理(requirements.txt)启动与测试服务启动服务访问端点API文档:http://localhost:8000/docsPlayground:http://localhost:8000

文章图片
#chrome#前端
模型剪枝和量化

定义与作用量化是将模型权重和激活值从高精度(如float32)转换为低精度(如int8降低存储需求:模型体积缩小 4 倍(32位→8位)。加速推理:低精度计算通常更快,尤其适配硬件加速(如 GPU 的 TensorCore)。量化方法方法原理适用场景动态量化在推理时动态量化权重和激活值,无需校准数据。输入动态范围较大的任务(如文本生成)。静态量化通过校准数据确定激活值的量化范围,生成固定量化参数。

文章图片
huggingface 使用和模型微调

1. 核心组件构成Transformers库:提供统一API支持30+架构的预训练模型加载,核心抽象类包括AutoModelPipeline。Hub平台:包含250k+模型、数据集及演示应用,采用Git LFS管理大文件版本。:基于Kubernetes的动态扩缩容服务,支持零代码模型部署,提供REST/gRPC接口。2. 模型仓库元数据结构"model_card": { # Markdown文档,

目前主流OCR/语义理解/ASR

注:以上排名综合了2024年多篇横向评测,测试环境均采用各工具默认预训练模型。实际效果可能因具体图片质量、语言类型和部署环境有所差异。需要更高精度可考虑基于业务数据微调模型(推荐PaddleOCR或RapidOCR)。注:以上排名基于开源社区实测数据和Papers With Code榜单,具体表现可能因硬件环境和任务类型有所差异。基于多篇专业评测的结果,以下是目前免费开源OCR工具的推荐排名(侧重

FFmpeg安装和使用

【代码】FFmpeg安装和使用。

文章图片
APM项目分析

项目主要支持语言链路精细度是否收费性能影响(CPU/内存)多语言(含移动端)高(自动+火焰图)是1%~5% / 中等New Relic多语言高(端到端+黄金信号)是2%~7% / 中高Dynatrace多语言(含 C/C++)极高(PurePath 方法级)是<2%~5% / 高(OneAgent)Jaeger所有(通过 OTel)中(需手动埋点)否<1% / 低SkyWalkingJava/.N

#网络
Python线程进程和事件循环调度文件描述符

特性多线程/多进程模型异步事件循环模型并发单位线程 / 进程协程(轻量级任务)内存开销高(每个线程有独立栈)极低(共享栈上下文)上下文切换由操作系统调度,较重用户态切换,极快I/O 阻塞线程会被挂起协程await时让出控制权并发能力受限于线程数/GIL数千级并发连接典型用途CPU 密集型 / 同步接口高并发 I/O(如 Web API)

#python#网络#php
    共 15 条
  • 1
  • 2
  • 请选择