登录社区云,与社区用户共同成长
邀请您加入社区
https://gitcode.net/mirrors/endernewton/tf-faster-rcnn?utm_source=csdn_github_accelerator根据显卡更改下对应的计算单元:修改tf-faster-rcnn/lib/setup.py中第130行的arch参数,比如我的显卡是1070,算力是6.1,所以是sm_61显卡的算力可以查询下面网址: http://arno
策略定义了智能体对于给定状态所做出的行为,换句话说,就是一个从状态到行为的映射,事实上状态包括了环境状态和智能体状态,这里我们是从智能体出发的,也就是指智能体所感知到的状态。
一、背景AI算法复杂度逐年上升,需要高效的方式支持AI模型的推理和部署。随着应用规模的扩大,算力资源消耗也在快速增长,对线上资源产生极大的压力。B站AI涉及计算机视觉(CV)、自然语言处理(NLP)、语音等多个场景,服务于内容安全审核、内容理解和创作的上百个应用场景。二、挑战和目标挑战线上资源随着流量线性增长,在降本增效的背景下,希望控制线上资源的增长。随着大语言模型在工业界的推广和落地,NLP场
环境准备本地GPU环境准备首先介绍在本地使用GPU进行训练的环境准备,首先确保你的电脑中包含算力比较充足的GPU(俗称显卡,推荐GTX1060及以上级别),使用Ubuntu或者其他Linux发行版本的系统,安装好CUDA和CUDNN,安装tensorflow-gpu和其他环境:pip install tensorflow-gpusudo apt-get install protobuf-compi
RK3568采用22nm制程工艺,搭载四核Cortex-A55处理器和Mali-G52 GPU,其核心亮点在于内置独立NPU(神经网络处理单元),支持INT8/INT16量化加速,典型功耗仅2W左右。NPU通过专用指令集和内存优化,相比CPU可实现5-10倍的AI推理加速,特别适合实时视频分析、工业质检等场景。关键性能指标CPUNPU:1TOPS算力,支持TensorFlow/MXNet/PyTo
在AI落地应用的浪潮中,极市平台通过云平台形式专注赋能开发者,不断为万千开发者提供AI开发应用全流程中的各类最新服务,包括数据、算力、训练环境、模型、部署加速工具等等。在模型开发和部署方面,极市平台集成了最新版本的OpenVINO™工具,助力开发者在最小化代码修改的条件下加速AI算法在各类生产环境中规模化部署应用,尤其是在Intel丰富的硬件资源平台上(CPUs、iGPUs、VPUs等等)。本文重
出现Non-OK-status: GpuLaunchKernel( SwapDimension1And2InTensor3UsingTiles<T, kNumThreads, kTileSize。。。怎么办?我是用的tensorflow2.3.0+cuda10.1以及对应的cudnn,win10,显卡用的算力为6.1的1070我在算力为7.1的2070上正常跑,但是在1070上就报标题的错误
本文基于TensorFlow 2.x框架构建了一个CNN模型,实现了对苹果、香蕉、葡萄、橙子和梨五种水果的图像识别系统。通过数据增强策略和自定义CNN架构(包含4个卷积块和Dropout正则化),模型展现出良好的泛化能力。可视化评估显示,模型在苹果和橙子识别上表现优异,但在梨与香蕉、葡萄与苹果的分类上存在混淆。最终系统采用Flask后端和AJAX前端实现无刷新Web部署,支持拖拽上传和即时预测。该
windows下安装tensorflow-gpu:首先查看我们自己的电脑是否携带gpu,以及计算力是否达到3以上。。。目前我们的电脑基本上都是可以达到这个标准的。。。。可以放心安装。。。。。python环境推荐安装anaconda。。。。。1.准备.condarc文件的配置:目的就是为了下载快。channels:- defaultsshow_channel_urls: truedefault_ch
本文系统介绍了大语言模型(LLM)的基础知识、训练部署和应用开发。主要内容包括:1) LLM的定义与特点,基于Transformer架构的神经网络;2)模型训练过程及GPU加速原理;3)关键技术如RAG、Function Calling等;4)研究方向分类,从提示词工程到预训练;5)开发框架选型(Dify低代码vs LangChain高代码);6)算力成本分析,比较A100/H100等芯片差异。文
人们常言人工智能第三次浪潮的兴起要得益于算力取得长足进步以及海量丰富数据源源不断地产生,但同样不能忽视的是人工智能框架为人工智能应用落地所取得的突出作用。提到人工智能框架,开发者们脑子里立马会闪现出TensorFlow、Keras、PyTorch、MXNet、Caffe2、FastAI这些名字。人工智能框架之所以如此重要,是因为无论是学术研究还是人工智能的真实落地应用之中,都会涉及到无比繁多和..
摘要: FSDP(Fully Sharded Data Parallel)从2020年PyTorch引入的ZeRO-3技术,到2025年发展为支持万亿级多模态大模型训练的分布式框架。中国从跟随者跃升为全球领跑者(如华为、DeepSeek等),FSDP渗透率超80%,内存节省90%+,训练效率提升1000倍+。2015-2019年为ZeRO概念萌芽期;2020-2022年FSDP成熟,支持千亿级模型
TensorFlow是由Google Brain团队开发的开源机器学习平台,采用计算图抽象和分离式执行引擎架构。核心功能包括构建训练模型、跨平台部署和分布式执行,解决了研究到生产的转换难题。其技术亮点在于静态图优化、自动微分、异构硬件支持和编译器集成(XLA)。系统面临性能与灵活性平衡、大规模分布式同步等挑战,通过分层架构(客户端API、执行引擎、设备层)和模块化设计(Op注册、Session管理
TensorFlow Serving:AI模型的生产部署工具 TensorFlow Serving是谷歌官方推出的机器学习模型部署系统,专门用于将训练好的AI模型转化为可调用的在线服务。它支持REST API和gRPC两种调用方式,具备高性能、高可用和易扩展等优势。 核心功能包括: 模型版本管理(支持热更新和回滚) 动态批量处理(提升GPU利用率) 多模型同时服务 典型应用场景: 电商推荐系统实时
根据2024年《自然·医学》最新研究,超过65%的医疗AI项目因数据隐私合规要求导致模型训练数据减少30%以上,直接降低诊断准确率5-8%。图1:不同隐私保护强度下,医疗AI模型关键指标变化趋势(数据来源:2024年全球医疗数据科学白皮书)。:医疗机构应建立隐私-性能平衡评估框架(参考附录流程图),数据科学家需掌握隐私增强计算(PEC)技能,政策制定者应推动“隐私-性能”双目标法规。然而,2024
通俗定义:计算图就像做菜的流程图。静态图(TensorFlow 1.x风格):先画好完整的流程图:“洗西红柿→切西红柿→打蛋→热油→下锅炒”,然后严格按照流程一步步执行动态图(PyTorch风格):边做边决定下一步:“我先洗个西红柿……嗯,现在该切了……哦,还没打蛋,现在打”PyTorch:更像写Python脚本,控制流清晰,调试方便:更声明式,高级API更简洁,但底层细节被隐藏PyTorch是深
TensorFlow稀疏张量(SparseTensor)是处理含大量零值数据的高效方案,通过仅存储非零值坐标和值来节省资源。文章详细介绍了SparseTensor的COO编码格式(包含indices、values和dense_shape三个核心组件)、基本使用方法(构造、属性访问、运算)及关键注意事项(索引顺序处理、显式零值避免等)。特别强调了稀疏张量适用于超稀疏数据(如NLP、CV领域),而密集
模型优化是一系列针对深度学习模型的技术,旨在提升模型的推理效率,减少计算资源的消耗,同时保证模型的准确度。减少计算量:通过减少模型的参数、层数、计算图的复杂度等方式降低计算量。减少存储空间:通过压缩模型的权重,减少模型所需的存储空间。加速推理过程:通过硬件加速、并行计算、剪枝等技术提升推理速度。网络剪枝(Pruning):删除不重要的神经网络连接,减少计算量。知识蒸馏(Knowledge Dist
本文系统综述了基因预测大模型的算法、工具及应用。基于Transformer的DNABERT和HyenaDNA擅长序列分析,GNN模型如DeepVariant-NG适合变异检测,多模态模型Enformer整合多组学数据。比较显示各模型在输入类型、输出任务和数据需求上存在显著差异,如DNABERT轻量化而HyenaDNA支持长序列处理。文章以DNABERT为例演示了安装、数据准备和模型微调流程。未来发
在现代科技的世界里,我们经常会听到“ MCP”这个词,但很多人可能还不太清楚它具体代表什么,或者它在实际应用中起到什么作用。今天,我就用通俗易懂的方式,详细为你讲解什么是“MCP”,让你对这个概念有一个清晰的了解。通俗一点说,MCP就是计算机中那个“看门人”和“调度员”,它负责确保存储器的访问高效、安全、协调。在一些架构中,MCP可能融入在存储控制器(Memory Controller)中,或作为
本文对比了TensorFlow中的RaggedTensor和SparseTensor两种张量类型。RaggedTensor用于处理可变长度/嵌套结构数据,存储无冗余空位,运算按实际元素数计算;SparseTensor则用于压缩存储固定形状但大部分值为空的数据,运算等价于密集张量。通过收纳工具比喻和实例演示(如concat和reduce_mean运算),展示了二者的本质差异:RaggedTensor
图 2:典型的多模态语⾔模型架构⽰意图。本文系统综述了多模态大型语言模型(MLLM)的发展背景、核心架构、技术特点及扩展应用,阐明其通过融合大型语言模型(LLM)与大型视觉模型(LVM)的优势,突破传统单模态模型的局限性,实现多模态信息的理解与生成,并探讨其在多领域应用的潜力与未来研究方向。本部分详细解析了多模态大型语言模型(MLLM)的核心架构设计,包括模态编码器、语言模型(LLM)和模态接口三
用法和普通Tensor完全一致,学习成本低;保留RaggedTensor的可变长度结构,无冗余补0,计算效率高;支持广播规则,覆盖绝大多数基础数学/比较场景。只要普通Tensor能做的运算符操作,RaggedTensor都能做,且结果保持行长度不变。
解压离线包,将ollama这个二进制文件放到/usr/local/bin/ 目录下。将下面内容粘贴进去,里面参数干啥的我就不解释了,想了解的自己查。
然后你就可以用它来和各种文档、内容、资料聊天,支持多个用户同时使用,还可以设置谁能看或改哪些内容。在人工智能提供商-LLM里面选择Ollama,并在Ollama Base Url 里面输入:http://0.0.0.0:11434。等效工具,用于在安全的环境中与文档等进行聊天,专为想要使用现有文档进行智能聊天或构建知识库的任何人而构建。选择合适的deepseek-r1版本,上面有1.5、7b、8b
模型转换
本文将带你深入探索图像数据增强的世界,我们将详细解析:* 为什么数据增强是训练高性能模型的关键?* 有哪些常用且有效的图像增强技术?* 如何在 PyTorch 和 TensorFlow 两大主流框架中轻松实现数据增强?* 应用数据增强时需要注意哪些最佳实践和“坑点”?
本文详细介绍了LLaMA-Factory网页版LLaMABoard中的关键训练参数及其设置方法,从入门到入土,彻底喂饭讲明白,通俗易懂。
RaggedTensor采用"扁平存储+行分区"的编码结构,将不规则数据高效存储为扁平张量(values)和分区规则(row_partition)。核心原理包括四种行分区编码方式:row_splits(拆分点)、value_rowids(行索引)、row_lengths(行长度)和uniform_row_length(均匀长度),各适用于不同场景。对于多维不规则数据,通过嵌套R
本文提出了一种CNN-GRU混合神经网络模型用于时序预测,通过结合CNN的局部特征提取能力和GRU的长序列建模优势,解决了传统模型在处理复杂时序数据时的局限性。文章详细介绍了模型构建流程,包括数据准备、预处理、网络构建、训练评估等步骤,并提供了完整的Python实现代码。代码支持CSV/Excel格式数据输入,可灵活配置输入输出维度,实现单/多输入、单/多步预测功能。实验结果表明该混合模型能有效提
一句话概括:Keras是一个让你能像搭积木一样快速构建和实验神经网络的高级API,它极大地降低了深度学习的应用门槛,是初学者进入AI世界最友好的桥梁。如何根据问题选择网络层(积木块)、如何组装它们(模型结构)、以及如何配置和启动学习过程(编译与训练)。最后,用一张思维导图为你梳理本文的核心体系:fill:#333;important;important;fill:none;color:#333;c
用Manager管理,可以直接git到ComfyUI/custom_nodes目录下,然后重启comfyui即可自动配置环境(需要魔法,一次不行多重开几次,有可能报什么结束批处理,这个我也不知道是为什么,但是多会就会自动结束好像,不行就重启电脑,绝对管用)
tensorflow
——tensorflow
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net