登录社区云,与社区用户共同成长
邀请您加入社区
【代码】AI Hallucination。
摘要:本文针对2026年轻量化AI部署的市场需求,提出基于STM32H743微控制器和TensorFlow Lite框架的嵌入式图像识别方案。通过MobileNetV2模型微调、INT8量化(模型压缩70%至3.8MB)等技术,在480MHz主频、1MB RAM的硬件限制下,实现杯子/钥匙/钢笔三类物体识别(准确率89.3%,推理速度58ms/帧)。方案包含完整的硬件选型(OV7670摄像头)、软
1. 数据的“高清化”处理图片尺寸变大:之前的任务(MNIST/CIFAR)图片都很小(28x28 或 32x32)。本期处理的是医疗影像,细节很重要,所以图片尺寸统一调整为 224x224。注意点:在定义模型输入层 (input_shape) 和加载数据 (image_size) 时,都要写成 (224, 224, 3)。2. 数据加载管道的优化 (Data Pipeline)为了让训练跑得更快
针对Win10 Tensorflow-2.4 训练 线程冻结(假死、卡住、中途停滞、CPU占用0%) 等问题的排查总结0.前言(事情很复杂)事件背景如下:30系显卡出来后,需要针对8.6算力对TensorFlow2.x进行重新编译,才可顺畅使用,若非重新编译,每次运行都会进行一次预编译,及其浪费时间。一般的,大家会选择一下两种办法:1等官方编译发行到:[PyPI](https://pypi.org
安装tensorflow速度很慢是由于国外镜像要通过墙的原因。可以通过国内镜像解决pip install tensorflow -i https://pypi.douban.com/simple1、算力测试网站。只有算力大于3.0才可以安装tensorflow GPU版本https://developer.nvidia.com/cuda-gpus2、nvidia驱动版本必须大于410。3...
本教程基于win10系统,所用到的工具为Anaconda3,PyCharm你需要已经安装好以上工具,具体操作略。首先确定你的显卡是否支持gpu加速,可在nvidia官网查看是否有你的显卡所对应的算力,如图。为了不影响其他的工作环境,本教程创建anaconda虚拟python环境,打开Anaconda Prompt,输入指令conda create -n your_env_name pyt...
记录下windows下安装cuda10.0过程ubuntu的可以参考这些:ubuntu16.04安装cuda8.0 和cudnn5.1(多个cuda、天坑tensorflow)前提条件安装anaconda这个python管理工具,挺方便的,到下文也会用到。安装的话,首先你的了解几个安装的工具,cuda、cudnn、tensorflow版本、算力。cudacuda的话,实际上...
AI 开发现状从过去 AlphaGo 在职业围棋中击败世界冠军,到现在大火的自动驶,人工智能(AI)在过去几年中取得了许多成就。其中人工智能的成功离不开三要素:数据、算法和算力。其中对于算力, 除了训练(train),AI 实际需要运行在硬件上,也需要推理(inference),这些都需要强大算力的支撑。AI 训练硬件平台:GPU、CPU、TPU常见的模型训练硬件平台主要有:GPU、CPU 和 T
数据管道瓶颈常比计算瓶颈更致命:优先使用 TFRecord + 并行预取。充分利用现代 GPU Tensor Core:混合精度能带来显著加速。合理使用分布式策略:多卡训练在数据和模型规模扩大时具备线性加速潜力。持续 profiling 必不可少:定期使用工具检测空闲及 I/O 瓶颈。希望本篇文章能为你在 GPU 显卡服务器上搭建高效 AI 数据处理与训练管道提供实用参考。
**Ubuntu16.04 LTS 安装NVIDIA驱动的辛酸史!**笔者小白经历了从入门到放弃,坚持到成功的大起大落,决定写点一些东西记录一下这一路走来爬过的坑!废话不多说,直奔主题。在跑代码的过程中发现无法调用GPU,于是输入 nvidia-smi命令查看GPU信息,结果报错!NVIDIA-SMI has failed because it couldn’t communicate with
tail()方法一般用来对数据集进行矩阵形式的显示,默认显示为数据集的最后5行。dataTest.csv为一个5行1139列的数据集(矩阵)。代码如下:打印结果:
本文系统分析垂直领域指令微调(SFT)中的核心痛点,深入解析Y-Trainer框架中的NLIRG算法原理与实践应用。通过真实案例与可复现代码,展示如何在不依赖通用语料的情况下,有效解决模型复读、能力退化与输出不稳定问题。文末提供完整的训练流程、验证方法与性能优化技巧,助你高效构建专业领域大模型。
你是否有过这样的经历?打开一份包含100个特征的用户行为数据集,盯着Excel里密密麻麻的数字,半天看不出任何规律;用PCA降维后得到一张散点图,却发现不同类别的点挤在一起,根本分不清边界;想展示实时流数据的变化,却因为传统工具的延迟,只能看到“过时”的可视化结果?这些问题的根源,在于——它依赖人工选择维度、图表类型和参数,而当数据复杂到时,人类的直觉和经验往往跟不上数据的“复杂度”。
通过A5数据本方案,在RHEL 8 主机环境下利用 Podman 容器运行基于 Ubuntu / NVIDIA L4T 的 Jetson 推理镜像,实现了TensorFlow Lite + TensorRT 的边缘推理加速。在实际项目中,这种方式兼顾了企业级操作系统合规性与领先的 AI 推理性能,可广泛应用于工业视觉、智能监控、无人机与机器人等边缘智能系统。
本项目完整展示了计算机视觉在医疗领域的一个应用实例,通过构建CNN模型实现了肺炎X光片的自动检测。为了让读者更容易了解人工智能项目如何实施,整个实例的实现完全按照AI项目周期的6个阶段而设计,并且给出每个阶段详细的任务说明,代码实现以及知识点解释。并且给出了改进建议。
本文介绍了一个基于LSTM算法的交通分析预测可视化系统,该系统整合了深度学习、数据分析和可视化技术。项目采用Python语言开发,使用TensorFlow框架搭建LSTM模型,对车流量、车速和道路占有率三类核心交通指标进行时间序列预测。系统包含五大功能模块:数据处理模块(基于Pandas)、预测分析模块(LSTM模型)、可视化展示模块(Echarts)、系统交互模块(Flask框架)和后端支撑模块
本文探讨了垂直领域SFT训练中的常见问题(“复读机”效应、灾难性遗忘和过拟合),并介绍了Y-Trainer框架及其核心算法NLIRG的解决方案。通过动态调整每个token的学习强度,该框架实现了: 无需混入通用语料也能保持模型泛化能力 精准控制梯度分配,防止过拟合和遗忘 单卡高效训练,提升资源利用率 文章包含完整的实操指南,包括环境配置、参数设置和效果验证方法,适用于法律、医疗等专业领域的模型微调
结合外卖配送的实时数据(订单位置、路况、天气等),运用决策树、遗传算法或强化学习,构建动态路径规划模型,解决骑手配送超时、路径冗余等问题,可结合实际配送场景验证效果。采集外卖平台的用户评价数据,利用LSTM、BERT等模型进行情感倾向分析,提取用户对餐品、配送、服务的核心反馈,为商家优化服务和骑手改进工作提供数据支持。分析学生的学习行为数据(浏览记录、学习时长、成绩等),运用协同过滤、内容推荐等算
在人工智能与移动计算深度融合的今天,将大语言模型(LLM)部署到移动端和边缘设备已成为行业发展的重要趋势。TensorFlow Lite作为专为移动和嵌入式设备优化的轻量级推理框架,为开发者提供了将复杂AI模型转换为高效、低功耗边缘计算解决方案的强大工具。随着移动设备硬件性能的不断提升和模型压缩技术的快速发展,2025年的移动端LLM部署已不再是遥远的愿景,而是正在成为现实的技术实践。
以下通过豆包生成,此处仅做记录。
通过 ONNX 作为中间格式,A5数据将 PyTorch 模型成功转换并部署到 TensorFlow Serving 和 TensorRT 推理引擎上,在 Ubuntu 22.04 环境下实现了高性能推理。ONNX 导出与图优化;权重量化(INT8);TensorRT 引擎构建;不同推理策略对比评测。整个流程能够有效提升部署效率与推理性能,适合现代AI推理服务落地。
H100与GH200并非替代关系,而是针对不同负载场景的互补方案:●H100是一款平衡型通用加速器,在训练、微调、推理等多种场景中表现稳定,计算密度高且部署灵活,是当前大多数AI与HPC负载的优选方案。●GH200是一款针对性极强的系统级解决方案,聚焦内存密集、CPU-GPU协同紧密的细分场景,能够突破传统分离式架构的瓶颈,为特殊负载提供更优性能。
了解Atlas 200I DK A2的主要规格、亮点。
1、介绍本文旨在帮助用户使用CANN架构和MindStudio平台进行AI CPU算子开发指导。其中CANN(Compute Architecture for Neural Networks)是华为公司针对AI场景推出的异构计算架构,通过提供多层次的编程接口,支持用户快速构建基于昇腾平台的AI应用和业务。MindStudio提供您在AI开发所需的一站式开发环境,支持模型开发、算子开发以及应用开发三
曾尝试build tensorflow2.2.0太多莫名其妙的错误,遂放弃arm64可直接pip install的为tensorflow>=1.10.0,似乎与tf_plugin有兼容性问题,遂放弃。
【CANN训练营】Ascend 910实现LeNet网络的minist手写数据训练
python肢体检测系统 姿势检测 姿态检测识别 身体姿势检测 实时姿态交互系统 opencv、tflite_runtime、TensorFlow 大数据 ✅
大模型奠定了通用智能的基石,RAG为其插上了获取新知的翅膀,Agent赋予了 AI 自主行动的灵魂,工作流则为 AI 融入现实应用搭建了桥梁。这些概念如同乐队中的各色乐器,在 AI 变革的舞台上各展所长,又相互配合,奏响了智能新时代的序曲。对于普通用户而言,也许不需要了解每个技术细节,但知道这些名词背后的原理和意义,有助于我们更好地理解当下层出不穷的 AI 产品。不再把 ChatGPT 的回答视作
计算机毕业设计Python知识图谱中华古诗词可视化 古诗词情感分析 古诗词智能问答系统 AI大模型自动写诗 大数据毕业设计(源码+LW文档+PPT+讲解)
本文介绍了插件系统与扩展机制的设计与实现。首先概述了插件系统的整体架构,包括守护进程结构和多种插件类型。然后详细讲解了插件的加载机制、API扩展点实现方法以及自定义工具开发流程。接着探讨了插件生态建设的重要性和具体措施。最后讨论了插件系统的监控运维方案,并对未来发展提出了展望。全文系统性地阐述了构建可扩展插件平台的关键技术与实践方法。
本文详细介绍了RaggedTensor与TensorFlow其他张量类型(密集张量和稀疏张量)之间的转换方法。主要内容包括: RaggedTensor转密集张量:使用to_tensor()方法填充默认值,适用于需要固定形状输入的场景 密集张量转RaggedTensor:使用from_tensor()方法剔除填充值,恢复可变长度结构 RaggedTensor转稀疏张量:使用to_sparse()方法
本文详细介绍了TensorFlow中tf.data.Dataset与RaggedTensor结合的四大核心应用场景。主要内容包括:1)使用RaggedTensor构建数据集,保留可变长度数据的原始结构;2)批处理与取消批处理操作对RaggedTensor的特殊处理方式;3)将非规则张量转换为Ragged批处理的技术。通过代码示例和结果解读,展示了RaggedTensor在处理可变长度数据时的优势—
摘要:TensorFlow中的不规则张量(RaggedTensor)专门处理非均匀长度数据,允许同一维度下元素长度不一致(如[[3,1,4,1], [], [5,9,2]])。它适用于可变长度特征、批量序列、分层数据等场景,支持100+原生运算(数学、数组、字符串操作等)。关键特性包括Python风格索引、算术重载、自定义转换,并能与Python列表/NumPy互转。RaggedTensor解决了
tensorflow
——tensorflow
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net