登录社区云,与社区用户共同成长
邀请您加入社区
《人工智能-处女篇(AI2026)》《人工智能-处女篇(AI2026)》版本作者参与者完成日期备注YanlzAI_VIP_V01_1.0严立钻2019.08.09...
1.需要:AnacondaCUDACuDNNCUDA和CuDNN可以参照 这篇文章:Tensorflow-gpu安装2.安装mxnet创建 environment.yml如果安装cpu版mxnet,把下面的mxnet-cu90(和你装的CUDA版本对应)修改成mxnet==1.4.0。name: gluondependencies:- python=3.6- jupyte...
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma.
随着深度神经网络不断改进和发展,将需要硬件创新以满足不断增长的计算需求。深度学习一直处于人工智能(AI)近期发展的最前沿。 它涉及一组受生物神经网络启发的机器学习算法,可以教机器查找大量数据中的模式。 这些深度神经网络已经在语音和对象识别等领域取得了重大进步,并成为在特定任务中表现出超人能力的计算机程序的基础。 这种方法当前功能最引人注目的演示可能是AlphaGo。该项目由谷歌旗下...
强化学习 - 一种人工智能(AI)技术,使用奖励(或惩罚)来驱动代理人朝着特定目标前进 - 训练打败Alpha Go世界冠军的系统并掌握Valve的Dota 2.它是Google子公司的核心部分 DeepMind的深度Q-network(DQN),可以在多个工作人员中分配学习,例如,在Atari 2600游戏中实现“超人”性能。 麻烦的是,强化学习框架需要时间来掌握一个目标,往往不太灵活的,而且不
卷积神经网络中loss值为nan的问题最近一直在学习AI方面的东西。想自己搞一个类似MINST的东东,用搞基神经网络 ,样本用自制的样本……然鹅理想是骨感的,现实是永远吃不上饭的。经过与各种错误轮战后,出现了更大的错误:loss为nan先上代码吧,比较乱,建议摘了眼镜看:首先是整体代码:import osimport globfrom skimage import io,...
想要给产品加上图像识别或声音识别的AI能力需要做哪些工作?第一步:定义和明确需求,第二步:采集和标注大量的数据,第三步:写算法、调参数,第四步:校验模型效果并持续反复第二步和第三步,第五步:将模型做工程化的服务封装为API或者SDK。近日,百度EasyDL定制化训练和服务平台,全新上线了定制声音识别,称无需深度学习基础,每个人都可以定制模型。那是不是以后在没有程序员的...
一、神经网络为什么比传统的分类器好1.传统的分类器有 LR(逻辑斯特回归) 或者 linear SVM ,多用来做线性分割,假如所有的样本可以看做一个个点,如下图,有蓝色的点和绿色的点,传统的分类器就是要找到一条直线把这两类样本点分开。对于非线性可分的样本,可以加一些kernel核函数或者特征的映射使其成为一个曲线或者一个曲面将样本分开。但为什么效果不好,主要原因是你很难保证样本点的分布会如图所示
HSV(Hue, Saturation, Value)是根据颜色的直观特性由A. R. Smith在1978年创建的一种颜色空间, 也称六角锥体模型(Hexcone Model)。这个模型中颜色的参数分别是:色调(H),饱和度(S),明度(V)。色调H用角度度量,取值范围为0°~360°,从红色开始按逆时针方向计算,红色为0°,绿色为120°,蓝色为240°。它们的补色是:黄色为60°,青色为18
本文主要内容如下复现yinniyu 上的WMH2017项目我们自己的医疗数据处理后运用该模型测试,数据处理过程包括格式处理(GitHub上是nii格式我们是dicom格式,写代码读入dicom格式),其次图像配准,转化为模型输入数据。模型改进由于离开公司,该项目不再继续做下去。一、github yinniyu 链接github链接:WMH Segmentation gi...
*文本为上一篇博客http://blog.csdn.net/sm9sun/article/details/77898734的部分追加优化上一篇博客已经实现了基本的出牌逻辑,大部分情况能够给出正确的策略选择,但经过了一些测试,仍发现了几个严重的问题:问题一:当手牌无闲牌时,偶尔会将完整的一组牌拆开打出。例如:二万、四万、七万、八万、三筒、五筒、一条、二条、三条、九条、九条可能会打
学习深度学习,肯定要接触CNN(卷积神经网络)和RNN(循环神经网络),刚好斯坦福大学给出了一个在线的卷积神经网络的例子,方便大家学习和了解深度学习。这个Demo从MNIST数据库中取出了60000张28X28像素的图片作为训练的样本;那么什么是MNIST数据库呢》MNIST是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集。它是NIST数据库的一个子集。MNIST数据库官方
通过三个关键维度的优化实践,验证了业务逻辑性能调优的可行性:1.中间件缓存策略可减少78%的DB访问,但需注意缓存穿透/雪崩的解决方案2.动态线程池管理使CPU利用率从58%提升至89%,但需配合心跳检测避免虚假扩容3.内存监控机制在系统内存占用>85%时自动清理缓存,但需平衡业务数据新鲜度未来优化方向包括:- 引入协程框架(如asyncio)处理IO密集型任务- 实现分布式缓存集群(Redis+
本文简要说明在Windows下用 OpenClaw集成Obsidian搭建本地知识库实现第二大脑
Windows系统安装openclaw小龙虾,详细安装教程,截图很多,跟着操作也能轻松安装openclaw,现在请打开电脑,跟着以下步骤操作
以前总觉得AI助手离普通人很远,又是token又是API,门槛高得吓人。现在终于有了一个真正“零门槛”的选择——免费下载、免费使用、不用token。如果你之前因为token问题一直没尝试OpenClaw,现在可以动手了。跟着教程走,五分钟后你也能免费养一只龙虾。
claude-mem 的核心思路很简单——Claude Code 不记东西,那就在旁边放个笔记本帮它记。5 个 Hook 自动捕获,SQLite 存储,向量搜索检索,下次 session 自动注入。实际用下来,对连续开发同一个项目的场景确实省事。但配置需要调,token 消耗需要控,向量搜索的相关性还有优化空间。装完打开确认 worker 在跑就行。
在 Windows 上安装 Claude Code 后,claude --version 正常,但输入 claude 一直卡住无响应。排查后发现,并不是安装失败,也不是 PowerShell 或 Node.js 的问题,而是用户环境变量中残留了无效的代理配置(如 HTTP_PROXY、HTTPS_PROXY、ALL_PROXY),导致 Claude Code 的网络请求被阻塞。临时删除当前会话中的
这个网站只能支持上传PDF,那么比如你有很多程序文件,假设放在某个文件夹下,则可以编写这一个PYTHO程序,运行后,把你的所有某个文件夹下的文件,每个内容都放到一个PDF中去,因为网站只支持每个PDF90页内,所以呢,你的文件多的话,则可以用这个程序,自动分卷为多个PDF,再上传到这个网站,就可以自动帮你分析你这些PDF里面的内容了,就等于你把你的很多个程序文件都上传到这个网站,可以羊毛claud
clang-format 是 LLVM 项目提供的一个命令行工具,用于自动格式化 C/C++/Objective-C 等代码,使其符合一致的代码风格(缩进、换行、括号位置、空格等)。
摘要 x claude ds 工具支持将 Claude Code 接入 DeepSeek AI 模型,解决国内用户访问 Claude 时的网络延迟和高成本问题。用户只需在 DeepSeek 平台注册获取 API Key,通过 x deepseek init 或环境变量配置后,即可使用 x claude ds 命令切换至 DeepSeek 模型,保持原有交互方式的同时享受更优的本地化服务。DeepS
根据学习方式和数据特点的不同,机器学习主要分为三大类:监督学习、无监督学习和强化学习。本文将深入浅出地讲解这三种学习方式的原理、算法和应用场景
本文介绍了5款AI工具,帮助用户高效生成高质量的Word文档。微软Copilot深度集成于Word,适合团队协作;讯飞智文擅长中文技术文档生成;Baklib可将知识库内容导出为Word;巨鲸写作和PaperTan适合学术类长文;AI导出鸭则能快速转换网页或Markdown内容。根据需求选择工具组合,先用AI生成初稿再人工校验,可提升文档制作效率。
文本采用待量化模型自己生成数据集的方式,使用llmcompressor对智谱公司的GLM-4-9b-chat-hf模型进行AWQ量化。
你可以将GPU虚拟化的目的归纳为一次深刻的“生产力解放”将GPU从一台需要独占、难以搬运、利用率低下的“超级工作站”,转变为一个可以按片切割、通过网络随时获取、并可被智能调度的“标准化算力单元”。让任何人都能像用水用电一样,便捷、经济、安全地获取强大的AI算力,从而成为驱动人工智能普及和云服务创新的关键基础设施。
本文介绍了如何通过API调用Google的Gemini系列AI模型(包括gemini-3-pro和gemini-3-flash)。教程详细说明了获取API密钥、安装SDK等准备工作,并提供了Node.js环境下的JavaScript代码示例。两种模型的调用方式相似,仅需修改模型名称参数即可切换使用。文章还解释了不同模型版本的区别,指导开发者根据需求选择合适的模型进行开发测试或生产部署。
流碧卡片是一款AI驱动的社交媒体卡片生成工具,6小时闪电开发完成。该工具提供40+精美模板、每日随机灵感推送和AI文案优化功能,支持多种社交平台图片比例。采用纯前端技术开发,保障用户隐私安全。项目由Trae IDE结合Gemini-3-pro-Preview模型辅助构建,展现了AI编程的高效性,能快速实现功能开发和创意设计。用户无需下载即可在线使用,一键生成小红书等平台的爆款图片。
摘要:2025年敏捷测试体系将形成"需求→用例→执行→报告"的智能闭环。TestRail将升级为智能中枢,实现AI用例生成(65%覆盖率)、自适应执行(基于风险调度)和可解释报告。用例设计采用多模态验证和行业模板,测试计划实施风险驱动编排。缺陷管理引入语义去重和修复预测,测试报告提供动态决策支持。未来趋势包括测试用例NFT化和联邦学习模型,Gartner预测到2026年70%用
摘要:本文介绍了信任区域策略优化(TRPO)算法,针对策略梯度法(PG)存在的数据利用率低、更新幅度不可控等问题进行了改进。TRPO通过引入信任区域概念,在优化目标中加入KL散度约束,确保新策略不会偏离旧策略太远。其核心在于使用重要性采样修正策略分布偏差,允许对同一批数据进行多次小批量更新,提高样本利用率。相比PG,TRPO能实现更稳定的策略优化和性能提升,为后续PPO算法的提出奠定了基础。
2025年最火的后端开源项目那必须是Supabase。Supabase是一个开源的后端级服务框架,在强大的PostgreSQL数据库的基础上,封装了用户认证、文件存储、可视化的运维面板等功能,为开发者提供了一整套开箱即用的后端基础设施。Supabase在Github上面有恐怖的9万star,这已经是整个Github上面最顶级的开源项目之一了。总的来说,Supabase为开发者提供了三大部分的能力:
Model not available, This model provider doesn’t serve your region
针对这些问题,研究人员开发了其他类型的网络结构,例如循环神经网络(RNN),特别是长短期记忆网络(LSTM)和门控循环单元(GRU),它们专门设计用于处理时序数据,并能更好地捕捉长期依赖关系。所以,提前准备一些面试常问的问题,比如概率论与统计知识、机器学习的那些算法,或者深度学习的框架,还有怎么优化模型,循环神经网络等,这些都是加分项,能有效提高面试通过率。:对于长序列数据,如果直接展开成向量输入
CIFAR-10包含10个类别的60,000张32×32彩色图像(训练集50,000张,测试集10,000张),类别包括飞机、汽车、鸟、猫等。相比MNIST的灰度图和简单结构,CIFAR-10的彩色图像和复杂背景对模型的特征提取能力要求更高。
AI与6G技术深度融合正在重塑智慧城市新生态。6G网络凭借超高速率(100Gbps)、超低延迟(1微秒)和超大连接(1000万设备/km²),为AI应用提供理想平台,推动城市服务深度变革。在交通领域,AI+6G实现智能调度和自动驾驶,使通勤时间缩短25%;在能源管理方面,智能电网效率提升18%;公共安全实现从被动响应到主动预防转变;医疗健康服务模式向"社区为枢纽"转型。技术协同
文章介绍了GSPO算法,一种解决GRPO在长序列和MoE模型训练中失稳问题的强化学习方法。GSPO将优化粒度从token级提升到序列级,基于序列似然定义重要性比率,并在序列层面执行奖励与优化。实验表明,GSPO在训练稳定性、效率和性能方面显著优于GRPO,特别在大规模MoE架构中优势突出,无需额外稳定化技巧即可自然收敛。
本文分享了VLM强化学习实践经验,采用DPO算法实现模型1-2个点涨点。作者强调RL本质是提高采样效率而非学习新知识,详细讨论了任务、训练、数据和算法层面的难点,并指出通过精心设计数据混合、构建高质量pair-wise数据集等方法,以及细心实验和验证是成功关键。
文章测试了Qwen3模型在不同vllm并行配置(张量并行TP、流水线并行PP和数据并行DP)下的性能。在PCIe互联的多卡环境中,研究表明:若模型能单卡部署,推荐使用数据并行(DP)获得最大吞吐;若关注吞吐量,推荐流水线并行(PP);若关注单请求生成速度,则推荐张量并行(TP)。结论为不同场景下的大模型部署提供了实用指导。
本文详细介绍如何在Dify工作流中实现自然语言查询MySQL数据库。通过创建工作流、安装Dify Agent策略和数据库查询插件、配置节点参数及数据库连接信息,最终实现AI驱动的自然语言数据库查询功能。这一方法简化了传统数据库操作流程,使开发者能够通过自然语言直接获取数据,提高开发效率,适合有一定技术基础的开发者学习实践。
AI 与架构设计的融合,本质是将 “经验驱动” 的传统优化模式升级为 “数据驱动 + 智能决策” 的新范式。对于技术团队,需建立 “监控数据化 - 分析自动化 - 优化智能化” 的全链路能力,掌握 AutoML、强化学习等核心技术工具;对于企业,应聚焦高价值场景(如高并发交易、实时数据分析),通过 AI 实现性能优化的降本增效。未来,随着算力基础设施的升级与 AI 算法的迭代,系统性能优化将从 “
FlashAttention通过"分块"和"在线Softmax"技术,将Attention计算融合在单一CUDA内核中执行,避免了将中间结果写入慢速GPU全局内存,显著提升计算效率。它使用代理序列和递推关系,将传统3遍计算优化为1遍,大幅减少I/O次数,提高内存使用效率,使长序列处理更快且内存占用更低。文章还分析了Prefill和Decode两种场景下的实现,展示了FlashAttention在大
小索奇之前做资讯 APP 的列表页,一开始没处理,测试小哥滑了三下就喊 “崩了”,后来加了 200 毫秒节流,不管怎么滑,每 200 毫秒最多发一次请求,稳得一批。举个例子,你设置 1000 毫秒的延迟,只要用户在这 1 秒内又触发了事件(比如继续打字),就把之前的计时清空,重新开始算 1 秒。后来加了防抖,延迟设 800 毫秒,不管用户打得多快,只在停笔的瞬间发一次请求,服务器压力一下就降下来了
如果节点i和节点j之间有边,那么A[i][j] = 1;否则A[i][j] = 0。注意:无向边(比如A和C互关)是双向的,所以A[i][j] = A[j][i];有向边(比如A关注B,但B不关注A)是单向的,A[i][j]≠A[j][i]。A B CA 0 1 1 (A和自己无边,和B、C有边)B 1 0 1 (B和A、C有边,和自己无边)C 1 1 0 (C和A、B有边,和自己无边)H^(k)
举个例子,我之前测一个待办清单 APP,代码里写了 “支持拖拽排序”,它不仅生成了 “拖拽单个任务到顶部” 的用例,还额外加了 “同时拖拽两个任务是否冲突”“拖拽到边界外是否有防护”,甚至连 “拖拽时网络断开的重试机制” 都考虑到了,这细节把控真的绝了。我上次帮朋友测个电商小程序,光 “下单支付” 模块就写了 30 多条用例,熬到半夜眼睛都花了,结果用这个工具跑了一遍,直接生成了 58 条带场景描
但是如果我们多次使用不同的账号注册Cursor,使用很频繁的话,也会被限制,因为太多人白嫖,Cursor使用了用户指纹检测机制,也就是说只要是同一台设备使用免费账号登录太多次,Cursor就会识别出来,并限制你的使用。因为Cursor注册是基于邮箱,所以我们使用邮箱的方式进行白嫖,也即试用完了,可以继续通过新邮箱去注册,继续使用。有一个主账号专门用来接收和发送邮件,只要在主账号中拼接任意字符就可以
算子优化的本质在于数学等价变换、数据局部性最大化与硬件精准映射。核心是在保持数学表达式正确的前提下,通过分块、并行等技术减少数据搬运成本,并将计算适配到硬件最优处理单元(如GPU的TensorCore)。关键技巧包括静态化处理、误差换资源(如量化)以及离线搜索最优路径。这三大原则指导着从基础算子到高级框架(如FlashAttention)的所有优化实践。
尽管大语言模型已经具备了强大的语言生成能力,但它们在推理(reasoning)任务上仍有明显不足。预训练数据中缺乏结构化推理的明确信号,导致模型难以习得连贯、逻辑严谨的思维链条。为此,DeepSeek 团队提出了新的范式:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning。该工作以 D
目前,订阅了 Pro、Max、Team 和 Enterprise 版的 Claude 用户,可以体验到这两款模型及扩展思考功能,其中 Sonnet 4 也向免费用户开放。开发者可通过 Anthropic API、Amazon Bedrock 和 Google Cloud 的 Vertex AI 调用。它包含 Claude Opus 4 和 Claude Sonnet 4 两款子模型,在编码、推理、
摘要:本文探讨了知识图谱(KG)与大型语言模型(LLM)的联合使用方法——GraphRAG,通过检索增强生成(RAG)技术提升LLM的响应质量。GraphRAG结合了三种检索方式:向量检索、提示词转查询检索及混合方法,利用知识图谱的结构化特性增强语义理解和结果可解释性。测试表明,混合方法表现最佳,既能发挥向量数据库的语义搜索优势,又能通过知识图谱过滤无关内容,减少"上下文污染"
AI
——AI
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net