登录社区云,与社区用户共同成长
邀请您加入社区
AI技术已进入"无代码时代",办公场景应用显著提升效率。会议纪要、Excel处理、PPT制作等任务均可通过自然语言指令完成,如ChatGPT生成会议思维导图、Midjourney快速匹配PPT素材。医疗、客服等领域也广泛应用AI辅助决策。调查显示,善用AI工具可提升工作效率47%。文章推荐了NotionAI、ExcelCopilot等办公套件,以及Midjourney、Stable Diffusi
说真的,我想写 Claude Code 想了很久。先介绍下这是个啥。Claude Code 是 Anthropic 官方(就是开发 Claude 模型的公司)推出的 AI 编程工具,就像 Cursor 一样。不同的是 Claude Code 是终端命令行的方式。也就是,它不需要下载安装其他工具,就可以在任何终端上直接使用。(可以和 VSCode、Cursor 等 IDE 无缝集成)
近日,AWS正式推出一款AI驱动的代码编辑器——Kiro。它不是传统意义上的AI写代码工具,而是一款真正意义上的“开发代理人”。目前官网已开放免费下载,支持 macOS、Windows 和 Linux,用户可以免费体验,每月上限 50 次 AI 交互。
AI 不会是洪水猛兽,也不会是救世神明。它是时代的同行者,是文明征途上的伙伴,是激发人类潜能的助力。在这个前所未有的时代,人的思考与选择,才是最重要的。
DIfy工作流通过将复杂任务分解为多个步骤(如LLM提示词扩充、视频生成、结果修饰等)提升AI应用的性能和稳定性。本文以"小猫游泳"为例,演示了文生视频工作流的完整流程:用户输入关键词后,LLM扩充描述,TEXT TO VIDEO生成视频,LLM2修饰输出,最终返回包含视频链接的结果。该工作流显著降低了系统复杂度,减少了对单一模型能力的依赖,同时提高了任务的可解释性和容错性。示
安装Centos7系统:分区参数,我采用的是标准分区。200MB主分区挂载点: /boot102399MB 逻辑分区 挂载点: /(根目录)192922MB挂载点: swap(虚拟内存)5705082MB 逻辑分区 挂载点: /home总共6TBCentOS7.3安装NVIDIA-1080ti驱动、cu...
我是用的一个笔记本,装的windows+centos双系统系统版本:centos7.6(64位)显卡:GTX1070 mobile处理器:i7-6700k内存:16G一、安装NVIDIA驱动1、安装编译环境:gcc、kernel-devel、kernel-headers("kernel-devel-uname-r == $(uname -r)"可以确保安装与当前...
前言windows10 版本安装 CUDA ,首先需要下载两个安装包。
AIGC(人工智能生成内容)技术正引领新一轮科技创新浪潮,其强大的创作能力为各行各业带来颠覆性变革。从文本、图像到音频、视频,AIGC正逐步渗透我们的生活,开启智能内容生产新纪元,让我们共同探索这一领域的无限可能。一.AIGC是什么?AIGC(即Artificial Intelligence Generated Content),中文译为人工智能生成内容。简单来说,就是以前本来需要人类用思考和创造
多模态模型Emu3介绍;Emu3 vs CLIP横向对比;补充介绍多模态预训练模型CLIP
LoRA的核心思想是将可调整的低秩矩阵注入到Transformer架构的每一层中,充当"适配器"的作用。这样可以使模型针对特定任务进行调整和专门化,同时最大限度地减少额外的参数数量,提高参数效率。QLoRA是LoRA的扩展版本,在微调过程中引入了量化技术,以进一步提高参数效率。QLoRA利用LoRA的原理,并引入了4位NormalFloat(NF4)量化和双重量化技术,进一步减少了存储和计算资源的
本文深入探讨RAG系统中大语言模型(LLM)的微调策略。首先回顾传统LLM微调的价值在于提升专业领域表现和保持知识更新,但指出持续微调存在成本问题。针对RAG系统特性,重点介绍三种高效微调方法:领域自适应预训练(DAP)强化专业理解、检索增强微调优化知识整合能力、混合微调平衡检索与指令跟随。文章强调在需要深度领域知识或减少冗余检索的场景下,对RAG的生成器进行针对性微调能显著提升系统性能。最后提供
最近,在学习AI领域中,非常前沿的一项技术——知识图谱。知识图谱和自然语言处理有着紧密的联系,都属于比较顶级的AI技术。在AI金字塔中处于认知层面。目前,人工智能在学习数据的内在表示,或者根据算法训练得到的模型来进行结果的预测和判别方面表现出了强大的能力,尤其是在感知层面上,比如目前的计算机视觉领域,对于很多人肉眼无法判别的事物,而模型却能作出高精度的识别,并且也有了非常多的工业级的...
如图所示,进行两步搜索,首先通过摘要筛选出相关的满足要求的文档,然后再在这些文档中继续检索。
本文内容如下介绍了大模型训练的微调方法,包括prompt tuning、prefix tuning、LoRA、p-tuning和AdaLoRA等。介绍了使用deepspeed和LoRA进行大模型训练的相关代码。给出了petals的介绍,它可以将模型划分为多个块,每个用户的机器负责其中一块,分摊了计算压力。
基于“大模型+大装置”的技术路径,商汤推进 AGI 为核心的发展战略。商汤发布“日日新 SenseNova”大模型体系,提供。
今天介绍阿里云开源的——专为移动端优化的,让开发者能在,速度比传统方案快3倍!GitHub上线首周即破ms-swift 是 ModelScope 社区提供的官方框架,用于微调和部署大型语言模型(LLM)和多模态大型模型(MLLM)。目前支持 450+ 大型模型和 150+ 多模态大型模型的训练(预训练、微调、人类对齐)、推理、评估、量化和部署。📌💡:200+预量化模型即选即用。
大型语言模型(LLMs)在医疗健康领域潜力巨大,但通用模型缺乏医疗专业知识,难以达到临床应用的严谨标准。本文将简明介绍如何通过微调技术,构建具备专业医生回复特征的大模型,为医疗机构和健康平台提供精准的智能问诊服务。一、为什么需要医生风格的大模型微调?❌ 专业术语理解不足:对医学术语、药物名称、疾病分类等专业知识掌握不全面❌ 回复风格不匹配:缺乏医生特有的专业、严谨且富有同理心的表达方式❌ 循证医学
转载;原文地址:https://gitbook.cn/gitchat/geekbook/5b988b4eca9910654c0823f5/topic/5b993b7cca9910654c08484f第四章 应用篇从知识产业角度来看,自然语言处理软件占有重要的地位,专家系统、数据库、知识库,计算机辅助设计系统(CAD)、计算机辅助教学系统(Cal)、计算机辅助决策系统、办公室自动化管理系统、智能..
本文介绍了从零预训练中文大语言模型的实战教程。主要内容包括:1)使用中文Wiki数据集(1.44M条数据),基于Qwen2-0.5B的tokenizer和模型架构进行简化调整;2)搭建约120M参数的模型,配置训练超参数和学习率策略;3)使用SwanLab进行训练可视化监控;4)提供完整代码、数据集下载链接和训练日志。通过transformers库实现数据预处理、模型构建、训练和推理全流程,适合想
数据清洗步骤主要包含Quality Filtering,De-duplication,Privacy Reduction,Tokenization。这个过程比较简单,在此不赘述。首先回顾一下LLMs的主流架构,主要分为三类:Encoder-decoder,Causal Decoder,Prefix Decoder。其中后两种都是Decoder-only的结构。这类模型只包含编码器部分,适用于分类、
在科技飞速发展的当下,人工智能(AI)已成为推动各行业变革的关键力量。其中,多模态 AI 知识库作为 AI 领域的重要创新,正引领我们迈向一个全新的智能时代。它打破了传统数据处理的单一模式,融合文本、图像、音频、视频等多种数据模态,为我们提供了更加全面、深入的知识理解与应用能力。从日常生活中的智能语音助手,到医疗领域的精准诊断,再到自动驾驶汽车的安全行驶,多模态 AI 知识库的身影无处不在。它不仅
关于大模型微调的文章已经写过有两篇:大模型微调与RAG检索增强有何区别?从基础原理到案例分析全面详解和一文带你了解大模型微调的前世今生,基础概率和理论原理内容基本上都涵盖全面,因此本篇文件不做过多的原理解释说明,主要聚焦于大模型微调的实战和各个代码功能模块细节的讲解。我是Fanstuck,致力于将复杂的技术知识以易懂的方式传递给读者,每一篇文章都凝聚着我对技术的深刻洞察。从人工智能的基础理论到前沿
随着人工智能技术的飞速发展,AI大模型在各个领域的应用日益广泛。其中,大模型微调作为一种强大的工具,能根据特定任务定制化模型性能,尤其在自然语言处理(NLP)中,文旅对话和知识库构建是重要的应用场景。本篇文章将带你走进AI大模型微调实战训练营,深入了解微调的过程,以及如何通过微调优化文旅对话模型和构建知识库。
通用大模型在特定领域或任务表现可能不佳,微调可实现领域专业化、适配不同任务、纠偏能力,还能保障数据安全,且成本效率高于从头训练,故需模型微调。相比长文本、知识库,微调能深度内化专业知识与任务逻辑,无需依赖实时检索或长文本处理,定制化强,显著提升特定场景性能,且数据安全可控,成本效率更高。
大语言模型(LLM)是基于自监督学习预训练的深度学习模型,训练数据量庞大、训练时间长,并且包含大量的参数。LLM在过去两年中彻底改变了自然语言处理领域,展现了在理解和生成类人文本方面的卓越能力。然而,这些通用模型的开箱即用性能并。LLM单独使用时无法回答依赖于公司专有数据或封闭环境的问题,这使得它们在应用中显得。由于从零开始训练一个LLM模型需要大量的训练数据和资源,这对于中小型团队来说基本不可行
想用dify做一个客服机器人,引用本地的文件,上传知识库文件之后,一直回归测试失败,感觉我的文档内容已经很规范了,为什么还是引用不到呢?
在平台上可以快速开发股票传统策略和股票AI策略,今天拿市值因子来练手,看看两个策略在2015-01-01到2016-12-31这两年时间各自的收益风险情形。市值因子是国内股票市场能够带来超额收益的alpha因子,已经被验证为长期有效的因子,也是广大私募基金常用的因子之一,传统的选股策略的股票组合大多在市值因子上有很大的风险暴露。。。AI市值策略是通过策略生成器构建策略,采用StockRanker排
人工智能正在改变金融投资决策,深度强化学习(DRL)在机器人顾问服务中展现出应用潜力。传统投资组合优化方法在动态资产权重调整中面临挑战。本文提出一种动态优化模型,利用深度强化学习实现更有效的资产配置。创新点:提出专为Actor-Critic算法设计的夏普比率奖励函数,通过随机采样和强化学习优化投资组合表现。设计符合资产优化目标的深度神经网络。通过对CSI300指数成分股的实证评估,与传统方法(均值
《AI产品经理实用工具指南》总结了10款提升工作效率的AI神器,涵盖对话模型、编程辅助、设计转换、数据分析和产品管理等领域。核心推荐包括:ChatGPT(全能助手)、Monica(一站式AI生产力)、Trae/Cursor(AI编程工具)、Figma+Cursor(设计转代码方案)等。文章强调AI工具不仅能提升产品经理的日常工作效率,更能在面试中展现对AI趋势的敏感度。同时提供了大模型学习路径,从
目前该技术已在科研助手、AI编程、企业运营等领域落地应用,典型架构包含任务规划、技能执行、记忆存储等模块。开源工具如LangGraph、CrewAI等降低了开发门槛。文章指出,多智能体系统代表着从"强个体智能"向"集体智慧"演进的关键路径,未来将向专用模型组合、多模态协作等方向发展。
AI大模型重塑软件开发:从码农到AI编程伙伴迎来华丽转身?
Google宣布将AI编程初创公司Windsurf的核心团队纳入DeepMind,重点推进代理式编码研究。虽然未收购股权,但获得技术许可。Windsurf曾是OpenAI的收购目标,谈判破裂后被Google迅速介入。该公司因Claude断供转向Gemini,并完成管理层调整。Windsurf主打Agent IDE产品,年收入超1亿美元,增长迅猛。随着大模型厂商向工具层渗透,独立AI编程工具面临更大
研究揭示AI编程工具可能降低开发效率:METR机构针对16名开发者的实验显示,使用Cursor等AI工具反而使任务完成时间延长19%,与开发者预期效率提升24%形成反差。原因包括提示工程耗时、大模型处理复杂项目能力不足等。但研究者强调,该结论不否定AI工具的潜在价值,仅反映当前技术局限,建议业界对"AI即时提效"保持审慎。文末附赠AI大模型学习资料包,涵盖系统设计、应用开发等7
就在所有人还在惊叹于月之暗面开源 Kimi K2 模型的同时,谷歌 DeepMind 却宣布截胡了 OpenAI 原本打算收购的 Windsurf。诺贝尔奖得主、DeepMind 联创兼 CEO Demis Hassabis 与 DeepMind CTO Koray Kavukcuoglu 在 𝕏 上向 Windsurf CEO Varun Mohan、联合创始人 Douglas Chen 以及
摘要:文章对比了Cursor和ClaudeCode两款AI编程工具的使用体验,重点介绍了ClaudeCode的安装配置、核心功能及实战应用。作者通过详细步骤讲解了如何白嫖100美元API额度,并展示了ClaudeCode在项目开发中的优势,如自动规划、图像识别等能力。最后分享了一个HTML原型开发案例,消耗37k tokens约0.95美元。文章还提供了AI大模型学习资料获取方式。
Moonshot AI正式发布并开源Kimi K2模型,这是一款具备1T总参数、32B激活参数的MoE架构大模型。K2在代码生成、Agent工具调用、数学推理等任务中表现优异,支持128K长文本处理,并在多项基准测试中取得SOTA成绩。其创新点包括MuonClip优化器、大规模工具使用数据合成和通用强化学习机制。模型已开源基础版和指令微调版,同时提供API服务,支持主流推理框架。应用场景涵盖3D场
在医疗IT系统中,开发者需理解电子病历(EMR)的数据结构、医学编码标准(如ICD-10),并针对临床需求定制模型,如通过NLP技术从非结构化病历中提取关键指标(如血压趋势),再与医院HIS系统集成实现实时预警。AI生成爬虫脚本的核心在于“需求-代码翻译器”的角色转换:对程序员而言,它通过GPT-4.5等大模型的代码生成能力(如自动适配Node.js生态的Axios/Cheerio库),将传统需手
AI
——AI
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net