
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
CUDA 一直是国产 GPU 绕不开的门槛,国内 GPU 厂商目前有两种技术路线,一种完全另起炉灶,完全定义一套跟 CUDA 类似的技术生态,典型如华为昇腾,这种路线难度很大,意味着需要构建一套全新的技术生态;另外一种则是天然兼容 CUDA,这样原来在 NVIDIA 上运行的应用可以少量甚至是不改动就可以平移过来。CUDA 通过多年的积累,在开发生态、兼容性、性能、应用生态等方面构建了领先于其他

这是面向小白用户的一个超级简单的微调大模型示例,通过这个例子将得到一个速度翻倍,并可以包含自己业务知识数据的微调后llama3模型,可用于本地部署构建私有化的AI智能体。very 的 nice首先请准备好google账号和网络环境,这个示例基于goolge colab的免费算力完成。使用浏览器打开上方链接将点击copy to Drive复制笔记到自己账号下的网盘,点击之后弹出新窗口我们就在这个弹出

Stable Diffusion,简称SD,通过引入隐向量空间(而不是在像素空间扩散)来解决 Diffusion速度瓶颈,除了可专门用于文生图任务,还可以用于图生图、特定角色刻画,甚至是超分或者修复任务。文生图模型参数量比较大,基于pixel的方法限于算力往往只能生成64x64大小的图像,比如OpenAI的DALL-E2和谷歌的Imagen,然后再通过超分辨模型将图像分辨率提升至256x256和1

大模型技术作为人工智能领域的一项重要成果,正在以前所未有的速度推动着行业的变革与发展。随着算法、算力和数据量的不断提升,大模型在处理复杂任务和提供智能化解决方案方面的潜力得到了极大的释放。这不仅改变了现有的业务模式和技术栈,也为就业市场带来了新的机遇与挑战。大模型技术的发展前景大模型技术的应用领域不断扩大,从最初的自然语言处理和计算机视觉,已经扩展到了医疗、金融、智能制造等多个行业。这些行业通常需

RAG(Retrieval-Augmented Generation)的核心思想是:将传统的信息检索(IR)技术与现代的生成式大模型(如chatGPT)结合起来。具体来说,RAG模型在生成答案之前,会首先从一个大型的文档库或知识库中检索到若干条相关的文档片段。再将这些检索到的片段作为额外的上下文信息,输入到生成模型中,从而生成更为准确和信息丰富的文本。RAG的工作原理可以分为以下几个步骤:1.接收

后台回复"资料",即可获取整理好的算法面试题(大模型、深度学习、机器学习)2024年对于人工智能来说是一个绝对精彩的年份。每次我觉得我们已经达到了创新的极限时,总有人会突破它,然后又有人将其碎片整合成一个更好的版本。从复杂的推理语言模型到VLMs和视频模型,进步是可以看得到的。

自编码器(Auto-encoder)序列到序列模型(Seq2Seq)自监督学习(Self-Supervised Learning)对比学习(Contrastive Methods)

AI大模型技术架构全景深度解析很多人以为大模型只是一段高明的算法,或者一个庞大的参数体系。其实,它更像是一座技术摩天大楼——从“地基”到“楼顶”,每一层都藏着关键技术秘密。本文不是空谈概念,而是带你一层层拆解 AI 系统的六大核心结构:从底层的GPU硬件、云原生调度,到模型优化、RAG 检索、再到智能应用如何真正落地。看完之后,你会明白,搭建一个大模型系统,绝不仅仅是调几个参数那么简单。

2024年的最后一天,国产3D生成工具Rodin Gen-1.5的上线在网络掀起了新一波3D生成讨论的热潮。这款由影眸科技研发的3D生成大模型,以其能够生成锐利边缘的3D模型而受到广泛关注,被业界誉为“圆滑当道时代的锐利异类”。对于CAD类工业模型与硬表面模型,Rodin Gen-1.5展现出了绝对的优势,扩大了3D生成的使用群体。Rodin Gen-1.5的更新恰逢年末,尽管海外许多用户都在放假









