
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
中小企业要进行大模型的应用的开发,是不是简单的几句话,让大家多用大模型就行了,或者统一购买公网的TOKEN就可以了?如果没有足够的开发人员,如何让全员搭建 Agent,使用知识库?如果碰到敏感信息,想在公司搭建私有的大模型,该如何做?

EDA工具,目标是硬件设计,而硬件设计,您也可以看成是一个编程过程。大模型可以辅助软件编程,相信很多人都体验过了。但大都是针对高级语言的软件编程,比如:C++,Java,Python,JavaSctipt。面向的行为是软件(CPU或GPU)。有多大用处,见仁见智,我在之前的博客里也提到过。这里不再多说,但是对于硬件编程,也就是我们所说的RTL编程,EDA工具的使用。大语言模型是否有效,有多大的帮助

现如今,所有行业都想和AI扯上关系。作为算力芯片之一的FPGA,自然也不例外。我记得之前已经总结过几次,但总觉得有些附会。最近半年,AI芯片的概念再次暴火,所以,想再总结一下。从纯技术角度看看。

之前老有人给我说 苹果的Mac Studio可以安装DeepSeek满血671B的模型,非常牛,最近网上对 Nvidia DGX Spark 又热火朝天。首先,声明一下,个人囊中羞涩,没钱去买来试试,只是看了一些资料,来分析一下两种机器的性能,特别是在跑大模型时的性能,看是牛皮吹破天,还是真有其事。

我的专业课学得一点都不好,毕业后做了很小一段时间的嵌入式开发,然后就很快转到了软件领域,现在又转回了芯片行业,兜兜转转,想想人生也是这样,终点回到起点,也挺有意思。

在人工智能时代,AI的算法不断推陈出新,对于硬件的算力和灵活度要求很高。FPGA的灵活性比较符合AI的特性。通过FPGA可以快速开始定制化运算的研究和设计,因为是使用FPGA,所以,可以保证开发软硬件平台的兼容,如果要获得更高性能,就定制ASIC芯片,如果ASIC过于昂贵,或者硬件产品的需求量不足,也可以继续使用FPGA。在应用规模扩大的合适时机,直接转换为定制化芯片,以提高稳定性,降低功耗和平均
近些年,已经很少写代码,并且行业也有转换(从纯软转到软硬结合),但作为一个老程序员,也算是经历了软件行业很重要的变迁,也想仔细想想到底AI对程序员意味着什么。因为这几年涉及硬件较多,还真是没有怎么关注软件受AI的影响。 我算是简单用了些AI的编程工具,大概也明白目前的大语言模型的原理和发展过程,今天在应用层,站在程序员的角度来思考一下,应该如何应对?

近些年,已经很少写代码,并且行业也有转换(从纯软转到软硬结合),但作为一个老程序员,也算是经历了软件行业很重要的变迁,也想仔细想想到底AI对程序员意味着什么。因为这几年涉及硬件较多,还真是没有怎么关注软件受AI的影响。 我算是简单用了些AI的编程工具,大概也明白目前的大语言模型的原理和发展过程,今天在应用层,站在程序员的角度来思考一下,应该如何应对?

最近参与了2024年北京AI芯片峰会,虽然是讲AI芯片,但因为目前算力主要讲的是智能算力,所以,针对高算力芯片的发展趋势有重点的讲解。之前没有很系统关注这块,这次算是做了全面了解。下面,借用峰会的一些内容,整理一下,试着解释一下算力方面的技术发展现状和趋势 。算力为什么突然被这么强调,主要是因为人工智能,人工智能实际上已经发展了很多年,为什么这两年突然会发现算力严重不足。那就要归功于 AI 大模型

之前仔细学习过大模型的推理解析,但只是针对通用的早期大模型,并没有针对目前流行的MoE的在模型的推理进行解析。比如:DeepSeek。也就是针对通用的早期Transformer架构进行了学习。之前讲解推理过程时,也没有针对Prefill和Decode两阶段做详细的解释,今天借着对DeepSeek V3.1的推理解析,深入理解上面的几个问题。因为刚好,DeepSeek对传统架构做了一些优化,







