logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

人工智能发展史 — MP 模型和感知机模型的数学模型与编程应用

这意味着用于描述样本的特征需要由专家设计,算法性能依赖于人工设计和抽取这些特征的准确度,以便使模型能够完成特定的任务,因此它的应用受到了很大的限制。其中,“阈值逻辑”、“Hebb 学习率”,前 2 个理论解决了单个神经元层面的建模问题,来自于对大脑神经元的生理学研究,共同构成了 “感知机” 的理论基础,在 1950s 提出;所以,和 MP 模型一样,感知机模型也是一个应用于线性分类场景的 “二分类

文章图片
#人工智能
Transformer 大模型架构深度解析(4)详解 Transformer 架构

例如:句子 The animal didn’t cross the street because it was tired,其中 it 和 animal 的关联必然最大,其权重也最大,it 的语音单元必然包含 animal 的信息,如此的 Decoder 就知道了代词 it 指代的是名称 animal 而不是其他词,翻译为 “动物”。由于深度神经网络中每一层的输入都是上一层的输出,因此多层传递下,

#transformer#深度学习#人工智能
人工智能发展史 — 物理学诺奖之 Hopfield 联想和记忆神经网络模型

约翰·霍普菲尔德(John Hopfield)文学士、物理学博士,研究领域横跨物理学、分子生物学、神经科学、计算机科学,是一名以推动跨学科交叉融合而闻名于世的科学家,其推动了物理学与生命科学、人工智能的交叉融合,被誉为 “扩展统计物理学边界的先驱”,获得了 2024 年的物理学诺贝尔奖。霍普菲尔德早期是理论物理学家,专注于固体物理和量子力学,研究电子行为与能量状态,在激化子、长程电子输运等方面有极

文章图片
#人工智能#神经网络#深度学习
GPU 超级节点:AWS Trainium UltraServer

Trainium1 于 2020 年发布,使用 NeuronCore-v2 核心,是一款用于专注于 AI/ML 训练的加速芯片,支持 BF16 和 FP32 进行高精度训练,以及支持 TF32、FP16 和 INT8 以提高效率,还配备了专用的集合通信库芯片。可用于训练数十亿参数的大模型。2024 年,AWS 宣布了下一代 Trainium3 芯片,采用 3nm(纳米)制程,预计将比 Traini

文章图片
#aws#云计算#人工智能
无处不在的 AWS 云计算

目录文章目录目录混合云与分布式云AWS 重塑混合云,向分布式云进军混合云与分布式云早在 2017 年的时候,云计算行业开始意识到了多云和混合云将会是未来发展的主流趋势。因为随着浩浩荡荡的第一波上云浪潮翻过之后,企业用户开始意识到单纯的公有云或私有云都无法很好的满足企业生产业务需求的方方面面,而混合云结合了私有云与公有云的优势,逐渐成为了企业 IT 能力适应企业业务发展的积极方向。最典型的方面就是

#云计算
虚拟化技术 — SR-IOV 单根 I/O 虚拟化

通过标签机制,可以实现 VEB、Director IO 和 VEPA 的混合部署方案,借助多通道技术,管理员可以根据网络安全、性能以及可管理等方面的需求,灵活的选择虚拟机与外部网络的接入方案(VEB、Director IO 或 VEPA)。如下图 Intel x710 VEB 所示,VMM 通过 PF 来管理 VEB 的配置,在启用了 VEB 的场景中,VEB 将 PF 和所有的 VFs 都连接了

文章图片
#网络
云计算与云原生 — OpenShift 部署实践

目录文章目录目录OpenShift 核心概念容器(Container)镜像(Image)用户(User)项目(Project)容器沙箱(Pod)部署(Deployment)服务(Service)路由(Router)持久化存储(Persistent Storage)模板(Template)构建(Build)和镜像流(ImageStream)OpenShift 核心业务流程以应用为中心应用构建流程应用

#云原生#云计算
云计算技术 — 混合云 — 技术架构

在上云过程中,通过使用云平台提供的从 IaaS 到 SaaS 全面覆盖的产品能力,可以逐步提升应用的跨平台兼容能力,并通过阿里云的 DevOps 平台、虚拟机迁移等工具,实现同一业务集群内、不同集群间、跨云平台的应用互通,以及业务快速迁移与部署。:管理通是指云管控平台的互通,基于开放 API 所提供的自动化管理能力,如云资源管理、编排、告警、监控、账单统一管理等,最终实现通过混合云管理平台管理所有

#云计算#架构#运维
Karpathy LLM-wiki 技术原理与个人知识库构建实践

而是它会读这个资料,提取关键信息,然后把信息整合进已有的 Wiki 里,包括:更新相关实体的页面、修正主题摘要、标注新数据和旧结论的矛盾之处。Karpathy LLM-wiki 方案的核心思想是:不要把 LLM 当搜索引擎用,让它像程序员维护代码库一样帮你持续维护一个 Markdown Wiki —— 一个结构化的、互相链接的 Markdown 文件集合。现在主流的知识库(如 ChatGPT 文件

#人工智能
Skills 开发实践

这种自定义 Skills 的过程,符合 Spec Coding “先思考后行动” 的思想,即:先详细定义可以执行的需求规范(Specification),然后再推动 AI 进行开发。它的流程包含 “需求分析、技术设计、任务拆解” 的文档编写过程,最后让 AI 根据规范来完成编码。这种一步步的工作流程能保证每一步都有依据,实现从需求到代码的准确转化。只要你安装了 skill-creator skil

#人工智能
    共 102 条
  • 1
  • 2
  • 3
  • 11
  • 请选择