logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LangChain v1.0学习笔记(1)

本文为在官网学习 LangChain v1.0 文档的笔记,帮助大家在网络不畅,或者官网阅读困难的情况下学习 LangChain v1.0。

文章图片
#学习#人工智能#机器学习 +1
【大模型】DeepSeek-R1 论文原文翻译 + 解读

我们介绍了第一代推理模型DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是通过大规模强化学习(RL)训练的模型,无需将监督微调(SFT)作为初步步骤,展现出卓越的推理能力。通过强化学习,DeepSeek-R1-Zero自然地展现出许多强大且引人注目的推理行为。然而,它面临着诸如可读性差和语言混杂等挑战。为了解决这些问题并进一步提升推理性能,我们推出了Dee

文章图片
#语言模型#DeepSeek#自然语言处理 +3
深度剖析Figure 03:人形机器人从实验室到量产的技术破壁者

在继Figure 02机器人在特斯拉工厂工作500天后,Figure AI公司有推出了家用场景下的Figure 03机器人,下面我们一起来看看这次推出的Figure 03机器人如何。

文章图片
#机器人#microsoft#人工智能 +1
Lora与QLora

举一个简单的例子让我们简单的认识一下Lora和QLora:一个130亿参数的大模型,全量微调一次要花上万元,普通开发者根本玩不起。这时候,**LoRA**和**QLoRA**就登场了——它们像给房子“局部改造”,只换关键家具(调整少量参数),既省钱又不破坏原有布局,让普通人也能玩转大模型微调。

文章图片
#人工智能#python#机器学习 +1
一文吃透大模型微调技术(附源码解释)

微调的本质是**在预训练模型基础上,使用特定任务数据集进行二次训练**,使模型参数适应新任务。其核心逻辑是:冻结预训练模型大部分参数(或全部参数),仅调整部分参数(或全部),以较小的计算成本让模型学习任务特性,而我们需要微调就要先了解整体微调的结构包含哪些部分,接下来我们就来认识一下

文章图片
#语言模型#人工智能
全球首款通用型AI Agent——Manus 震撼发布

作为一款突破性AI产品,Manus突破了传统聊天机器人的局限,不仅能提供建议,还能通过多代理协作系统自主规划、执行并交付复杂任务,覆盖教育、金融、生活服务、数据分析等多个领域。技术层面,Manus 在权威的 GAIA 基准测试中表现优异,创下 SOTA 成绩,超越同类产品。又占据了各大新闻媒体网站,热度甚至一度超过了年前 DeepSeek 刚发布的时候,3月6日,A股市场高开高走,AI智能体概念表

文章图片
#Manus#人工智能#DeepSeek +1
CPU、GPU、NPU、TPU、DPU与IPU的区别

在人工智能飞速发展的今天,我们每天使用的智能语音助手、刷到的个性化推荐、甚至手机的人脸识别功能,背后都离不开强大的硬件算力支撑。如果把AI模型比作大脑中的思维逻辑,那么AI硬件就是支撑这些逻辑运行的"肌肉"。从我们熟悉的CPU、GPU,到专门为AI优化的NPU、TPU,各类硬件层出不穷,这无疑加大了我们的理解难度,接下来我们就从CPU开始逐步了解各种处理器以及它的运作原理。

文章图片
#人工智能
【大模型】DeepSeek-R1 论文原文翻译 + 解读

我们介绍了第一代推理模型DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是通过大规模强化学习(RL)训练的模型,无需将监督微调(SFT)作为初步步骤,展现出卓越的推理能力。通过强化学习,DeepSeek-R1-Zero自然地展现出许多强大且引人注目的推理行为。然而,它面临着诸如可读性差和语言混杂等挑战。为了解决这些问题并进一步提升推理性能,我们推出了Dee

文章图片
#语言模型#DeepSeek#自然语言处理 +3
全球首款通用型AI Agent——Manus 震撼发布

作为一款突破性AI产品,Manus突破了传统聊天机器人的局限,不仅能提供建议,还能通过多代理协作系统自主规划、执行并交付复杂任务,覆盖教育、金融、生活服务、数据分析等多个领域。技术层面,Manus 在权威的 GAIA 基准测试中表现优异,创下 SOTA 成绩,超越同类产品。又占据了各大新闻媒体网站,热度甚至一度超过了年前 DeepSeek 刚发布的时候,3月6日,A股市场高开高走,AI智能体概念表

文章图片
#Manus#人工智能#DeepSeek +1
【大模型】DeepSeek-R1 论文原文翻译 + 解读

我们介绍了第一代推理模型DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是通过大规模强化学习(RL)训练的模型,无需将监督微调(SFT)作为初步步骤,展现出卓越的推理能力。通过强化学习,DeepSeek-R1-Zero自然地展现出许多强大且引人注目的推理行为。然而,它面临着诸如可读性差和语言混杂等挑战。为了解决这些问题并进一步提升推理性能,我们推出了Dee

文章图片
#语言模型#自然语言处理#神经网络 +2
    共 11 条
  • 1
  • 2
  • 请选择