logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

JSP 中 response 与 redirect 详解:从页面响应到客户端跳转

%%>response是服务器响应客户端的对象,常用于设置响应信息、页面跳转和 Cookie 操作。其中,1. 地址栏会改变2. 会产生两次请求3. request 数据不能保留4. 可以跳转到当前项目外部的网站5. 登录成功、退出登录、操作完成跳转时经常使用而1. 地址栏不改变2. 只有一次请求3. request 数据可以保留4. 常用于服务器内部页面转发forward 是服务器内部转发,re

动手学深度学习——课程总结和进阶学习

面对复杂任务,不再手工设计所有规则,而是让模型从数据中自动学习表示和规律。这正是深度学习最有力量的地方。从线性回归到多层感知机,从卷积网络到循环网络,从优化算法到注意力机制,这一路走下来,你其实已经建立起了深度学习最核心的骨架。后面的学习,无论是目标检测、图像分割、大语言模型,还是 AI for Science,本质上都只是继续在这副骨架上往前生长。课程结束,不代表学习结束。恰恰相反,这更像是你真

文章图片
#深度学习#学习#人工智能
动手学深度学习笔记:感知机(Perceptron)

感知机的任务很简单:输入一组特征,输出一个二分类结果。通过线性加权和 + 符号函数,实现二分类。它的优点是结构简单、思想清晰;缺点是只能处理线性可分问题。但正因为它足够基础,我们才能从这里真正理解:机器是如何学会“分类”的。你要的话,我可以继续直接给你压缩成一种更像大学生课程笔记风格的版本,或者继续接着写下一篇多层感知机 CSDN 博客。

#深度学习#人工智能
动手学深度学习——门控循环单元(GRU)

前面我们已经学习了:RNNRNN 从零开始实现RNN 简洁实现通过隐藏状态,把过去的信息传到当前时刻。这让它能够处理序列数据,比如:文本时间序列音频序列它很难有效处理长期依赖。也就是说,如果当前时刻需要依赖很久以前的信息,普通 RNN 往往学不好。这背后通常会伴随着:梯度消失梯度爆炸远距离信息难以保留GRU(Gated Recurrent Unit,门控循环单元)让模型学会“该记什么、该忘什么、该

文章图片
#深度学习#rnn#人工智能
动手学深度学习——多输入多输出通道详解:卷积为什么能越卷越“厚”?

在前面的卷积相关内容中,我们已经逐步弄明白了:为什么图像任务要用卷积卷积核如何在图像上滑动卷积层为什么是可学习的padding 和 stride 如何控制输出尺寸不过前面为了方便理解,我们大多数例子都做了一个简化假设:输入只有一个通道,输出也只有一个通道。这在入门阶段很自然,因为这样公式和代码都更简单。但真实世界里的图像往往不是单通道的。比如一张 RGB 彩色图像通常有三个通道:RedGreenB

文章图片
#人工智能
李沐《动手学深度学习》——实战 Kaggle 比赛:预测房价

因为我们有一批历史房屋数据,并且知道它们对应的真实售价。也就是每个样本都带有标签。因为输出不是类别,而是一个连续实数,比如:120000235500486000所以不是判断“属于哪一类”,而是预测一个数值。不是你觉得好就算好,而是比赛指标说了算。这种思路比单纯记几个 API 重要得多。“实战 Kaggle 比赛:预测房价” 是《动手学深度学习》里非常经典的一节。它不像前面那些章节主要讲原理,而是更

#深度学习#人工智能
动手学深度学习——PyTorch 神经网络基础:参数管理详解

在上一节“模型构造”中,我们已经知道了如何用 PyTorch 定义一个神经网络,比如:用搭建顺序模型继承nn.Module自定义网络在__init__()中定义层在forward()中定义前向传播过程但当我们真正开始训练模型时,很快就会遇到一个更具体的问题:模型里的参数到底存在哪里?我们该怎么查看、访问、初始化、共享和修改这些参数?这就是“参数管理”要解决的核心问题。不断更新模型参数,使模型输出越

文章图片
#深度学习#pytorch#神经网络
动手学深度学习——课程总结和进阶学习

面对复杂任务,不再手工设计所有规则,而是让模型从数据中自动学习表示和规律。这正是深度学习最有力量的地方。从线性回归到多层感知机,从卷积网络到循环网络,从优化算法到注意力机制,这一路走下来,你其实已经建立起了深度学习最核心的骨架。后面的学习,无论是目标检测、图像分割、大语言模型,还是 AI for Science,本质上都只是继续在这副骨架上往前生长。课程结束,不代表学习结束。恰恰相反,这更像是你真

文章图片
#深度学习#学习#人工智能
    共 59 条
  • 1
  • 2
  • 3
  • 6
  • 请选择