logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用 TensorBoard 分析模型 - Python、TensorFlow 和 Keras 深度学习 p.4

这段文字主要介绍了如何使用 TensorBoard 分析和优化模型。首先,作者介绍了 TensorBoard 的作用,它可以用来可视化模型训练过程,观察指标如准确率、损失函数等的变化趋势。然后,作者提到了一个技巧,即如何在运行多个模型时分配 GPU 资源,避免单个模型占用全部显存。接着,作者发现代码中缺少激活函数,并解释了其重要性,并进行了修改。最后,作者介绍了 Keras 回调函数,特别...

#tensorflow#python#机器学习 +2
基于用户输入的动态图 - 使用 Dash 和 Python 的数据可视化 GUI p.3

本教程将使用 Python 和 Dash 构建一个交互式应用程序,该应用程序可以从用户输入的股票代码中获取数据,并以图表的形式展示股票价格走势。教程首先回顾了之前教程中创建的简单交互式界面,该界面可以接收用户输入的文本并输出该文本,以及接收用户输入并输出该输入的平方值。本教程的目标是展示如何使用 Dash 和 Pandas 库创建更复杂的应用程序,例如一个可以根据用户输入的股票代码绘制股票价格..

#dash#plotly#python
深度学习笔记本电脑是否存在? - Tensorbook 评测

这篇文字主要讲述了作者对Lambda公司最新款Tensor Book笔记本电脑的评测。这款笔记本电脑搭载了强大的硬件配置,包括3080 Max-Q显卡、64GB内存、双1TB NVMe固态硬盘等。作者通过对比测试发现,3080 Max-Q显卡在性能上略微优于桌面版的1080 Ti显卡,但低于桌面版的3080显卡。作者还指出,NVIDIA对笔记本电脑显卡的命名方式比较混乱,导致3080 Max-Q.

#神经网络#深度学习#人工智能 +1
如何使用 IBPy Python 与 Interactive Brokers TWS API 进行自动化交易

使用IBPy将Python与Interactive Brokers平台连接的详细指南本文档旨在帮助用户将Python与Interactive Brokers(IB)平台整合,并使用IBPy库进行操作。Interactive Brokers简介Interactive Brokers是一个交易平台,其服务对象涵盖从个人投资者到机构投资者。该平台的优势在于其低门槛,仅需10,000美元即可开设真实...

#tornado#fastapi#django +2
攻击和击败敌人 - 星际争霸 2 人工智能与 Python (第 3 部分)

这段文字主要讲解了星际争霸2中人族玩家如何建造虚空光线单位。首先,作者说明了虚空光线单位是比较通用的单位,但由于被神族强大的防御体系克制,因此在实战中并不常用。作者还强调,不同的种族需要不同的策略,但目前的讲解只是基础策略,并不针对特定种族。接着,作者介绍了建造虚空光线单位所需的步骤:首先需要建造一个星门,而星门需要先建造一个网络核心和一个星际基地,最后才能建造虚空光线单位。此外,建造星门还需..

#python
视频中的人脸识别(Python 实现)

这段文字描述了如何将人脸识别从静态图像扩展到视频流。首先,它介绍了之前代码中使用静态图片进行人脸识别的逻辑,并指出现在要使用视频流作为未知人脸的来源。然后,代码示例演示了如何使用 OpenCV 库读取视频流,并使用 cv2.VideoCapture 函数加载视频文件或摄像头。接下来,代码将之前的图像处理部分替换为一个无限循环,在循环中读取视频帧,并对每一帧进行人脸识别处理。最后,代码添加了...

#python
使用 Python 和 face_recognition 库进行人脸识别

人脸识别教程摘要本教程介绍了如何使用 face_recognition 包进行人脸识别。作者首先强调安装包可能会因操作系统和 CUDA 使用情况而有所不同,建议查看文字版教程以获取更详细的安装说明。教程主要介绍了 face_recognition 包的使用方法。作者强调该包非常简单,只需调用三个函数即可完成人脸识别,其余代码都是辅助性操作。教程中,作者创建了两个文件夹:known_faces...

#python
用于汽车代理的强化学习环境 - 使用Carla和Python的自动驾驶汽车 第3部分

这段文字主要介绍了在使用 Karla 环境进行强化学习,特别是深度 Q 学习时,如何调整代码架构以适应强化学习的标准模式。首先,为了更好地应用强化学习,需要采用 OpenAI 所倡导的标准模式。这种模式通常使用一个名为“环境”的对象,该对象包含一个名为“step”的方法,用于执行以下操作:接收动作: 将用户指定的动作传递给环境。执行动作: 环境根据动作进行相应操作,例如模拟游戏中的角色移动...

#python
调整自定义环境奖励 - 使用稳定基线 3 的强化学习 (第 4 页)

这段文字主要讲述了将一个自定义环境转换为Doom环境,并使用强化学习算法训练智能体。实验中,作者尝试了两种不同的奖励机制:短期奖励机制: 只有在吃到苹果时才会获得短暂的奖励,其他情况下没有奖励。这种机制下,智能体学习效果不佳,几乎没有进步。长期奖励机制: 一旦吃到苹果,就会持续获得奖励,即使之后没有再吃到苹果。这种机制下,智能体学习效果较好,虽然没有达到预期效果,但依然有提升。作者通过...

#python
A. I. 学习玩星际争霸 2(强化学习)

本文探讨了利用深度强化学习玩星际争霸2的可能性。作者首先指出,传统的人类玩家需要投入大量时间和精力来学习游戏策略和操作技巧,而程序员则可以通过Python代码来操控游戏。然而,即使是利用代码,也需要掌握大量的游戏策略。作者提出,是否可以利用深度强化学习来直接操控游戏。为了实现这一目标,需要定义模型的输入和输出。输入可以是游戏画面、图形化表示或数值向量,而输出则是模型可以执行的动作,例如扩展基地、.

#神经网络#python#人工智能 +2
    共 23 条
  • 1
  • 2
  • 3
  • 请选择