logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

神经网络的建立-TensorFlow2.x

激活函数为 ReLU。x_train.reshape(60000, 784):将训练数据的形状从原来的 (60000, 28, 28) 重塑为 (60000, 784),其中 784 表示每个图像的像素数量,也就是将每个图像转换为一个长度为 784 的一维数组。这两行代码是将输入的训练数据 x_train 和测试数据 x_test 进行预处理,使它们具有相同的数据形状和数据类型,并进行了归一化处理

#tensorflow#神经网络#深度学习
ollama常见属性设置

这些向量在一个连续的向量空间中,保持了原始数据的语义或结构信息,使得相似的数据点在空间上距离较近。OLLAMA_KEEP_ALIVE=24h设置模型加载到内存中保持24个小时(默认情况下,模型在卸载之前会在内存中保留 5 分钟)果然获取维度失败是有原因的,有些模型是支持嵌入的,有些则不支持,如qwen-1.5B, deepseek-70B它就支持,查看API文档。支持嵌入的一般是比较小的模型,灵活

#人工智能
llamafactory webui报错httpx.RemoteProtocolError: Server disconnected without sending a response.

这也是因为llamafactory前端目前也只支持单卡训练或推理。指定模型做推理,前端访问。

#httpx
大数据业务场景

2、借助MapReduce计算框架对原始数据进行转换,生成的数据以分区表的形式存储到多张Hive表中;2,计算:借助mapreduce计算框架对原始数据进行转换,生成的数据以分区表形式。3、需要对Hive中多个表的数据进行JOIN处理,得到一个明细数据Hive大表;5、需要将统计分析得到的结果数据同步到业务系统中,供业务调用使用。1,上传:通过Hadoop先将原始数据同步到HDFS上;4、将明细数

#hadoop#hive#大数据
spark MLlib机器学习算法库

MLlib采用Scala语言编写,借助了函数式编程设计思想,开发人员在开发的过程中只需要关注数据,而不需要关注算法本身,因为算法都已经集成在里面了,所以只需要传递参数和调试参数。MLlib主要包含两部分,分别是底层基础和算法库。其中底层基础包括spark的运行库、矩阵库、和向量库,向量接口和矩阵接口是基于Netlib和BLAS/LAPACK开发的线性代数库Breeze;算法库包括分类、回归、聚类、

#spark#机器学习#算法
再多练习几个神经网络代码吧全连接,卷积神经网络

tf.keras.layers.Conv2D(32, (3, 3), activation=‘relu’, input_shape=(32, 32, 3)):第一层卷积层,使用了 32 个 3x3 的卷积核,激活函数为 ReLU,输入形状为 32x32x3 的图像;tf.keras.layers.Conv2D(64, (3, 3), activation=‘relu’):第二层卷积层,使用了 64

文章图片
#神经网络#cnn#深度学习
云计算任务调度仿真04

这次分享一篇更加高级的云计算任务调度的文章和代码,

文章图片
#深度学习#云计算
hive数据分析-001

hive数据分析

#hive
赋予强化学习智能体先验知识-q-learning/Sarsa之走迷宫

前面已经分别写过q-learning和Sarsa的强化学习代码,其实两者差异并不非常大,只是在更新方式上不同,只是一个更加注重探索,一个更加注重应用。那么学习了这两种强化学习方法后,我们来进一步提升其性能,通过赋予强化学习智能体先验知识使其能够更快达到预想的效果,在前面的代码中,我们我们已经将智能体学习后的q表存储下来,现在我们可以在其启动时赋予智能体这些知识。为了实现先验知识的赋予,需要的几个函

#python#机器学习#numpy
使用强化学习Sarsa编写迷宫智能体

Sarsa和Q-learning是两种经典的强化学习算法,它们在更新动作值函数时有一些重要的区别。首先,Sarsa算法使用的是on-policy学习方法,即它在学习时使用当前策略选择的动作更新动作值函数。因此,Sarsa算法对当前策略的评估更加准确,但也可能导致过度探索。相比之下,Q-learning使用的是off-policy学习方法,即它在学习时使用最优策略选择的动作更新动作值函数。因此,Q-

#算法#机器学习#python
    共 26 条
  • 1
  • 2
  • 3
  • 请选择