logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【数据结构】408综合应用题集合

有序表,所以删除的元素必然是相连的整体。算法思想先寻找值大于等于s的第一个元素(第一个删除的元素),然后寻找值大于t的第一个元素(最后一个删除的元素的下一个元素),要求将这一段元素删除,只需直接将后面的元素前移。上述算法中三个Reverse函数的时间复杂度分别为O(p/2),O((n-p)/2)和O(n/2),故所设计的算法的时间复杂度为O(n),空间复杂度为O(1)。算法思想搜索整个顺序表,查找

#数据结构#算法
【神经网络入门】损失函数与mini-batch学习

交叉熵误差(cross entropy error)如下式:yky_kyk​是神经网络的输出,tkt_ktk​是正确解标签,该式计算了正确解标签输出的自然对数,也就是说,交叉熵误差的值是由正确解标签所对应的输出结果决定的。用代码实现:参数yyy和ttt是NumPy数组。加上微小值,防止np.log(0)变为负无限大导致后续计算无法进行。...

#神经网络#batch#学习
【Keras】微调神经网络超参数

使用 GridSearchCV 或 RandomizedSearchCV 来探索超参数空间。深层网络可以使用更少的神经元对复杂的函数进行建模。现实中的数据通常以层次结构进行构造;找到一个好的学习率的方法是:对模型进行数百次迭代训练,从非常低的学习率(例如10-5)开始,然后并逐渐将其增加到非常大的值;ReLU激活函数是所有隐藏层的良好的默认设置。

#神经网络#keras#深度学习
【论文阅读】BERTopic:采用一个基于类的TF-IDF流程进行神经网络的主题建模

主题模型对于在文档的集合中发现潜在的主题非常有用。近期的研究已经展示了主题建模方法作为一个聚类任务的可行性。本文展示了BERTopic,它是一个话题模型,它通过对一个基于类的TF-IDF的变体的开发,抽取一致的话题表示。具体来说,BERTopic采用预训练的基于transformer的语言模型来产生文档的嵌入,对这些文档嵌入进行聚类,并最后利用基于类的TF-IDF过程来**产生话题的表示**。BE

#论文阅读#神经网络#聚类
【论文阅读】面向抽取和理解基于Transformer的自动作文评分模型的隐式评价标准(实验结果部分)

在这一部分,我们展示对于每个模型比较的聚合的统计分析当涉及到计算特征和独立的特征组(表格1),抽取功能组和对齐重要功能组(表格2),并且最后,我们提供从模型比较(LANGUAGE模型v.s.MAIN IDEA模型)中获取的样例。由于长度限制,我们只展示了这个比较的细节样例。相似的图片和相关性分析展示在Github上。

文章图片
#论文阅读
PyTorch安装以及VsCode重新连接矩池云时Tmux的使用问题

报错信息:torchvision 0.4.0 requires torch==1.2.0, but you'll have torch 1.0.0 which is incompatible.解决方法:卸载不兼容版本的torchvision:安装可兼容的版本(具体可参照下表):torch和torchvision和python的匹配表格当出现版本不兼容的问题时,不要慌,根据提示换一下版本,获取查找版

#python
【数学建模】“一口价”的战略(博弈模型)

商店推出一种销售策略:双方同时报价,若顾客的出价大于商家卖价则成交,价格为双方出价的均值,否则不成交。在此情况下,双方应如何报价?

#算法
【数学建模】图论模型(基础理论+最大流与最小费用流问题)

定理 给定图 G=(V,E)G=(V,E)G=(V,E),所有顶点的度数之和是边数的2倍,即∑v∈Vd(v)=2∣E∣\sum_{v \in V} d(v)=2|E|v∈V∑​d(v)=2∣E∣对于无向图,关联矩阵 M=(mij)n×m\boldsymbol{M}=\left(m_{i j}\right)_{n \times m}M=(mij​)n×m​:mij={1,vi 与 ej 相关联, 0

#图论
【数学建模】离散动态优化问题(多阶段最优生产计划)

多阶段最优生产计划、最短路径、动态规划

#动态规划
    共 26 条
  • 1
  • 2
  • 3
  • 请选择