
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
写在前面具体安装流程可以参考:Spark在Windows下的环境搭建以及python+pycharm+pyspark+windows搭建spark环境+各种踩坑我的问题已安装spark、jdk、hadoop、scala,java、scala、hadoop都能通过cmd打开,但是始终无法成功打开spark-shell寻找问题我的JAVA_HOME、SPARK_HOME都是自定义的,结尾有一个分号之前
真的是找了好久才发现,很可能是我下载的hadoop文件进行了修改才导致的问题解决方法打开hadoop-3.2.1\etc\hadoop\hadoop-env.cmd文件查看set JAVA_HOME=%JAVA_HOME%是否如下图所示:我的问题是第二行的set JAVA_HOME 之前被设置成了一个固定的值,而且并不是我的sdk所在地,所以一直报错,将其修改回set JAVA_HOME=%JAV
问题1:curl:(6) Could not resolve host问题2:git的clone命令出现fatal:unable to access ...问题3:安装anaconda(我这里是miniconda) 强制覆盖安装问题4: 无法找到相应文件问题5:安装包时显示the following packages are not available from current channels问
xsheel连接服务器xftp连接服务器vscode连接服务器
小技巧Shift+Alt+ ↓ 复制当前行demo03.jsjs文件中的 data 其实就相当于储存变量,定义一些值,在后期可以通过名称来调用。// pages/demo03/demo03.jsPage({/*** 页面的初始数据*/data: {msg:"hello mina",num:10000,isGirl:false,person:{age:18,height:158,weight:90,
xsheel连接服务器xftp连接服务器vscode连接服务器
背景GPU:NVIDIA GeForce GTX 1650查看方式: 任务管理器-性能将anaconda源重置因为清华源会导致后续下载pytorch时下载cpu版本,故而需要重置源清除所有源:conda config --remove-key channels增加Anaconda的默认源:conda config --add channels https://repo.anaconda.com/p
线性可分 vs 线性不可分从线性可分开始分析 并推导到线性不可分线性可分问题求解将平行线插到的向量叫做支持向量 所以适用于小样本公式1 ↑只要线性可分 就存在一个w和b所以最小化||w|| 就是最大化d 系数1/2是为了求导方便而限制条件则是表示每一个样本都在两条线之外,如果不满足线性可分 这里就找不到一组w和b即局部最优解即为全局最优解求局部最优解即可使用梯度下降(上升)法总结SVM处理非线性可
背景GPU:NVIDIA GeForce GTX 1650查看方式: 任务管理器-性能将anaconda源重置因为清华源会导致后续下载pytorch时下载cpu版本,故而需要重置源清除所有源:conda config --remove-key channels增加Anaconda的默认源:conda config --add channels https://repo.anaconda.com/p
线性可分 vs 线性不可分从线性可分开始分析 并推导到线性不可分线性可分问题求解将平行线插到的向量叫做支持向量 所以适用于小样本公式1 ↑只要线性可分 就存在一个w和b所以最小化||w|| 就是最大化d 系数1/2是为了求导方便而限制条件则是表示每一个样本都在两条线之外,如果不满足线性可分 这里就找不到一组w和b即局部最优解即为全局最优解求局部最优解即可使用梯度下降(上升)法总结SVM处理非线性可







