我在用win端的pycharm远程运行linux上的spark(on yarn)的pyspark的代码时,出现了这个问题。
后来几经周折发现了是我的配置的问题,仅供参考
要配置
**PYSPARK_PYTHON: 表示Spark想运行Python程序, 那么去哪里找python执行器 **
这个至少需要在

  • /etc/profile
  • ~/.bashrc
    如果还跑不通,可以尝试加在
  • spark/conf/spark-env.sh
  • 或者 yarn-env.sh
Logo

更多推荐