运行spark报错Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState'

原因:

操作系统缺少 msvcr120.dll文件

下载地址:

链接:https://pan.baidu.com/s/1RsVgWDEtZfn22_gPWIEw4g

提取码:9emm

放置dll:

32位\msvcr120.dll 粘贴到 C:\Windows\System32目录中

64位\msvcr120.dll 粘贴到 C:\Windows\SysWOW64目录中

注: 如果上述方式仍然不好使,则需要安装C++合集

参照 https://blog.csdn.net/u013303361/article/details/88853684

今天清理电脑可能清理多了点C++的组件,spark local模式运行出现这个错误。解决要点总结就是两个

1.设置hadoop_home(确保有%HADOOP_HOME%\bin\winutils.exe,winutils.exe的获取方法可百度)

2.重新安装好C++的组件,上面方式亲测可用