【问题原因】
这是因为Spark集群的excutor或driver执行进程未加载到iObjects Java组件环境变量,未能找到Bin目录下的依赖库。
【解决办法】
需要在Spark集群里配置多个变量具体如下:
1、在spark-env.sh配置文件,开启所有进程的classpath值,如:
export SPARK_DAEMON_CLASSPATH=file:///F:/2023work/2023alphaTest/11.1.0beta/supermap-iobjectsjava-11.1.1-22331-104197-win64-all-Bin/Bin
2、在spark-default.conf配置文件里,开启所有dirver及excutor进程拉起的jvm 环境加载参数,如:
spark.executor.extraJavaOptions -Djava.ext.dirs=file:///F:/2023work/2023alphaTest/11.1.0beta/supermap-iobjectsjava-11.1.1-22331-104197-win64-all-Bin/Bin
spark.driver.extraJavaOptions -Djava.ext.dirs=file:///F:/2023work/2023alphaTest/11.1.0beta/supermap-iobjectsjava-11.1.1-22331-104197-win64-all-Bin/Bin