首页 / 浏览问题 / 组件GIS / 问题详情
超图FAQ:【iObjects】开发的Spark程序,打包后怎么提交到Spark集群来执行?
27,535EXP 2023年09月22日
【iObjects】开发的Spark程序,打包后怎么提交到Spark集群来执行?

1个回答

【解决办法】 需要在Spark集群节点配置好iObjects Java组件环境变量,配置到LD_LBRARY_PATH变量下,确保Spark每个节点进程能够读取到iObjects Java组件的Bin目录下的依赖库。提交命令示例如下: spark-submit --class yb.scala.BDTTest --jars file:///F:/2023work/2023alphaTest/11.1.0beta/bdt-all-runtime-11.2.0-SNAPSHOT.jar,file:///F:/2023work/2023alphaTest/11.1.0beta/supermap-iobjectsjava-11.1.1-22331-104197-win64-all-Bin/Bin/com.supermap.data.jar --master spark://10.10.3.6:7077 --deploy-mode client --driver-cores 1 --executor-cores 2 --driver-memory 2g --executor-memory 4g file:///D:/IdeaWorkspace/bdt11.1.0test/out/artifacts/bdt11_1_0test_jar/bdt11.1.0test.jar
27,535EXP 2023年09月22日
热门文章
关注我们
...