Apache Spark驱动程序不会看到外部jar

我得到这个错误:

java.lang.ClassNotFoundException: com.mysql.jdbc.Driver

当我尝试从驱动程序保存到MySQL数据库的东西。 从奴隶我没有这个问题,因为我添加了SparkConf.setJars 。 我尝试在代码和文件spark-defaults.conf添加JavaSparkContext.addJar ,参数spark.driver.extraLibraryPath ,并在提交应用程序时添加参数--jars 。 这些行动还没有解决我的问题,我会非常感激的任何想法或提示。

尝试使用maven-assembly-plugin ,将您的代码和所有依赖关系捆绑到一个JAR中,然后将其提交给Spark。