在Windows 10上的Spark。'Files \ Spark \ bin \ .. \ jars“”\'不被识别为内部或外部命令

我很受Spark的沮丧。 一个晚上浪费我以为我做错了,但我已经卸载并重新安装了几次,遵循多个指南,都表明了一个非常相似的path。

在cmd提示符下,我试图运行:

pyspark 

要么

 spark-shell 

我遵循的步骤包括从以下地址下载预build的软件包:

https://spark.apache.org/downloads.html

包括hadoop 2.3的spark 2.0.2和hadoop 2.7的spark 2.1.0。

既不工作,我得到这个错误:

 'Files\Spark\bin\..\jars""\' is not recognized as an internal or external command, operable program or batch file. Failed to find Spark jars directory. You need to build Spark before running this program. 

我已经设置我的环境variables以及使用winutils.exe技巧,但这些似乎与手头上的问题无关。

我不能成为唯一陷入这个问题的人。 任何人都知道为了让这个程序在Windows工作的工作?

我刚刚在这个问题的答案中找到了答案:

为什么spark-submit和spark-shell会失败,找不到Spark程序集JAR,你需要在运行这个程序之前建立Spark。

下面的答案对我来说是完全违反直觉的:

“在Windows上,我发现如果它安装在路径中有一个空格的目录中(C:\ Program Files \ Spark),安装将失败,请将其移动到根目录或其他目录中,不要有空格。