Articles of scala

Eclipse中未评估新的Scala工作表

我在Linux上的Eclipise IDE上使用Scala。 我正在面对新工作表的评估问题。 正在创build的新工作表中的expression式不会被评估,并且不会显示内联结果。 但是,旧的工作表仍然正常工作,expression式得到正确评估,结果显示在内部。 我从这个stackoverflow线程尝试以下build议: 在工作表中获取内联结果 但是,这不起作用。 有人可以提出一个解决scheme吗? 为什么旧的工作表仍然正常工作,新的工作表不工作?

为什么执行激活器会导致ExceptionInInitializerError:java.security.NoSuchAlgorithmException:SHA1 MessageDigest不可用?

在使用Java 8的Windows上的cygwin上从Typesafe Activator 1.2.12执行activator ,出现以下exception: java.lang.ExceptionInInitializerError at xsbt.boot.Update.settings$lzycompute(Update.scala:79) at xsbt.boot.Update.settings(Update.scala:74) at xsbt.boot.Update.ivyLockFile$lzycompute(Update.scala:96) at xsbt.boot.Update.apply(Update.scala:103) at xsbt.boot.Launch.update(Launch.scala:355) at xsbt.boot.Launch.xsbt$boot$Launch$$retrieve$1(Launch.scala:210) at xsbt.boot.Launch$$anonfun$3.apply(Launch.scala:218) at scala.Option.getOrElse(Option.scala:120) at xsbt.boot.Launch.xsbt$boot$Launch$$getAppProvider0(Launch.scala:218) at xsbt.boot.Launch$$anon$2.call(Launch.scala:198) at xsbt.boot.Locks$GlobalLock.withChannel$1(Locks.scala:98) at xsbt.boot.Locks$GlobalLock.xsbt$boot$Locks$GlobalLock$$withChannelRetries$1(Locks.scala:81) at xsbt.boot.Locks$GlobalLock$$anonfun$withFileLock$1.apply(Locks.scala:102) at xsbt.boot.Using$.withResource(Using.scala:11) at xsbt.boot.Using$.apply(Using.scala:10) at xsbt.boot.Locks$GlobalLock.ignoringDeadlockAvoided(Locks.scala:62) at xsbt.boot.Locks$GlobalLock.withLock(Locks.scala:52) at xsbt.boot.Locks$.apply0(Locks.scala:31) at xsbt.boot.Locks$.apply(Locks.scala:28) at xsbt.boot.Launch.locked(Launch.scala:240) at xsbt.boot.Launch.app(Launch.scala:149) at xsbt.boot.Launch.app(Launch.scala:147) at xsbt.boot.Launch$.run(Launch.scala:102) at xsbt.boot.Launch$$anonfun$apply$1.apply(Launch.scala:36) at […]

火花发射:查找版本

我的环境是Windows 7,安装了scala 2.11.4(运行良好),Java 1.8 我已经试过了spark-1.2.0-bin-hadoop2.4和spark-1.2.1-bin-hadoop2.4,每次我把 bin\spark-shell.cmd 我刚刚从Windows中得到错误: find: 'version': No such file or directory else was unexpected at this time. 我在这里忽略了什么吗? 非常感谢。 更新:(来自spark-class2.cmd) C:\Users\spark-1.2.1-bin-hadoop2.4>for /F "tokens=3" %i in ('java -version 2>&1 | find "version"') do set jversi on=%i find: 'version': No such file or directory else was unexpected at this time. 如果我尝试java版本,它似乎在Java方面工作 C:\Users\spark-1.2.1-bin-hadoop2.4>java -version java […]

Windowsbatch file中的Scala脚本

在Scala编程中,它介绍了如何从batch file( 链接 )运行Scala脚本。 对于Windows ::#! @echo off call scala %0 %* goto :eof ::!# 我有一个问题谷歌search::#! 。 这是什么意思? 我知道::表示一个评论,并在Unix #! 是壳的使用方向,但究竟是什么呢? 而::!# ? %0 %*是什么意思,是否有必要这样expression? 是否有可能从同一batch file运行多个脚本?

运行spark-shell之前编辑spark-env.sh的正确方法是什么?

我在我的本地Windows机器上运行火花。 我能够成功启动火花shell。 我想编辑驻留在conf /文件夹中的spark-env.sh文件。 将值添加到spark-env.sh文件的正确方法是什么? 例如,如果我想增加值SPARK_EXECUTOR_MEMORYvariables如何做到这一点? 在不同的可用答案之间出现混淆1. SPARK_EXECUTOR_MEMORY =“2G”2.导出

winutils启动windows安装

我正在试图在Windows 10上安装Spark 1.6.1,到目前为止,我已经完成了以下操作… 下载的spark 1.6.1,解压到某个目录,然后设置SPARK_HOME 下载的scala 2.11.8,解压到某个目录,然后设置SCALA_HOME 设置_JAVA_OPTION envvariables 通过下载zip目录从https://github.com/steveloughran/winutils.git下载winutils,然后设置HADOOP_HOME envvariables。 (不知道这是不正确的,我不能克隆目录,因为权限被拒绝)。 当我去火花回家,运行bin \ spark-shell时, 'C:\Program' is not recognized as an internal or external command, operable program or batch file. 我一定是错过了一些东西,我不知道如何从Windows环境中运行bash脚本。 但希望我不需要明白只是为了得到这个工作。 我一直在关注这个人的教程 – https://hernandezpaul.wordpress.com/2016/01/24/apache-spark-installation-on-windows-10/ 。 任何帮助,将不胜感激。