&
~$ ln -s /srv/spark-1.2.0 /srv/spark
*
修改
/ "
配置,将
添加到
!"
中,设置
01$"%
环境变量。
这些小技巧在命令行上会帮到你。在
23
上,只要编辑
4.3$567
或
4.567
文件,将以下语句添加到文件中:
&
export SPARK_HOME=/srv/spark
export PATH=$SPARK_HOME/bin:$PATH
87
这些配置(或者重启终端)之后,你就可以在本地运行一个
解释器。执行
命令,你会看到以下结果:
&
,
*
8
9
:
;
&(
&&
&
&,
&*
&8
&
&9
~$ pyspark
Python 2.7.8 (default, Dec 2 2014, 12:45:58)
[GCC 4.2.1 Compatible Apple LLVM 6.0 (clang-600.0.54)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Using Sparks default log4j profile: org/apache/spark/log4j-defaults.properties
[… snip …]
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ `_/
/__ / .__/\_,_/_/ /_/\_\ version 1.2.0
/_/
Using Python version 2.7.8 (default, Dec 2 2014 12:45:58)
SparkContext available as sc.
>>>
现在
已经安装完毕,可以在本机以”单机模式“(
67<7
)
使用。你可以在本机开发应用并提交
作业,这些作业将以多进程
.
多线程
评论