博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Windows下单机安装Spark开发环境
阅读量:4469 次
发布时间:2019-06-08

本文共 1218 字,大约阅读时间需要 4 分钟。

机器:windows 10 64位。

因Spark支持java、python等语言,所以尝试安装了两种语言环境下的spark开发环境。

1、Java下Spark开发环境搭建

1.1、jdk安装

安装oracle下的jdk,我安装的是jdk 1.7,安装完新建系统环境变量JAVA_HOME,变量值为“C:\Program Files\Java\jdk1.7.0_79”,视自己安装路劲而定。

同时在系统变量Path下添加C:\Program Files\Java\jdk1.7.0_79\bin和C:\Program Files\Java\jre7\bin。

1.2 spark环境变量配置

去http://spark.apache.org/downloads.html网站下载相应hadoop对应的版本,我下载的是,spark版本是1.6,对应的hadoop版本是2.6

解压下载的文件,假设解压 目录为:D:\spark-1.6.0-bin-hadoop2.6。将D:\spark-1.6.0-bin-hadoop2.6\bin添加到系统Path变量,同时新建SPARK_HOME变量,变量值为:D:\spark-1.6.0-bin-hadoop2.6

1.3 hadoop工具包安装

spark是基于hadoop之上的,运行过程中会调用相关hadoop库,如果没配置相关hadoop运行环境,会提示相关出错信息,虽然也不影响运行,但是这里还是把hadoop相关库也配置好吧。

1.3.1 去下载hadoop 2.6编译好的包,我下载的是,

1.3.2 解压下载的文件夹,将相关库添加到系统Path变量中:D:\hadoop-2.6.0\bin;同时新建HADOOP_HOME变量,变量值为:D:\hadoop-2.6.0

1.4 eclipse环境

直接新建java工程,将D:\spark-1.6.0-bin-hadoop2.6\lib下的spark-assembly-1.6.0-hadoop2.6.0.jar添加到工程中就可以了。

2、Python下Spark开发环境搭建

2.1 安装python,并添加到系统变量path中:C:\Python27和C:\Python27\Scripts

2.2 重复1.2和1.3步骤

2.3 将spark目录下的pyspark文件夹(D:\spark-1.6.0-bin-hadoop2.6\python\pyspark)复制到python安装目录C:\Python27\Lib\site-packages里

2.4 在cmd命令行下运行pyspark,然后运行pip install py4j安装相关库。

2.5 安装pycharm开始编程吧。

 

 推荐一个自己业余时间开发的引擎,()

转载于:https://www.cnblogs.com/eczhou/p/5216918.html

你可能感兴趣的文章
bzoj 3343: 教主的魔法
查看>>
Play学习 - 体验网页模板
查看>>
iOS des加密
查看>>
openstack-云计算概述
查看>>
javascript的作用域以及闭包现象
查看>>
线程处理
查看>>
DB2日期和时间常用汇总
查看>>
JAVA运算符
查看>>
信号基础知识
查看>>
HTML转义字符大全
查看>>
安装Visual Studio 时窗口闪过就退出
查看>>
计算机底层是如何访问显卡的?
查看>>
Maven Assembly plugin and Spring Namespace handlers
查看>>
VS2012旗舰版接选择调试 出现了这样一个错误
查看>>
C++如何保留2位小数输出
查看>>
BZOJ 3343 教主的魔法 分块
查看>>
hadoop-2.6.0 Unhealthy Nodes 问题
查看>>
Linux 驱动之内核定时器
查看>>
作业5散列函数安全性的知识扩展+2016012102+曹滢
查看>>
POJ3259 Wormholes(最短路)
查看>>