当前位置:首页 > 开发 > 开源软件 > 正文

linux上独立安装部署spark

发表于: 2015-07-14   作者:daizj   来源:转载   浏览:
摘要: 下面讲一下linux上安装spark,以 Standalone Mode 安装   1)首先安装JDK   下载JDK:jdk-7u79-linux-x64.tar.gz  ,版本是1.7以上都行,解压 tar -zxvf jdk-7u79-linux-x64.tar.gz     然后配置 ~/.bashrc&nb

下面讲一下linux上安装spark,以 Standalone Mode 安装

 

1)首先安装JDK

 

下载JDK:jdk-7u79-linux-x64.tar.gz  ,版本是1.7以上都行,解压 tar -zxvf jdk-7u79-linux-x64.tar.gz  

 

然后配置 ~/.bashrc 

增加

export JAVA_HOME=/cdh/jdk1.7.0_79

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

 

export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH

 

source .bashrc

 

验证: java -version能正常运行则说明安装成功

 

2)安装scala

 

请看: http://daizj.iteye.com/blog/2227128

 

3) 安装spark

 

1)首先从网 http://spark.apache.org/downloads.html 上下载需要的版本,目前下载的是spark-1.4.0-bin-cdh4.tgz

  (2)将spark-1.4.0-bin-cdh4.tgz移到根目录,并解压

      tar -zxvf spark-1.4.0-bin-cdh4.tgz

  (3)配置环境变量

    SPARK_HOME=/spark-1.4.0-bin-cdh4

    path=$path:$SPARK_HOME/bin

  (4)修改配置文件

    1)cd  /spark-1.4.0-bin-cdh4/conf 

    2)mv spark-env.sh.template spark-env.sh

    3)vi spark-env.sh

    添加以下内容:

      export SCALA_HOME=/scala-2.11.6
      export JAVA_HOME=/cdh/jdk1.7.0_79
      export SPARK_MASTER_IP=192.168.212.15
      export SPARK_WORKER_MEMORY=1024m 
      export master=spark://192.168.212.15:7070

    4)修改slaves文件

      mv slaves.template  slaves

      vi slaves

      添加一下内容:

        slave1

        slave2

   (5) 将/spark-1.4.0-bin-cdh4目录复制到work节点    

    (6)启动spark

    pwd
    /spark-1.4.0-bin-cdh4/sbin
    执行 ./start-all.sh 命令。
    注意,hadoop也有start-all.sh脚本,因此必须进入具体目录执行脚本,启动界面如下:

        (7)验证

    1)在master节点上执行jps

      30859 Jps
      30172 Master

    2)在slaves节点上执行jps

      30302 Worker
      30859 Jps

  (7)验证安装情况
      1)运行自带示例

       启动spark sql 

                         进入spark_home/bin/ 运行 ./spark-sql 

      2)查看集群环境
        http://master:8080/

      3)进入spark-shell
        $spark-shell

      4)查看jobs等信息
        http://master:4040/jobs/

linux上独立安装部署spark

  • 0

    开心

    开心

  • 0

    板砖

    板砖

  • 0

    感动

    感动

  • 0

    有用

    有用

  • 0

    疑问

    疑问

  • 0

    难过

    难过

  • 0

    无聊

    无聊

  • 0

    震惊

    震惊

编辑推荐
spark有三种集群部署方式: 1、独立部署模式standalone,spark自身有一套完整的资源管理方式 2、架
Spark是UC Berkeley AMPLab开发的类MapRed计算框架。MapRed框架适用于batch job,但是由于它自身的
本节记录spark下载-->编译-->安装-->使用 首先从主站下载spark源码包(源码包更利于我们学
Spark是UC Berkeley AMPLab开发的类MapRed计算框架。MapRed框架适用于batch job,但是由于它自身的
一 搭建环境说明及准备 RedHat6 下安装,需要的安装包有: 1.mysql-server-5.1.66-2.el6_3.x86_64 (
 基本知识 1、Redis的数据类型:   字符串、列表(lists)、集合(sets)、有序集合(sorts s
1.部署环境 OS:Red Hat Enterprise Linux Server release 6.4 (Santiago) Hadoop:Hadoop 2.4.1 Hive
【注】该系列文章以及使用到安装包/测试数据 可以在《倾情大奉送--Spark入门实战系列》获取 1、Hive
【注】该系列文章以及使用到安装包/测试数据 可以在《倾情大奉送–Spark入门实战系列》获取 1 Hive
[Linux]在Linux上部署Java开发环境笔记(三) -- 补充:Linux中安装Oracle10g(标准版) 2010/06/18
版权所有 IT知识库 CopyRight © 2009-2015 IT知识库 IT610.com , All Rights Reserved. 京ICP备09083238号