• 本机连接Spark Standalone--最简单的spark调试方式


    为了既能远程连接spark  查看ui  又能本地练习  安装简单

    去官网  http://spark.apache.org/downloads.html  选择对应版本下载 tar包

    解压 tar -zxvf  spark-2.2.0-bin-hadoop2.6.tgz

    sbin/start-master.sh  启动master

    sbin/start-slave.sh   启动slave

    正常启动了    在Web-Ui中查看  http://ip地址:8080/

    启动spark-shell  spark-shell –master spark://ip地址:7077

    测试   spark-submit –class org.apache.spark.examples.SparkPi –master spark://ip地址:7077 examples/jars/spark-examples_2.11-2.2.0.jar 

    但是这样的话  本地程序

    val conf = new SparkConf().setAppName("WordCount").setMaster("spark://IP地址:7077")

    会报错

    : Could not locate executable nullinwinutils.exe in the Hadoop binaries.

    下载hadoop 加上这句
    System.setProperty("hadoop.home.dir",
    "F:\hadoop2.6(x64)V0.2");

    依然报连接超时
    org.apache.spark.SparkException: Exception thrown in awaitResult
    检查防火墙都没有问题 7077端口也启动了

    修改配置文件

    vi conf/spark-env.sh

    加上这几句

    export SPARK_MASTER_HOST=master01
    export SPARK_MASTER_PORT=7077
    export JAVA_HOME=/opt/java/jdk1.8.0_181
    export PATH=$PATH:$JAVA_HOME/bin

    jdk要配  不然会报错   

    source spark-env.sh

    host写master01   然后在系统hosts文件里  配置内网地址  master01   

    重启spark   

    连接后正常

  • 相关阅读:
    还原网站上被压缩的JS代码方便阅读
    让chrome浏览器变成在线编辑器
    awk之NF的妙用
    Xargs用法详解
    CU论坛常用知识点汇总
    awk中RS,ORS,FS,OFS区别与联系
    SHELL十三问[转载自CU论坛]
    关于shell中常见功能的实现方式总结
    shell实现ftp命令示例
    MySQL基础
  • 原文地址:https://www.cnblogs.com/tree1123/p/9506407.html
Copyright © 2020-2023  润新知