搭建spark开发环境(第二弹)

发量不足 发量不足     2022-11-30     179

关键词:

                                      😊😊😊欢迎来到本博客😊😊😊

                                    本篇介绍的是Spark环境的准备🛠🛠🛠

                                    预更新📑:体验第一个Spark程序

    

目录

                                     一.环境准备

                                    二·.spark的部署方式

                                    三.spark集群安装部署

一.环境准备

配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7)

二·.spark的部署方式

spark部署模式分为Local模式集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式

三.spark集群安装部署

1下载spark安装包.

下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark (最新且稳定的版本是3.2.1,本人安装版本为2.0.0)

2.解压spark安装包

步骤1  先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下

回到master切换hadoop用户

$su Hadoop

$ cd /opt/software

$ls

$ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/

3.修改配置文件

步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark

$cd /opt/module

$ mv spark-2.3.2-bin-hadoop2.7/ spark

步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh

$ cd /spark/conf

$ ls

$ cp spark-env.sh.template spark-env.sh

步骤3 修改spark-env.sh,配置内容:

$vi spark-env.sh

# Java环境变量

export JAVA_HOME=/opt/module/jdk1.8.0_144

# 指定master的 IP

export SPARK_MASTER_HOST=master

# 指定master的 端口

export SPARK_MASTER_PORT=7077

步骤4 复制slaves.template slaves 并重命名slaves

cp slaves.template slaves

步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP

$vi slaves

Slave1

Slave2

4.分发文件

步骤1 将spark目录分发slave1和slave2

$scp -r /opt/module/spark/ slave1:/opt/module/

$ scp -r /opt/module/spark/ slave2:/opt/module/

5 启动spark集群

cd ..(回到spark目录)

步骤1  $ sbin/start-all.sh

步骤2   先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker

步骤3  访问spark管理界面(master) http://192.168.196.101:8080,如图:

看到该状态

虚拟化技术浅析第二弹之初识kubernetes

...低、编程工作量少、开发简单快捷、调试方便、环境容易搭建、容易发布部署及升级,开发运维等总体成本很低、见效快。其缺点也明显:(1)单体应用系统比较膨胀与臃肿,耦合度高,导致 查看详情

lavarel从零开始-第二弹(vue环境)(代码片段)

lavarel作为一个全栈框架,里面内嵌了vue开发环境,打开package.json文件,我们看到dev依赖模块中内嵌vue,axios,lodash等框架和库文件,打开/resource/assets/js/components目录,我们会看到一个名为ExampleComponent.vue的文件,该文件在app.js... 查看详情

intellijidea搭建spark开发环境

...发Spark应用,放着IDE的方便不用。这里介绍使用IntellijIdea搭建Spark的开发环境。1、IntellijIdea的安装由于Spark安装在Ubuntu环境中,这里的Idea也安装在Ubuntu中。首先是下载,到官网下载即可。下 查看详情

intellijidea搭建spark开发环境

...发Spark应用。放着IDE的方便不用。这里介绍使用IntellijIdea搭建Spark的开发环境。1、IntellijIdea的安装因为Spark安装在Ubuntu环境中。这里的Idea也安装在Ubuntu中。首先是下载,到官网下载就可以。 查看详情

mac上搭建spark开发环境

本文将介绍在Macos上搭建Spark开发环境。在安装spark环境之前,需要确保配置相应的java环境,jdk或者jre的版本需要在1.8.0版本以上。(1)首先下载开发IDE,目前比较流行的IDE是IntelliJIDEA,可以在官网下载使用,下载地址:https://www.jetbr... 查看详情

compose跨平台第二弹:体验composeforweb(代码片段)

...sktop中,我们已经了解了Compose-jb以及如何使用Compose-jb开发简单的桌面端应用,第二弹,我们就来了解下如何使用Compose-jb开发Web应用。相信看完这一弹之后你会对Compose-jb有新的了解。环境要求与ComposeForDesktop的环境要... 查看详情

搭建scala开发spark程序环境及实例演示

上一篇博文已经介绍了搭建scala的开发环境,现在进入正题。如何开发我们的第一个spark程序。下载spark安装包,下载地址http://spark.apache.org/downloads.html(因为开发环境需要引用spark的jar包)我下载的是spark-2.1.0-bin-hadoop2.6.tgz,因为... 查看详情

spark开发环境搭建——spark开发学习笔记(代码片段)

...难免有疏漏之处,欢迎各位批评指出。Spark开发环境搭建本文的操作环境和安装的版本操作系统ÿ 查看详情

搭建spark开发环境

                                      实验报告①.spark集群基础查看自己三个节点环境的ip地址:ipaddreMaster:Slave1:Slave2: 切换hadoop用户查看master能否切换另外两台slave然后配置另外两台可以自由切换 配置成刚才... 查看详情

如何基于jupyternotebook搭建spark集群开发环境(代码片段)

摘要:本文介绍如何基于Jupyternotebook搭建Spark集群开发环境。本文分享自华为云社区《基于JupyterNotebook搭建Spark集群开发环境》,作者:apr鹏鹏。一、概念介绍:1、Sparkmagic:它是一个在JupyterNotebook中的通过Livy... 查看详情

搭建spark源码研读和代码调试的开发环境

转载自https://github.com/linbojin/spark-notes/blob/master/ide-setup.md搭建Spark源码研读和代码调试的开发环境TableofContents源码获取与编译从Github上获取Spark源码编译Spark项目源码导入与代码运行导入源码到IntellijIDEA16运行实例代码1.配置运行参... 查看详情

spark-windows(含eclipse配置)下本地开发环境搭建

spark-windows(含eclipse配置)下本地开发环境搭建 >>>>>>注意:这里忽略JDK的安装,JDK要求是1.8及以上版本,请通过java –version查看。一、spark命令行环境搭建Step1:安装Spark到官网http://spark.apache.org/downloads.html... 查看详情

spark编程环境搭建

基于IntellijIDEA搭建Spark开发环境搭基于IntellijIDEA搭建Spark开发环境搭——参考文档●参考文档http://spark.apache.org/docs/latest/programming-guide.html●操作步骤a)创建maven项目b)引入依赖(Spark依赖、打包插件等等)基于IntellijIDEA搭建Spark开发... 查看详情

八window搭建spark+idea开发环境(代码片段)

本文将简单搭建一个spark的开发环境,如下:1)操作系统:windowos2)IDEA开发工具以及scala插件(IDEA和插件版本要对应):  2-1)IDEA2018.2.1:https://www.jetbrains.com/  2-2)scala-intellij-bin-2018.2.11.zip:http://plugins.jetbrains.com/plugin/1347... 查看详情

spark编程环境搭建及wordcount实例(代码片段)

  基于IntellijIDEA搭建Spark开发环境搭建 基于IntellijIDEA搭建Spark开发环境搭——参考文档  ●参考文档http://spark.apache.org/docs/latest/programming-guide.html  ●操作步骤·a)创建maven项目·b)引入依赖(Spark依赖、... 查看详情

玩转sublime3第二弹es6环境

安装node:   node作为JS的运行环境必须安装   文件下载:https://nodejs.org/dist/v6.11.4/node-v6.11.4-x64.msi   备注:可以去官网https://nodejs.org/en/获取最新的版本  安装完node之后NPM也会被安装,NPM:node包管理工具安装babel插件  ... 查看详情

spark机器学习速成宝典基础篇01windows下spark开发环境搭建+sbt+idea(scala版)

...,如果你是打算使用scala进行spark开发,则需要安装环境搭建步骤将spark-2.1.1-bin-hadoop 查看详情

idea搭建scala开发环境开发spark应用程序

...件因为idea默认不支持scala开发环境,所以当需要使用idea搭建scala开发环境时,首先需要安装scala插件,具体安装办法如下。1、打开idea,点击configure下拉菜单中的plugins选项:2、在弹出对话框中点击红框按钮:3、在弹出最新对话... 查看详情