问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

如何低成本,高效率搭建Hadoop/Spark大数据处理平台

发布网友 发布时间:2022-04-24 06:06

我来回答

2个回答

懂视网 时间:2022-05-07 05:12

软件版本 JDK:jdk-7u45-linux-x64.tar Spark:spark-0.9.0-incubating-bin-hadoop2.tgz Scala:scala-2.10.3.tgz Hadoop:hadoop-2.2.0_x64.tar.gz 集群状况 adai1: Master/NameNode/ResourceManager/SecondaryNameNode adai2: Worker/DataNode/NodeManager


软件版本

JDK:jdk-7u45-linux-x64.tar

Spark:spark-0.9.0-incubating-bin-hadoop2.tgz

Scala:scala-2.10.3.tgz

Hadoop:hadoop-2.2.0_x64.tar.gz

集群状况

adai1: Master/NameNode/ResourceManager/SecondaryNameNode

adai2: Worker/DataNode/NodeManager

adai3: Worker/DataNode/NodeManager

JDK安装

解压缩:

tar -jdk-7u45-linux-x64.tar

将文件夹移动到/usr/lib文件夹下

sudo mv jdk1.7.0_45 /usr/lib/

设置环境变量

sudo vi /etc/profile

在最后添加上

#set java environment

export JAVA_HOME=/usr/lib/jdk1.7.0_45

export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

export JRE_HOME=$JAVA_HOME/jre

让环境变量生效

source /etc/profile

查看版本信息

java –version

Hosts设置

sudo vi /etc/hosts

127.0.0.1 localhost

192.168.1.11 adai1

192.168.1.12 adai2

192.168.1.13 adai3

将hosts文件复制到其他节点上

scp /etc/hosts adai@192.168.1.12:/etc/hosts

scp /etc/hosts adai@192.168.1.13:/etc/hosts

SSH无密码登录

adai1机无密码登录adai2机 在adai1机上

sudo get-apt install ssh

ssh-keygen -t rsa (用rsa生成密钥)

cd ~/.ssh (进入用户目录下的隐藏文件.ssh)

cat id_rsa.pub >> authorized_keys (将id_rsa.pub加到授权的key里面去,这步执行完,应该sshlocalhost可以无密码登录本机了,可能第一次要密码)

scp ~/.ssh/id_rsa.pub adai@adai2:~/ (把adai1机下的id_rsa.pub复制到adai2机下)

adai2机上

cat ~/id_rsa.pub >> ~/.ssh/authorized_keys (adai2机把从adai1机复制的id_rsa.pub添加到.ssh/authorzied_keys文件里)

chmod 600 .ssh/authorized_keys (此处权限必须为600)

再配置adai1机无密码登录adai3机

Hadoop配置

hadoop2.2.0 64位机器版本需要自己编译,网上可以下载到其他人编译好的

解压缩

tar -zxvf hadoop-2.2.0_x64.tar.gz

移动文件夹到/opt/目录下

sudo mv hadoop-2.2.0/ /opt/

设置环境变量

sudo vi /etc/profile

添加

export HADOOP_HOME=/opt/hadoop-2.2.0

export PATH=$PATH:$HADOOP_HOME/bin

export YARN_HOME=/opt/hadoop-2.2.0

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

让环境变量生效

source /etc/profile

进入/opt/hadoop-2.2.0/etc/hadoop/目录,修改配置文件

vihadoop-env.sh

export JAVA_HOME=/usr/lib/jdk1.7.0_45

export HADOOP_HOME=/opt/hadoop-2.2.0

export PATH=$PATH:$HADOOP_HOME/bin

vicore-site.xml

fs.defaultFS

hdfs://adai1:9000

io.file.buffer.size

131072

hadoop.tmp.dir

file:/opt/hadoop-2.2.0/tmp_hadoop

Abase forother temporary directories.

hadoop.proxyuser.adai.hosts

*

hadoop.proxyuser.adai.groups

*

将mapred-site.xml.templat模板文件重命名

mv mapred-site.xml.templat mapred-site.xml

vi mapred-site.xml

mapreduce.framework.name

yarn

mapreduce.jobhistory.address

adai1:10020

mapreduce.jobhistory.webapp.address

adai1:19888

vi hdfs-site.xml

dfs.namenode.secondary.http-address

adai1:9001

dfs.namenode.name.dir

file:/opt/hadoop-2.2.0/dfs/name

dfs.datanode.data.dir

file:/opt/hadoop-2.2.0/dfs/data

dfs.replication

2

dfs.webhdfs.enabled

true

vi yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

yarn.resourcemanager.address

adai1:8032

yarn.resourcemanager.scheduler.address

adai1:8030

yarn.resourcemanager.resource-tracker.address

adai1:8031

yarn.resourcemanager.admin.address

adai1:8033

yarn.resourcemanager.webapp.address

adai1:8088

vi slaves

adai2

adai3

将配置文件拷贝到其他节点上

格式化

bin/hadoop namenode –format

启动hadoop

sbin/start-all.sh

jps查看集群情况

Scala安装

解压缩

tar -zxvf scala-2.10.3.tgz

移动到/usr/lib文件夹下

sudo mv scala-2.10.3 /usr/lib/

设置环境变量

sudo vi /etc/profile

在后面增加内容

export SCALA_HOME=/usr/lib/scala-2.10.3

export PATH=$PATH:$SCALA_HOME/bin

配置文件拷贝到其他节点上,让环境变量生效

source /etc/profile

查看版本信息

scala –version

Spark配置

解压缩

tar –zxvf spark-0.9.0-incubating-bin-hadoop2.tgz

移动到opt文件夹下

sudo mv spark-0.9.0-incubating-bin-hadoop2/ /opt/spark

修改环境变量

vi /etc/profile

后面增加内容

export SPARK_HOME=/opt/spark

export PATH=$PATH:$SPARK_HOME/bin

让环境变量生效

source /etc/profile

到conf文件夹下修改配置文件

mv spark-env.sh.templatespark-env.sh

vi spark-env.sh

export SCALA_HOME=/usr/lib/scala-2.10.3

export JAVA_HOME=/usr/lib/jdk1.7.0_45

export SPARK_MASTER_IP=192.168.1.11

export HADOOP_HOME=/opt/hadoop-2.2.0

export SPARK_HOME=/opt/spark

export SPARK_LIBRARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop/

vi slaves

adai2

adai3

将配置文件拷贝到其他节点上

在Master上执行

sbin/start-all.sh

运行Spark自带的例子

./bin/run-exampleorg.apache.spark.examples.SparkPi spark://192.168.1.11:7077

热心网友 时间:2022-05-07 02:20

比较负责用hadoop+hbase+spark/storm进行平台构建spark用于数据析处理、hbase用于处理数据保存、hadoop用于离线析原始数据存储具体结合应用场景
声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
苹果电脑电池充不进电苹果电脑充不进去电是怎么回事 苹果电脑不充电没反应苹果电脑充电指示灯不亮充不了电怎么办 狗狗更加忠诚护家、善解人意,养一只宠物陪伴自己,泰迪能长多大... 描写泰迪狗的外形和特点的句子 国外留学有用吗 花钱出国留学有用吗 !这叫什么号 百万医疗赔付后是否可以续保 前一年理赔过医疗险还能续保吗? 医疗住院险理赔后还能购买吗? 外贸企业如何低成本的建站,并且把电子商务做好呢呢? 农村自建房成本最低需要多少? 最低成本建QQ群有哪些方式? 戴森球计划戴森球低成本建设怎么做? 无尘车间工程是如何做到低成本建造呢? 想要低成本的建设企业级网络,有什么好的选择吗? 如何低成本快速搭建网站平台 最低成本建网站,有没有好的推荐? 如何低成本建设养猪场呢? 地字的由来 鉴定专家进,在线等。。。急急急! 梦见我死去多年的姑姑帮我哥颧顶!我过去叫姑姑帮我也欢一下头顶姑听到我声音就过来抱住我了? oppo手机Ulike系列,怎么把别人的电话号码拉黑呀? 颧骨下痣有点长大是怎么回事?右边颧骨下一颗痣本来很小没当回事,最近好像有点长大的趋势,本人睡觉姿势 法医鉴定颧骨断裂是轻伤还是轻微伤??? 本人男,脸部毛孔粗大,老是长痘痘。朋友说可能是内分泌失调,而且睡觉老做梦,第二天起来没精神。眼睛下 求助,西红柿为什么一股怪味 樱桃红了怎么样 最近颧骨长斑,皮肤暗黄,嘴干,睡眠不好老做梦,是身体哪出问题了 樱桃这么好吃,为何樱桃味的食品味道这么怪? 怎么最低成本的组建局域网? 农民如何建造低成本的微型冷藏库 外贸soho低成本建站的几种方式 小成本投资做什么项目比较好 建筑投资企业为什么要做低成本 山洞如何低成本改建冷藏库 农村自建节能低成本小别墅是轻钢结构的好还是木质结构的好? 适合年轻人的低成本创业项目有哪些 简述低成本定位战略企业如何建立成本优势。 低成本创业项目有哪些? 公司拖欠工资导致信用卡逾期怎么办 不发工资拖欠工资怎么办 公司欠工资不给,造成贷款逾期征信被拉黑应该怎么办? 逾期不发工资怎么办 学校不发工资导致我还款逾期应该怎么处理? 工资逾期不发有什么处罚 实在是没发工资还不起钱了,逾期了十几天,,能不能宽大处理 现在的老板也是我的男朋友,半年没有发工资,导致我信用卡逾期半年多,这样他有责任吗? 因为工资迟发导致花呗逾期,影响个人征信,可以起诉公司吗? 456月老板不发工资 网贷逾期一个月了我应该怎么办?