博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
脚本两则--用于快速部署HADOOP,SPARK这些(特别是VM虚拟机模板部署出来的)。。...
阅读量:5126 次
发布时间:2019-06-13

本文共 3215 字,大约阅读时间需要 10 分钟。

感觉可能只是适合我自己的部署习惯吧,且只针对CENTOS6及以下版本,以后有时间,可能还是要改进。。

1,从VM的模块产生的虚拟机,如何快速搞定网络配置?

#!/bin/bash#usage:./init_cdh_sys.sh hostname hostip#generate the host from esxi template.must change NIC mac address and change hostname net_rule_file="/etc/udev/rules.d/70-persistent-net.rules"net_conf_file="/etc/sysconfig/network-scripts/ifcfg-eth0"net_hostname_file="/etc/sysconfig/network"netmask_conf="255.255.255.0"gateway_conf="192.168.xx.1"dns1_conf="a.b.c.d"old_mac="00:50:56:BD:92:DA"#此处要替换为模板的MAC地址#============================================#resetup 70-persistent-net.rules fileif  (cat $net_rule_file|grep -i $old_mac) ;then  new_mac_str=$(sed -n -e '/eth1/ p' $net_rule_file)  #new_mac_1=${new_mac_str:64:17}  new_mac=$(echo $new_mac_str| awk -F ',' {
'print $4'}|awk -F '==' {
'print $2'}|sed 's/\"//g') sed -i "/$old_mac/Id" $net_rule_file sed -i "s/eth1/eth0/g" $net_rule_fileelse new_mac_str=$(sed -n -e '/eth0/ p' $net_rule_file) #new_mac_1=${new_mac_str:64:17} new_mac=$(echo $new_mac_str| awk -F ',' {
'print $4'}|awk -F '==' {
'print $2'}|sed 's/\"//g') echo "done 70-persistent-net.rules file!"fi#====================================#change hostnameif [ ! -n "$1" ] ;then echo "you have not input a hostname!" echo "usage:./init_sys_nic.sh cm222.wdzjcdh.com 192.168.14.222"else sed -i "s/localhost.localdomain/$1/g" $net_hostname_filefi#===================================#resetup NIC config fileif (cat $net_conf_file|grep $netmask_conf) ;then echo "done /etc/sysconfig/network-scripts/ifcfg-eth0"elif [ ! -n "$2" ] ;then echo "you have not input a ip address!"else sed -i "/$old_mac/Id" $net_conf_file sed -i "s/dhcp/static/g" $net_conf_file echo "HWADDR=$new_mac" >> $net_conf_file echo "IPADDR=$2" >> $net_conf_file echo "NETMASK=$netmask_conf" >> $net_conf_file echo "GATEWAY=$gateway_conf" >> $net_conf_file echo "DNS1=$dns1_conf" >> $net_conf_file service network restart rebootfi

2,SSH-KEYGEN -T RSA这个命令暂时没有想到好的操作方面(ANSIBLE来部署?)最近动了这个心了,SALTSTACK作应用部署,快,但运维自己的操作,ANSIBLE也是一个选择哟,毕竟纯SSH。。

3,在弄好首台HADOOP之后,如何愉快的COPY到其它结点?这个脚本不太方便,可能相关目录要自定义。。。如果能所有的东东统一到一个目录的话。。。:),还有scp -r $var_folder root@$1:/usr/local/,这个写得奇丑,当时只求快。。

#!/bin/bashecho "Usage: ./init_hadoop_spark -f demo-data"cp_file=("/etc/hosts" "/etc/profile.d/env.sh")cp_folder=("/root/.ssh/" "/usr/local/scala-2.11.4" "/usr/local/hadoop-2.6.0" "/usr/local/spark-1.2.2-bin-hadoop2.4" "/usr/local/jdk1.7.0_71")function cp_file_folder(){  for var_file in ${cp_file[@]};  do    scp $var_file root@$1:$var_file  done   for var_folder in ${cp_folder[@]};  do    scp -r $var_folder root@$1:/usr/local/  done}while getopts :f:h file_namedo    case $file_name in    f) cat $OPTARG | while read line        do                arr_var=(${line})            cp_file_folder ${arr_var[0]}                #run_docker ${arr_var[0]}  ${arr_var[1]} ${arr_var[2]}        done        sleep 2        ;;    h) echo "Usage: ./init_hadoop_spark -f demo-data"              exit 1            ;;        \?) echo "Usage: ./init_hadoop_spark -f demo-data"              exit 1              ;;      :) echo "Usage: ./init_hadoop_spark -f demo-data"              exit 1            ;;    esacdone

 

转载于:https://www.cnblogs.com/aguncn/p/4461997.html

你可能感兴趣的文章
Flask 系列之 SQLAlchemy
查看>>
aboutMe
查看>>
【Debug】IAR在线调试时报错,Warning: Stack pointer is setup to incorrect alignmentStack,芯片使用STM32F103ZET6...
查看>>
一句话说清分布式锁,进程锁,线程锁
查看>>
FastDFS使用
查看>>
服务器解析请求的基本原理
查看>>
[HDU3683 Gomoku]
查看>>
下一代操作系统与软件
查看>>
【iOS越狱开发】如何将应用打包成.ipa文件
查看>>
[NOIP2013提高组] CODEVS 3287 火车运输(MST+LCA)
查看>>
Python IO模型
查看>>
DataGridView的行的字体颜色变化
查看>>
局域网内手机访问电脑网站注意几点
查看>>
[Serializable]的应用--注册码的生成,加密和验证
查看>>
Linux操作系统 和 Windows操作系统 的区别
查看>>
Android-多线程AsyncTask
查看>>
LeetCode【709. 转换成小写字母】
查看>>
如何在Access2007中使用日期类型查询数据
查看>>
CF992E Nastya and King-Shamans(线段树二分+思维)
查看>>
如果没有按照正常的先装iis后装.net的顺序,可以使用此命令重新注册一下:
查看>>