您的位置:68399皇家赌场 > 域名注册 > 前者httpd heepalived加后端heartbeat nfs drbd完结httpd服

前者httpd heepalived加后端heartbeat nfs drbd完结httpd服

发布时间:2019-05-10 09:23编辑:域名注册浏览(169)

    DRBD(DistributedReplicatedBlockDevice)是2个基于块设备等第在长途服务器直接同步和镜像数据的开源软件,类似于RAID1多少镜像,日常合作keepalived、heartbeat等HA软件来完毕高可用性。
    DRBD是壹种块设备,能够被用来高可用(HA)之中.它就如于二个互联网RAID-一效用,当你将数据写入当和姑件系统时,数据还将会被发送到网络中另壹台主机上.以一样的样式记录在二个文件系统中。
    本地(master)与远程主机(backup)的承接保险实时同步,若是地点系统出现故障时,远程主机上还会保留有壹份相同的数据,可以继续使用.在高可用(HA)中利用DRBD成效,能够代替使用1个共享盘阵.因为数量同时设有于地面主机和长途主机上,切换时,远程主机只要接纳它上边的那份备份数据。

     Heartbeat DRBD mysql高可用方案

    1、Drbd 专业原理
    DRBD是一种块设备,能够被用来高可用(HA)之中.它好像于3个互联网RAID-一功能.(能够相比较一下Linux的NFS)当您将数据写入本三步跳件系统时,数据还将会被发送到网络中另壹台主机上.以同一的花样记录在一个文件系统中。 本地(主节点)与远程主机(备节点)的数码足以确认保证实时同步.当本地系统现身故障时,远程主机上还会 保留有1份一样的多少,可以三番五次使用.在高可用(HA)中运用DRBD功效,可以代替使用二个共享盘阵.因为数量同时设有于本地主机和远程主机上,切换时,远程主机只要利用它下边包车型地铁那份备份数据,就能够再三再四进行劳动了。

    正文4台机器:Centos⑥.0

    1、实践意况

    一.1  方案简单介绍

    二、意况布置:
    一、操作系统:radhat 伍.4
    2、主服务器:
    主机名:master
    IP:192.168.2.124
    镜像的硬盘:/dev/hdb
    三、 备份服务器
    主机名:slave
    IP:192.168.2.125
    镜像的硬盘:/dev/hdb

    lv1、lv二两台机械做httpd的前端,使用keepalived做高可用;虚拟出三个vip供client访问。

    系统版本:CentOS 陆.5
    DRBD版本: drbd-8.3.15
    Keepalived:keepalived-1.1.15
    Master:192.168.10.128
    Backup:192.168.10.130

    本方案选用Heartbeat双机热备软件来担保数据库的高牢固和再三再四性,数据的1致性由DRBD那一个工具来有限支持。默许情状下唯有1台mysql在专门的事业,当主mysql服务器出现难点后,系统将电动切换成备机上承接提供服务,当主数据库修复实现,又将劳动切回继续由主mysql提供劳动。

    三、安装drbd
    一、下载源代码:
    2、把下载好的drbd-8.3.五.tar.gz解压
    [[email protected] ] # tar –zxvf drbd-8.3.5.tar.gz
    [[email protected] ] # cd drbd-8.3.5
    [[email protected] ] # make
    [[email protected] ] # make install
    [[email protected] ]# modprobe drbd @加载安装drbd模块
    [[email protected] ]# lsmod |grep drbd
    drbd 271736 0
    @通过lsmod检查是或不是早已打响,假诺有像样内容输出,则意味着drbd安装成功了
    [[email protected] ]# mknod /dev/drbd0 b 147 0 @创造硬件配备drbd

    node一、node2应用drbd技艺达成文件镜像存款和储蓄,虚拟出三个vip做nfsserver_ip供httpd服务,方便配置,资料的合并保管;

    2、初步化配置
    1) 在12八、130两台服务器/etc/hosts里面都增添如下配置:
    192.168.149.128 node1
    192.168.149.130  node2
    二) 优化系统kernel参数,直接上sysctl.conf配置如下:

    1.二  方案优缺点

    四、配置drbd
    DRBD运营时,会读取三个安插文件/etc/drbd.conf.这么些文件里描述了DRBD设备与硬盘分区的映照关系,数据假使写入磁盘并发送到网络中就感觉完结了写入操作。
    一、drbd.conf的布局参数表达
    Protocol
    Protocol A @数据如若写入磁盘并发送到互联网中就感到完结了写入操作
    Protocol B @收到接收确认就觉着落成了写入操作。
    Protocol C @收到写入确认就以为落成了写入操作。
    2、global
    global { usage-count yes; } @是还是不是插手DRBD使用者总结,默许是yes
    3、common
    common { syncer { rate 1M; } }
    @设置主备节点同步时的网络速率最大值,单位是字节.
    4、resource
    1个DRBD设备(即:/dev/drbdX),叫做3个"能源"。里面含有一个DRBD设备的主备节点的的ip消息,底层存储设备名称,设备大小,meta新闻寄存格局,drbd对外提供的装置名等等。
    resource r0 {
    protocol C; @使用协议C.表示收到远程主机的写入确认后,则感觉写入完毕.
    net {
    cram-hmac-alg sha壹; @设置主备机之间通讯使用的新闻算法.
    shared-secret "FooFunFactory";
    }
    @各种主机的认证以"on"初步,前面是主机名.在背后的{}中为这些主机的配置.
    on master {
    device /dev/drbd0;
    disk /dev/ hdb;
    address 1九二.168.贰.1二四:78玖八; @设置DRBD的监听端口,用于与另1台主机通讯
    meta-disk internal;
    }
    on slave{
    device /dev/drbd0;
    disk /dev/ hdb;
    address 192.168.2.124:7898;
    meta-disk internal;
    }
    }
    伍、以下为测试时的全部配置
    global {
    usage-count yes;
    }
    common {
    protocol C;
    }
    resource r0 {
    on master {
    device /dev/drbd0;
    disk /dev/hdb;
    address 192.168.2.124:7789;
    meta-disk internal;
    }
    on slave {
    device /dev/drbd0;
    disk /dev/hdb;
    address 192.168.2.125:7789;
    meta-disk internal;
    }
    }

    关系使用技能;httpd、keepalived、drbd、nfs、heartbeat

    net.ipv4.ip_forward = 0
    net.ipv4.conf.default.rp_filter = 1
    net.ipv4.conf.default.accept_source_route = 0
    kernel.sysrq = 0
    kernel.core_uses_pid = 1
    net.ipv4.tcp_syncookies = 1
    kernel.msgmnb = 65536
    kernel.msgmax = 65536
    kernel.shmmax = 68719476736
    kernel.shmall = 4294967296
    net.ipv4.tcp_max_tw_buckets = 10000
    net.ipv4.tcp_sack = 1
    net.ipv4.tcp_window_scaling = 1
    net.ipv4.tcp_rmem = 4096 87380 4194304
    net.ipv4.tcp_wmem = 4096 16384 4194304
    net.core.wmem_default = 8388608
    net.core.rmem_default = 8388608
    net.core.rmem_max = 16777216
    net.core.wmem_max = 16777216
    net.core.netdev_max_backlog = 262144
    net.core.somaxconn = 262144
    net.ipv4.tcp_max_orphans = 3276800
    net.ipv4.tcp_max_syn_backlog = 262144
    net.ipv4.tcp_timestamps = 0
    net.ipv4.tcp_synack_retries = 1
    net.ipv4.tcp_syn_retries = 1
    net.ipv4.tcp_tw_recycle = 1
    net.ipv4.tcp_tw_reuse = 1
    net.ipv4.tcp_mem = 94500000 915000000 927000000
    net.ipv4.tcp_fin_timeout = 1
    net.ipv4.tcp_keepalive_time = 30
    net.ipv4.ip_local_port_range = 1024 65530
    net.ipv4.icmp_echo_ignore_all = 1
    

    可取:安全性高、稳固性高、可用性高,出现故障自动切换,

    陆、双机五个节点的安插文件是大同小异的。DRBD源码目录下有个样本,里面说得比较详细。

    如图:

    叁)两台服务器分别加多一块设备,用于DRBD主设备存款和储蓄,小编那边为/dev/sdb 20G硬盘;
    实行如下命令:

    缺陷:唯有壹台服务器提供劳务,费用相对较高。不方便人民群众扩大。大概会生出脑裂。

    五、启动drbd
    1、创建matadata
    在起步DRBD此前,须求各自在两台主机的hdb分区上,创制供DRBD记录新闻的数码块.分别在两台主机上进行:
    [[email protected] ]#drbdadm create-md r0
    [[email protected] ]#drbdadm create-md r0
    备注:
    一) “r0”是在drbd.conf里定义的财富名称.
    贰) 当实行命令”drbdadm create-md r0”时,出现以下错误音讯。
    Device size would be truncated, which
    would corrupt data and result in
    'access beyond end of device' errors.
    You need to either
    * use external meta data (recommended)
    * shrink that filesystem first
    * zero out the device (destroy the filesystem)
    Operation refused.
    Command 'drbdmeta 0 v08 /dev/xvdb internal create-md' terminated with exit code 40
    drbdadm create-md r0: exited with code 40
    化解办法:起始化磁盘文件格式, dd if=/dev/zero bs=1M count=一of=/dev/sdXYZ; sync
    [[email protected] ]# dd if=/dev/zero bs=1M count=1 of=/dev/hda3; sync
    2.开发银行DRBD,分别在两台主机上实行
    [[email protected] ]# /etc/init.d/drbd start
    [[email protected] ]# /etc/init.d/drbd start
    备注:
    壹经在开发银行进度中找不到node时,查看是/dev/hda三是还是不是是处于挂载状态,假设是,用umount命令撤销挂载

    68399皇家赌场 1

    mkfs.ext3 /dev/sdb ;dd if=/dev/zero of=/dev/sdb bs=1M count=1;sync

    一.叁  方案架构图

    1. 查看DRBD的情事,分别在两台主机上推行
      [[email protected] drbd]# cat /proc/drbd

    lv1: 192.168.182.130

    三、DRBD安装配置

    68399皇家赌场 2

    version: 8.3.10 (api:88/proto:86-96)
    GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by [email protected], 2011-01-28 12:17:35

    lv2: 192.168.182.129     VIP:192.168.182.200 该vip供client访问

    Yum方式安装:
    rpm -Uvh
    yum -y install drbd83* kmod-drbd83 ; modprobe drbd
    源码安装格局:

    ./configure --prefix=/usr/local/drbd --with-km
    make KDIR=/usr/src/kernels/2.6.32-504.el6.x86_64/
    make install
    cp drbd/drbd.ko /lib/modules/`uname -r`/kernel/lib/
    Yum格局和源码方式都急需实施:modprobe drbd 加载DRBD模块。
    设置到位并加载drbd模块后,vi修改/etc/drbd.conf配置文件,内容如下:

    一.肆  方案适用场景

    1: cs:Connected ro:Secondary/Secondary ds:Inconsistent/Inconsistent C r-----
    ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:2096028

    node1:192.168.182.133

    global {
    usage-count yes;
    }
    common {
    syncer { rate 100M; }
    }
    resource r0 {
    protocol C;
    startup {
    
    }
    disk {
    on-io-error detach;
    #size 1G;
    }
    net {
    }
    on node1 {
    device /dev/drbd0;
    disk /dev/sdb;
    address 192.168.10.128:7898;
    meta-disk internal;
    }
    on node2 {
    device /dev/drbd0;
    disk /dev/sdb;
    address 192.168.10.130:7898;
    meta-disk internal;
    }
    }
    

    本方案适用于数据库访问量不太大,长期内访问量拉长不会太快,对数据库可用性要求非常高的场景。

    对出口的含义解释如下:
    ro表示剧中人物音讯,第二次运转drbd时,七个drbd节点暗中同意都远在Secondary状态,
    ds是磁盘状态音信,“Inconsistent/Inconsisten”,即为“分化/不一样样”状态,表示三个节点的磁盘数据处于不雷同状态。
    Ns代表互连网发送的数额包音信。
    Dw是磁盘写消息
    Dr是磁盘读消息
    四、设置主节点
    由于暗中同意未有先后节点之分,由此必要设置三个主机的主次节点,采取须要安装为主节点的主机,然后施行如下命令:
    [[email protected]]#drbdsetup /dev/drbd0 primary –o
    抑或实行下边发号施令也是能够的
    [[email protected] master]#drbdadm -- --overwrite-data-of-peer primary all
    率先次推行完此命令后,在后头假设需求安装哪些是主节点时,就可以选取别的贰个限令:

    node二:1玖二.16八.1捌贰.134  VIP:1玖二.16捌.1八二.150  该VIP充当nfsserver举办挂载  

    配置修改完毕后进行如下命令起头化:
    drbdadm create-md r0 ;/etc/init.d/drbd restart ;/etc/init.d/drbd status
    如下图:

    一.伍  方案实战

    [[email protected] master]#/sbin/drbdadm primary r0或者/sbin/drbdadm primary all
    再次翻开drbd状态,
    [[email protected] master]# cat /proc/drbd
    version: 8.3.10 (api:88/proto:86-96)
    GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by [email protected], 2011-01-28 12:17:35

    首先关闭了selinux、iptables;当然真实情形并非如此,大家开始展览分级安排就能够

    68399皇家赌场 3

    一.五.壹 实战条件介绍

    1: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
    ns:2432 nr:0 dw:0 dr:3104 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:2093596
    [>....................] sync'ed: 0.2% (2093596/2096028)K
    finish: 0:12:27 speed: 2,432 (2,432) K/sec

    一、开首配备,lv1、lv二;举行测试前端是还是不是正规

    上述步骤,须要在两台服务器都实行,两台都安排完成后,在node②从上边推行如下命令:/etc/init.d/drbd status 看到如下音信,表示近期两台都为从,大家需求安装node一为master,命令如下:

    主机名

    Ip

    系统

    DRBD磁盘

    Heartbeat版本

    dbserver1

    10.1.1.113

    Centos 5.5 64bit

    /dev/sdb1

    2.1.3

    dbserver2

    10.1.1.108

    Centos 5.5 64bit

    /dev/sdb1

    2.1.3

    能够看来明天事态已经是primary/secondary,而且磁盘音信是upTodat/Inconsistent(实时/不一样样),而且已经起来联手两台机械对应磁盘的数量
    过了一会,大家再一次查看drbd状态,如下:
    [[email protected] master]# cat /proc/drbd
    version: 8.3.10 (api:88/proto:86-96)
    GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by [email protected], 2011-01-28 12:17:35

    一、分别实践:yum install -y httpd ipvsadm keepalived

    drbdadm  --  --overwrite-data-of-peer primary all
    mkfs.ext4  /dev/drbd0
    mkdir  /app  ;mount /dev/drbd0  /app

     

    1: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
    ns:2096028 nr:0 dw:0 dr:2096700 al:0 bm:128 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0

    为了分别出lv1、lv2的页面不一致,分别在页面标记lv壹、lv2

    其后,DRBD配置达成,我们可现在/app目录写入其它东西,当master出现宕机大概其余故障,手动切换成backup,数据未有任何丢失,也正是两台服务器做互连网RAID一。

    1.5.2 DRBD的安装

    此时的图景消息便是primary/secondary,磁盘音讯是UpToDate/UpToDate,表明已经联手实现了。

    68399皇家赌场 4

    四、Keepalived配置

    官方网址的说教,假设系统基本(linux)版本低于二.陆.3三,在安装软件在此之前必要加载DRBD模块,作者的基石版本是二.陆.1八的,安装后会自动加载drbd模块。安装命令如下:

    6、测试同步
    把主机上的DRBD设备挂载到3个索引上海展览中心开应用。备机的DRBD设备不能够被挂载,因为它是用来抽取主机数据的,由DRBD担任操作。
    主备节点切换有三种办法,分别是终止drbd服务切换和例行切换,依次介绍:
    壹、截至drbd服务切换
    闭馆主节点服务,此时挂载的drbd分区就自动在主节点卸载了,然后在备用节点实践切换命令:
    [[email protected] ~]#drbdadm primary all
    此时会报错:
    2: State change failed: (-7) Refusing to be Primary while peer is not outdated
    Command 'drbdsetup 2 primary' terminated with exit code 11
    所以,必须在备用节点实践如下命令:
    [[email protected] ~]#drbdsetup /dev/drbd0 primary –o
    或者
    [[email protected]~]#drbdadm -- --overwrite-data-of-peer primary all
    那时候就足以健康切换了。
    当在备用节点推行切换成主节点命令后,原来的主用节点自动形成备用节点。无需在主用节点再一次实行切换来备用节点的授命。
    2、平时切换
    在主节点卸载磁盘分区,然后实行
    [[email protected] ~]#drbdadm secondary all
    假设不举办那几个命令,直接在备用节点实践切换成主节点的吩咐,会报错:
    68399皇家赌场,2: State change failed: (-1) Multiple primaries not allowed by config
    Command 'drbdsetup 2 primary' terminated with exit code 11
    跟着,在备用节点实行
    [[email protected] ~]#drbdadm primary all
    最终在备用节点挂载磁盘分区就可以:
    [[email protected] ~]#mount /dev/drbd0 /mnt
    3、注意点
    一)mount drbd设备从前必须把设备切换成primary状态。
    2)三个节点中,同一时刻只好有一台处于primary状态,另一台处于secondary状态。
    三)处于secondary状态的服务器上不可能加载drbd设备。
    四)主备服务器同步的七个分区大小最佳同1,那样不至于浪费磁盘空间,因为drbd磁盘镜像相当于网络raid 壹。

    68399皇家赌场 5

    wget ; tar -xzvf keepalived-1.1.15.tar.gz ;cd keepalived-1.1.15 ; ./configure ; make ;make install
    DIR=/usr/local/ ;cp $DIR/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/ ; cp $DIR/etc/sysconfig/keepalived /etc/sysconfig/ ;
    mkdir -p /etc/keepalived ; cp $DIR/sbin/keepalived /usr/sbin/
    两台服务器均安装keepalived,并举行布置,首先在node①(master)上安排,keepalived.conf内容如下:

    yum install -y drbd83 kmod-drbd83

    职业原理 DRBD是一种块设备,可以被用于高可用(HA)之中.它类于一个互联网RAID-1功效.(可以比较一下Linux的NFS)当你将数据写入当麻芋果...

    二、接下去配置keepalived;

    ! Configuration File for keepalived
    global_defs {
    router_id LVS_DEVEL
    }
    vrrp_script check_mysql {
    script "/data/sh/check_mysql.sh"
    interval 5
    }
    vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 52
    priority 100
    advert_int 1
    authentication {
    auth_type PASS
    auth_pass 1111
    }
    virtual_ipaddress {
    192.168.10.100
    }
    track_script {
    check_mysql
    }
    }
    

    安装后使用lsmod | grep drbd命令查看是还是不是加载drbd模块,若是未有加载需求手动运转命令加载,命令如下:

    lv1:上配置

    然后成立check_mysql.sh检查实验脚本,内容如下:

    insmod drbd/drbd.ko 或者 modprobe drbd

    vim /etc/keepalived/keepalived.conf

    #!/bin/sh
    A=`ps -C mysqld --no-header |wc -l`
    if
    [ $A -eq 0 ];then
    /bin/umount /app/
    drbdadm secondary r0
    killall keepalived
    fi
    添加node2(backup)上配置,keepalived.conf内容如下:
    ! Configuration File for keepalived
    global_defs {
    router_id LVS_DEVEL
    }
    vrrp_sync_group VI{
    group {
    VI_1
    }
    notify_master /data/sh/master.sh
    notify_backup /data/sh/backup.sh
    }
    vrrp_instance VI_1 {
    state BACKUP
    interface eth0
    virtual_router_id 52
    priority 90
    advert_int 1
    authentication {
    auth_type PASS
    auth_pass 1111
    }
    virtual_ipaddress {
    192.168.10.100
    }
    }
    

    1.5.3 DRBD的配置

    ! Configuration File for keepalived

    开创master.sh检查测试脚本,内容如下:

    配置从前须要先利用fdisk对/dev/sdb进行分区。

    global_defs {
      notification_email {
        [email protected]
      }
      notification_email_from [email protected]
      smtp_server 127.0.0.1
      smtp_connect_timeout 30
      router_id LV_ha
    }

    #!/bin/bash
    drbdadm primary r0
    /bin/mount /dev/drbd0 /app/
    /etc/init.d/mysqld start
    

    对于DRBD的铺排,只要求配置/etc/drbd.conf和hosts文件就能够,dbserver1和dbserver二的hosts增加的故事情节如下:

    vrrp_instance httpd {
       state MASTER
       interface eth0
       virtual_router_id 51
       priority 100
       advert_int 1
       authentication {
           auth_type PASS
           auth_pass 1111
       }
       virtual_ipaddress {
           192.168.182.200
       }
    }

    创造backup.sh检查实验脚本,内容如下:

    10.1.1.113 dbserver1

    virtual_server 192.168.182.200 80 {
       delay_loop 2
       lb_algo rr
       lb_kind DR
       persistence_timeout 50
       protocol TCP

    #!/bin/bash
    /etc/init.d/mysqld stop
    /bin/umount /dev/drbd0
    drbdadm secondary r0
    

    10.1.1.108 dbserver2

       real_server 192.168.182.130 80 {
           weight 3
       notify_down    /var/www/httpd.sh
       TCP_CHECK {
       connect_timeout    3
       nb_get_retry    3
       delay_before_retry    3
       connect_port 80
           }
       }
    }
    lv2:配置

    爆发脑裂复苏手续如下:

    自己的/etc/drbd.conf文件的内容如下(dbserver1和dbserver二的配备同样):

    vim /etc/keepalived/keepalived.conf

    Master推行命令:
    drbdadm secondary r0
    drbdadm -- --discard-my-data connect r0
    drbdadm -- --overwrite-data-of-peer primary all
    Backup上推行命令:
    drbdadm secondary r0
    drbdadm connect r0

    global { usage-count yes; }

    ! Configuration File for keepalived

    您也许感兴趣的篇章:

    • 详解MySQL高可用MMM搭建方案及框架结构原理
    • MySQL数据库的高可用方案总计
    • Keepalived HAProxy达成MySQL高可用负载均衡的安顿
    • MySQL下高可用故障转移方案MHA的特级安插教程
    • MySQL高可用MMM方案设置配备分享
    • MySQL高可用消除方案MMM(mysql多主复制管理器)

    common { syncer { rate 10M; } }

    global_defs {
      notification_email {
        [email protected]
      }
      notification_email_from [email protected]
      smtp_server 127.0.0.1
      smtp_connect_timeout 30
      router_id LV_ha
    }

    resource r0 {

    vrrp_instance httpd {
       state MASTER
       interface eth0
       virtual_router_id 51
       priority 100
       advert_int 1
       authentication {
           auth_type PASS
           auth_pass 1111
       }
       virtual_ipaddress {
           192.168.182.200
       }
    }

            protocol C;

    virtual_server 192.168.182.200 80 {
       delay_loop 2
       lb_algo rr
       lb_kind DR
       persistence_timeout 50
       protocol TCP

            startup {

       real_server 192.168.182.129 80 {
           weight 3
       notify_down    /var/www/httpd.sh
       TCP_CHECK {
       connect_timeout    3
       nb_get_retry    3
       delay_before_retry    3
       connect_port 80
           }
       }
    }
    分别在lv1、lv2创建httpd.sh

            }

    vim /var/www/httpd.sh

            disk {

    #!/bin/sh
    pkill    keepalived

                    on-io-error detach;

    #####

                    #size 1G;

    chmod x httpd.sh

            }

    近些日子为此测试下面的是否健康,是还是不是正规转移

            net {

    68399皇家赌场 6

            }

    68399皇家赌场 7

            on dbserver1 {

    发觉未来是lv一在提供劳务,在vrrp中也足以看到 priority 十0);

                    device /dev/drbd0;

    现在在lv1停掉httpd

                    disk /dev/sdb1;

    68399皇家赌场 8

                    address 10.1.1.113:7888;

    68399皇家赌场 9

                    meta-disk internal;

    68399皇家赌场 10

            }

    现今发掘是lv二在提供劳动,未来当您运营lv一上的httpd和keepalived的服务后,httpd会自行切换会lv一上;这里不演示了;

            on dbserver2 {

    2:以往始发node一、node2配置drbd heartbeat nfs并进行测试;

                    device /dev/drbd0;

    1、配置hosts,安装drbd、heartbeat、nfs

                    disk /dev/sdb1;

    1>、node1、node2:

    本文由68399皇家赌场发布于域名注册,转载请注明出处:前者httpd heepalived加后端heartbeat nfs drbd完结httpd服

    关键词: 68399皇家赌场

上一篇:详细深入分析Linux进度调解时机

下一篇:没有了