您的位置:68399皇家赌场 > 企业邮局 > 20壹七 08-二一 互联网管理(三)

20壹七 08-二一 互联网管理(三)

发布时间:2019-05-02 08:50编辑:企业邮局浏览(174)

    卡夫卡品质优化之坎坷路(2),kafka质量优化

    接上1篇:

    题外话:
     上1篇简单说了壹晃协和对kafka的部分基础通晓,以及c 中如何利用librdkafka来兑现大家和好的业务须要。那一篇就来探讨切磋一些另类游戏的方法,跟代码无关,用到的才能也不算新,可是令本人倍感奇怪的是,竟然从未人如此使用过,施行过。。。
     笔者挺优伤的,这么一些通用且实用,而且通过一点也不细略的操作就会升官好数倍质量的办法,竟然甚少人去采取他们,乃至离奇。忽然认为中夏族民共和国以此IT意况里,怎么才干培养出巨大的程序猿,公司重视的是好处,领导赏识的是结果,不懂技能的人做领导,懂才具的人被领导,面试靠出口,专门的学问靠开会,擢升靠资历,找工作靠文化水平。。。
     百分之99的档案的次序,“先出1个本子,前面再思虑优化”“那些须求很轻易,怎么落到实处作者不管,后日自家将要”,但是。。永恒没有时间梳理,也坚苦思量。项目永恒很急,程序猿长久在突击。。。之前的代码恒久要靠下壹任调bug。。。

    扯远了,回归正题吧。

    一.卡夫卡条件搭建
     英特网有大多碰着搭建的科目示例,看了弹指间,大概全是千篇1律,都以相互转过来转过去,未有牵记到骨子里行使场景,也不思虑质量毕竟什么样,也不思量怎么要这么搭,反正大家都以按那么些套路来的,乃至本身想找一篇搭建4个节点集群的都找不到。
     实际生产条件中,大家的kafka是搭建在服务器上的,我们都精通每台服务器搭建二个节点,多个节点组成3个集群。我们也知道kafka的性质瓶颈是在网络IO和磁盘读写速度上。
    符合规律意况下那样搭建当然是没难点的,而且kafka自个儿是为短音讯而规划的,不过在诸多利用场景中,我们只可以实时传输图片那种大新闻,假使大家要搭建贰个支持日吞吐量5000万多少的集群,每条音讯1M,
    我们来算一下:
     倘诺各种节点带宽是1000Mbps,可传输的字节数就一千/⑧=12伍M, 纵然要帮助每秒钟处理500条数据,那需求三个多大的集群呢?
    好的,500条*1M=500M, 500M/1二伍M=4。 也正是伍个节点的集群。没毛病呢老铁?
    没毛病么?毛病比一点都不小啊。我们算的那500M唯有是数据吞吐量的带宽,可是吞吐量吞吐量,有吞也有吐啊。
    最简便易行的一份生产一份开支,各须要占掉当中四分之2的带宽,那大家要达到每分钟生产500条消费500条,最少就需求一千M字节的带宽。
    这只是最奇妙的境况,实际选取中,必然不止三个用户要从kafka中消费数量,假如有2个用户要从集群中消费数据,还要支撑每秒500条,这就表示本身那么些集群的吞吐总的数量要完成每分钟两千M字节,互连网io比特率要知足每分钟30000Mbps,即使各类节点采纳千兆网卡,那表示笔者需求一个由20台服务器组成的集群。壹台服务器保守点配置一般的50000块钱一台,那就要求100万资金。
    这明摆着不对啊,kafka不是名字为吞吐量宇宙第2的么,怎么会要靠堆放服务器的数目来满意仅仅是每秒管理500条数据的须求吗?
    那之中肯定有标题,作者要去找官方要个说法去,那跟你们吹出来的一心不吻合啊,逗作者呢啊?
    求带麻袋,大家再仔细回过头来想壹想,难题出在哪吧,大家的总结也没难题,那要么算的最最美貌的情景下,实际的生产条件大概更差。不对,一定有题目。

    周密屡了又屡,真的没难题,大家公司便是这么用的哟,大家合作社也是如此用的呀,没毛病呢老铁?
    没毛病么?毛病异常的大啊。通过上边的盘算我们很强烈会汲取3个强劲而且官方可验证的结论,限制kafka质量的只好是互联网带宽不够大。有未有主意消除呢?换万兆带宽?整个都换到万兆,那分外,花费又翻了一倍,200万股份资本。

    好呢,接下去就是我们怎么消除那一个互连网瓶颈的试行之路了:
        既然我们的瓶颈是在互连网上,网络的瓶颈又是在网卡上,把千兆网卡换万兆网卡又不具体,那就只剩一条路了,增添块网卡。OK,一般的服务器都帮衬四网口 一管理口,先来插上肆根网线,配置四个ip地址。没毛病,然后大家就想了,既然都有4块网卡,每块网卡又有独立的ip地址了,这大家是否能够在一台机械上搭建几个kafka节点,各类节点绑定壹块网卡呢,来尝试吧,很感动。。。依照教程,一步一步,摩擦摩擦,biu的一。。。。纳尼??竟然起不来??难道我安顿出难题了?检查1遍,给笔者起。。。检查一回,给笔者起。。。检查三次。。。百度谷歌,检查六次。。。什么鬼???kafka难道不支持在壹台机械上开三个经过?不对啊,不是还有在1台机器上搭建伪集群的学科摆在那呢,那表明不是kafka的主题材料。然后又是一顿查,1顿乱试,终于。。咱们核算出了本质:在同样台机器上起多少个kafka需求配置端口号不雷同,而且新版kafka慢慢放弃了host.name和port那八个布局项,全部相关的安排,只需求配置listeners就可以。
    再全体删掉重新来过,配网卡ip,配listeners,给本身起!哈哈哈,终于起来了,而且能够平常生育消费数量了,笔者真是太厉害了,这么难的主题素材居然被本人消除了,经过这样多努力,大家到底得以兑现一块网卡对应贰个kafka节点的赫赫愿望了,还有何人??  不过。。。俗话说的好。。。不要喜欢的太早。。。太早。。早。。

    来吧,让大家看1看你的互联网IO瓶颈能还是无法达标四千Mbps吧,手指急速的输入1串代码:sar -n DEV 一  
    当当当。。随着生产线程数的扩大,网络io相当慢完结1000Mbps了,作者要再加13个生产! sar -n DEV 一当当当。。。什么?网络io竟然依然一千Mbps,不对不对,怎么肥4?抓个包看1看,四个ip分别成立tcp链接并伊始相互数据,没难题啊,再仔细一瞅,笔者去,为何全数ip指向的都是同三个mac地址,这不科学啊,是在逗我吧?笔者不信,肯定是自小编何地配置错了,肯定是作者心不够义气,确定是自身起步的章程不对。。。小编不信,作者不信。。。作者不信。。。让我们再试2回。。四次。。。2遍。。。
    求带麻袋,全部网卡ip都指向了二个mac地址,是或不是说需求手动配置网卡的路由音讯,让每一种网卡都由此友好的路由来转载数量,查资料,看教程,看man手册,配置路由。。让大家再虔诚的试二次。。。试几遍。。。试二回。。。不玩了。。笔者要回家,小编想阿娘。。。

    静下心来再思考:大家明天能够确认的是,在1台机器上搭建集群是立见成效的,只需配置端口号不等同就能够,各个kafka节点绑定一块网卡的办法不可行,固然把套接字绑定到一个一定网卡的ip上,数据包离开主机时会首先通过路由表,路由表会搜索最低资本的网络接口(放四静态的接口)进行发送,大家配备的四块网卡具备同样的血本,因为肆块网卡是在同一个子网内(即同2个网段),因而传输率不会当先单张网卡的传输率,即便要减轻那个主题材料,那么实用的门道是手动配置路由表消息,而且要保障四块网卡的ip位于差别的网段上,并要确认保障差异的网段是足以连接的。

    好呢,实际运用中大家是被分配ip的那么些,而不是足以轻便分配网段的那么些,明显那种艺术也不可行,可是至少大家总计出了1套立竿见影方案不是么。

    咱俩花了大气的大运探讨kafka跟网卡之间的涉及,但突然回过头来想,开掘大家不识不知中绕了七个大弯。归根结蒂,大家是要消除网络带宽的标题,结果反倒把温馨绕到跟kafka的涉嫌上了,既然在壹台机器上可以搭建伪集群,那么为何不把那台机械的全部网卡做贰个绑定呢?

    从Centos柒从头使用team形式,链路聚合的艺术开始展览多网卡绑定,让我们来试1试呢:
    详尽表明请参见官方文书档案:

    要明了的是,用于绑定的网卡,不应有安排任邓国强态的IP地址,举行绑定以前,须要将持有网卡苏醒到发轫化状态。而且一台服务器只好有多个网关。
    大家须要的是加多带宽情势的绑定,至于别的形式,请自行钻研,通过NetworkManager来配置一下:

    1. 创办team壹,并选取情势:
      命令:nmcli connection add con-name team1 type team ifname team1 config '{"device": "team1", "runner": {"name": "loadbalance","tx_hash": ["eth", "ipv4", "ipv6"],"tx_balancer": {"name": "basic"}}}'
    1. 增添网卡拓展绑定(本机一共四块网卡)
      命令:nmcli connection add con-name team1-port1 type team-slave ifname enp2s0f0 master team1
      nmcli connection add con-name team1-port2 type team-slave ifname enp2s0f1 master team1
      nmcli connection add con-name team1-port3 type team-slave ifname enp2s0f2 master team1
      nmcli connection add con-name team1-port4 type team-slave ifname enp2s0f3 master team1
    1. 给绑定后的虚构网卡设置IP地址和网关
      命令:nmcli connection modify team1 ipv4.addresses 192.20.25.100/24 ipv4.gateway 192.20.25.254 ipv4.method manual
      备注:ipv肆.addresses 1九二.20.25.十0/二4那边是4块网卡聚合成壹块网卡的ip地址和子网掩码缩写。
      ipv肆.gateway 1九二.20.二伍.25四那边是网卡的网关配置。
    1. 启动team1
      命令:nmcli connection up team1 

    伍.重启网络
    命令:systemctl restart network

    1. 查看情形
      命令:teamdctl team1 state
      备注:这里应该显得了四块网卡的新闻。
    1. 列出team1的端口
      命令:teamnl team1 ports
      备考:这里应该显得了四块网卡的信息。

    任何的操作:nmcli device disconnect  enp2s0f0 (禁止使用个中的一块)
    nmcli device connect enp2s0f0(启用在那之中的一块)
    ip link set down enp二s0f0 (关闭掉其中的一块进行测试)

    1. 查看互连网
      命令:ip add
      备注:这里就足以彰显出team一的新闻(ip和网关等音信)。

    从这之后,配置多网卡链路聚合结束。

    老大期待中,大家在其上述搭建了3个kafka伪集群,起始测试。。。开13个生产!
    当当当。。。网络IO到达一千Mbps,3000Mbs,三千Mbps,3600Mbps...天呐,竟然成功了。。。而且带宽损失率竟然不超过百分之十.。。

    我们成人在七个侥幸的1世,学习进步的资金如此之小,

    我们成人在一个不佳的一时半刻,学习升高的老本如此之大。

    1.CentOS 柒网络属性配置

    (1)网卡名称命名

    运用守旧命名情势: 

    (一) 编辑/etc/default/grub配置文件 GRUB_CMDLINE_LINUX="rhgb quiet net.ifnames=0"

    澳门皇家赌场 1

    image.png


    (贰) 为grub二生成其计划文件

    grub2-mkconfig -o /etc/grub2.cfg 或是grub2-mkconfig > /etc/grub2.cfg
    (三) 重启系统
    或利用对/boot/grub2/grub.cfg来得以达成修改
    步骤:

    (1)vim /boot/grub2/grub.cfg

    澳门皇家赌场 2

    image.png

    澳门皇家赌场 3

    image.png


    (二) cdnet ——cd /etc/sysconfig/network-scripts来修改配置文件
    vim ifcfg-ens33

    澳门皇家赌场 4

    image.png


    (三)保存后。重启使其收效

     

    TEAM_CONFIG='{"runner":{"name":"activebackup"}}'

    (五)nmcli实现bonding

    添加bonding接口
    (1)nmcli con add type bond con-name mybond0 ifname mybond0 mode active-backup
    澳门皇家赌场,(二)增多从属接口 nmcli con add type bond-slave ifname ens七 master mybond0 nmcli con add type bond-slave ifname ens三 master mybond0
    注:如无为从属接口提供连接名,则该名称是接口名称加类型构成 
    (三)要运营绑定,则必须首先运营从属接口 nmcli con up bond-slave-eth0 nmcli con up bond-slave-eth一 
    (四) 运营绑定 nmcli con up mybond0

    3.绑定第叁块网卡:"nmcli con add con-name 网卡外号1 ifname 原网卡名1type team-slave master team0"。

    [root@linuxidc ~]# nmcli connection modify br1 ipv4.addresses "192.168.20.20/24,192.168.20.1"
    [root@linuxidc ~]# nmcli connection modify br1 ipv4.method manual

    以实验来验证:

    步骤:
    (壹)首先将五个网卡都在设定在叁个网段(都是仅主机情势)
    开班安排 ncmli connection add type bond con-name bond0 ifname bond0 mode active-backup(主备方式)

    澳门皇家赌场 5

    image.png

    (2)使bond0生效——nmcli connection up bond0

    澳门皇家赌场 6

    image.png


    (三)nmcli connection show——查看是还是不是启用该配置网卡
    (四)关联三个slave网卡——
    nmcli connection add con-name bond0-slave1 type bond-slave ifname eth0 master bond0
    nmcli connection add con-name bond0-slave2 type bond-slave ifname eth1 master bond0

    澳门皇家赌场 7

    image.png

    (五)使网卡生效——nmcli connection up bond0-slave一 nmcli connection up bond0-slave2
    成就安装
    cat /proc/net/bonding/bond0 来查看具体哪个网卡生效
    剔除bond0网卡方法
    (一)禁用网卡 nmcli connection down bond0
    nmcli connection delete bond0
    nmcli connection show-来查看是不是删除
    nmcli connection delete bond0-slave1
    nmcli connection delete bond0-slave2
    nmcli connection reload——同步
    nmcli connection show-做最终的认同

    一.开立贰个team0的联谊接口:" nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name":"activebackup"}}' 

    [root@linuxidc ~]# nmcli connection add con-name team0-port1 ifname ens38 type team-slave master team0

    (六)网络组Network Teaming

    (1)互联网组:是将多个网卡聚合在一齐方法,从而落成冗错和提 高吞吐量 
    互连网组差异于旧版中bonding才能,提供越来越好的本性和扩充性 
    互联网组由基础驱动和teamd守护进度完成. 
    多样方法runner
    broadcast
    roundrobin
    activebackup
    loadbalance
    lacp (implements the 802.3ad Link Aggregation Control Protocol)
    (二)运转互联网组接口不会自动运营互连网组中的port接口 ——nmcil connection up team0时,互联网组中的port接口未有运维
    启航网络组接口中的port接口总会自动运转网络组接口 ——nmcli connection up team-slave-eth0,此时网络组接口也会运营
    剥夺网络组接口会自动禁止使用网络组中的port接口——nmcli connectiion down team0,网络组的port接口也会被禁止使用
    不曾port接口的互连网组接口能够运行静态IP连接 
    启用DHCP连接时,未有port接口的互连网组会等待port接 口的参预
    (三)创造互联网组接口
    nmcli con add type team con-name CNAME ifname INAME [config JSON] CNAME 连接名,INAME 接口名 JSON 指定runner方式 格式:'{"runner": {"name": "METHOD"}}' METHOD 可以是broadcast, roundrobin, activebackup, loadbalance, lacp
    (4)创建port接口
    nmcli con add type team-slave con-name CNAME ifname INAME master TEAM CNAME 连接名 INAME 互连网接口名 TEAM 互联网组接口名 
    连日来名若不钦点,默以为team-slave-IFACE nmcli dev dis INAME nmcli con up CNAME INAME 设备名 CNAME 互联网组接口名或port接口
    (5)互连网组示例
    nmcli con add type team con-name team0 ifname team0 config ‘{"runner": {"name": "loadbalance"}}' 
    nmcli con mod team0 ipv4.addresses 192.168.1.100/24 
    nmcli con mod team0 ipv4.method manual 
    nmcli con add con-name team0-eth1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-eth2 type team-slave ifname eth2 master team0 nmcli con up team0 
    nmcli con up team0-eth1 
    nmcli con up team0-eth2 
    teamdctl team0 state; nmcli dev dis eth1
    实验:创造网络组
    ip link nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name": "activebackup"}}' 
    nmcli con mod team0 ipv4.addresses '192.168.0.100/24' 
    nmcli con mod team0 ipv4.method manual 
    nmcli con add con-name team0-port1 type team-slave ifname eth1 master team0 nmcli con add con-name team0-port2 type team-slave ifname eth2 master team0 teamdctl team0 state
    ping -I team0 192.168.0.254 
    nmcli dev dis eno1 
    teamdctl team0 state 
    nmcli con up team0-port1 
    nmcli dev dis eno2 
    teamdctl team0 state 
    nmcli con up team0-port2 
    teamdctl team0 state
    (伍)管理互连网组配置文件/etc/sysconfig/network-scripts/ifcfg-team0
    DEVICE=team0
    DEVICETYPE=Team
    TEAM_CONFIG="{"runner": {"name": "broadcast"}}"
    BOOTPROTO=none
    IPADDR0=172.25.5.100
    PREFIX0=24
    NAME=team0
    ONBOOT=yes
    /etc/sysconfig/network-scripts/ifcfg-team0-eth1
    DEVICE=eth1
    DEVICETYPE=TeamPort
    TEAM_MASTER=team0
    NAME=team0-eth1
    ONBOOT=yes

                                              ## 实验练习
    

    开创3个网络组,runner情势为broadcast,手动加多网站
    步骤
    nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"broadcast"}}'
    nmcli conection modify team0 ipv4.adresses 192.168.136.176/24 ipv4.method manual
    添加port接口
    nmcli connection add type team-salve con-name team-slave0-eth1 ifname team-slave-eth1 master team0
    nmcli connection add type team-salve con-name team-slave0-eth0 ifname team-slave-eth0 master team0
    ping 192.168.136.176
    teamdctl team0 state
    删除网络组
    nmcli connection down team0
    nmcli connection delete team0
    nmcli connection delet team-slave0-eth1
    nmcli connection delet team-slave0-eth0
    nmcli connection reload

    五.起动聚合互联网:"nmcli con up team0"

    [root@linuxidc ~]# nmcli connection add con-name br1 type bridge ifname br1

    CentOS 陆以前,网络接口使用再而三号码命名:eth0、eth1等,当 扩充或删除网卡时,名称大概会产生变化 
    CentOS 七使用基于硬件,设备拓扑和安装类型命名: 
    (一) 网卡命名机制 systemd对网络设施的命超级模特式
    (a) 要是Firmware或BIOS为主板上并轨的配备提供的索引消息可用,且可预测则依据此索引进行命名,举个例子eno壹
    (b) 假使Firmware或BIOS为PCI-E增添槽所提供的目录音讯可用,且可预测,则基于此索引实行命名,比如ens壹
    (c) 假如硬件接口的大要地点音讯可用,则依照此新闻进行命 名,比方enp2s0
    (d) 假若用户显式运转,也可依照MAC地址举行命名, enx23捌7a一dc5六
    (e) 上述均不可用时,则采纳守旧命名机制

     

    澳门皇家赌场 8

    (二) CentOS7主机名

    (1)配置文件:/etc/hostname ,默许未有此文件,通过DNS反向解 析获取主机名,主机名默感觉:localhost.localdomain——cat /etc/hostname 

    澳门皇家赌场 9

    image.png

    (二)展现主机名新闻 hostname hostnamectl status 
    (三)设置主机名 hostnamectl set-hostname centos7.magedu.com

    区分于centos陆,采纳上述命令后会自动生成,且活动写入配置文件中

    澳门皇家赌场 10

    image.png


    (四)删除文件/etc/hostname,苏醒主机名localhost.localdomain 
    CentOS ⑦网络安顿工具 

    图片工具:nm-connection-editor 

    字符配置tui工具:nmtui 

    澳门皇家赌场 11

    image.png

     

    [root@linuxidc ~]# nmcli connection add con-name team0-port1 ifname ens34 type team-slave master team0

    (三)nmcli命令

    (壹)命令行工具:nmcli——有无尽的子命令

    澳门皇家赌场 12

    image.png

    透过 nmcli connection help来纯熟有关命令

    澳门皇家赌场 13

    image.png


    nmcli [ OPTIONS ] OBJECT { COMMAND | help }

    • device - show ——也便是ip link,查看数据链路层信息
    • nmcli connection show ——约等于ip addr查看网络层消息
      (二)修改IP地址等天性
    • nmcli connection modify ens33 connection.id eth0——将name=ens33改为eth0

      cat /etc/sysconfig/network-scripts/ifcfg-ens33

      澳门皇家赌场 14

      image.png


      nmcli con reload:重新加载,效率是使配置文件生效

    • 在eth1网卡上增加产量2个网卡
      nmcli connection add con-name home-eth1 ethernet ifname eth1

      ls /etc/sysconfig/network-scripts/ifcfg-home-eth1

      澳门皇家赌场 15

      image.png


      此时让该网卡生效成效在eth第11中学:nmcli connection uo home-eth一,原来的网卡被挤掉,使用新安插的网卡,因为该网卡的BOOTPROTO是dhcp类型的,所以会自行获取新的网站
      只要想将自动获取格局改为手动获取情势,则经过:nmcli connection modify home-eth一 ipv四.method manual ipv四.addresses 三.三.三.3/24ipv肆.gateway 3.三.3.1 ipv肆.dns 2.二.二.2

      然后nmcli connection up home-eth壹来使其收效
      去除新添网卡:
      nmcli connection down home-eth1
      nmcli connection del home-eth1
      nmcli connection show来查阅是不是删除
      (三)修改配置文件进行生效
      systemctl restart network 或是 nmcli con reload 
      nmcli命令生效: nmcli con down eth0 ;nmcli con up eth0

    (4)使用nmcli配置互联网

    NeworkManager是管制和监察互连网设置的护理进度 
    设施即网络接口,连接是对网络接口的布置。
    1个网络接口 可有多少个连续配置,但还要唯有3个连接配置生效 

    • 来得全体包含不移步再而三
      nmcli con show 
    • 展现全部移动一连
      nmcli con show --active 
    • 呈现互联网连接配置
      nmcli con show "System eth0“ 
    • 来得设备状态
      nmcli dev status
    • 显示网络接口属性 nmcli dev show eth0 
    • 创设新连接default,IP自动通过dhcp获取
      nmcli con add con-name default type Ethernet ifname eth0 
    • 删除连接 nmcli con del default 
    • 创立新连接static ,钦赐静态IP,不自行延续 nmcti con add con-name static ifname eth0 autoconnect no type Ethernet ip四 17二.2伍.X.十/二四gw四 17二.2伍.X.254

     

    奥迪Q5HEL7 学习笔记30——配置链路聚合和桥接

    二.网桥

    (1)概念:
    桥接:把1台机械上的几何个互联网接口“连接”起来。其结 果是,当中2个网口收到的报文子禽被复制给其余网口并发送 出去。以使得网口之间的报文能够相互转载。网桥正是那般 二个器材,它有若干个网口,并且这几个网口是桥接起来的。 与网桥相连的主机就能够经过交流机的报文转载而互相通讯。 
    主机A发送的报文被送到交流机S一的eth0口,由于eth0与 eth壹、eth二桥接在一同,故而报文被复制到eth1和eth二,并 且发送出去,然后被主机B和交流机S二接到到。而S二又会将 报文转载给主机C、D。

    澳门皇家赌场 16

    image.png

    (2)配置实现网桥
    安顿原理和bonding和互连网组的创始类似,具体陈设进程如下:
    nmcli connection add type briage con-name brg0 ifname brg0
    nmcli connection modify br0 ipv4.addresses 192.168.38.100/24
    ipv4.method manuall
    nmcli con add type bridge-slave con-name br0-slave0-eth1 ifname eth1 master br0
    nmcli con add type bridge-slave con-name br0-slave0-eth0 ifname eth10master br0
    查看配置景况
    cat /etc/sysconfig/network-scripts/ifcfg-br0
    cat /etc/sysconfig/network-scripts/ifcfg-br0-port0
    brctl show
    去除网桥
    率先禁止使用网卡,然后删除网卡brctl delbr br0 
    剔除网桥中网卡 brctl delif eth0 
    留意:NetworkManager只辅助以太网接口接口连接到网桥,不支 持聚合接口

    二.翻看接口:"nmcli con show" 是或不是存在team0接口。

            2、loadbalence;

    三测试网络工具

    (一)在命令行下测试互联网的连通性 
    彰显主机名 hostname 
    测试互连网连通性 ping mtr 
    来得正确的路由表 ip route 
    规定名称服务器使用: nslookup  host  dig 
    盯住路由 • traceroute • tracepath
    (二)网络客户端工具
    ftp,lftp
    子命令:get、 mget、ls、help
    lftp [-p port] [-u user[,password]] SERVER 
    lftpget URL 
    wget [option]... [URL]...
    -q: 静默形式 -c: 断点续传 -O: 保存地点 --limit-rate=: 钦定传输速率,单位K,M等 links U奔驰G级L --dump --source

    肆.配备team0接口参数:"nmcli connection modify team0 ipv4.addresses "网段恐怕ip" ipv四.method manual connection.autoconnect yes"

                1、命令行;

    (报mac错误,正常)

    配置IP地址:
    [root@linuxidc ~]# nmcli connection modify team0 ipv4.addresses "192.168.10.100/24"
    [root@linuxidc ~]# nmcli connection modify team0 ipv4.method manual

      绑定第一块网卡:"nmcli con add con-name 网卡小名二 ifname 原网卡名二type team-slave master team0"。

     增添桥接网络:

    本文由68399皇家赌场发布于企业邮局,转载请注明出处:20壹七 08-二一 互联网管理(三)

    关键词: 68399皇家赌场 linux 博客 RHCE7 课程总结

上一篇:ubuntu下ftp服务器搭建

下一篇:没有了