centos网卡绑定
Ⅰ CentOS 6单网卡绑定多IP问题
这个实验是在虚拟机中进行的,没有考虑虚拟网卡所指派的内网IP问题,尤其当虚拟机选专择不同的vmnet的时候即便你把属两台虚拟机的IP地址改成一样的也不会出现IP地址冲突。
重启虚拟机后你必须ifup eth才可以进行网络通信,这说明虚拟机网卡的配置文件存在问题,配置文件中ONBOOT=yes可能没有写入网卡配置,网卡都没启用肯定无法连接。
如果你要做多单网卡多IP的实验要多考虑虚拟机同一个vmnet的问题,以及网卡的配置文件是否写错。
Ⅱ centos双网卡绑定技术
centos双网卡绑定技术在/etc/sysconfig/network-scripts/目录下建立ifcfg-bond0文件,文件内容如下:DEVICE=bond0
www.dnjsb.com
USERCTL=noBOOTPROTO=noneONBOOT=yesIPADDR=192.168.100.17NETMASK=255.255.255.0GATEWAY=192.168.100.1TYPE=UnKnownBONDING_OPTS=miimon=80
mode=0绑定mode为0,是rond-robin模式。然后分别修改ifcfg-eth0文件,如下:DEVICE=eth0#HWADDR=00:0D:60:9A:7B:0AONBOOT=yesBOOTPROTO=noneMASTER=bond0SLAVE=yesUSERCTL=no在把ifcfg-eth1文件修改如下:DEVICE=eth1#HWADDR=00:0D:60:9A:7B:0BONBOOT=yesBOOTPROTO=noneMASTER=bond0SLAVE=yesUSERCTL=no在/etc/modprobe.d/目录下建立bonding.conf文件,文件内容如下:alias
bond0
bonding然后重启网络service
network
restart之后就可以用ifconfig
-a看到绑定好的bond0网卡,bond0与eth0,eth1的mac地址均为一样。可以同过cat
/proc/net/bonding/bond0
此命令查看绑定情况
Ⅲ HP DL580 G7安装CentOS5.5,升级内核至2.6.36后,网卡绑定后死机
HP DL380G7,第一次接触这么贵的机器,据说10W,144G内存,8*300G SAS硬盘,安装的是HP P410i的阵列卡,重点是RAID配置和Centos5.5的安装
RAID configuration
HP DL380/580/360 server RAID的配置都一样,有三种方法:
1. 使用ORCA(Option ROM Configuration for Arrays)配置
2. 使用附带光盘HP Smart Start中的HP Array Configuration Utility (ACU)配置
3. HP Online Array Configuration Utilityfor NetWare (CPQONLIN)
方法一适合自定义安装,安装系统的过程中会根据系统版本的不同加载不同的阵列卡驱动;
方法二用到HPSmart start光盘,它可以配置RIAD、引导启动加载阵列驱动,然后安装系统,不过该管理软件官方只支持微软的Microsoft Windows Server,少数的版本也支持Red Hat Enterprise Linux、SUSE Linux Enterprise Server、Solaris和VMware;
方法三是系统中进行阵列在线扩容,比较适合不间断性业务的在线扩容。
方法一:
1) 进入RAID界面
开机进入系统﹐当出现HP Smart Array P410i Controller红色字体(HP Smart Array P410i是本机器对应的阵列卡型号)﹐请按[F8]键进入。
此时界面有五个选项:
1. Create logicalDrive------建立RAID
2. View logicalDrive------查看RAID状态
3. Delete logicalDriver------删除RAID
4. Manage License Keys
5. Cache Setting
2) RAID Configurations
选择Create logical Drive进入,界面主要分为五个部分(具体机器不同可能稍有区别),主要关注物理硬盘信息、RAID级别、Spare和最大启动分区选项,[Tab]键可以跳到右边的界面,[空格]键选中。380的server是8块300G的硬盘,8块物理硬盘全部选中、设置RAID 5,Spare不选中,Maximum Boot partition选中Enable(8GB maximum)。[enter]键确定,[F8]键保存,然后按提示操作,可以选中View logicalDrive查看相关的RADI配置信息。
方法二:
1) 进入ACU
将HP Smart Start光盘放入光驱, 开机并引导,按提示进入操作选择界面,此页面可供选择的操作有:Install、Maintenance、System Erase和Reboot。Maintenance中包含ACU,可以进入进行阵列配置,也包含Insight Diagnostic,可以用来进行服务器硬件诊断。
2) RAID Configurations
界面左侧列出检测到的阵列卡,中间列出阵列卡的信息,右侧配置阵列卡
创建Array的相关设置:
Fault Tolerance: RAID 的级别设置
Stripe Size : RAID条带化的大小
Size: 阵列大小
Max Boot有两个选项 a: Disable b: Enable 最大的引导空间
Array Accelerator有两个选项 a: Disable b: Enable 阵列加速器设置
具体的效果和方法一类似。
OS installation
配置好RADI就安装linux系统一般都会出现问题,找不到硬盘,因为阵列卡的驱动没有安装。HPSmart start光盘引导安装阵列卡驱动后可以接着安装OS,但是只支持MicrosoftWindows Server。而HP官方也支持Red Hat Enterprise Linux、SUSE Linux Enterprise Server、Solaris和VMware,其实也比较麻烦,配置好RIAD后,到官方网站下载对应整列卡型号和系统的驱动,插入光盘安装系统,用usb或者软驱加载阵列卡驱动,然后安装系统。
PS:之前HP360 server直接安装系统成功可能是因为发行版包含了对应阵列卡的驱动,网上也有成功的例子,所以如果Linux发行版包含了阵列卡的驱动应该可以像pc机一样安装系统。
1. Centos5.5 DVD
下载Centos5.5 64位DVD版的ISO,刻录成DVD。
2. 阵列卡驱动
下面HPSmart Array P410 Controller驱动列表的URL:
http://h20000.www2.hp.com/bizsupport/TechSupport/DriverDownload.jsp?&cc=us&prodNameId=3883931&taskId=135&prodTypeId=329290&prodSeriesId=3883890&&cc=us&submit=Go%20%810%863
打开页面后点击Red Hat Enterprise Linux 5 Server (x86)打开页面,选择Software - DriverDiskettes点击下载,文件名为cpq_cciss-3.6.26-5.rhel5.i686.dd.gz,解压成**.dd格式,此处为方便重命名为p410.dd。找一台Linux机器,把文件拷贝到/tmp,U盘的设备名为sdb,使用命令dd if=/tmp/megaraid_sas.imgof=/dev/sdb,具体如下:
[root@myth tmp]#dd if=/tmp/p410.dd of=/dev/sdb
2880+0 recordsin
2880+0 recordsout
1474560 bytes(1.5 MB) copied, 1.01765 s, 1.4 MB/s
[root@myth mnt]#mount /dev/sdb mp
[root@myth mnt]#cd mp
[root@myth mp]#ls
lost+found modinfo moles.alias moles.cgz moles.dep moles.pcimap pcitable rhdd
[root@myth mp]#cd ..
[root@myth mnt]#umount /dev/sdb
3. Centos5.5安装
上步完成后将U盘插到服务器上,插入光盘开始安装,在进入到安装界面的时候按F2,接着在boot:后面输入linux dd并按回车进入到阵列卡驱动安装界面,会提示是否提供驱动磁盘选择yes,选择驱动磁盘的来源,选择sda,提示插入驱动磁盘。
如果驱动不正确则提示:Failed to mount drive disk
如果驱动正确则提示加载 usb-storage ,此时驱动已经完全加载
完成一次加载后提示是否再加载其他存储驱动,如果已经加载完则选择NO,系统加载驱动完成后提示校验光盘媒体,可根据情况选择跳过或者校验,继续系统安装。
Ⅳ centos怎么查询网卡绑定ip
以下几来个命令可以查源看。 1、ethtool em1 指定 查看网卡信息 2、ifconfig 查看网卡连接 3、cat /etc/sysconfig/network-scripts/ifcf-em1 查看设备信息。
Ⅳ centos7 搭建dhcp时,如何绑定一块网卡
|是复isc dhcpd吧,就直接命制令行指定接口就行了。
/path/to/dhcpd eth0
dhcpd [ -p port ] [ -f ] [ -d ] [ -q ] [ -t | -T ] [ -cf config-file ] [ -lf lease-file ] [ -tf trace-output-file ] [ -play trace-playback-file ] [ if0 [ ...ifN ] ]
Ⅵ centos 6 哪个网卡支持好
CentOS双网卡绑定的模式一共有7种(即mode=0、1、2、3、4、5、6):
0 (balance-rr模式)网卡的负载均衡模式。特点:(1)所有链 路处于负载均衡状态,轮询方式往每条链路发送报文,基于per packet方式发送。服务上ping 一个相同地址:1.1.1.1 双网卡的两个网卡都有流量发出。负载到两条链路上,说明是基于per packet方式 ,进行轮询发送。(2)这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。
1 (active-backup模式)网卡的容错模式。 特点:一个端口处于主状态 ,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,从端口接手主状态。
2 (balance-xor模式)需要交换机支持。特点:该模式将限定 流量,以保证到达特定对端的流量总是从同一个接口上发出。既然目的地是通过MAC地址来决定的,因此该模式在“本地”网络配置下可以工作得很好。如果所有 流量是通过单个路由器(比如 “网关”型网络配置,只有一个网关时,源和目标mac都固定了,那么这个算法算出的线路就一直是同一条,那么这种模式就没有多少意义了。),那该模式就不 是最好的选择。和balance-rr一样,交换机端口需要能配置为“port channel”。这模式是通过源和目标mac做hash因子来做xor算法来选路的。
3 (broadcast模式)。特点:这种模式的特点是一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。
4 (IEEE 802.3ad动态链路聚合模式)需要交换机支持。特 点:802.3ad模式是IEEE标准,因此所有实现了802.3ad的对端都可以很好的互操作。802.3ad 协议包括聚合的自动配置,因此只需要很少的对交换机的手动配置(要指出的是,只有某些设备才能使用802.3ad)。802.3ad标准也要求帧按顺序 (一定程度上)传递,因此通常单个连接不会看到包的乱序。802.3ad也有些缺点:标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和 除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。此外,linux bonding的802.3ad实现通过对端来分发流量(通过MAC地址的XOR值),因此在“网关”型配置下,所有外出(Outgoing)流量将使用 同一个设备。进入(Incoming)的流量也可能在同一个设备上终止,这依赖于对端802.3ad实现里的均衡策略。在“本地”型配置下,路两将通过 bond里的设备进行分发。
5 自适应传输负载均衡模式。特 点:balance-tlb模式通过对端均衡外出(outgoing)流量。既然它是根据MAC地址进行均衡,在“网关”型配置(如上文所述)下,该模式 会通过单个设备来发送所有流量,然而,在“本地”型网络配置下,该模式以相对智能的方式(不是balance-xor或802.3ad模式里提及的XOR 方式)来均衡多个本地网络对端,因此那些数字不幸的MAC地址(比如XOR得到同样值)不会聚集到同一个接口上。
不像802.3ad,该模式的接口可以有不同的速率,而且不需要特别的交换机配置。不利的一面在于,该模式下所有进入的(incoming)流量会到达同一个接口;该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
6 网卡虚拟化方式。特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件 地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。所有端口都会收到对端的arp请求报文,回复arp 回时,bond驱动模块会截获所发的arp回复报文,根据算法算到相应端口,这时会把arp回复报文的源mac,send源mac都改成相应端口mac。 从抓包情况分析回复报文是第一个从端口1发,第二个从端口2发。以此类推。
具体选择哪种要根据自己需要和交换机情况定,一般Mode=0和Mode=1比较常见;Mode=6负载均衡方式,两块网卡都工作,不需要交换机支持,也常用
Ⅶ centos7.2的双网卡怎么绑定
centos7.2的双网卡用team实现网卡聚合链路脚本:
[plain] view plain
#!/bin/bash
#创建一个名为team0的链路接口
IP=192.168.101.1
GATE=192.168.101.254
ETH1=eno1
ETH2=eno2
#ETH3=eno3
#ETH4=eno4
nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name":"activebackup"}}'
#nmcli con add type team con-name team1 ifname team1 config '{"runner": {"name":"activebackup"}}'
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-$ETH1
TYPE=Ethernet
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=$ETH1
DEVICE=$ETH1
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
PEERDNS=yes
PEERROUTES=yes
EOF
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-$ETH2
TYPE=Ethernet
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=$ETH2
DEVICE=$ETH2
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
PEERDNS=yes
PEERROUTES=yes
EOF
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-team0
DEVICE=team0
TEAM_CONFIG="{\"runner\": {\"name\":\"activebackup\"}}"
DEVICETYPE=Team
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=team0
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPADDR=$IP
PREFIX=24
GATEWAY=$GATE
EOF
nmcli connection add type team-slave con-name team0-port1 ifname $ETH1 master team0
nmcli connection add type team-slave con-name team0-port2 ifname $ETH2 master team0
nmcli connection up team0-port2
nmcli connection up team0-port1
reboot
验证:
1.查看team0状态:
[html] view plain
[root@localhost ~]# teamdctl team0 state view
setup:
runner: activebackup
ports:
eno1
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
eno2
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
runner:
active port: eno1 #当前主接口
2.列出team0端口
[html] view plain
[root@localhost ~]# teamnl team0 ports
3: eno2: up 1000Mbit FD
2: eno1: up 1000Mbit FD
3.测试,宕掉当前主接口,看是否切换
[plain] view plain
[root@localhost ~]# nmcli device disconnect eno1
Device 'eno1' successfully disconnected.
[root@localhost ~]# teamnl team0 ports
3: eno2: up 1000Mbit FD
[root@localhost ~]# teamdctl team0 state view
setup:
runner: activebackup
ports:
eno2
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
runner:
active port: eno2 #切换成功
Ⅷ centos6.5下怎么配置双网卡
是要bonding绑定双网卡吗?可以查考一下步骤
创建bonding网卡的文件
vim
/etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
ONBOOT=yes
TYPE=Bond
BONDING_MASTER=yes
IPADDR=192.168.150.130 (依实际需求更改)
NETMASK=255.255.255.0 (依实际需求更改)
GATEWAY=192.168.150.2 (依实际需求更改)
DNS1=8.8.8.8 (依实际需求更改)
DNS2=8.8.4.4 (依实际需求更改)
PREFIX=24
BONDING_OPTS="mode=1 miimon=100"
用VM虚机做实验的话mode为1 ,如果是实机操作的话mode要改成4
修改原本俩张网卡的内容,修改内容都一样,举例如下
vim
/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
TYPE=Ethernet
DEFROUTE=yes
PEERDNS=yes
NM_CONTROLLDE=yes
DEVICE=eth0
MASTER=bond0
SLAVE=yes
实机用ls查看网卡名称後再做修改
service
network restart
重启网卡服务後Ping看看外网是否有通,有通就完成了哦
Ⅸ 请教centos更改网卡顺序
这个办法不错,有需要的可以试试看。
这个文件是对网卡进行初始化的配置文件。
比如如果我们想指定网卡MAC地址为MAC1的设备名称为ethn,那么,修改文件
/etc/sysconfig/network-scripts/ifcfg-ethn
在里面添加MAC地址绑定和名字的配置信息
DEVICE=ethn
HWADDR=MAC1(比如00:30:48:7f:b5:ca)
其它配置信息不受影响。
当对所有网卡实现绑定后,reboot系统,应该就可以了。
还有一点需要注意,就是驱动对应关系的文件:
/etc/modprobe.conf
要在该文件中修改,确保某个设备使用的就是对应它的驱动,比如:
cat /etc/modprobe.conf
alias eth0 forcedeth
alias eth1 forcedeth
alias scsi_hostadapter aic79xx
alias scsi_hostadapter1 sata_nv
alias scsi_hostadapter2 usb-storage
alias eth2 e1000
alias eth3 e1000
说明eth0和eth1用的forcedeth的驱动,eth2和eth3用的是e1000的驱动。
Ⅹ centos 双网卡绑定 mode哪种好些
CentOS双网卡绑定的模式一共有7种(即mode=0、1、2、3、4、5、6):
0 (balance-rr模式)网卡的负载均衡模式。特点:(1)所有链 路处于负载均衡状态,轮询方式往每条链路发送报文,基于per packet方式发送。服务上ping 一个相同地址:1.1.1.1 双网卡的两个网卡都有流量发出。负载到两条链路上,说明是基于per packet方式 ,进行轮询发送。(2)这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。
1 (active-backup模式)网卡的容错模式。 特点:一个端口处于主状态 ,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,从端口接手主状态。
2 (balance-xor模式)需要交换机支持。特点:该模式将限定 流量,以保证到达特定对端的流量总是从同一个接口上发出。既然目的地是通过MAC地址来决定的,因此该模式在“本地”网络配置下可以工作得很好。如果所有 流量是通过单个路由器(比如 “网关”型网络配置,只有一个网关时,源和目标mac都固定了,那么这个算法算出的线路就一直是同一条,那么这种模式就没有多少意义了。),那该模式就不 是最好的选择。和balance-rr一样,交换机端口需要能配置为“port channel”。这模式是通过源和目标mac做hash因子来做xor算法来选路的。
3 (broadcast模式)。特点:这种模式的特点是一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。
4 (IEEE 802.3ad动态链路聚合模式)需要交换机支持。特 点:802.3ad模式是IEEE标准,因此所有实现了802.3ad的对端都可以很好的互操作。802.3ad 协议包括聚合的自动配置,因此只需要很少的对交换机的手动配置(要指出的是,只有某些设备才能使用802.3ad)。802.3ad标准也要求帧按顺序 (一定程度上)传递,因此通常单个连接不会看到包的乱序。802.3ad也有些缺点:标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和 除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。此外,linux bonding的802.3ad实现通过对端来分发流量(通过MAC地址的XOR值),因此在“网关”型配置下,所有外出(Outgoing)流量将使用 同一个设备。进入(Incoming)的流量也可能在同一个设备上终止,这依赖于对端802.3ad实现里的均衡策略。在“本地”型配置下,路两将通过 bond里的设备进行分发。
5 自适应传输负载均衡模式。特 点:balance-tlb模式通过对端均衡外出(outgoing)流量。既然它是根据MAC地址进行均衡,在“网关”型配置(如上文所述)下,该模式 会通过单个设备来发送所有流量,然而,在“本地”型网络配置下,该模式以相对智能的方式(不是balance-xor或802.3ad模式里提及的XOR 方式)来均衡多个本地网络对端,因此那些数字不幸的MAC地址(比如XOR得到同样值)不会聚集到同一个接口上。
不像802.3ad,该模式的接口可以有不同的速率,而且不需要特别的交换机配置。不利的一面在于,该模式下所有进入的(incoming)流量会到达同一个接口;该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
6 网卡虚拟化方式。特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件 地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。所有端口都会收到对端的arp请求报文,回复arp 回时,bond驱动模块会截获所发的arp回复报文,根据算法算到相应端口,这时会把arp回复报文的源mac,send源mac都改成相应端口mac。 从抓包情况分析回复报文是第一个从端口1发,第二个从端口2发。以此类推。
具体选择哪种要根据自己需要和交换机情况定,一般Mode=0和Mode=1比较常见;Mode=6负载均衡方式,两块网卡都工作,不需要交换机支持,也常用