centos網卡綁定
Ⅰ CentOS 6單網卡綁定多IP問題
這個實驗是在虛擬機中進行的,沒有考慮虛擬網卡所指派的內網IP問題,尤其當虛擬機選專擇不同的vmnet的時候即便你把屬兩台虛擬機的IP地址改成一樣的也不會出現IP地址沖突。
重啟虛擬機後你必須ifup eth才可以進行網路通信,這說明虛擬機網卡的配置文件存在問題,配置文件中ONBOOT=yes可能沒有寫入網卡配置,網卡都沒啟用肯定無法連接。
如果你要做多單網卡多IP的實驗要多考慮虛擬機同一個vmnet的問題,以及網卡的配置文件是否寫錯。
Ⅱ centos雙網卡綁定技術
centos雙網卡綁定技術在/etc/sysconfig/network-scripts/目錄下建立ifcfg-bond0文件,文件內容如下:DEVICE=bond0
www.dnjsb.com
USERCTL=noBOOTPROTO=noneONBOOT=yesIPADDR=192.168.100.17NETMASK=255.255.255.0GATEWAY=192.168.100.1TYPE=UnKnownBONDING_OPTS=miimon=80
mode=0綁定mode為0,是rond-robin模式。然後分別修改ifcfg-eth0文件,如下:DEVICE=eth0#HWADDR=00:0D:60:9A:7B:0AONBOOT=yesBOOTPROTO=noneMASTER=bond0SLAVE=yesUSERCTL=no在把ifcfg-eth1文件修改如下:DEVICE=eth1#HWADDR=00:0D:60:9A:7B:0BONBOOT=yesBOOTPROTO=noneMASTER=bond0SLAVE=yesUSERCTL=no在/etc/modprobe.d/目錄下建立bonding.conf文件,文件內容如下:alias
bond0
bonding然後重啟網路service
network
restart之後就可以用ifconfig
-a看到綁定好的bond0網卡,bond0與eth0,eth1的mac地址均為一樣。可以同過cat
/proc/net/bonding/bond0
此命令查看綁定情況
Ⅲ HP DL580 G7安裝CentOS5.5,升級內核至2.6.36後,網卡綁定後死機
HP DL380G7,第一次接觸這么貴的機器,據說10W,144G內存,8*300G SAS硬碟,安裝的是HP P410i的陣列卡,重點是RAID配置和Centos5.5的安裝
RAID configuration
HP DL380/580/360 server RAID的配置都一樣,有三種方法:
1. 使用ORCA(Option ROM Configuration for Arrays)配置
2. 使用附帶光碟HP Smart Start中的HP Array Configuration Utility (ACU)配置
3. HP Online Array Configuration Utilityfor NetWare (CPQONLIN)
方法一適合自定義安裝,安裝系統的過程中會根據系統版本的不同載入不同的陣列卡驅動;
方法二用到HPSmart start光碟,它可以配置RIAD、引導啟動載入陣列驅動,然後安裝系統,不過該管理軟體官方只支持微軟的Microsoft Windows Server,少數的版本也支持Red Hat Enterprise Linux、SUSE Linux Enterprise Server、Solaris和VMware;
方法三是系統中進行陣列在線擴容,比較適合不間斷性業務的在線擴容。
方法一:
1) 進入RAID界面
開機進入系統﹐當出現HP Smart Array P410i Controller紅色字體(HP Smart Array P410i是本機器對應的陣列卡型號)﹐請按[F8]鍵進入。
此時界面有五個選項:
1. Create logicalDrive------建立RAID
2. View logicalDrive------查看RAID狀態
3. Delete logicalDriver------刪除RAID
4. Manage License Keys
5. Cache Setting
2) RAID Configurations
選擇Create logical Drive進入,界面主要分為五個部分(具體機器不同可能稍有區別),主要關注物理硬碟信息、RAID級別、Spare和最大啟動分區選項,[Tab]鍵可以跳到右邊的界面,[空格]鍵選中。380的server是8塊300G的硬碟,8塊物理硬碟全部選中、設置RAID 5,Spare不選中,Maximum Boot partition選中Enable(8GB maximum)。[enter]鍵確定,[F8]鍵保存,然後按提示操作,可以選中View logicalDrive查看相關的RADI配置信息。
方法二:
1) 進入ACU
將HP Smart Start光碟放入光碟機, 開機並引導,按提示進入操作選擇界面,此頁面可供選擇的操作有:Install、Maintenance、System Erase和Reboot。Maintenance中包含ACU,可以進入進行陣列配置,也包含Insight Diagnostic,可以用來進行伺服器硬體診斷。
2) RAID Configurations
界面左側列出檢測到的陣列卡,中間列出陣列卡的信息,右側配置陣列卡
創建Array的相關設置:
Fault Tolerance: RAID 的級別設置
Stripe Size : RAID條帶化的大小
Size: 陣列大小
Max Boot有兩個選項 a: Disable b: Enable 最大的引導空間
Array Accelerator有兩個選項 a: Disable b: Enable 陣列加速器設置
具體的效果和方法一類似。
OS installation
配置好RADI就安裝linux系統一般都會出現問題,找不到硬碟,因為陣列卡的驅動沒有安裝。HPSmart start光碟引導安裝陣列卡驅動後可以接著安裝OS,但是只支持MicrosoftWindows Server。而HP官方也支持Red Hat Enterprise Linux、SUSE Linux Enterprise Server、Solaris和VMware,其實也比較麻煩,配置好RIAD後,到官方網站下載對應整列卡型號和系統的驅動,插入光碟安裝系統,用usb或者軟碟機載入陣列卡驅動,然後安裝系統。
PS:之前HP360 server直接安裝系統成功可能是因為發行版包含了對應陣列卡的驅動,網上也有成功的例子,所以如果Linux發行版包含了陣列卡的驅動應該可以像pc機一樣安裝系統。
1. Centos5.5 DVD
下載Centos5.5 64位DVD版的ISO,刻錄成DVD。
2. 陣列卡驅動
下面HPSmart Array P410 Controller驅動列表的URL:
http://h20000.www2.hp.com/bizsupport/TechSupport/DriverDownload.jsp?&cc=us&prodNameId=3883931&taskId=135&prodTypeId=329290&prodSeriesId=3883890&&cc=us&submit=Go%20%810%863
打開頁面後點擊Red Hat Enterprise Linux 5 Server (x86)打開頁面,選擇Software - DriverDiskettes點擊下載,文件名為cpq_cciss-3.6.26-5.rhel5.i686.dd.gz,解壓成**.dd格式,此處為方便重命名為p410.dd。找一台Linux機器,把文件拷貝到/tmp,U盤的設備名為sdb,使用命令dd if=/tmp/megaraid_sas.imgof=/dev/sdb,具體如下:
[root@myth tmp]#dd if=/tmp/p410.dd of=/dev/sdb
2880+0 recordsin
2880+0 recordsout
1474560 bytes(1.5 MB) copied, 1.01765 s, 1.4 MB/s
[root@myth mnt]#mount /dev/sdb mp
[root@myth mnt]#cd mp
[root@myth mp]#ls
lost+found modinfo moles.alias moles.cgz moles.dep moles.pcimap pcitable rhdd
[root@myth mp]#cd ..
[root@myth mnt]#umount /dev/sdb
3. Centos5.5安裝
上步完成後將U盤插到伺服器上,插入光碟開始安裝,在進入到安裝界面的時候按F2,接著在boot:後面輸入linux dd並按回車進入到陣列卡驅動安裝界面,會提示是否提供驅動磁碟選擇yes,選擇驅動磁碟的來源,選擇sda,提示插入驅動磁碟。
如果驅動不正確則提示:Failed to mount drive disk
如果驅動正確則提示載入 usb-storage ,此時驅動已經完全載入
完成一次載入後提示是否再載入其他存儲驅動,如果已經載入完則選擇NO,系統載入驅動完成後提示校驗光碟媒體,可根據情況選擇跳過或者校驗,繼續系統安裝。
Ⅳ centos怎麼查詢網卡綁定ip
以下幾來個命令可以查源看。 1、ethtool em1 指定 查看網卡信息 2、ifconfig 查看網卡連接 3、cat /etc/sysconfig/network-scripts/ifcf-em1 查看設備信息。
Ⅳ centos7 搭建dhcp時,如何綁定一塊網卡
|是復isc dhcpd吧,就直接命制令行指定介面就行了。
/path/to/dhcpd eth0
dhcpd [ -p port ] [ -f ] [ -d ] [ -q ] [ -t | -T ] [ -cf config-file ] [ -lf lease-file ] [ -tf trace-output-file ] [ -play trace-playback-file ] [ if0 [ ...ifN ] ]
Ⅵ centos 6 哪個網卡支持好
CentOS雙網卡綁定的模式一共有7種(即mode=0、1、2、3、4、5、6):
0 (balance-rr模式)網卡的負載均衡模式。特點:(1)所有鏈 路處於負載均衡狀態,輪詢方式往每條鏈路發送報文,基於per packet方式發送。服務上ping 一個相同地址:1.1.1.1 雙網卡的兩個網卡都有流量發出。負載到兩條鏈路上,說明是基於per packet方式 ,進行輪詢發送。(2)這模式的特點增加了帶寬,同時支持容錯能力,當有鏈路出問題,會把流量切換到正常的鏈路上。
1 (active-backup模式)網卡的容錯模式。 特點:一個埠處於主狀態 ,一個處於從狀態,所有流量都在主鏈路上處理,從不會有任何流量。當主埠down掉時,從埠接手主狀態。
2 (balance-xor模式)需要交換機支持。特點:該模式將限定 流量,以保證到達特定對端的流量總是從同一個介面上發出。既然目的地是通過MAC地址來決定的,因此該模式在「本地」網路配置下可以工作得很好。如果所有 流量是通過單個路由器(比如 「網關」型網路配置,只有一個網關時,源和目標mac都固定了,那麼這個演算法算出的線路就一直是同一條,那麼這種模式就沒有多少意義了。),那該模式就不 是最好的選擇。和balance-rr一樣,交換機埠需要能配置為「port channel」。這模式是通過源和目標mac做hash因子來做xor演算法來選路的。
3 (broadcast模式)。特點:這種模式的特點是一個報文會復制兩份往bond下的兩個介面分別發送出去,當有對端交換機失效,我們感覺不到任何downtime,但此法過於浪費資源;不過這種模式有很好的容錯機制。此模式適用於金融行業,因為他們需要高可靠性的網路,不允許出現任何問題。
4 (IEEE 802.3ad動態鏈路聚合模式)需要交換機支持。特 點:802.3ad模式是IEEE標准,因此所有實現了802.3ad的對端都可以很好的互操作。802.3ad 協議包括聚合的自動配置,因此只需要很少的對交換機的手動配置(要指出的是,只有某些設備才能使用802.3ad)。802.3ad標准也要求幀按順序 (一定程度上)傳遞,因此通常單個連接不會看到包的亂序。802.3ad也有些缺點:標准要求所有設備在聚合操作時,要在同樣的速率和雙工模式,而且,和 除了balance-rr模式外的其它bonding負載均衡模式一樣,任何連接都不能使用多於一個介面的帶寬。此外,linux bonding的802.3ad實現通過對端來分發流量(通過MAC地址的XOR值),因此在「網關」型配置下,所有外出(Outgoing)流量將使用 同一個設備。進入(Incoming)的流量也可能在同一個設備上終止,這依賴於對端802.3ad實現里的均衡策略。在「本地」型配置下,路兩將通過 bond里的設備進行分發。
5 自適應傳輸負載均衡模式。特 點:balance-tlb模式通過對端均衡外出(outgoing)流量。既然它是根據MAC地址進行均衡,在「網關」型配置(如上文所述)下,該模式 會通過單個設備來發送所有流量,然而,在「本地」型網路配置下,該模式以相對智能的方式(不是balance-xor或802.3ad模式里提及的XOR 方式)來均衡多個本地網路對端,因此那些數字不幸的MAC地址(比如XOR得到同樣值)不會聚集到同一個介面上。
不像802.3ad,該模式的介面可以有不同的速率,而且不需要特別的交換機配置。不利的一面在於,該模式下所有進入的(incoming)流量會到達同一個介面;該模式要求slave介面的網路設備驅動有某種ethtool支持;而且ARP監控不可用。
6 網卡虛擬化方式。特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機發送的ARP應答,並把源硬體 地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通信。所有埠都會收到對端的arp請求報文,回復arp 回時,bond驅動模塊會截獲所發的arp回復報文,根據演算法算到相應埠,這時會把arp回復報文的源mac,send源mac都改成相應埠mac。 從抓包情況分析回復報文是第一個從埠1發,第二個從埠2發。以此類推。
具體選擇哪種要根據自己需要和交換機情況定,一般Mode=0和Mode=1比較常見;Mode=6負載均衡方式,兩塊網卡都工作,不需要交換機支持,也常用
Ⅶ centos7.2的雙網卡怎麼綁定
centos7.2的雙網卡用team實現網卡聚合鏈路腳本:
[plain] view plain
#!/bin/bash
#創建一個名為team0的鏈路介面
IP=192.168.101.1
GATE=192.168.101.254
ETH1=eno1
ETH2=eno2
#ETH3=eno3
#ETH4=eno4
nmcli con add type team con-name team0 ifname team0 config '{"runner": {"name":"activebackup"}}'
#nmcli con add type team con-name team1 ifname team1 config '{"runner": {"name":"activebackup"}}'
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-$ETH1
TYPE=Ethernet
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=$ETH1
DEVICE=$ETH1
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
PEERDNS=yes
PEERROUTES=yes
EOF
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-$ETH2
TYPE=Ethernet
BOOTPROTO=dhcp
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=$ETH2
DEVICE=$ETH2
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
PEERDNS=yes
PEERROUTES=yes
EOF
cat <<EOF> /etc/sysconfig/network-scripts/ifcfg-team0
DEVICE=team0
TEAM_CONFIG="{\"runner\": {\"name\":\"activebackup\"}}"
DEVICETYPE=Team
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=team0
ONBOOT=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPADDR=$IP
PREFIX=24
GATEWAY=$GATE
EOF
nmcli connection add type team-slave con-name team0-port1 ifname $ETH1 master team0
nmcli connection add type team-slave con-name team0-port2 ifname $ETH2 master team0
nmcli connection up team0-port2
nmcli connection up team0-port1
reboot
驗證:
1.查看team0狀態:
[html] view plain
[root@localhost ~]# teamdctl team0 state view
setup:
runner: activebackup
ports:
eno1
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
eno2
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
runner:
active port: eno1 #當前主介面
2.列出team0埠
[html] view plain
[root@localhost ~]# teamnl team0 ports
3: eno2: up 1000Mbit FD
2: eno1: up 1000Mbit FD
3.測試,宕掉當前主介面,看是否切換
[plain] view plain
[root@localhost ~]# nmcli device disconnect eno1
Device 'eno1' successfully disconnected.
[root@localhost ~]# teamnl team0 ports
3: eno2: up 1000Mbit FD
[root@localhost ~]# teamdctl team0 state view
setup:
runner: activebackup
ports:
eno2
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
runner:
active port: eno2 #切換成功
Ⅷ centos6.5下怎麼配置雙網卡
是要bonding綁定雙網卡嗎?可以查考一下步驟
創建bonding網卡的文件
vim
/etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
ONBOOT=yes
TYPE=Bond
BONDING_MASTER=yes
IPADDR=192.168.150.130 (依實際需求更改)
NETMASK=255.255.255.0 (依實際需求更改)
GATEWAY=192.168.150.2 (依實際需求更改)
DNS1=8.8.8.8 (依實際需求更改)
DNS2=8.8.4.4 (依實際需求更改)
PREFIX=24
BONDING_OPTS="mode=1 miimon=100"
用VM虛機做實驗的話mode為1 ,如果是實機操作的話mode要改成4
修改原本倆張網卡的內容,修改內容都一樣,舉例如下
vim
/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
TYPE=Ethernet
DEFROUTE=yes
PEERDNS=yes
NM_CONTROLLDE=yes
DEVICE=eth0
MASTER=bond0
SLAVE=yes
實機用ls查看網卡名稱後再做修改
service
network restart
重啟網卡服務後Ping看看外網是否有通,有通就完成了哦
Ⅸ 請教centos更改網卡順序
這個辦法不錯,有需要的可以試試看。
這個文件是對網卡進行初始化的配置文件。
比如如果我們想指定網卡MAC地址為MAC1的設備名稱為ethn,那麼,修改文件
/etc/sysconfig/network-scripts/ifcfg-ethn
在裡面添加MAC地址綁定和名字的配置信息
DEVICE=ethn
HWADDR=MAC1(比如00:30:48:7f:b5:ca)
其它配置信息不受影響。
當對所有網卡實現綁定後,reboot系統,應該就可以了。
還有一點需要注意,就是驅動對應關系的文件:
/etc/modprobe.conf
要在該文件中修改,確保某個設備使用的就是對應它的驅動,比如:
cat /etc/modprobe.conf
alias eth0 forcedeth
alias eth1 forcedeth
alias scsi_hostadapter aic79xx
alias scsi_hostadapter1 sata_nv
alias scsi_hostadapter2 usb-storage
alias eth2 e1000
alias eth3 e1000
說明eth0和eth1用的forcedeth的驅動,eth2和eth3用的是e1000的驅動。
Ⅹ centos 雙網卡綁定 mode哪種好些
CentOS雙網卡綁定的模式一共有7種(即mode=0、1、2、3、4、5、6):
0 (balance-rr模式)網卡的負載均衡模式。特點:(1)所有鏈 路處於負載均衡狀態,輪詢方式往每條鏈路發送報文,基於per packet方式發送。服務上ping 一個相同地址:1.1.1.1 雙網卡的兩個網卡都有流量發出。負載到兩條鏈路上,說明是基於per packet方式 ,進行輪詢發送。(2)這模式的特點增加了帶寬,同時支持容錯能力,當有鏈路出問題,會把流量切換到正常的鏈路上。
1 (active-backup模式)網卡的容錯模式。 特點:一個埠處於主狀態 ,一個處於從狀態,所有流量都在主鏈路上處理,從不會有任何流量。當主埠down掉時,從埠接手主狀態。
2 (balance-xor模式)需要交換機支持。特點:該模式將限定 流量,以保證到達特定對端的流量總是從同一個介面上發出。既然目的地是通過MAC地址來決定的,因此該模式在「本地」網路配置下可以工作得很好。如果所有 流量是通過單個路由器(比如 「網關」型網路配置,只有一個網關時,源和目標mac都固定了,那麼這個演算法算出的線路就一直是同一條,那麼這種模式就沒有多少意義了。),那該模式就不 是最好的選擇。和balance-rr一樣,交換機埠需要能配置為「port channel」。這模式是通過源和目標mac做hash因子來做xor演算法來選路的。
3 (broadcast模式)。特點:這種模式的特點是一個報文會復制兩份往bond下的兩個介面分別發送出去,當有對端交換機失效,我們感覺不到任何downtime,但此法過於浪費資源;不過這種模式有很好的容錯機制。此模式適用於金融行業,因為他們需要高可靠性的網路,不允許出現任何問題。
4 (IEEE 802.3ad動態鏈路聚合模式)需要交換機支持。特 點:802.3ad模式是IEEE標准,因此所有實現了802.3ad的對端都可以很好的互操作。802.3ad 協議包括聚合的自動配置,因此只需要很少的對交換機的手動配置(要指出的是,只有某些設備才能使用802.3ad)。802.3ad標准也要求幀按順序 (一定程度上)傳遞,因此通常單個連接不會看到包的亂序。802.3ad也有些缺點:標准要求所有設備在聚合操作時,要在同樣的速率和雙工模式,而且,和 除了balance-rr模式外的其它bonding負載均衡模式一樣,任何連接都不能使用多於一個介面的帶寬。此外,linux bonding的802.3ad實現通過對端來分發流量(通過MAC地址的XOR值),因此在「網關」型配置下,所有外出(Outgoing)流量將使用 同一個設備。進入(Incoming)的流量也可能在同一個設備上終止,這依賴於對端802.3ad實現里的均衡策略。在「本地」型配置下,路兩將通過 bond里的設備進行分發。
5 自適應傳輸負載均衡模式。特 點:balance-tlb模式通過對端均衡外出(outgoing)流量。既然它是根據MAC地址進行均衡,在「網關」型配置(如上文所述)下,該模式 會通過單個設備來發送所有流量,然而,在「本地」型網路配置下,該模式以相對智能的方式(不是balance-xor或802.3ad模式里提及的XOR 方式)來均衡多個本地網路對端,因此那些數字不幸的MAC地址(比如XOR得到同樣值)不會聚集到同一個介面上。
不像802.3ad,該模式的介面可以有不同的速率,而且不需要特別的交換機配置。不利的一面在於,該模式下所有進入的(incoming)流量會到達同一個介面;該模式要求slave介面的網路設備驅動有某種ethtool支持;而且ARP監控不可用。
6 網卡虛擬化方式。特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機發送的ARP應答,並把源硬體 地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通信。所有埠都會收到對端的arp請求報文,回復arp 回時,bond驅動模塊會截獲所發的arp回復報文,根據演算法算到相應埠,這時會把arp回復報文的源mac,send源mac都改成相應埠mac。 從抓包情況分析回復報文是第一個從埠1發,第二個從埠2發。以此類推。
具體選擇哪種要根據自己需要和交換機情況定,一般Mode=0和Mode=1比較常見;Mode=6負載均衡方式,兩塊網卡都工作,不需要交換機支持,也常用