伺服器出流量
運營商收費是網路基礎設施的服務費用,就是你上網的電纜啊,光纖啊,電信大樓,設回備的費用。你包月答的錢只是給運營商,全是它的。網站也要給運營商錢,他要求的網速,帶寬大,給的錢更多了。
網站流量大掙錢,這里是一種經濟形式。現在的互聯網時代,有一種資源叫做注意力,誰吸引了大家的注意力,誰就有利可圖。你看看炒作,為什麼很多人不惜負面新聞來炒作,就是為了吸引大家的注意力,歸根結底還是個錢字。
那為什麼說吸引了別人的注意力就有錢了呢?大家都在關注一個事情,關注一個網站。那麼這個網站里可能某些東西,就有價值了。比如管理員要給誰的帖子置頂,首頁要放誰的廣告。這些都是要錢來辦的。有了注意力,自然就有人願意出錢給你,一起來分享大家的注意力。廣告也好,推銷也好,只有有人看嘛,那就有人願意出錢。 所以錢就是這么出來的啦。看QQ,吸引了那麼多人的注意力後,空間裡面的裝扮圖片都可以賣成錢。相比在其他的網站提供的空間圖片全免費,就是沒有注意力的原因啦。
❷ 伺服器出口流量具體是指什麼
沒聽過有你這種說法,是想說出口帶寬嗎?還是想說流量報表裡的OUT流量,流量跟帶寬是兩個概念,如果帶寬是河的話,流量就是河裡的水,這樣明白了嗎?
❸ 伺服器流量流出很大請教怎麼回事
不是木馬,是設置問題,下面是流量的控制方法 一、Linux 流量控制過程分二種: 1、隊列控制 即 QOS, 瓶頸處的發送隊列的規則控制,常見的有 SFQ PRIO 2、流量控制 即帶寬控制 , 隊列的排隊整形, 一般為 TBF HTB 二、Linux 流量控制演算法分二種: 1、無類演算法 用於樹葉級無分支的隊列,例如:SFQ 2、分類演算法 用於多分支的隊列,例如:PRIO TBF HTB 三、具體實現: 1. 在網卡上建立 以SFQ演算法的限流 #tc qdisc add dev eth0 root handle 1: sfq SFQ 參數有 perturb( 重新調整演算法間隔 ) quantum 基本上不需要手工調整 : handle 1: 規定演算法編號 .. 可以不用設置由系統指定 .. #tc qdisc sh dev eth0 顯示演算法 #tc qd del dev eth0 root 刪除 注 : 默認 eht0 支持 TOS 2. 在網卡建立以 TBF演算法的限流 #tc qd add dev eth1 root handle 1: tbf rate 256kbit burst 10000 latency 50ms 速率 256kbit 突發傳輸 10k 最大延遲 50ms #tc -s qd sh dev eth1 統計 #tc qd del dev eth1 root 刪除 3. 在網卡建立 PRIO #tc qdisc add dev eth0 root handle 1: prio # 此命令立即創建了類 : 1:1, 1:2, 1:3 ( 預設三個子類 ) #tc qdisc add dev eth0 parent 1:1 handle 10: sfq #tc qdisc add dev eth0 parent 1:2 handle 20: tbf rate 20kbit buffer 1600 limit 3000 注 : 此為 TBF 限速的另一寫法 , 前文有講解 . #tc qdisc add dev eth0 parent 1:3 handle 30: sfq 4. WEB 伺服器的流量控制為 5Mbps,SMTP 流量控制在 3Mbps 上 . 而且二者一共不得超過 6Mbps, 互相之間允許借用帶寬 #tc qdisc add dev eth0 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8 #tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 6Mbit weight 0.6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded 這部分按慣例設置了根為 1:0, 並且綁定了類 1:1. 也就是說整個帶寬不能超過 6Mbps. #tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 5Mbit weight 0.5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 #tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 3Mbit weight 0.3Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 建立了 2 個類 . 注意我們如何根據帶寬來調整 weight 參數的 . 兩個類都沒有配置成"bounded", 但它們都連 接到了類 1:1 上 , 而 1:1 設置了"bounded". 所以兩個類的總帶寬不會超過 6Mbps. 別忘了 , 同一個 CBQ 下面的子 類的主號碼都必須與 CBQ 自己的號碼相一致 ! #tc qdisc add dev eth0 parent 1:3 handle 30: sfq #tc qdisc add dev eth0 parent 1:4 handle 40: sfq 預設情況下 , 兩個類都有一個 FIFO 隊列規定 . 但是我們把它換成 SFQ 隊列 , 以保證每個數據流都公平對待 . #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 80 0xffff flowid 1:3 #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 25 0xffff flowid 1:4 6. 過濾器過濾示例 #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip dport 22 0xffff flowid 10:1 在 10: 節點添加一個過濾規則 , 優先權 1: 凡是去往 22 口 ( 精確匹配 ) 的 IP 數據包 , 發送到頻道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip sport 80 0xffff flowid 10:1 在 10: 節點添加一個過濾規則 , 優先權 1: 凡是來自 80 口 ( 精確匹配 ) 的 IP 數據包 , 發送到頻道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 在 eth0 上的 10: 節點添加一個過濾規則 , 它的優先權是 2: 凡是上二句未匹配的 IP 數據包 , 發送到頻道 10:2.. #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip dst 4.3.2.1/32 flowid 10:1 去往 4.3.2.1 的包發送到頻道 10:1 其它參數同上例 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 1.2.3.4/32 flowid 10:1 來自 1.2.3.4 的包發到頻道 10:1 #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 凡上二句未匹配的包送往 10:2 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 4.3.2.1/32 match ip sport 80 0xffff flowid 10:1 可連續使用 match, 匹配來自 1.2.3.4 的 80 口的數據包
❹ linux伺服器流出流量過大 是否木馬
不是木馬,是設置問題,下面是流量的控制方法
一、Linux 流量控制過程分二種:
1、隊列控制 即 QOS, 瓶頸處的發送隊列的規則控制,常見的有 SFQ PRIO
2、流量控制 即帶寬控制 , 隊列的排隊整形, 一般為 TBF HTB
二、Linux 流量控制演算法分二種:
1、無類演算法 用於樹葉級無分支的隊列,例如:SFQ
2、分類演算法 用於多分支的隊列,例如:PRIO TBF HTB
三、具體實現:
1. 在網卡上建立 以SFQ演算法的限流
#tc qdisc add dev eth0 root handle 1: sfq
SFQ 參數有 perturb( 重新調整演算法間隔 ) quantum 基本上不需要手工調整 :
handle 1: 規定演算法編號 .. 可以不用設置由系統指定 ..
#tc qdisc sh dev eth0 顯示演算法
#tc qd del dev eth0 root 刪除 注 : 默認 eht0 支持 TOS
2. 在網卡建立以 TBF演算法的限流
#tc qd add dev eth1 root handle 1: tbf rate 256kbit burst 10000 latency 50ms
速率 256kbit 突發傳輸 10k 最大延遲 50ms
#tc -s qd sh dev eth1 統計
#tc qd del dev eth1 root 刪除
3. 在網卡建立 PRIO
#tc qdisc add dev eth0 root handle 1: prio
# 此命令立即創建了類 : 1:1, 1:2, 1:3 ( 預設三個子類 )
#tc qdisc add dev eth0 parent 1:1 handle 10: sfq
#tc qdisc add dev eth0 parent 1:2 handle 20: tbf rate 20kbit buffer 1600 limit 3000
注 : 此為 TBF 限速的另一寫法 , 前文有講解 .
#tc qdisc add dev eth0 parent 1:3 handle 30: sfq
4. WEB 伺服器的流量控制為 5Mbps,SMTP 流量控制在 3Mbps 上 . 而且二者一共不得超過 6Mbps, 互相之間允許借用帶寬
#tc qdisc add dev eth0 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8
#tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 6Mbit weight
0.6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded
這部分按慣例設置了根為 1:0, 並且綁定了類 1:1. 也就是說整個帶寬不能超過 6Mbps.
#tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 5Mbit weight
0.5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000
#tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 3Mbit weight
0.3Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000
建立了 2 個類 . 注意我們如何根據帶寬來調整 weight 參數的 . 兩個類都沒有配置成"bounded", 但它們都連
接到了類 1:1 上 , 而 1:1 設置了"bounded". 所以兩個類的總帶寬不會超過 6Mbps. 別忘了 , 同一個 CBQ 下面的子
類的主號碼都必須與 CBQ 自己的號碼相一致 !
#tc qdisc add dev eth0 parent 1:3 handle 30: sfq
#tc qdisc add dev eth0 parent 1:4 handle 40: sfq
預設情況下 , 兩個類都有一個 FIFO 隊列規定 . 但是我們把它換成 SFQ 隊列 , 以保證每個數據流都公平對待 .
#tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 80 0xffff flowid
1:3
#tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 25 0xffff flowid
1:4
6. 過濾器過濾示例
#tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip dport 22 0xffff flowid 10:1
在 10: 節點添加一個過濾規則 , 優先權 1: 凡是去往 22 口 ( 精確匹配 ) 的 IP 數據包 , 發送到頻道 10:1..
#tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip sport 80 0xffff flowid 10:1
在 10: 節點添加一個過濾規則 , 優先權 1: 凡是來自 80 口 ( 精確匹配 ) 的 IP 數據包 , 發送到頻道 10:1..
#tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2
在 eth0 上的 10: 節點添加一個過濾規則 , 它的優先權是 2: 凡是上二句未匹配的 IP 數據包 , 發送到頻道 10:2..
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip dst 4.3.2.1/32 flowid 10:1
去往 4.3.2.1 的包發送到頻道 10:1 其它參數同上例
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 1.2.3.4/32 flowid 10:1
來自 1.2.3.4 的包發到頻道 10:1
#tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2
凡上二句未匹配的包送往 10:2
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 4.3.2.1/32 match
ip sport 80 0xffff flowid 10:1
可連續使用 match, 匹配來自 1.2.3.4 的 80 口的數據包
❺ 伺服器流入流出流量是什麼可不可以舉個例子,我在阿里雲上買伺服器看到這個,按量付費,我主要是用服
你這個算流入,也可以叫下行帶寬。當你下載時,那台提供資源的伺服器是上行(流出),伺服器是限制上行帶寬的
❻ 伺服器流量怎麼分析!
當前隨著網路應用的不斷豐富和發展,網路流量也隨之變得復雜和種類繁多起來,下面是最為常見的幾種網路流量:
1. HTTP流量: HTTP是互聯網上使用最為廣泛的協議,早就已經取代傳統文件下載的主要應用層協議FTP,如今,隨著YouTube等視頻共享網站的拉動,HTTP協議的網路流量在過去四年裡首次超過了P2P應用的流量。
2. FTP流量: 從互聯網出現的開始,FTP就一直是用戶使用頻率最高的應用服務之一,重要性僅次於HTTP和SMTP。而隨著P2P應用的出現,其重要性地位雖然有所降低,但是仍然是用戶們下載文件不可替代的重要應用和途徑之一。
3. SMTP流量: 電子郵件是整個互聯網業務重要的組成部分。據統計,3/4以上的用戶上網的主要目的是收發郵件,每天有十數億封電子郵件在全球傳遞。特別是由於電子郵件的廉價和操作簡便,誘使有人將它作為大量散發自己信息的工具,最終導致了互聯網世界中垃圾郵件的泛濫。
4. VoIP流量: 2006年全球IP電話用戶從1030萬增長到1870萬,增幅達83%。2007年VoIP通話量已達到全部通話量的75%。因此,互聯網上VoIP的流量也是非常值得管理員關注的。
5. P2P流量: 目前網路帶寬「消費大戶」是P2P文件共享,在中東占據了49%,東歐地區占據了84%。從全球來看,夜間時段的網路帶寬有95%被P2P占據。
6. Streaming流量: 隨著諸如PPLive、PPStream等視頻軟體的出現,視頻直播和點播成為廣大互聯網用戶觀看節目和網上娛樂的最佳生活方式,因此其流量也在不斷地增加。
❼ 很多人訪問一個網站 這個網站所在的伺服器應該是流出流量大還是流入流量大,
流出吧,相當於 訪問者從你的伺服器下載網頁到本地電腦,然後顯示。
流出比流入多應該正常,如果你的網站長傳不是很多的話。
❽ 伺服器流量大,但是不知是從哪一部份流出
你的伺服器100%是被盜鏈了,一般來說 70% 或者以上的資源都是被人盜用了,在中國回這種惡劣的環境答下:迅雷、FLASHGET 還有無數的採集工具,你網站一出來,基本上就能被無數其他網站採集到,然後放在自己的網頁上給人下載。迅雷、FLASHGET 為什麼能下載那麼快,其實就是通過從很多沒有防備的伺服器上盜取資源,而且還模擬成你自己網站的用戶來下載,一般的防盜鏈軟體根本無法防,真是可恨。
以前我租100M獨享的伺服器,80%都是被人盜鏈了。無奈我開始在網上找了保護軟體。後來發現一款叫 微盾防盜鏈專家 的軟體很不錯,還可以免費試用。詳細您可以在網路里搜索一下「防盜鏈」或者「微盾」,網址是 www.vin.com 希望對你有幫助。
❾ 伺服器流出流量過大是怎麼回事 有幾百M
您說的流出流量是輸出流量嗎? 伺服器的輸出流量就是別人訪問您的伺服器應用時產生的流量。我是做伺服器租用這塊的,希望可以幫到您
❿ 請問我的Linux系統伺服器流出流量超過50M/S是什麼原因
你的伺服器整體下載速度為50M/s 帶寬跑的很高,可能是你的應用或者網站訪問人數都很多,下載量很大,假如一個客戶的下載速度為1m/s ,50個人同時下載就是50M/s