服务器出流量
运营商收费是网络基础设施的服务费用,就是你上网的电缆啊,光纤啊,电信大楼,设回备的费用。你包月答的钱只是给运营商,全是它的。网站也要给运营商钱,他要求的网速,带宽大,给的钱更多了。
网站流量大挣钱,这里是一种经济形式。现在的互联网时代,有一种资源叫做注意力,谁吸引了大家的注意力,谁就有利可图。你看看炒作,为什么很多人不惜负面新闻来炒作,就是为了吸引大家的注意力,归根结底还是个钱字。
那为什么说吸引了别人的注意力就有钱了呢?大家都在关注一个事情,关注一个网站。那么这个网站里可能某些东西,就有价值了。比如管理员要给谁的帖子置顶,首页要放谁的广告。这些都是要钱来办的。有了注意力,自然就有人愿意出钱给你,一起来分享大家的注意力。广告也好,推销也好,只有有人看嘛,那就有人愿意出钱。 所以钱就是这么出来的啦。看QQ,吸引了那么多人的注意力后,空间里面的装扮图片都可以卖成钱。相比在其他的网站提供的空间图片全免费,就是没有注意力的原因啦。
❷ 服务器出口流量具体是指什么
没听过有你这种说法,是想说出口带宽吗?还是想说流量报表里的OUT流量,流量跟带宽是两个概念,如果带宽是河的话,流量就是河里的水,这样明白了吗?
❸ 服务器流量流出很大请教怎么回事
不是木马,是设置问题,下面是流量的控制方法 一、Linux 流量控制过程分二种: 1、队列控制 即 QOS, 瓶颈处的发送队列的规则控制,常见的有 SFQ PRIO 2、流量控制 即带宽控制 , 队列的排队整形, 一般为 TBF HTB 二、Linux 流量控制算法分二种: 1、无类算法 用于树叶级无分支的队列,例如:SFQ 2、分类算法 用于多分支的队列,例如:PRIO TBF HTB 三、具体实现: 1. 在网卡上建立 以SFQ算法的限流 #tc qdisc add dev eth0 root handle 1: sfq SFQ 参数有 perturb( 重新调整算法间隔 ) quantum 基本上不需要手工调整 : handle 1: 规定算法编号 .. 可以不用设置由系统指定 .. #tc qdisc sh dev eth0 显示算法 #tc qd del dev eth0 root 删除 注 : 默认 eht0 支持 TOS 2. 在网卡建立以 TBF算法的限流 #tc qd add dev eth1 root handle 1: tbf rate 256kbit burst 10000 latency 50ms 速率 256kbit 突发传输 10k 最大延迟 50ms #tc -s qd sh dev eth1 统计 #tc qd del dev eth1 root 删除 3. 在网卡建立 PRIO #tc qdisc add dev eth0 root handle 1: prio # 此命令立即创建了类 : 1:1, 1:2, 1:3 ( 缺省三个子类 ) #tc qdisc add dev eth0 parent 1:1 handle 10: sfq #tc qdisc add dev eth0 parent 1:2 handle 20: tbf rate 20kbit buffer 1600 limit 3000 注 : 此为 TBF 限速的另一写法 , 前文有讲解 . #tc qdisc add dev eth0 parent 1:3 handle 30: sfq 4. WEB 服务器的流量控制为 5Mbps,SMTP 流量控制在 3Mbps 上 . 而且二者一共不得超过 6Mbps, 互相之间允许借用带宽 #tc qdisc add dev eth0 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8 #tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 6Mbit weight 0.6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded 这部分按惯例设置了根为 1:0, 并且绑定了类 1:1. 也就是说整个带宽不能超过 6Mbps. #tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 5Mbit weight 0.5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 #tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 3Mbit weight 0.3Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 建立了 2 个类 . 注意我们如何根据带宽来调整 weight 参数的 . 两个类都没有配置成"bounded", 但它们都连 接到了类 1:1 上 , 而 1:1 设置了"bounded". 所以两个类的总带宽不会超过 6Mbps. 别忘了 , 同一个 CBQ 下面的子 类的主号码都必须与 CBQ 自己的号码相一致 ! #tc qdisc add dev eth0 parent 1:3 handle 30: sfq #tc qdisc add dev eth0 parent 1:4 handle 40: sfq 缺省情况下 , 两个类都有一个 FIFO 队列规定 . 但是我们把它换成 SFQ 队列 , 以保证每个数据流都公平对待 . #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 80 0xffff flowid 1:3 #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 25 0xffff flowid 1:4 6. 过滤器过滤示例 #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip dport 22 0xffff flowid 10:1 在 10: 节点添加一个过滤规则 , 优先权 1: 凡是去往 22 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip sport 80 0xffff flowid 10:1 在 10: 节点添加一个过滤规则 , 优先权 1: 凡是来自 80 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 在 eth0 上的 10: 节点添加一个过滤规则 , 它的优先权是 2: 凡是上二句未匹配的 IP 数据包 , 发送到频道 10:2.. #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip dst 4.3.2.1/32 flowid 10:1 去往 4.3.2.1 的包发送到频道 10:1 其它参数同上例 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 1.2.3.4/32 flowid 10:1 来自 1.2.3.4 的包发到频道 10:1 #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 凡上二句未匹配的包送往 10:2 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 4.3.2.1/32 match ip sport 80 0xffff flowid 10:1 可连续使用 match, 匹配来自 1.2.3.4 的 80 口的数据包
❹ linux服务器流出流量过大 是否木马
不是木马,是设置问题,下面是流量的控制方法
一、Linux 流量控制过程分二种:
1、队列控制 即 QOS, 瓶颈处的发送队列的规则控制,常见的有 SFQ PRIO
2、流量控制 即带宽控制 , 队列的排队整形, 一般为 TBF HTB
二、Linux 流量控制算法分二种:
1、无类算法 用于树叶级无分支的队列,例如:SFQ
2、分类算法 用于多分支的队列,例如:PRIO TBF HTB
三、具体实现:
1. 在网卡上建立 以SFQ算法的限流
#tc qdisc add dev eth0 root handle 1: sfq
SFQ 参数有 perturb( 重新调整算法间隔 ) quantum 基本上不需要手工调整 :
handle 1: 规定算法编号 .. 可以不用设置由系统指定 ..
#tc qdisc sh dev eth0 显示算法
#tc qd del dev eth0 root 删除 注 : 默认 eht0 支持 TOS
2. 在网卡建立以 TBF算法的限流
#tc qd add dev eth1 root handle 1: tbf rate 256kbit burst 10000 latency 50ms
速率 256kbit 突发传输 10k 最大延迟 50ms
#tc -s qd sh dev eth1 统计
#tc qd del dev eth1 root 删除
3. 在网卡建立 PRIO
#tc qdisc add dev eth0 root handle 1: prio
# 此命令立即创建了类 : 1:1, 1:2, 1:3 ( 缺省三个子类 )
#tc qdisc add dev eth0 parent 1:1 handle 10: sfq
#tc qdisc add dev eth0 parent 1:2 handle 20: tbf rate 20kbit buffer 1600 limit 3000
注 : 此为 TBF 限速的另一写法 , 前文有讲解 .
#tc qdisc add dev eth0 parent 1:3 handle 30: sfq
4. WEB 服务器的流量控制为 5Mbps,SMTP 流量控制在 3Mbps 上 . 而且二者一共不得超过 6Mbps, 互相之间允许借用带宽
#tc qdisc add dev eth0 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8
#tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 6Mbit weight
0.6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded
这部分按惯例设置了根为 1:0, 并且绑定了类 1:1. 也就是说整个带宽不能超过 6Mbps.
#tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 5Mbit weight
0.5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000
#tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 3Mbit weight
0.3Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000
建立了 2 个类 . 注意我们如何根据带宽来调整 weight 参数的 . 两个类都没有配置成"bounded", 但它们都连
接到了类 1:1 上 , 而 1:1 设置了"bounded". 所以两个类的总带宽不会超过 6Mbps. 别忘了 , 同一个 CBQ 下面的子
类的主号码都必须与 CBQ 自己的号码相一致 !
#tc qdisc add dev eth0 parent 1:3 handle 30: sfq
#tc qdisc add dev eth0 parent 1:4 handle 40: sfq
缺省情况下 , 两个类都有一个 FIFO 队列规定 . 但是我们把它换成 SFQ 队列 , 以保证每个数据流都公平对待 .
#tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 80 0xffff flowid
1:3
#tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 25 0xffff flowid
1:4
6. 过滤器过滤示例
#tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip dport 22 0xffff flowid 10:1
在 10: 节点添加一个过滤规则 , 优先权 1: 凡是去往 22 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1..
#tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip sport 80 0xffff flowid 10:1
在 10: 节点添加一个过滤规则 , 优先权 1: 凡是来自 80 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1..
#tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2
在 eth0 上的 10: 节点添加一个过滤规则 , 它的优先权是 2: 凡是上二句未匹配的 IP 数据包 , 发送到频道 10:2..
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip dst 4.3.2.1/32 flowid 10:1
去往 4.3.2.1 的包发送到频道 10:1 其它参数同上例
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 1.2.3.4/32 flowid 10:1
来自 1.2.3.4 的包发到频道 10:1
#tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2
凡上二句未匹配的包送往 10:2
#tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 4.3.2.1/32 match
ip sport 80 0xffff flowid 10:1
可连续使用 match, 匹配来自 1.2.3.4 的 80 口的数据包
❺ 服务器流入流出流量是什么可不可以举个例子,我在阿里云上买服务器看到这个,按量付费,我主要是用服
你这个算流入,也可以叫下行带宽。当你下载时,那台提供资源的服务器是上行(流出),服务器是限制上行带宽的
❻ 服务器流量怎么分析!
当前随着网络应用的不断丰富和发展,网络流量也随之变得复杂和种类繁多起来,下面是最为常见的几种网络流量:
1. HTTP流量: HTTP是互联网上使用最为广泛的协议,早就已经取代传统文件下载的主要应用层协议FTP,如今,随着YouTube等视频共享网站的拉动,HTTP协议的网络流量在过去四年里首次超过了P2P应用的流量。
2. FTP流量: 从互联网出现的开始,FTP就一直是用户使用频率最高的应用服务之一,重要性仅次于HTTP和SMTP。而随着P2P应用的出现,其重要性地位虽然有所降低,但是仍然是用户们下载文件不可替代的重要应用和途径之一。
3. SMTP流量: 电子邮件是整个互联网业务重要的组成部分。据统计,3/4以上的用户上网的主要目的是收发邮件,每天有十数亿封电子邮件在全球传递。特别是由于电子邮件的廉价和操作简便,诱使有人将它作为大量散发自己信息的工具,最终导致了互联网世界中垃圾邮件的泛滥。
4. VoIP流量: 2006年全球IP电话用户从1030万增长到1870万,增幅达83%。2007年VoIP通话量已达到全部通话量的75%。因此,互联网上VoIP的流量也是非常值得管理员关注的。
5. P2P流量: 目前网络带宽“消费大户”是P2P文件共享,在中东占据了49%,东欧地区占据了84%。从全球来看,夜间时段的网络带宽有95%被P2P占据。
6. Streaming流量: 随着诸如PPLive、PPStream等视频软件的出现,视频直播和点播成为广大互联网用户观看节目和网上娱乐的最佳生活方式,因此其流量也在不断地增加。
❼ 很多人访问一个网站 这个网站所在的服务器应该是流出流量大还是流入流量大,
流出吧,相当于 访问者从你的服务器下载网页到本地电脑,然后显示。
流出比流入多应该正常,如果你的网站长传不是很多的话。
❽ 服务器流量大,但是不知是从哪一部份流出
你的服务器100%是被盗链了,一般来说 70% 或者以上的资源都是被人盗用了,在中国回这种恶劣的环境答下:迅雷、FLASHGET 还有无数的采集工具,你网站一出来,基本上就能被无数其他网站采集到,然后放在自己的网页上给人下载。迅雷、FLASHGET 为什么能下载那么快,其实就是通过从很多没有防备的服务器上盗取资源,而且还模拟成你自己网站的用户来下载,一般的防盗链软件根本无法防,真是可恨。
以前我租100M独享的服务器,80%都是被人盗链了。无奈我开始在网上找了保护软件。后来发现一款叫 微盾防盗链专家 的软件很不错,还可以免费试用。详细您可以在网络里搜索一下“防盗链”或者“微盾”,网址是 www.vin.com 希望对你有帮助。
❾ 服务器流出流量过大是怎么回事 有几百M
您说的流出流量是输出流量吗? 服务器的输出流量就是别人访问您的服务器应用时产生的流量。我是做服务器租用这块的,希望可以帮到您
❿ 请问我的Linux系统服务器流出流量超过50M/S是什么原因
你的服务器整体下载速度为50M/s 带宽跑的很高,可能是你的应用或者网站访问人数都很多,下载量很大,假如一个客户的下载速度为1m/s ,50个人同时下载就是50M/s