Перейти к содержимому
Калькуляторы

nickyat

Пользователи
  • Публикации

    9
  • Зарегистрирован

  • Посещение

О nickyat

  • Звание
    Абитуриент
    Абитуриент
  • День рождения 01/06/1976

Контакты

  • ICQ
    Array

Информация

  • Пол
    Array

Город

  • Город
    Array
  1. На все особый резон...

  2. Помогите разобраться! мы городской интернет провайдер. в одном районе недавно (третий день бъемся) появилась проблема - деградация качества интернета, особенно заметная на скоростных (>50мбит) тарифах. тесты до проблем - скриншотов не привожу, мерил через teamviewer абоненты (все под windows): speedtest Химки 90-95 мбит speedtest локальный 97мбит iperf до сервера на порте коммутатор ядра 97 мбит те все замечательно, упираемся только в физический предел интерфейсов. цепочка абоненты-коммутатор доступа - агрегатор - коммутатор ядра-шейпер-бордер Теперь проблема: speedtest химки видно как после 2-3 сек резко скорость падает с 70-80 мбит до 12-14 и в итоге 12мбит download причем тотже torent разгоняется до 10 мегабайт/c (без локальных пиров) картина повторяется у нескольких абонентов iperf до ядра D:\>iperf -c 192.168.200.187 ------------------------------------------------------------ Client connecting to 192.168.200.187, TCP port 5001 TCP window size: 16.00 KByte (default) ------------------------------------------------------------ [1912] local 192.168.1.2 port 1322 connected with 192.168.200.187 port 5001 [ ID] Interval Transfer Bandwidth [1912] 0.0-130.0 sec 84.6 MBytes 5.46 Mbits/sec похожие результаты на трех абонентских компьютерах где еще 3 дня назад все было ок теперь то что собственно взрывает мозг. грузимся на этих же компах с linux livecd: спидтест химки график: iperf [sluser@livecd ~]$ iperf -c 192.168.200.187 ------------------------------------------------------------ Client connecting to 192.168.200.187, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.1.103 port 51552 connected with 192.168.200.187 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 113 MBytes 94.4 Mbits/sec результаты сходны +-5% на разных компьютерах после нескольких повторов. Чем же объяснить такую разницу?
  3. сервер работает по протоколу TCP размер пакета каким измеряет иперф - это? TCP window size: 16.0 KByte (default) ping -c 1000 -s 1400 77.247.1.1 --- 77.247.1.1 ping statistics --- 1000 packets transmitted, 1000 received, 0% packet loss, time 1000540ms rtt min/avg/max/mdev = 14.257/14.796/15.465/0.251 ms
  4. Проблема. Буду рад советам по ее решению. Мы провайдеры. Есть клиент с игровым сервером в интернете (wow если важно) гигабитным линком подключенный в ядро. Тариф 70мбит. Цепочка подключения выглядит как клиентский сервер-агрегатор-шейпер (SCE)- софтовый NAT. Начал жаловаться, что игроки стали жаловаться на лаги в игре, что раньше на канале было 40-50мегабит исходящего и 4-5 входящего, а сейчас выше 25-30 мбит исходящий не поднимается, примите меры где моя скорость. начинаю тестировать канал. по локалке с его сервера до себя: iperf -c 192.168.100.1 ------------------------------------------------------------ Client connecting to 192.168.100.1, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 51992 connected with 192.168.100.1 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 562 MBytes 471 Mbits/sec т.е проблем вроде не наблюдаем. тест скорости до ната (через шейпер) iperf -c nat0 ------------------------------------------------------------ Client connecting to nat0, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 51504 connected with 10.10.0.25 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 85.3 MBytes 71.3 Mbits/sec т.е проблем тоже вроде нет дальше тестим канал магистралов (ВСД Курск) Чтобы было понятно по айпишникам расклад такой: сервер1 77.247.1.1 - это сервер в Орле, до него от нас маршрут через Москву через центральный роутер - т.е. по сети vsd до Москвы и обратно в Орел сервер2 77.247.2.2 - это сервер в сети vsd в Москве сервер3 84.17.1.1 - это сервер в сети МТС в Орле, до него маршрут соответственно через Москву и далее по Интернет (думаю что в пределах М9) до МТС в Москве и назад в Орел по каналам МТС. сервер1 26.9 Mbits/sec iperf -c 77.247.1.1 ------------------------------------------------------------ Client connecting to 77.247.1.1, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 36445 connected with 77.247.1.1 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 32.1 MBytes 26.9 Mbits/sec сервер2 26.0 Mbits/sec iperf -c 77.247.2.2 ------------------------------------------------------------ Client connecting to 77.247.2.2, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 59380 connected with 77.247.2.2 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 31.1 MBytes 26.0 Mbits/sec сервер3 18.0 Mbits/sec iperf -c 84.17.224.13 ------------------------------------------------------------ Client connecting to 84.17.224.13, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 53114 connected with 84.17.224.13 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.2 sec 21.9 MBytes 18.0 Mbits/sec в один поток тарифная скорость не развивается. но в 5 ситуация меняется - до всех серверов скорость тарифная 70 мбит. iperf -c 77.247.2.2 -P 5 ------------------------------------------------------------ Client connecting to 77.247.232.27, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 7] local 10.0.10.97 port 37432 connected with 77.247.232.27 port 5001 [ 3] local 10.0.10.97 port 37429 connected with 77.247.232.27 port 5001 [ 5] local 10.0.10.97 port 37430 connected with 77.247.232.27 port 5001 [ 4] local 10.0.10.97 port 37428 connected with 77.247.232.27 port 5001 [ 6] local 10.0.10.97 port 37431 connected with 77.247.232.27 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 14.8 MBytes 12.4 Mbits/sec [ 5] 0.0-10.0 sec 21.2 MBytes 17.7 Mbits/sec [ 4] 0.0-10.0 sec 16.3 MBytes 13.6 Mbits/sec [ 7] 0.0-10.0 sec 20.3 MBytes 17.0 Mbits/sec [ 6] 0.0-10.1 sec 16.6 MBytes 13.8 Mbits/sec [sUM] 0.0-10.1 sec 89.2 MBytes 74.2 Mbits/sec теперь тестим по UDP (на серверах iperf запущен с нужными ключами) сервер1 99 мбит сервер2 и сервер3 аналогично iperf -c 77.247.1.1 -u -b 100m ------------------------------------------------------------ Client connecting to 77.247.232.27, UDP port 5001 Sending 1470 byte datagrams UDP buffer size: 122 KByte (default) ------------------------------------------------------------ [ 3] local 10.0.10.97 port 40550 connected with 77.247.1.1 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 119 MBytes 99.8 Mbits/sec [ 3] Sent 85471 datagrams read failed: Connection refused [ 3] WARNING: did not receive ack of last datagram after 1 tries. т.е. по TCP одна сессия не поднимается выше 30мбит, хотя по UDP поднимается. тех. поддержка разводит руками на эти цифры и говорит "а может так и должно быть - в несколько потоков скорость достаточная, а почему в одну нет - а может это нормально". Вот и я уже начинаю думать - может я тестирую не так? а как еще? должно быть в один поток 70 мбит или есть какие-то ограничения? лаги продолжаются...
  5. sce подключена 10гбит между двумя HP Procurve 6200. трафик на 10гигабитных интерфейсах HP равен трафику на SCE вот для наглядности график с интерфейсов SCE, разница по текущему трафику 250мбит
  6. Поставили SCE8000 и обратили внимание на большую разницу между трафиком на входном и выходном интерфейсе. Например 2.03/1.08 вх/исх гигабита на входе, соответственно эти же цифры и с интерфейсов бордера, а на выходе 1.75/1.13гигабита, те потерялось 280мегабит. Вопрос где они потерялись? отключал все фильтры на вирусы, спам, трафик меняется незначительно.
  7. Подыскивается бюджетная (~13000 ye) железка для НАТа. скорость до 4-6 гбит. Присматриваюсь к srx 650 juniper. Обещают до 7гбит. Поругайте или посоветуйте чтонибудь. Спасибо.
  8. freebsd 7.2 stable на всякий случай. skor78: не понял вопроса...
  9. от шейпера до ната iperf кажет 200-300мбит и скорость транка не вылазит за 1 гигабит все равно
  10. Добрый день! Помогите разобраться Ситуация такая: Есть шейпер на freebsd (Dell PowerEdge R900 4xQuad Core Xeon E7430) и нат на gentoo (HP ) . на обоих стоят intel 4x1000 сетевые карты. для увеличения ширины канала до 2 гигбит объединили их в транки по две. (т.е. транк от коммутатора HP ProCurve до шейпера, от шепера до ната и от ната до бордера (Bigiron 8000) проблема такая - ну не вижу я роста скорости то двух гигабит. [nick@shaper64 ~]$ ifstat em0 em1 em2 em3 lagg0 lagg1 KB/s in KB/s out KB/s in KB/s out KB/s in KB/s out KB/s in KB/s out KB/s in KB/s out KB/s in KB/s out 26706.67 56545.75 28648.04 51326.79 57733.62 27474.83 54033.51 26118.06 54917.72 107848.1 110899.3 53581.98 26853.89 56577.65 28477.20 52280.97 58042.37 27224.41 53391.02 26898.80 54930.24 108839.2 110694.6 54113.38 26513.75 55779.43 28219.44 51096.89 56937.77 26512.42 54242.47 26225.53 54319.81 106840.6 110420.0 52723.97 26738.14 56409.93 29243.90 51112.05 55718.96 27287.79 55145.89 27408.17 55598.85 107505.7 110090.8 54675.87 27858.30 61338.84 29278.41 54734.62 60576.05 27754.05 58161.97 28482.39 56688.85 116034.3 117927.9 56217.37 28157.73 59725.82 29738.20 54295.40 59754.56 28226.07 58356.27 28260.88 57491.24 113998.9 117305.4 56461.89 lagg1 это как раз транк до ната. конфиги: на фре: ifconfig em0 up ifconfig em1 up ifconfig lagg0 create ifconfig lagg0 up laggproto lacp laggport em0 laggport em1 ifconfig lagg0 10.10.0.33 netmask 255.255.255.252 ifconfig em2 up ifconfig em3 up ifconfig lagg1 create ifconfig lagg1 up laggproto lacp laggport em2 laggport em3 ifconfig lagg1 10.10.0.26 netmask 255.255.255.252 на gentoo Файл /etc/conf.d/net: modules=( "bonding" ) slaves_bond0="eth2 eth3" config_bond0="10.10.0.25 netmask 255.255.255.252" routes_bond0=( "10.0.0.0/8 via 10.10.0.26" "192.168.100.0/24 via 10.10.0.26" "192.168.200.0/24 via 10.10.0.26" "192.168.253.12/30 via 10.10.0.26" ) #modules=( "bonding" ) slaves_bond1="eth0 eth1" config_bond1=("10.10.0.10 netmask 255.255.255.252" "93.25.19.10 netmask 255.255.255.252" ) routes_bond1=( "default via 91.23.19.9" ) Файл /etc/modules.d/bond options bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=2 alias bond0 bonding options bond0 -O bond0 mode=4 miimon=100 xmit_hash_policy=2 alias bond1 bonding options bond1 -O bond1 mode=4 miimon=100 xmit_hash_policy=2