Перейти к содержимому
Калькуляторы

cant

Пользователи
  • Публикации

    54
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем cant


  1. 4 минуты назад, dr Tr0jan сказал:

    Покажите.

    У меня было такое. Оказалось, бэк (СХД) тормозил (хотя в это никто не верил, даже вендор, пока умные люди не ткнули носом).

     

    4 минуты назад, rm_ сказал:

    А какую конкретно имеет? Сколько аплоад, сколько даунлоад, где проблема-то?

    Сервер на чём? Если линуксы, попробуйте разные TCP Congestion Control алгоритмы -- illinois или bbr.

     

    Не, ничего не тормозит, когда 10G <-> 10G или 1G <-> 1G.

    Каков бы масштаб проблемы и несимметричности не был бы, на том или ином железе, просят устранить это на сетевом уровне.

  2. 10 минут назад, andryas сказал:

    Какие каталисты?  Обычно такое поведение характерно для "десктопных"  коммутаторов с крошечным (до 2-3 мегабайт) буффером пакетов.

    Очевидное решение - приобретение коммутатора с буффером от 4-8 мегабайт. Из наиболее доступного - Cisco серии 4948 (лучше E).

    Да обычные каталисты 3650, 2960S.   (не датацентр с нексусами, но и не офис с микротиками и д-линками).
    4948E не дают. (не закупается снятое с производства). 

  3. Обычная локальная сеть на каталистах. Сисадмин недоумевает, почему клиент сидящий на 1G порту, общаясь с сервером на 10G порту, имеет несимметричную скорость, гоняя трафик туда-сюда одной tcp-сессией. Или жалуется, что когда два 1G клиента одиночными tcp-сессиями льют данные на один 1G сервер, то суммарный трафик деградирует ниже 500mbps. 
      Какое сегодня самое дешевое решение проблемы?
    Если сисадмин отказывается что-либо менять в настройках сервера и клиента, но просит решить проблему на уровне сети.
    (клиенты и сервера в одном сегменте).
     

  4. В ‎28‎.‎06‎.‎2018 в 12:12, QWE сказал:

    кто что делает в таком случае? Как доказать клиенту что Гигабит есть на канале?

     

    Доказать друг-другу ничего нельзя, но в целом алгоритм может быть такой:

     

    1) Клиенту сообщить, что будет проведена проверка и сообщены результаты.

    2) Некоторую минимальную тех.диагностику провести можно. Типа посмотреть ошибки на интерфейсе. Если есть уверенность что все Ок, то можно ничего больше не делать, а только имитировать свою работу по проверке и измерению, затем просто выдать клиенту результат в 1 Gbps. ("получен путем прогона битового потока по петле на клиентском порту").

    3) Если этого клиента сразу терять не хочется, то можно выехать к клиенту специалисту оператора, инженер "поковыряется, померяет что-то, какими-то непонятными средствами", после чего клиенту заявить, что все Ок. 1Gbps.

    3) На словах: рекомендовать клиенту использовать какой-нибудь другой способ измерения, каким-нибудь другим оборудованием, с привлечением третьих независимых специалистов.

    (ничего конкретного рекомендовать нельзя, кривые руки клиента похоронят это все равно.)

     

    Если эти третьи независимые специалисты что-то "докажут", то вы это можете легко обжаловать :))

     

    PS: Клиент часто склонен решать свои проблемы за счет оператора. Считайте свои человеко-часы и рентабельность помощи такому клиенту.

  5. Приветствую всех.

    От оператора одним шнуром приходит транк (порядка 10-15 vlan).

    Каждый vlan представляет собой q-in-q, внутри каждого ещё порядка (15-20 vlan).

    Какой минимальной ширпотребной cisco можно разобрать и затерминировать по ip все эти vlan ?

  6. На оператора включена Intel E1G42ETBLK (82576), в сеть к клиентам Intel E1G44ET2 (82576) 4х гигабитным lacp транком.

    Два Intel Xeon E5649 (6 ядер, 2.53 ГГц) c 4 ГБ DDR3-1333 на каждом процессоре.

    Задачи - маршрутизация (2 BGP сессии с операторами, 2 bgp сессии с шлюзами доступа) и шейпирование (tc htb + ifb для нарезки исходящего трафика, тарифы 10-60 мбит).

     

    Симптомы такие: входящая скорость на интерфейсе останавливается на 800-820 мегабит\с, при этом у абонентов начинает проседать скорость. С двух операторов параллельно в ЧНН входящего 1.3-1.5 Гбит\с

    Еще смущает тот факт, что проблемы начались со сменой оператора, на предыдущем на той же самой сетевой карте прокачивалось 950 мбит\с.

     

    На графиках пакетной скорости (pps) суммарно или отдельно по сетевым картам видна ли полка?

     

    Аплинк на проблемного оператора можно для проверки заменить на свой писюк (заведомо проверив, что он отдает 1G).

  7. а расскажите где Вы 24 байта потеряли, может что и придумается... в плане коррекции дизайна, а не стоимости.

     

    Переделывать, модернизировать и разбираться - это тоже время и деньги.

    Хотелось бы понять цену этого дефекта, чтобы прикинуть окупится ли ковыряние с ним.

     

    В GRE туннеле, судя по всему :)

     

    Тем более в нем L2 канал. Т.е. никаких icmp не получит клиент.

  8. P.S. Если не хватает информации, выложу выводы нужных команд.

     

    Начните с простого.

    Визуализируйте в течении суток пинги с точностью до секунды во времени и пространстве по всем хопам.

    Бывает что это сразу и быстро помогает локализовать проблему даже уже постфактум и по характеру дропа,задержек понять её природу.

     

    Чем сейчас модно, типа mtr или pingplotter.

  9. Есть основной интернет-канал, на случай падения основного канала есть схема переключения на резервный, поэтому интернет-доступ к организации сохраниться.

    Но как сделать, чтобы были доступны и сервисы?

     

    Как альтернатива PI-BGP для клиентов-ЮЛ может подойти вариант практически схожий с размещением своих сервисов на третьем хостинге.

    (гипотетически предполагается, что хостинг надежней чем последняя миля до офиса клиента).

     

    Но у хостинга(третьего оператора) размещаются не сервисы, а vpn-шлюз до офиса с сервисами. И соединяется с офисом двумя туннелями.

  10. Ну не обязательно в native.

     

    А как предписывает современная наука? Или какой дизайн чаще использует передовая общественность?

    Просто не понятно куда native девать. Затыкать его в пустые локальные вланы с разными id>1 ?

  11. cant

    поднимать osfp в native-влане (номер 1 лучше не использовать)

     

    Спасибо. т.е. типа

     

    interface GigabitEthernet0/25

    description to-left-neighbor

    switchport native vlan 803

    switchport mode trunk

    !

    interface GigabitEthernet0/26

    description to-right-neighbor

    switchport native vlan 804

    switchport mode trunk

     

    в vlan 803,804 линки ospf к соседям справа и слева. Я правильно понял?

  12. Как кольцо L2 stp каталистов типа cat3560 переделать в L3 ospf ?

     

    Причем так, чтобы в L2 не осталось никаких вланов в кольце.

    Но switchport транковые порты кольца не переделывать в routed,

    т.к. в транспорте есть отдельные каналы L2 (вланы), но они не растянуты на всё кольцо (т.е. stp blocking на них нету).

     

    В первом приближении, кольцо L3 ospf

    в виде отдельных локальных p-to-p вланчиков между соседними каталистами.

     

    Т.е. транковые порты кольца выглядят:

    interface GigabitEthernet0/25

    switchport trunk allowed vlan 803

    switchport mode trunk

    !

     

    Но как тогда избавиться от L2 кольца в native ?

  13. Есть ли какое-нибудь решение, чтобы организовать канал

    точка-точка 50-100Mbps (в Москве на мобильных сетях 4G,LTE,WiMax) ?

     

    В случае если L2/L3 канал возможен только как туннель, то соответственно и производительности туннелирующего оборудования тоже бы хватало на полосу до 100 Mbps.

    Спасибо.

  14. Подскажите пожалуйста, что я должен поправить в своем bind9

    чтобы как-то лояльнее относиться к некоторым внешним доменам

    которые на нерекурсивные запросы отвечают неавторитативно.

     

    dig @62.76.132.250 www.coral.ru +norecurse

    ...

    ;; flags: qr rd ra; QUERY: 1, ANSWER: 5, AUTHORITY: 0, ADDITIONAL: 0

    ...

     

    Т.е. из-за отсутствия флага "aa" через свой бинд я их не могу разрезолвать.

     

    А так могу:

    dig @62.76.132.250 www.coral.ru +recurse

    ...

    ;; flags: qr aa rd; QUERY: 1, ANSWER: 5, AUTHORITY: 0, ADDITIONAL: 0

    ...

  15.  

    Т.е. никак не узнать - на каком узле потери/задержки? или что?

     

    В своей сети это можно узнать, используя помимо прочих инструментов и traceroute иногда.

    В чужой же сети бывает весьма сложно, а главное не нужно. Минимально надо только установить:

    - какому из аплинков лучше начать жаловаться,

    - и можно ли как-то виляя своей задницей между аплинками минимизировать ущерб.

  16. ... bgp на mx80 кручу. Но вот беда, не нужен я в Мск даже за 80к, т.к. сертификатов нет и на глупые вопросы (что можете рассказать про маску 255.255.255.64) могу глупо (с юмором) ответить. "Вы нам не подходите" (с)

     

    В первую очередь не сертификаты надо, а справку из наркологического диспансера. Это почти общепринятая практика. :)

  17. не нужно на neighbor клиента делать default-originate - отдайте ему маршрут (0.0.0.0/0) от вышестоящего маршрутизатора

     

    О! А квагга уже умеет пересылать дефолт? В частности из ebgp в ibgp не умела раньше.

  18. Нет аргументированых задачь, в которых оправдано использование FreeBSD.

     

    Не знаю как сейчас, но много лет назад пытался поставить оракловые библиотеки на фрибсд.

    Не получилось никак с разными костылями не работало нормально.

    Энтерпрайз не разрабатывал под эту ОС свои продукты. фрибсд был лишь немного предпочтительней линукса именно для телекома и опенсурс софта .

  19. Есть подозрения что перестраивается STP и сеть валится на 1,5 минуты.

     

    Вместо STP используйте ручную блокировку порта.

    Т.к. траблешутить stp очень затратно и вероятность конечного успеха не велика.

  20. Подниму тему. Райп определился с третьей фазой отнятия PI :).

    Предположительно она начнётся в середине ноября 2010, после 61-го райп митинга.

    . . .

    Подскажите, нет ли очередных сдвигов по фазе ?

     

    (некоторым PI хотелось бы знать, планировать ли заранее в своем бюджете 2011 года эти 50-евро или только в 2012 году припрет ?)