Перейти к содержимому
Калькуляторы

ingvarrwvw

Пользователи
  • Публикации

    59
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем ingvarrwvw


  1. On 5/6/2021 at 7:04 PM, orca said:

    Это все пробовал.
    Оно меняет количество очередей сетевой карты, но эти очереди потом распределяются по if_io_tqg_ количество которых равно количеству ядер в системе. При двух процессорах работают только if_io_tqg_ которые привязаны к первому процессору.

    В рассылку не писал. Честно говоря никогда туда не писал только читал иногда.

    Никак вы это не сделаете. Если сервер с двумя нума нодами, ставте вторую сетевую на pci шину второго проца. Но если сервер используется для рутинга - прироста в производительности это не даст ровно никакого.

  2. 9 hours ago, Ivan_83 said:

    Я в соседней ветке накидал патч для параллелинья PPPoE - никто даже не отписался.

    Он на заметке ) А пока ковыряю х710 и DPDK, отлаживаю профиль для  "параллелинья PPPoE" )

  3. РРРое на BSD летит на одно ядро, потому что RSS на всех дешевых картах (популярных чипах intel 82599  в том числе) умеет раскладывать по разным очередям только L3 трафик. Никаким тюнингом это не изменить.

    В линуксе есть RPS, который эту ситуацию позволяет разрешить, поэтому тоже смотрим в сторону переезда на линуксовый рррое.

  4. Перевел один сервер на 13-RC2,заценить новую фичу с использованием HT ядер для обработки трафика,и обнаружил что для ix драйвера (intel 520) пропала крутилка для увеличения буфера . Трафика на сервере порядка 10 гбит, вроде все хорошо, но сыпятся rx errors теперь постоянно(до апгрейда не было вообще). Может кто знает как в 13 BSD буфер увеличить (раньше был тут hw.ix.rxd)? 

     

  5. В приведенной вами ссылке на спецификацию карты написано что RSS только для  IPv4v6 , TCP/UDP. Как я понимаю рррое по разным очередям она раскладывать не разбежится (

    Поддержку L2 для RSS увидел только в картах интела х710... про RPS надо просвятиться, спасибо за информацию.

  6. Коллеги, доброго дня.

    Подскажите пожалуйста,а то я не совсем в теме - в линуксе реализована многоядерная обработка рррое трафика на 10г сетевых картах от intel  или mellanox ? Т.е. не будет ли рррое трафик весь обрабатываться одним ядром,как это сейчас в BSD системах работает?

    Спасибо заранее )

  7. Поменял,все порты разные, ничего не изменилось.

     

    Видимо оно в принципе не работает

  8. LACP включен, MLAG тоже. Вот итого как это выглядит на обоих свичах:

     

    enable sharing 14 grouping 14,23 algorithm address-based L3 lacp

    enable mlag port 14 peer "ХХ_х670" id 23

     

    Трафик в сторону циски улетает по 14 порту на одном свиче и по 23 на другом.

     

    При использовании такой же схемы,но с 2 портами(т.е. по одному порту на свич), работает нормально.

  9. Коллеги,подскажите с настройкой lacp между 670х и циской.

    2шт  670 соединены между собой ISC, MLAG. Циска подключена в каждый из них по два порта.

    Циска более-менее равномерно отдает трафик в сторону экстрима через все 4 порта.

    Экстрим в сторону циски валит 90% трафика через два порта,практически полностью их утилизируя, остальные два еле загружены.

    Пробовал так:

     enable sharing 14 grouping 14,23 algorithm address-based L3 lacp

    И так:

    enable sharing 14 grouping 14,23 algorithm address-based custom lacp

    Результат одинаковый.

    Трафик юникаст v4

  10. При ~20гб трафика и 1 млн трансляций и включенном Netflow9 - задержки через ASR 1006 (ESP40 RP2) начинают расти,вплоть до 80мс и выше. Выключаем Netflow - все нормализуется тут же. Настройка NF самая дефолтная без агрегаций и прочих изысков.

    Есть у кого-нибудь схожие нагрузки и нормально функционирующий сбор netflow ? 

  11. On 5/29/2020 at 1:58 PM, alexdirty said:

    Вопросы из опыта эксплуатации 1004 (не знаю на сколько сильно отличается от 1006):

    1. В одно и тоже время, это в ЧНН?

    2. Общий rate на вход и выход перед "падением" и после "восстановления" насколько отличается?

    3. Нет ли ошибок/дропов на интерфейсах ASR и на железе до/после?

    4. Жалобы от клиентов какого рода?

    5. Начните "рисовать" график утилизации QFP. У меня на 1004 в CLI доступен по

    
    show platform hardware qfp active datapath utilization qfp 0

    а по SNMP iso.3.6.1.4.1.9.9.715.1.1.6.1.14.9027.1 на одной и iso.3.6.1.4.1.9.9.715.1.1.6.1.14.9037.1 на другой.

    6. Соответственно и графики трафика, cpu, количества трансляций в эти моменты может что-то подскажут.

     

    Проблема решилась заменой ESP платы.

  12. Проц тот же,писал конфиг сервера выше. Шейпера нет, это только бордер с натом. С dummynet беда известная - однопоточный, поэтому чуда ждать не стоит, а шейп на нетграфе периодически вешает сервер полностью (у нас по крайней мере так было пару раз,отказались)

     

    Сейчас ожидаю для теста платформу на AMD с 32 железными ядрами.