Перейти к содержимому
Калькуляторы

Azamat

Активный участник
  • Публикации

    316
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем Azamat


  1. По "чесноку" считается то если на борту 2х40 (ну или 2 по 4х10) например - тогда да - 34/6 в серую сеть, 34/6 выход за НАТ- итого 80 гиг. 

     

    причем эти /6 туда - сюда делают серверу больнее

     

    В вашем случае не исключено, что 28/5 туда - сюда, графики покажут что зеленая/синяя зоны по 33-34 гига

    чисто технически 28/3 ( 2х40 Мелланокс) натятся на бытовом i9-9900k и плате Асус.

  2. Скажем, если у вас 55 гиг трафика, то нашей точки зрения, было бы логичнее держать 3 сервера по 18-20 гиг. Каждый из них должен быть готов принять нагрузку с любого из БРАС-ов, прописаны правила НАТ-а на все серые сети, которые водятся. Где-то по 128 IP адресов в нат-пул на каждом из НАТ серверов.

     

    И со спокойной душой расти до 80 гиг

  3. это само собой. Но если сервер нагружен например на 50 проц, он может подхватить нагрузку упавшего и выйти в свой пик на 37-38 гиг на время замены.

    А если упадет плита в 40 гиг - нужно вообще пустой сервер держать в горячем резерве. Там же будут пылиться реальные IPv4.

  4. Действительно, взгляд не был заточен на полную форму команды - просмотрел. 

    Сделал как рекомендовано (отдельное спасибо), теперь в наличии по 6 очередей на сетевую.

     

    Зато проявилась след. странность (прям эффект домино).

     

    Счетчики прерываний по ядрам:

     

      71: 1024730914          0          0          0      29598          0   PCI-MSI-edge      eth1-0
      72:          0 1017367030          0          0      23560          0   PCI-MSI-edge      eth1-1
      73:          0          0  822194765          0          0       7196   PCI-MSI-edge      eth1-2
      74:          0          0          0  842293194          0       7254   PCI-MSI-edge      eth1-3
      75:       7699          0          0          0 1035584371          0   PCI-MSI-edge      eth2-0
      76:       6658          0          0          0          0 1025554460   PCI-MSI-edge      eth2-1
      77:          0         0          0          0  313907329          0   PCI-MSI-edge      eth2-2
      78:          0         0          0          0          0  304111749   PCI-MSI-edge      eth2-3
      79:          0          0  653206777          0          0          0   PCI-MSI-edge      eth1-4
      80:          0          0          1  653428197          0          0   PCI-MSI-edge      eth1-5
      81:          0          0          0          1      65197          0   PCI-MSI-edge      eth2-4
      82:          0          0          0          1          0      63605   PCI-MSI-edge      eth2-5
     

    По сетевой eth1 все разложилось по ядрам вроде более-менее, хотя сами прерывания на очереди выделены вразброс (71,72,73,74,79,80), а вот по сетевой Eth2 (смотрит в "серые" сети) - непонятки.

    Первые 4 очереди с Eth2-0 по Eth2-3 заполняются, счетчики растут (75,76,77,78) (77 и 78 прерывания к ядрам 5 и 6 проца прибиты вручную)

    А последние две - Eth2-4/5 (81,82) - пустые, почему то в них вообще не попадает трафик. 

     

    В чем может быть причина такого перекоса ?

     

    В работе имеем еще сервер с такой же сетевой, но процессор 8 ядерный - там вообще все автоматом разложилось по ядрам как нужно и все очереди заполняются трафиком равномерно.

    Мистика какая-то.

     

     

  5. Уважаемые коллеги, плз подскажите, кто знает,  ответ к проблемке с Mellanox-3 в Дебиане.

     

    Собственно, сама задача такова - разложить очереди карты по процессорам. С Intel 10гиг проблем не возникало.

    Перешли на Мелланокс, видим след. картинку:

     

    CPU - 6 ядер (0-5)

     

    Очередей - 4 rx, 4 tx

     

    PCI-MSI-edge      eth1-0
    PCI-MSI-edge      eth1-1
    PCI-MSI-edge      eth1-2
    PCI-MSI-edge      eth1-3
    PCI-MSI-edge      eth2-0
    PCI-MSI-edge      eth2-1
    PCI-MSI-edge      eth2-2
    PCI-MSI-edge      eth2-3
     

    Как бы увеличить число очередей карты до 6 rx, 6 tx ?

     

    Есть какое-то упоминание ethtool -L, но там какие-то термины 

    ethtool -L|--set-channels 

     

    Страшновато на рабочем сервере применить.

     

    Плз просвятите темных.

     

  6. 4.9 не получилось поставить на Deb 11, она типа заканчивается на Деб 10

     

    подумали, что для НАТ сервера пойдет и штатный драйвер. OFED драйвера типа больше для виртуализации и других специфичных приложений.

  7. Доброго дня, уважаемый товарищи.

     

    Плз подскажите, если кто сталкивался, причину следующей зело злой проблемы с сервером:

     

    1. Сервер на Debian 11 (ядро 5.10.ххх)

    2. Сетевые - Мелланоксы 3 pro (штатный драйвер от дебиан)

        driver: mlx4_en
        version: 4.0-0
        firmware-version: 2.43.7028

    3. Медные кабеля 40g Mellanox

    4. Для управления сервером - штатная реалтек 1гб на мамке.

     

    Суть проблемы в следующем. Сервер работает пару дней, в пике натит порядка 22гиг входящего, потом вдруг отваливаются все БГП сессии на БРАС-ы, трафик в 0. Причем отваливается в произвольный момент, может в 4 утра - когда нагрузка вообще на минимуме.

     

    На портах коммутатора видим маки сетевых сервера (после очистки снова появляются), значит физика в UP. Но сервер вообще не видит входящий трафик, исходящий присутствует.

    Потеряны все arp записи всех пиров, хотя каждый из БРАС-ов видит запросы на arp со стороны сервера, каждый отвечает на запрос - мол я на таком -то мак адресе - но до сервера этот трафик не доходит. В ethtool -S постоянно растет rx_dropped, судя по всем все входящие там и наращивают статистику. 

     

    Причем все это на 40г интерфейсах, на 1гб реалтеке все ОК, сервер остается доступен по ссш.

     

    Как бы понять причину / победить этот комплект ? 

  8. Всем доброго дня.

     

    Плз помогите победить злую магию - Ubuntu 20 и quagga на одном сервере.

     

    Проц i9, сетевые - мелланоксы 40гиг. Задача - НАТ сервер. Отдельная сетевая - для менеджмента, реалтек на 1 гиг.

     

    Кваггу поставили, IP адреса в зебре прописали на интерфейсы. На первом интерфейсе - 250 адресов, на втором - 3. 

    Первый смотрит наружу, второй - внутрь сети. Примерно так все сделано на других НАТ серверах на дебиане, но там ядро сильно 3.0.хх.
    Пока помещались в 10 гиг - вопросов вообще не было.

     

    А теперь - в чем именно злая магия.

    После перезагрузки - видим 3 физ. интерфейса. IP адрес из зебры назначился только на eth0 - менеджмент. 

    Мелланоксы - eth1/2 - полностью голые :(  В  силу этого не поднимаются БГП сессии на брасы. Хорошо, что сервер тестовый.

     

    При этом в процессах присутствуют и zebra и bgpd

     

    Если сделать systemctl restart zebra - на интерфейсы прилетают назначенные в зебре адреса, начинают ходить пинги и тд.

    Поднимаются БГП сессии. Но здесь вторая напасть - маршруты прилетают в БГП как надо, но в таблицу не идут.

     

    Вот так видит один из ИП адресов из полученной от БРАС-а сети:

     

    show ip bgp 172.22.8.1

    BGP routing table entry for 172.22.8.0/24
    Paths: (1 available, no best path)
      Not advertised to any peer
     192.168.254.82 (inaccessible) from 192.168.254.82 (192.168.254.53)
          Origin incomplete, metric 1, localpref 100, invalid, internal
          Last update: Sat Nov 25 16:33:11 2023
     

     

    адрес пира 254.82 в одной подсети с этим сервером, на нем 254.87, пинги ходят в обе стороны, арп записи адекватные. Почему же inaccessible-то ?

     

    сами маршруты видны так 

     

     show ip bgp neighbors 192.168.254.82 received-routes
    BGP table version is 0, local router ID is 192.168.254.87
    Status codes: s suppressed, d damped, h history, * valid, > best, = multipath,
                  i internal, r RIB-failure, S Stale, R Removed
    Origin codes: i - IGP, e - EGP, ? - incomplete

       Network          Next Hop            Metric LocPrf Weight Path
    *> 172.22.8.0/24    192.168.254.82           1     100       0 ?
    *> 172.22.25.0/24   192.168.254.82           1     100       0 ?
    *> 172.22.26.0/24   192.168.254.82           1     100       0 ?
    *> 172.33.54.0/24   192.168.254.82           1     100       0 ?
    *> 172.33.58.0/24   192.168.254.82           1     100       0 ?
    *> 172.33.72.0/24   192.168.254.82           1     100       0 ?
    *> 172.33.96.0/24   192.168.254.82           1     100       0 ?
    *> 172.33.118.0/24  192.168.254.82           1     100       0 ?
     

     

    Может кто-то сможет подсказать, что бы надо сделать, чтобы сервер начал работать - назначались ип адреса из зебры и маршруты из БГП шли в основной fib?

     

     

    Для сравнения, вот те же самые маршруты с основного НАТ сервера на Дебиане (изначально, новый сервер делали по аналогии)


       Network          Next Hop            Metric LocPrf Weight Path
    *> 172.22.8.0/24    192.168.254.82           1    100      0 ?
    *> 172.22.25.0/24   192.168.254.82           1    100      0 ?
    *> 172.22.26.0/24   192.168.254.82           1    100      0 ?
    *> 172.33.54.0/24   192.168.254.82           1    100      0 ?
    *> 172.33.58.0/24   192.168.254.82           1    100      0 ?
     

     show ip bgp 172.22.8.1
    BGP routing table entry for 172.22.8.0/24
    Paths: (1 available, best #1, table Default-IP-Routing-Table)
      Not advertised to any peer
        192.168.254.82 (metric 1) from 192.168.254.82 (192.168.254.53)
          Origin incomplete, metric 1, localpref 500, valid, internal, best
          Last update: Mon Sep 18 03:19:00 2023

     

    здесь маршрут и прилетел как надо и таблицу маршрутизации попал безо всяких inaccesible

     

    В дополнение.

    Вроде подобрался костыль после ребута сервера в виде 

    1. systemctl stop bgpd.service
    2. systemctl restart zebra.service
    3. systemctl restart zebra.service
    4. systemctl start bgpd.service
     
    после чего на интерфейсы садятся назначенные адреса и таблица маршрутов заполняется.
    Почему-то нужно 2 раза делать рестарт зебры.
     
  9. Уважаемые коллеги.

    Если остался кто-то с IPTV порталом Stalker - можем предложить замену IPTV приставкам MAG - устройства на Android, проц. 905x3

    Изначально, делали прошивку для своей сети на замену МАГ-ам (проблемы с логистикой с 22 года)

     

    На борту приложение IPTV (взаимодействует со Сталкер-ом) и приложение youtube, файловый браузер и MX player. Работает пульт от приставки МАГ, т.е. если кому-то потребуется вторая приставка к имеющемуся МАГ-у, то не потребуется второй пульт, несовместимый с первым.

     

    Одновременная работа UTP и wifi интерфейсов. У нас по UTP поступают мультикаст потоки, по wifi - работает youtube.

     

    Если кому-то будет интересно - пишите в личку. Обсудим/расскажем.

     

    PS. Можем помочь развернуть IPTV в сети на базе Сталкера.

  10. Всем доброго дня.

     

    Если есть кто-то, у кого в работе Сталкер - можем предложить совместимые приставки на Андроид.

    процессор - 905x3

    2/16Гб

    на борту в штатном режиме - приложение ТВ (внешний вид как в приставке МАГ)  и YouTube, файловый браузер и МХ плейер. Гугл Плей - вырезан.

     

    Делали прошивку для себя, одновременная работа UTP и WiFi, по витой паре - ТВ потоки, по wifi - ю-туб. Сохранили работоспособность пультов от МАГ (протокол RC5) - удобно, если у кого-то уже есть МАГ-и, на экран выводится диагностика, если вдруг потеряна связь приставки с сетью. Можно сфотографировать и отправить в тех. поддержку. Свой сервис авто-обновления ТВ приложения и самой прошивки приставки.

    Подгонка коробки и приставки - лого/стартовые экраны и тд.

     

    Можем помочь с развертыванием Сталкера (не Министра)

     

    Если вдруг кому-то будет интересно - пишите в личку.

     

     

  11. Уважаемые коллеги.

    Если остался кто-то с порталом Stalker - можем предложить замену IPTV приставкам MAG - устройства на Android, проц. 905x3

    Изначально, делали прошивку для своей сети на замену МАГ-ам (проблемы с логистикой с 22 года)

     

    На борту приложение IPTV (взаимодействует со Сталкер-ом) и приложение youtube, файловый браузер и MX player. Работает пульт от приставки МАГ, т.е. если кому-то потребуется вторая приставка к имеющемуся МАГ-у, то не потребуется второй пульт, несовместимый с первым.

     

    Одновременная работа UTP и wifi интерфейсов. У нас по UTP поступают мультикаст потоки, по wifi - работает youtube.

     

    Если кому-то будет интересно - пишите в личку. Обсудим/расскажем.

     

    PS. Можем помочь развернуть IPTV в сети на базе Сталкера.

  12. Всем доброго дня

    имеем около 10К приставок on-line
    Только мультикаст и только приставки МАГ

     

    Не знаю, успех это или нет.
     

     

  13. Всем доброго дня

     

    нужно до 2-3к шт. Обязательно наличие аппаратного АС-3 (на задней панели spdif разъем)

     

    Если есть у кого, плз пишите - обсудим.

     

     

  14. Есть проект акт проверки отдела лиц. контроля - в нем есть в примечании к одному из пунктов - отсутствие лицензии на использование радиочастотного спектра для  станции ЗССС. Но в резолятивной части в списке выявленных нарушений это отдельной строкой не фигурирует. Хз что делать. 

     

    Если получить лицензию (на передачу), но потом не реализовать некий проект, ради которого бралась лицензия - то через 2 года лицензия отзывается с занесением в "черный" список.

  15. Почти всё из вышепредложенного было высказанно, особенно про гостиницы. Также мы привели пример таксистов, которые для получения дохода юзают мобилы - им что, тоже платить за использование частоты на прием ?

     

    Т.е. выглядит как попытка утилизировать скрытый смысл слова "использовать".  Есть ли где-то (в каком-нибудь толковом словаре) в явном виде развернутое описание слова "использование" ?

    На интуитивном уровне есть разница между "пользование" и "использование".  Второе как бы предполагает, что нечто/ресурс действительно связывается с объектом.

  16. Мы - оператор связи, все лицензии в этой области у нас есть. 

    Но из местного лиц. органа вдруг озвучена инициатива получить лицензию на использование раодичастотного спектра. При том, что мы не излучаем в эфир - только приемные антенны.