Перейти к содержимому
Калькуляторы

kayot

VIP
  • Публикации

    1 385
  • Зарегистрирован

  • Посещение

2 подписчика

О kayot

  • Звание
    Доцент

Контакты

  • ICQ
    199908616

Информация

  • Пол
    Мужчина

Город

  • Город
    ua

Посетители профиля

2 139 просмотров профиля
  1. низкая скорость gpon

    2x PentiumD + hyper threading? :)
  2. iptables notrack

    Еще правило нужно для другой стороны -d 176.ххх.ххх.0/24
  3. iptables notrack

    @kid79 Я бы для начала правило -match-set allow_ip src,dst разбил на 2 отдельных, с src и dst. А дальше вообще set нафиг убрать из правила, у вас IP адреса же каким-то блоком существуют, не отдельные же выданы клиентам? Сделайте notrack для всего блока 176.хх.хх/yy
  4. Quagga Zebra

    Нашел в расылках похожие жалобы, добавил параметр --nl-bufsize netlink-buffer-size. Поглядим.
  5. Quagga Zebra

    Подниму тему. Есть 2 PPPoE сервера, современное железо и очень древний софт. В случайное время, примерно раз в месяц они ребутятся без видимых причин и каких-либо логов, ядро вероятно дырявое(2.6.31). Между серверами и бордером поднята маршрутизация на RIP2. Так вот, после очередного ребута на соседний сервер практически мгновенно переподключается до 2к клиентов и zebra в этот момент теряет часть маршрутов. Точнее перестает видеть часть PPP-интерфейсов. Т.е. подключилось 2000, а маршрутов на бордер улетело 1800. И эта ситуация остается замороженной, помогает или переподключение сессии клиента, или банальный рестарт зебры. cat /proc/net/pppoe говорит что сессий 1000, ip route show показывает 1000 маршрутов, а show route summary в консоли зебры говорит что маршрутов 900, и на бордер улетают эти 900. Пока было по ~1000 онлайн-сессий на сервер проблема не вылезала, сейчас их стало 1.5-2к - вылезает на каждом сервере и при каждом ребуте. Кваггу обновил с дистрибутивной 0.99.17 до 0.99.24.1 которая без нареканий работает на моих IPOE-серверах, ничего не изменилось. Обновлять кваггу дальше, сейчас уже вроде 1.2 актуальная версия или может крутилку какую-то не заметил в конфиге? hostname nas4.xxx password xxx enable password xxx service password-encryption ! log file /var/log/quagga/zebra.log ! interface bond0.2 multicast ! line vty exec-timeout 30 0 Понятно что нужно чинить сами сервера, но пока не вылезали грабли с маршрутами эти обрывы раз в месяц совершенно не напрягали.
  6. @Andrei Нет в этом оптероне никакого гипертрединга. grep нашел HyperTransport AMDный :)
  7. Факт. В той теме какая-то супер-компактная мать на атоме, pci-e линий недостаточно(даже pci-e слот физически 8х а реально 1х) и стоит коммутатор для подключения 4ех сетевок. В вашей же плате и проце 20 линий, все подключено независимо напрямую к CPU. На одном сервере 2х i340-t4(итого 8 портов в бондах) на 82580, на втором вообще бортовые броадкомы HPшного сервера вперемешку с внешней ET 82576. Ничего не отваливается.
  8. @alibek Для линуксов дистрибутив особой роли не играет, любой можно приготовить как нужно. [kayot@IPoE1 ~]$ cat /etc/redhat-release CentOS release 6.8 (Final) [kayot@IPoE1 ~]$ uname -a Linux IPoE1.localdomain 3.18.42 #1 SMP Wed Sep 21 08:20:09 EEST 2016 x86_64 x86_64 x86_64 GNU/Linux [kayot@IPoE1 ~]$ uptime 11:26:38 up 507 days, 12:53, 1 user, load average: 0.72, 0.86, 0.84 [kayot@IPoE1 ~]$ accel-cmd show stat | grep active active: 2008 [kayot@IPoE1 ~]$ ip link show | grep bond1 | wc -l 4335 Такой же IPOE-QinQ БРАС, accel-ppp. Аптайм ограничен профилактиками, 1.5 года на данный момент.
  9. 1. PCIe живет в процессоре еще со времен выхода архитектуры sandy bridge, совсем ничего странного. И никакой разницы нет, распаян сетевой чип на материнке или стоит в слоте. Попробуйте для начала проверенную карту. 2. Ядро с elrepo вовсе не гарантия стабильности, скорее наоборот. Я б вручную собрал что-то свежее. Ну или хотя бы igb-драйвер руками соберите свежий, i210 же на нем?
  10. retracker.local

    С точки зрения экономии трафика смысла мало, разницы вообще не видно. А с точки зрения удобства для клиента - почему бы и не поднять, иногда ускоряет закачку.
  11. @QWE Все у вас красиво. CPU на максимальной частоте и в основном в C1 - бесплатный по ресурсам и энергоэффективный режим. Можно добавить idle=poll в параметры ядра, CPU при этом навсегда останется в C0 без каких-либо сберегаек вообще. IMHO в этом нет смысла, выход из состояния C1 HLT - мгновенный.
  12. Линуксовому модулю intel_idle(включен по умолчанию везде) пофиг на установки БИОСа, помогает только "processor.max_cstate=1 intel_idle.max_cstate=0". Частоту и текущие С-state удобно смотреть утилитой i7z.
  13. C NUMA ошибся, каюсь. Но смысл тот же - интел в плане памяти быстрее. Вот та тема прошлогодней давности, с результатами тестов. В одной версии AIDA, i5-2500 имеет латентность в 2 раза ниже чем r7 1800x. Ryzen 2 в этом плане немного лучше, но не в 2 раза.
  14. 1. С памятью все плохо, я помню на local.com.ua в аналогичной теме выкладывал сравнение с домашним древним i5-2500 - в 2 раза выше латентности. 2. Кристалл представляет собой склейку 2*4 core модулей с NUMA, между ними все еще хуже.
  15. FreeBSD 11 high interrupt

    1220v1 с трудом. Какой-нить 1270v5 или 1680v3/v4 будут в самый раз.