Перейти к содержимому
Калькуляторы

ibmed

Пользователи
  • Публикации

    27
  • Зарегистрирован

  • Посещение

О ibmed

  • Звание
    Абитуриент

Посетители профиля

555 просмотров профиля
  1. Настройки абсолютно идентичны. Меняется только логин/пароль в pppoe.
  2. Замеряли разными устройствами (мобильники, ноут). В основном через speedtest. Пробовали iperf: результаты очень похожи. Про загруженность каналов - если речь про вайфай - тоже, разумеется, была гипотеза. Но я не понимаю, почему роутер, подключенный в гиговый порт, выдает 160. А сразу же переключенный в 100Мбит, выдает лишь 75-80. Мое скромное понимание процесса подсказывает мне, что если уж он умеет отдавать 160, значит проблема все же не в загруженности каналов.
  3. Столкнулись с интересной историей: В нашей сети замер скорости через 2.4 на роутере, подключенном к 100Мбит порту коммутатора выдает в среднем 75-80Мбит/с. При этом подключение кабелем стабильно показывает 95-99Мбит/с. И мы, честно говоря, были уверены, что это совершенно нормальные результаты. До тех пор пока не начали слышать, что мол у другого оператора тот же самый роутер выдает 90+ Мбит/с через 2.4. Собрали тестовый стенд. Прогнали серию замеров, меняя модели роутеров (Netis WF2780, TP-Link 841, Mikrotik RB962), тип подключения к интернет (pppoe/nat/напрямую), модель коммутатора, способ замера. Результаты стабильно сводятся к нашим стандартным 75-80Мбит/с через 2.4 и почти 100Мбит/с через шнурок. Из интересного: - Если подключить роутер к гигабитному порту, то 2.4 начинает отдавать ~160Мбит/с. То есть получается, что 2.4 может выдать и больше 80, но не выдает скорость, доступную на кабеле. - Если роутер подключить к гигабитному порту, но зашейпить его на 100Мбит/с, то 2.4 выдает полноценные 100Мбит/с. Однако у других операторов - якобы - 90+ наблюдается и при подключении в 100Мбит порт. Чего мы не знаем и упускаем из виду?
  4. Умник О как :) На самом деле я, конечно, ожидал хороших результатов, имея опыт с успешно работавшим линукс-бордером на относительно слабом железе и предыдущем ядре. А тут такая штука. Теперь надо попробовать адекватную синтетику сделать и поиграться с шейпером под htb. А вообще мы приняли политическое решение переезжать на аппартный бордер :)
  5. Умник Не успел. На тот момент, когда проблема вылезала, этого сделано не было. Я так понял, его можно задавать после установки irqbalance-а. Но когда я до этого дочитался, трафика уже не было толком и было принято политическое решение возвращаться на фрю. Вообще удивительно, конечно. Ибо предыдущий линукс-бордер жил достаточно хорошо (с выкомпиленным файрволом и е1000е-NAPI) и прокачивал явно больше, чем то, где загнулась более свежая машина, которая выигрывает как по железу, так и по новому ядру.
  6. посмотрел на машинку, такого файлика в /proc нет вообще равно как и утилиты conntrack опрофайлер ставил и пересобирал ядро с его поддержкой, но уже когда трафик спал ksoftird уже не выскакивал, и я ничего интересного не увидел (кстати, как им правильно смотреть?) я делал по примеру: opcontrol --start --vmlinux=/home/user/vanilla/linux-2.6.32.11/vmlinux opreport --symbols --image-path=/lib/modules/2.6.32.11/kernel/ видел примерно: samples % image name app name symbol name 474582228 60.0120 vmlinux vmlinux poll_idle 31202940 3.9457 vmlinux vmlinux read_hpet 24404813 3.0860 vmlinux vmlinux acpi_idle_do_entry 22893445 2.8949 e1000e.ko e1000e.ko e1000_poll (это я уже от отчаянья другие сетевые пробовал) 14932479 1.8882 vmlinux vmlinux get_partial_node (это сейчас с пустой машины) теперь только в синтетике можно будет посмотреть
  7. conntrack я из ядра убирал в том числе машинку сейчас уже снял, не могу заглянуть в боевом режиме :(
  8. Wingman Как же ж так? :) Неужели действительно должно помочь? Я в свое время специально эксперименты ставил по прокачиванию трафика через машинку. И линукс, и фря показали лучшие показатели именно с выкомпиленным файрволом. Т.е. пустой файрвол давал одну цифру, а выключенный в ядре в принципе давал еще лучше цифру. Поэтому меня сие, конечно, удивляет :) Этому есть какое-то разуменое объяснение?
  9. Ага, пробовал и с этим драйвером. Ни шейперов, ни ната. Файрвол выкомпилен из ядра вообще. Только маршрутизация. Успел даже поплясать вокруг параметров драйвера таких как интеррапттротл и иже с ним. Все одно. Как pps под 500k - вылезают эти грешные ksoftirqd. И никто главное не пишет, как это лечить :) В итоге вернулся на фрю. Теперь надо подумать, чем можно адекватную синтетику по pps сделать, чтобы проверить.
  10. Wingman Какая-то тотальная ерунда. Поднимали сегодня на линуксе бордер. 2 Xeon-а по 4 ядра. 2 4-хголовых igb. 0a:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) Subsystem: Intel Corporation Gigabit ET Quad Port Server Adapter Сперва все хорошо, а потом нагрузка проца сваливается до 25% по графику. Трафик проседает. PPS проседает. top: 4 root 20 0 0 0 0 R 76 0.0 21:21.86 ksoftirqd/0 979 root 20 0 0 0 0 R 18 0.0 4:41.63 kondemand/0 19 root 20 0 0 0 0 S 6 0.0 1:01.15 events/0 16053 root 20 0 19132 1344 980 R 0 0.0 0:00.02 top 1 root 20 0 19324 1728 1176 S 0 0.0 0:00.86 init 2 root 20 0 0 0 0 S 0 0.0 0:00.00 kthreadd 3 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/0 5 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/1 6 root 20 0 0 0 0 S 0 0.0 0:00.02 ksoftirqd/1 7 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/2 8 root 20 0 0 0 0 S 0 0.0 0:00.04 ksoftirqd/2 9 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/3 10 root 20 0 0 0 0 S 0 0.0 0:01.04 ksoftirqd/3 11 root RT 0 0 0 0 S 0 0.0 0:00.01 migration/4 12 root 20 0 0 0 0 S 0 0.0 0:00.06 ksoftirqd/4 13 root RT 0 0 0 0 S 0 0.0 0:00.02 migration/5 14 root 20 0 0 0 0 S 0 0.0 0:00.18 ksoftirqd/5 15 root RT 0 0 0 0 S 0 0.0 0:00.01 migration/6 16 root 20 0 0 0 0 S 0 0.0 0:00.03 ksoftirqd/6 17 root RT 0 0 0 0 S 0 0.0 0:00.02 migration/7 18 root 20 0 0 0 0 S 0 0.0 0:00.05 ksoftirqd/7 Подскажите, используется ли у Вас NAPI для igb (и какая версия драйвера?). Перерыл интернет, не могу найти ничего про это. Как посмотреть, есть ли оно?
  11. Abram В саму Кваггу маршруты приезжают быстро. Оно их в кернел не добавляет по какой-то причине.. Точнее даже не так. Сейчас через консоли смотрю маршруты: ospfd маршруты быстро получает zebra маршрутов от оспфд не видит
  12. Наступил на неожиданные грабли: Linux (ubuntu 9.10) amd64. Bond0 mode4. На bond0 поднимается ospfd (из состава quagga 0.99.13). Итог: маршруты оспфд получает нормально (это я вижу через vty), но в таблицу маршрутизации не складывает в течение примерно 10 минут. Если тот же самый оспф поднять на совершенно отдельном от бонда интерфейсе - все работает как и должно. Дебажный лог, отпарсенный по буквосочетаниям "err" и "warn" ничего не выдает.. Кто-то сталкивался?..
  13. А я приношу публичную клятву отписаться об успехах в репродукции бордера на линуксе :)
  14. Wingman Спасибо за наводки. Топики уже читаю. Не затруднит ли Вас поделиться конфигом ядра и прочими тюнингами от вашей success-story? :)
  15. Тех, что задействовано, меньше.