Перейти к содержимому
Калькуляторы

_sailor_

Пользователи
  • Публикации

    8
  • Зарегистрирован

  • Посещение

О _sailor_

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array
  1. Используете какую-то специальную оптимизацию? smp_affinity, специальные параметры netfiltr-а? Можете скинуть в личку выкопировку из скриптов, что в /proc/sys/net.....? Что в /sys/module/nf_conntrack/parameters/hashsize? не затруднит пример скинуть?
  2. http://forum.nag.ru/forum/index.php?s=&amp...st&p=373112 Спасибо. В моём случае СОМ, пытающийся повысить свою СО, - это я. Можете посоветовать ссылку по оптимизации под CPU-кэш? И что-то по мониторингу. Может мне OProfile поможет? PS .. В Xeon-ах линейки 5400 или 3300 L2 кэш составляет 12Мбайт, т.е. 2 раза по 6 Мбайт общего кэша на 2 ядра. В линейке 5500 используется по 256кбайт L2 кэша на каждое ядро и 8Мбайт общего кэша на 4 ядра. Что более прогрессивно с точки зрения размещения в кэше необходимых hash-таблиц, используемых при маршрутизации. ??
  3. Возвращаясь к исходному вопросу. А как проверить, что шины недогружены? И как проверить насколько используется L2 cache? Так что Вы посоветуете по subj? А можно попросить ссылку?
  4. Не понимаю, почему должна начать лагать аська? Такого никогда не было и в проекте нет ;) Если не секрет, что такое LA? У меня один сервер от 600Мбит NATа не прогибается, на SSH спокойно захожу, пинг 1мс. Что я делаю неправильно? :)
  5. Видимо, это было очень давно. И проще и дешевле и надёжнее imho ставить один хороший сервер, чем плодить "писюки" и балансировать между ними трафик. По крайней мере чем сильнее удасться сконцентрировать трафик на меньшем количестве машин - тем лучше. Ну, нам по крайней мере от IX-ов нужно короткие префиксы принимать, а это уже больше сотни маршрутов.. Впрочем, мы принимаем всё равно все full-view, т.к. не вижу особого влияния на производительность. Один раз загрузили префиксы, один раз выбрали best-routes, а дальше работаем по route-cache. (за одним нюансом, связанным с новыми соединениями, информации о которых в FIB нету. Но, как показывает практика, производительность не падает и загрузка cpu не повышается) 3 основных аплинка + ix. (+ пиринг....с оговорками)
  6. Для каждого пакетика надо выбрать 1 из 280 000 маршрутов, фигня какая. http://www.google.com/search?hl=ru&cli...1%D0%BA&lr= На практике 280k маршрутов в таблице никак не сказываются на производительности машины, обрабатывающий трафик тысяч пользователей в ЧНН. Проверял по сравнению с пустой таблицей с default маршрутом
  7. Не соглашусь, ещё какая нагрузка и не сам по себе NAT, а скорее conntrack. В моём случае в 5 раз больше, и 2x Xeon-а 2.80GHz предыдущей линейки уже на пределе. У меня нагрузка значительно выше, поэтому и задаю этот вопрос. Не,.. мой вопрос не в этом. А именно в аппаратной части, насколько пропуск больших объёмов трафика требует быстрой памяти. Несколько подключения к upstream-ам, от каждого получаю full-view. Всё это храниться в памяти и выбирается best route по каждому префиксу. Напротив, особых требований к серверу это не влечёт. Вот циски некоторые не любят несколько full-view держать. Или D-Link-и, которые с поддержкой BGP (типа 3610). А в quagga хоть 10 апстримов добавляй. Не знаю, о каких задержках речь, у меня любая команда на консоли quagga занимает доли секунд. Самая длинная команда cl ip bgp * so out занимает несколько секунд, а дальше процесс bgpd "молотит" в офлайне новые префиксы, не пожерая при этом каких-то запредельных ресурсов. Вы, если не секрет, вообще BGP используете? А разве общее количество маршрутов в общей таблице хоть как-то тормозит сервер?
  8. Коллеги, встал вопрос о покупке нового пограничного маршрутизатора для осуществления функции NAT-а а также BGP. Недавно Интел выпустил новую линейку серверных платформ SR2600 и SR1600. С покупкой я уже в общем-то определился, вопрос стоит за выбором пары CPU. Дело в том, что новая линейка Xeon-ов отличается производительностью шины памяти. Я выбираю между E5530 (шина памяти работает на частоте 1066MHz) и X5550 (шина памяти на частоте 1333MHz). Цена на данные процессоры отличается в 2 раза. Разница в производительности самих камней - около 10%. Разница в подсистеме памяти - 30%. Вопрос в том, есть ли смысл переплачивать? Вот я озадачился этим вопросом и никак не могу понять, как мне посмотреть степень загрузки шины памяти на существующем роутере. Я не знаю для этого ни одной подходящей диагностической утилиты. Утилиты, показывающие степень загрузки памяти мне не подходят, мне нужна именно утилита показывающая количество обращений к оперативной памяти на чтение/запись. Причём желательно не в единицах, а в гигабайтах в секунду Вопрос встал из-за того, что совершенно не представляю, насколько интенсивно используется оперативная память в процессе connection-tracking а также routing-а (с учётом, что это BGP и несколько full-view). Просьба либо подсказать диагностическую утилиту, либо поделиться своими знаниями о том, насколько высокие требования к подсистеме памяти предъявляет процесс маршрутизации и netfilter с conntrack. И ещё, отдельный вопрос: Есть ли у кого опыт работы подобной платформы с сетевыми адаптерами 10G? Что посоветуете выбрать в качестве адаптера? Есть ли смысл переплачивать за хорошую сетевуху и насколько много стоит переплачивать?