Перейти к содержимому
Калькуляторы

Spectator

Пользователи
  • Публикации

    8
  • Зарегистрирован

  • Посещение

О Spectator

  • Звание
    Абитуриент
  1. RouteBoard RB/1000U [MikroTik]

    Абалдеть! Спасибо MaXToP, что дали еще один хороший аргумент.
  2. RouteBoard RB/1000U [MikroTik]

    Intel Corporation 82571EB Gigabit Ethernet ControllerЧипсет 82571EB не поддерживался. Да и по-моему до сих пор не поддерживается. Да потому что моя вина, в начале установил на старое железо, чтобы посмотреть что вообще за зверь.Потом домой купил RB/493. Сама OS очень понравилась, легко конфигурируется и все доступно и родное линуховое. Заказал лицензию. Параллельно купил серв. Поставил ОС, дали сам ключик на основе software ID. Все замечательно, пока стояла реалтекоская сетевая, а потом приехали гиговые интелы. И все накрылось медным тазом. Вот сейчас заказал и уже получил Intel PRO/1000 PT (82572EI Gigabit Ethernet Controller (Copper) (rev: 6)) Но чтото с дровами затык. Самостоятельно версия 3.20 не подхватила сетевые. Задал вопрос на форуме микротик, может кто то разъяснит мне неучу где мой косяк. Можете пояснить почему, если это конечно ваше мнение обосновано личным опытом?
  3. RouteBoard RB/1000U [MikroTik]

    Меня тоже достаточно сильно интересует производительность RB/1000 Но понятно что у каждого свои потребности. У меня например основное это BGP, NAT, Shaper и FireWall. Когда я задал вопрос на форуме микротик какое нужно оборудование для порезки 3000-4000 юзеров, услышал вполне правильное решение - бить сеть на части и равномерно прогонять через несколько RB/1000. В принципе идея хорошая, т.к. на базе этого можно создать безотказную кластерную схему.
  4. RouteBoard RB/1000U [MikroTik]

    Аналогичная делема, но почему то все таки склоняюсь в PC нежели к Rb1000. По цене не сильно различается, если Rb1000 брать по нормальной цене. Потому как в Латвии Rb1000 стоит ~ 800$, а у официальных представителей на Украине более 1200$ с учетом доставки. Но при установке Mikrotik на PC есть один очень не хороший факт, это огромнейшая скудность поддерживаемого оборудования. Такое впечатление, что вся Латвия до сих пор повсеместно использует доисторическое железо. Дрова на новое железо самостоятельно не скомпилишь. Вот наглядный пример: Купили серверную мать asus + два четырехядерных ксиона + двуголовая intel1000Pro pci express. В в сумме он мне обошелся чуть более 2000$. Поставил микротик, так вот из 4-х интегрированных и 2-х pci express сетевых карт микротик не увидел ни одной. Зато прекрасно видит гигабитный реалтек - вопрос - нафига мне реалтек? Больше всего меня убил ответ тех поддерхки: в переводе: "У вас слишком новое оборудование" - я был в панике, учитывая, что лицензию уже купил. :) И эта проблема не только с сетевыми. Если думать о RB1000 как о готовом решении - я думаю это отличный вариант для небольшого числа пользователей. Удобный одноюнитовый девайс. Низкое энергопотребление. НО не забывайте что там процик то всего 1333 и сетевые неизвестно от кого.
  5. Linux softrouter

    Вопрос! Кому то удалось откомпилировать дрова e1000e с мульти MSI-X векторами? (типа make CFLAGS_EXTRA=-DCONFIG_E1000E_SEPARATE_TX_HANDLER) ??? В мануалах пишут, что получается 3 вектора для каждой сетевой: один для TX, один для RX и один для линка. По идее для мультиядерной системы - это подарок с небес. У меня как был 1 так и остался как ни крути.
  6. Linux softrouter

    Есть, и только так удалось добиться максимальной производительности. irqbalance не всегда верно распределяем нагрузку. А если ядро в полке - то сетевую он от туда достать не может. Я распределяю так: /etc/init.d/irqbalance stop sleep 3 echo 1 > /proc/irq/82/smp_affinity echo 2 > /proc/irq/98/smp_affinity echo 4 > /proc/irq/104/smp_affinity echo 8 > /proc/irq/106/smp_affinity где 82,98,104,106 - прерывания на которых висят интерфейсы. а значения 1,2,4,8 - десятичное (если не ошибаюсь), представление битовой маски. К примеру на восьмиядерной системе: CPU0 00000001 = 1 CPU1 00000010 = 2 ..... ну и так далее. Но там много граблей с распределением двуголовых сетевых по ядрам. Я лично вычислял опытным путем. Да по умолчанию в режиме 3 он "типа" сам работает. Но этот режим скорее подходит для домашнего ПК. А так этот параметр уже упоминался тут InterruptThrottleRate.
  7. Linux softrouter

    Если сетевая интеловская 1000Pro PT или подобное, то можно. К примеру так: rmmod e1000e; modprobe e1000e InterruptThrottleRate 1,1,1,1 Некоторые параметры конечно нет, только при загрузке например: IntMode Очень интересный параметр, но почему то на моей системе отказывался работать, только PCI-MSI режим и все.
  8. Linux softrouter

    О, наконецто нашел наболевшую тему. Сейчас правда всеми возможными способами пока работает нормально. тфу, тфу. :) Ничего путного с жесткой установкой не выйдет. Все очень сильно зависит от типа трафика. В Вашем случае будет хорошо ходить низколатантный трафик. Остальной просто дропаться. Я перепробывал массу вариантов и dynamic и dynamic conservative и жестко устанавливать кол-во. Самый оптимальный это режим 1. Причем у интела интересный момент в дровах если сетевых несколько то параметр указывается через запятую, но вот незадача если указать только для одной сетевой, то впечатление, что функция вообще не работает. В режиме 1 довольно большой предел по кол-ву генерируемых irq в сек - до 70000. Но бок в том, что если этот зловредный ksoftirqd ставит одно из ядер в полку, переключения на др кол-во прерываний в сек не происходит. Тут в начале темя было сообщение по поводу равномерного распределения прерываний по ядрам. При установке одной из ОС у меня каким то образом так получилось, но это не родные дрова. Оно работает и красиво при небольшом трафике. А вот когда переключаешь через эти сетевые хороший поток, система захлебывается. И это распределение исчезает, когда ставишь родные дрова. Кстати Intel выпустили новую версию дров e1000e в конце ноября 2008. Там пофиксано много багов.