Перейти к содержимому
Калькуляторы

DemYaN

Активный участник
  • Публикации

    228
  • Зарегистрирован

  • Посещение

Все публикации пользователя DemYaN


  1. http://www.geocities.com/asimshankar/notes...rking-napi.html
  2. Кто-нибудь знает что за зверь ES3628EA? Заказали ES3628С, но вместо него судя по прошивке пришел ES3628EA: ES3628EA Device, Aug 21 2007 18:18:44 HardWare version is R01, SoftWare version is ES3628EA_Vco.5.3.0.33, BootRom version is ES3628EA_1.3.2 Copyright © 2001-2007 by Accton Technology Corp. All rights reserved. С виду - копия 3628С, но консоль управления значительно отличается.
  3. Сам то понял что написал ? Или "окошком ошибся" ? насколько я понял и еcли я не ошибся :), человек имел виду: почему бы не использовать для теста существующий трафик отзеркаленый через span или mirror порт?
  4. Про задержку при отсылке, я тоже не понял. Но вот размер пакета для теста лучше брать меньше среднестатистического в реальной сети. Все это справедливо, если железяка подвергается тестированию для ввода в реальную сеть. А кол-во соединений влияет на conntrack, да и на производительность того же роут-кеша.
  5. Не имитирует. Это та же статическая нагрузка, что и iperf. Ну с изменением длины пакета, не более (то же может и iperf, если ему менять размер посылаемого блока). А вот где бы реальную тестилку найти, что грузит сеть a la user, т.е. повторяет серфинг, качание и т.д. tcpdump + tcpreplay ? сам не пробовал ИМХО возможности задания размера пакета и количества соединений (это дает pktgen) вполне достаточно
  6. ПО для реализации логики BRAS

    а кто говорил, что должно быть легко? ;) универсального ПО нетна данный момент вы же используете какой-то биллинг? если он самописный, то стоит затратить ресурсы на его доработку, если это творение стороннего разработчика, то обратитесь к нему с ТЗ и денежкой для доработки
  7. PowerCom WOW-300 на практике не пробовали, но слышал - Green-power не отключается PowerCom WAR-400A под малой нагрузкой не работает. хотя саппорт писал, что с помощью магического нажатия кнопочки, green-power отключается, но на практике после полного отключения ИБП (сел акк) green-power включается снова
  8. можно очищать таблицу полностью snmpset -v 2c -c private 1.2.3.4 .1.3.6.1.4.1.655.5.15.1.1.5.0 i 2
  9. snmpwalk -v 2c -c public 1.3.4.5 .1.3.6.1.4.1.655.5.15.1.4.3.1.3 1 - no sec 2 - accept 3 - reject
  10. snmpwalk -v 2c -c public 1.2.3.4 .1.3.6.1.4.1.655.5.15.1.4.2.8.1.2 Получим список записей с индексом от 1 до 128 вида: .... SNMPv2-SMI::enterprises.655.5.15.1.4.2.8.1.2.48 = Hex-STRING: 00 00 00 00 00 00 00 00 00 08 SNMPv2-SMI::enterprises.655.5.15.1.4.2.8.1.2.49 = Hex-STRING: 00 0A 48 1C 9D 54 00 00 00 08 .... здесь 00 0A 48 1C 9D 54 - MAC-адрес 08 преобразовываем из HEX в BIN = 1000 делаем реверс полученной строки 1000 = 0001 ищем позицию первой единицы - 4 это и есть номер порта :-)
  11. Всем спасибо за ответы! Забавно, что на сайте самого Intel контроллер используемый в этих картах указан 82572GI, на этом же сайте в списке контроллеров он просто отсутствует. В драйверах для linux в pci.ids тоже такого контроллера нет, зато напротив PRO/1000 PT Server Adapter значится 82572EI. Что за путаница? Как я понял различия в драйверах (конкретно для linux) в общем тоже нет, имеет значение только сам контроллер. PS касаемо темы, кто-нибудь пробовал включать сетевую карту или может RAID-контроллер в PEG-слот? те в теории это должно работать, но на практике (ограничения BIOS например)?
  12. Кто может подсказать в чем различие, кроме цены :), между картами Intel PRO/1000 PT Desktop Network Adapter EXPI9300PT Intel PRO/1000 PT Server Network Adapter EXPI9400PT в обеих контроллер 82572GI.
  13. Так ifb на то и нужен, чтоб несколько ppp-интерфейсов объединить в один. Что-то типа такого в ip-up.local: tc qdisc del dev $DEV root tc qdisc add dev $DEV root handle 1: htb default 1 tc class add dev $DEV parent 1: classid 1:1 htb rate ${RATE}kbit quantum 1500 tc filter add dev $DEV parent 1: protocol ip u32 match u32 0 0 action mirred egress redirect dev ifb0 Только будьте осторожны с ядрами < 2.6.20, могут возникнуть проблемы описанные мною выше. И естественно вместо IFB можно использовать IMQ. Если мне не изменяет память, в старых ядрах параметром в .config можно было выставлять максимально количество pty-устройств до 2048, а в новых версиях эта проблема вообще не актуальна.
  14. ИМХО IFB еще более сырой нежели IMQ, да и людьми он пока мало обкатан, все только описано красиво. В ядрах до 2.6.20.x в коде IFB был неприятный баг, результат которого - kernel panic : [<>] ri_tasklet+0xc1/0x19f [ifb] [<>] tasklet_action+0x55/oxaf [<>] __do_sofirq+0x5a/oxbb [<>] do_softirq+0x36/0x3a [<>] apic_timer_interrupt+0x1f/0x [<>] mwait_idle+0x25/0x38 [<>] cpu_idle+0x9f/0xb9 [<>] start_kernel+0x379/0x380 Месяца 2 назад сам хотел перелезть с IMQ на IFB. Использовался для загона ppp-интерфейсов в один ifb0, на который вешалась HTB-дисциплина. В результате Этх (ядро 2.6.18) превратился в паникера :) - 1-2 раза в день выпадал kernel panic. Видимо что-то неладное происходило когда отключался ppp-интерфейс. три сервера проапдейтил с саржа до етха за полчаса каждый, без каких либо проблем....а c CentOS 4 (RHEL4) до CentOS 5 (RHEL5) так можно? ;) 1. если 256, то скорее всего забит пул2. если 100, то pptpd должен быть собран с опцией --with-pppd-ip-alloc (старые версии) или в конфиге включена опция delegate (новые версии) 3. в старых ядрах количество интерфейсов зависело от параметра в ядре, который определял максимальное количество pty
  15. Вот и я почитал статейку про тесты PF_RING (а также FFPF) и сделал вывод, что надо тестировать самому :). Если P4 1.7 Ghz дает 0.5mpps, тогда какую производительность может дать смесь двух новоиспеченных четырехядерных Clovertown'ов на платформе Blackford и интетловских адаптеров на чипе 82571gb с поддержкой технологии I/OAT? Сколько ж реально может перемолотить заветных pps'ов современный писюк? Может действительно кто-то может поделиться опытом? Были бы благодарны.
  16. А можно поподробней какой чипсет,сетевые интерфейсы?
  17. ИМХО, лучше использовать ext3. Раньше я и сам ставил рейзер где только можно было, пока не столкнулся с проблемой восстановления информации после краха харда (только за последний месяц 3 шт). По статистике на ext3 процент восстаноленой информации выше, а время затраченное на восстановление и уровень сложности - ниже.
  18. Ну например нужен 8-портовый Linux-роутер, каждый из портов которого подключен на оптику через медиаконвертор.
  19. А вот вопрос, может быть не совсем в тему. Кто-нибудь встречал 4-х портовые 100TX Ethernet-адаптеры под PCIe? Интересуют именно 100Мбит.
  20. Вариант 1: Поставить на роутере vlc который будет принимать мультикаст от прова и дальше транслировать твоим пользователям. Вариант2: попробовать mroute Истина где-то рядом :)
  21. Сейчас с виланами вообще никак :), цель как раз перейти к схеме 1 юзер -1 вилан до уровня агрегации, а там стекается максимум 240-250 пользовательских виланов.
  22. Ну да, а если пользователей хотя бы больше 300 и каждый в своем вилане, чем виланы к серверу пробрасывать? Имеется hp5308xl в ядре, так для него 255 виланов потолок, к тому же, гад в circuit ID пишет только порт без всяких виланов :( Да и не хотелось бы лишний трафик к ядру гонять.
  23. Действительно :). Как я уже понял в превых 3550 заносился ifIndex в Circuit-ID, в более поздних vlan-моуль-порт или ifIndex по выбору, а в 2950 вроде только vlan-моуль-порт. Ну это для коммутаторов Cisco, а как интересно с этим обстоит дело у китайско-тайваньско-хзоткуда собратьев? Может кто сталкивался? Там у дликов, планет?
  24. Думаю, что на этот вопрос будет дан ответ нет :), но все же... Есть ли реализации, что бы при использовании DHCP option 82 в circuit ID suboption вносился не номер порта, а VID. Тобишь к порту подключены через краевой свитч несколько пользователей, но каждый в уникальном вилане и в зависимости от номера вилана dhcp выдавал бы уникальный ip. Таким образом можно было бы избавиться от необходимость в использовании коммутаторов с поддержкой option 82 на аксесс уровне.