Jump to content
Калькуляторы

vadislaus

Пользователи
  • Content Count

    58
  • Joined

  • Last visited

Everything posted by vadislaus


  1. Смотрите лучше в сторону перлового DHCP работающего с MySQL. Если руки прямые заменит LBinet с большей функциональностью.
  2. Поддерживаю polmax, когда работал с UTM пользовался скриптом (тогда не очень хорошо SQL понимал, поэтому скрипт был "чужой") который занимался как бы партиционированием таблицы. Все было описано на форуме NetUp, и работало практически из коробки. PS. Кстати, а если реально партиционирование применить а не их дурацкий метод (хотя может быть можно таблицу в archive перевести?????)?
  3. Студентам UTM5(6) уже дают? ;)
  4. Ага и расписали бы поподробнее чем заниматься.
  5. Здравствуйте коллеги, подскажите как правильнее решить небольшую проблему: Есть DHCPd сервер для большого кол-ва абонентов, конфиг следующего вида: include "классы для абонентов сети с opt82"; shared-network{ subnet {}; subnet {}; subnet {}; subnet { host {hardware ethernet; fixed-address}; host {hardware ethernet; fixed-address}; host {hardware ethernet; fixed-address};..... } pool {allow members "класс"; range ;} pool {allow members "класс"; range ;} pool {allow members "класс"; range ;} ....... } Проблема появляется если на сегменте сети, где используется option 82 появляется абонент с таким же маком, что и прописанным в subnet со статической привязкой, ему выдается адрес прописанный в host. DHCP сервер смотрит в сторону маршрутизатора с прописанными dhcp-relay.
  6. А поднять 2 DHCP сервера? Один для opt82 (патченый с отвязкой от маков) и второй стандартный без использования опций. Сменили коммутатор в старом сегменте на предмет рееля с опцией, и это пройдет не заметно... Сейчас так и есть, хочу уйти от 4-ех DHCP серверов (по два на сегменты).
  7. NiTr0, у твоей реализации есть проблема описанная в теме DHCPd opt82 + static IP-MAC binding? Если нет, дай ссылочку на "пощупать".
  8. Я на брасе смотрю кол-во сессий.
  9. А в чем вопрос? Чаще всего проблема с неправильным разбором данных от коммутатора. Для начала проверь, добавляет ли коммутатор опцию 82 (tcpdump,wireshark). Потом попытайся получить логгирование ( if exists agent.circuit-id { log ( info, concat( "Lease for ", binary-to-ascii (10, 8, ".", leased-address), " is connected to interface ", binary-to-ascii (10, 8, "", suffix ( option agent.circuit-id, 1)), ", vlan", binary-to-ascii (10, 16, "", substring( option agent.circuit-id, 2, 2)), " on switch ", binary-to-ascii(16, 8, ":", substring( option agent.remote-id, 2, 6)))); }. Потом выясняй в какой позиции находятся нужные тебе данные (опция 82 у различных коммутаторов отличается). Пиши подробности в личку, помогу чем могу. Два сегмента сети, работаем с тем, что есть ;) Вот этого я и опасался, надеялся, что subnetами получится разрулить.
  10. Сейчас сливаю 3.7.1 полностью, выложу на народе
  11. АААА, убейте меня АП стенку... Видимо сказывается переработка, мне же ОБЯЗАТЕЛЬНО надо ставить src-dst-ip.
  12. Сделал, толку - 0. Все так же бегает через один интерфейс
  13. А если все нормально, но трафик бежит только через один интерфейс? (правда трафика пока маловато) me-3400#show etherchannel load-balance EtherChannel Load-Balancing Configuration: src-mac Port Flags State Priority Key Key Number State Gi0/13 SA bndl 32768 0x1 0x1 0x10E 0x3D Gi0/14 SA bndl 32768 0x1 0x1 0x10F 0x3D Channel group 2 LACP port Admin Oper Port Port Port Flags State Priority Key Key Number State Gi0/10 SA bndl 32768 0x2 0x2 0x10B 0x3D Gi0/11 SA bndl 32768 0x2 0x2 0x10C 0x3D GigabitEthernet0/13 is up, line protocol is up (connected) MTU 9000 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 1/255, rxload 1/255 Encapsulation ARPA, loopback not set Keepalive not set Full-duplex, 1000Mb/s, link type is auto, media type is 1000BaseLX SFP input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:05, output 00:00:05, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 0 Queueing strategy: fifo Output queue: 0/0 (size/max) 5 minute input rate 0 bits/sec, 0 packets/sec 5 minute output rate 0 bits/sec, 0 packets/sec GigabitEthernet0/14 is up, line protocol is up (connected) MTU 9000 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 1/255, rxload 1/255 Encapsulation ARPA, loopback not set Keepalive not set Full-duplex, 1000Mb/s, link type is auto, media type is 1000BaseLX SFP input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:00, output 00:00:01, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 0 Queueing strategy: fifo Output queue: 0/0 (size/max) 5 minute input rate 141000 bits/sec, 142 packets/sec 5 minute output rate 440000 bits/sec, 64 packets/sec
  14. zurz, ты писал, что у тебя работает 82599ES 1G SFP с "некривым" eeprom. Тут имеется в виду eeprom SFP модуля? С CISCO LX модулями будет работать? SFP модули в SFP+ слоты "входят"? (не имел до этого дела с 10G)
  15. Подключиться телнетом configure int range e e(1-24) no sh exi exi write
  16. Уважаемые знатоки, подскажите стоит ли переходить на новое FW 3.7.0 или лучше оставаться на 3.6.х? Сейчас внедряю на сети SCE и пока еще не знаю всех ее тонкостей. Заранее спасибо.
  17. Есть 3.65-3.66 и 3.70 (почти комплекты). Если надо - пишите в личку
  18. Собственно сабж. Прочитал на циске о выпуске 8-ми портовой гигабитной модели с парой комбо портов, стоимость где то в р-не 200-300 $. У логистов узнал, что попробовать можно будет где то через пол года. Моделька довольно интересная для небольших узлов аггрегации где требуется 5-6 медных портов. Хотелось бы у уважаемых форумчан узнать, нет ли каких подобных аналогов. Пробовали ZyXEL из серии 3012, но сейчас эту линейку прикрыли, стали выпускать MGS-3712, она стала стоить на 10 т.р дороже а фишек новых не увидел. Да и в части случаев половина портов остается невостребованными.
  19. Это надо у Кирилла спрашивать. Был слух, что под Gentoo без огромного напильника не заведется.
  20. Привет всем! Есть сервер с сетевыми картами Intel 82576, драйвер: ethtool -i eth0 driver: igb version: 2.1.1 firmware-version: 1.4-3 модуль igb грузится со следующими параметрами: options igb IntMode=3,3 RSS=4,4 VMDQ=4,4 QueuePairs=0,0 При просмотре ethtool -S eth0 tx_queue_0_packets: 37188815606 tx_queue_0_bytes: 27483174263095 tx_queue_0_restart: 1605 tx_queue_1_packets: 0 tx_queue_1_bytes: 0 rx_queue_0_packets: 56725607685 rx_queue_0_bytes: 36201030789217 rx_queue_0_drops: 0 rx_queue_0_csum_err: 1409 rx_queue_0_alloc_failed: 0 rx_queue_1_packets: 0 rx_queue_1_bytes: 0 rx_queue_1_drops: 0 rx_queue_1_csum_err: 0 rx_queue_1_alloc_failed: 0 Ядро - 2.6.31 Вопрос, почему очереди не работают? lspci -v 01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) Subsystem: Super Micro Computer Inc Device 0100 Flags: bus master, fast devsel, latency 0, IRQ 16 Memory at fafe0000 (32-bit, non-prefetchable) Memory at fafc0000 (32-bit, non-prefetchable) I/O ports at ec00 Memory at fafbc000 (32-bit, non-prefetchable) Expansion ROM at faf80000 [disabled] Capabilities: [40] Power Management version 3 Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+ Capabilities: [70] MSI-X: Enable+ Count=10 Masked- Capabilities: [a0] Express Endpoint, MSI 00 Capabilities: [100] Advanced Error Reporting Capabilities: [150] Alternative Routing-ID Interpretation (ARI) Capabilities: [160] Single Root I/O Virtualization (SR-IOV) Kernel driver in use: igb Kernel modules: igb 01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) Subsystem: Super Micro Computer Inc Device 0100 Flags: bus master, fast devsel, latency 0, IRQ 17 Memory at faf20000 (32-bit, non-prefetchable) Memory at faf00000 (32-bit, non-prefetchable) I/O ports at e880 Memory at faefc000 (32-bit, non-prefetchable) Expansion ROM at faec0000 [disabled] Capabilities: [40] Power Management version 3 Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+ Capabilities: [70] MSI-X: Enable+ Count=10 Masked- Capabilities: [a0] Express Endpoint, MSI 00 Capabilities: [100] Advanced Error Reporting Capabilities: [150] Alternative Routing-ID Interpretation (ARI) Capabilities: [160] Single Root I/O Virtualization (SR-IOV) Kernel driver in use: igb Kernel modules: igb
  21. У меня была/есть похожая проблема, двухголовый тазик на Xeon (стареньких) и сетевухах 82545GM (шина PCI-X), так вот, как только PPS становилось больше 30K, сеть умирала. Поставил более дохлую машину, но с сетевухой 82571EB (PCI-Express) - до 50K PPS (нат+OSPF) проц вытягивал. Так что от сетевой карты ОЧЕНЬ многое зависит
  22. Кто нибудь мониторит pps на портах циски? Порыскал по великим просторам нашел наработку которая лезет rsh, и парсит вывод show interfaces. А как считаете вы?
  23. Это у меня глюк, что при sc init отваливается сервер от сети (при filter_method = u32)? Детально пока еще не изучал, да и tc с хэшем только в теории понимаю.