Перейти к содержимому
Калькуляторы

vadislaus

Пользователи
  • Публикации

    58
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем vadislaus


  1. Поддерживаю polmax, когда работал с UTM пользовался скриптом (тогда не очень хорошо SQL понимал, поэтому скрипт был "чужой") который занимался как бы партиционированием таблицы. Все было описано на форуме NetUp, и работало практически из коробки.

     

    PS. Кстати, а если реально партиционирование применить а не их дурацкий метод (хотя может быть можно таблицу в archive перевести?????)?

  2. Проблема появляется если на сегменте сети, где используется option 82 появляется абонент с таким же маком, что и прописанным в subnet со статической привязкой, ему выдается адрес прописанный в host.

    DHCP сервер смотрит в сторону маршрутизатора с прописанными dhcp-relay.

    А поднять 2 DHCP сервера? Один для opt82 (патченый с отвязкой от маков) и второй стандартный без использования опций. Сменили коммутатор в старом сегменте на предмет рееля с опцией, и это пройдет не заметно...

     

    Сейчас так и есть, хочу уйти от 4-ех DHCP серверов (по два на сегменты).

  3. не охота плодить тупую тему, но хочется узнать как в случае такой связки (да и вообще IPoE в целом) узнать сколько абонентов "онлайн", смотреть по lease time или есть более лучшие и правильные варианты?

     

    Я на брасе смотрю кол-во сессий.

  4. Добрый день.. vadislaus можешь помочь с мануалом по настройке с опцией 82? я на centos 6 пытаюсь поставить ни чего не выходит.

     

    А в чем вопрос? Чаще всего проблема с неправильным разбором данных от коммутатора. Для начала проверь, добавляет ли коммутатор опцию 82 (tcpdump,wireshark). Потом попытайся получить логгирование (

    if exists agent.circuit-id

    {

    log ( info, concat( "Lease for ", binary-to-ascii (10, 8, ".", leased-address), " is connected to interface ", binary-to-ascii (10, 8, "", suffix ( option agent.circuit-id, 1)), ", vlan", binary-to-ascii (10, 16, "", substring( option agent.circuit-id, 2, 2)), " on switch ", binary-to-ascii(16, 8, ":", substring( option agent.remote-id, 2, 6))));

    }.

    Потом выясняй в какой позиции находятся нужные тебе данные (опция 82 у различных коммутаторов отличается).

    Пиши подробности в личку, помогу чем могу.

     

    А зачем мак учитывать? Просто по opt 82 отдавать и всё.

    Два сегмента сети, работаем с тем, что есть ;)

     

    С наскока эту проблему решить не удалось. Похоже, он статически привязанные IP выдает всегда в первую очередь. Лень в сырцы заглядывать.

     

    Вот этого я и опасался, надеялся, что subnetами получится разрулить.

  5. Здравствуйте коллеги, подскажите как правильнее решить небольшую проблему:

    Есть DHCPd сервер для большого кол-ва абонентов, конфиг следующего вида:

     

    include "классы для абонентов сети с opt82";

    shared-network{

    subnet {}; subnet {}; subnet {};

     

    subnet {

    host {hardware ethernet; fixed-address}; host {hardware ethernet; fixed-address}; host {hardware ethernet; fixed-address};.....

    }

    pool {allow members "класс"; range ;} pool {allow members "класс"; range ;} pool {allow members "класс"; range ;} .......

    }

    Проблема появляется если на сегменте сети, где используется option 82 появляется абонент с таким же маком, что и прописанным в subnet со статической привязкой, ему выдается адрес прописанный в host.

    DHCP сервер смотрит в сторону маршрутизатора с прописанными dhcp-relay.

  6. А если все нормально, но трафик бежит только через один интерфейс? (правда трафика пока маловато)

     

    me-3400#show etherchannel load-balance

    EtherChannel Load-Balancing Configuration:

    src-mac

     

    Port Flags State Priority Key Key Number State

    Gi0/13 SA bndl 32768 0x1 0x1 0x10E 0x3D

    Gi0/14 SA bndl 32768 0x1 0x1 0x10F 0x3D

     

    Channel group 2

    LACP port Admin Oper Port Port

    Port Flags State Priority Key Key Number State

    Gi0/10 SA bndl 32768 0x2 0x2 0x10B 0x3D

    Gi0/11 SA bndl 32768 0x2 0x2 0x10C 0x3D

     

    GigabitEthernet0/13 is up, line protocol is up (connected)

    MTU 9000 bytes, BW 1000000 Kbit, DLY 10 usec,

    reliability 255/255, txload 1/255, rxload 1/255

    Encapsulation ARPA, loopback not set

    Keepalive not set

    Full-duplex, 1000Mb/s, link type is auto, media type is 1000BaseLX SFP

    input flow-control is off, output flow-control is unsupported

    ARP type: ARPA, ARP Timeout 04:00:00

    Last input 00:00:05, output 00:00:05, output hang never

    Last clearing of "show interface" counters never

    Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 0

    Queueing strategy: fifo

    Output queue: 0/0 (size/max)

    5 minute input rate 0 bits/sec, 0 packets/sec

    5 minute output rate 0 bits/sec, 0 packets/sec

     

    GigabitEthernet0/14 is up, line protocol is up (connected)

    MTU 9000 bytes, BW 1000000 Kbit, DLY 10 usec,

    reliability 255/255, txload 1/255, rxload 1/255

    Encapsulation ARPA, loopback not set

    Keepalive not set

    Full-duplex, 1000Mb/s, link type is auto, media type is 1000BaseLX SFP

    input flow-control is off, output flow-control is unsupported

    ARP type: ARPA, ARP Timeout 04:00:00

    Last input 00:00:00, output 00:00:01, output hang never

    Last clearing of "show interface" counters never

    Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 0

    Queueing strategy: fifo

    Output queue: 0/0 (size/max)

    5 minute input rate 141000 bits/sec, 142 packets/sec

    5 minute output rate 440000 bits/sec, 64 packets/sec

  7. zurz, ты писал, что у тебя работает 82599ES 1G SFP с "некривым" eeprom. Тут имеется в виду eeprom SFP модуля? С CISCO LX модулями будет работать? SFP модули в SFP+ слоты "входят"? (не имел до этого дела с 10G)

  8. Собственно сабж.

    Прочитал на циске о выпуске 8-ми портовой гигабитной модели с парой комбо портов, стоимость где то в р-не 200-300 $. У логистов узнал, что попробовать можно будет где то через пол года. Моделька довольно интересная для небольших узлов аггрегации где требуется 5-6 медных портов.

     

    Хотелось бы у уважаемых форумчан узнать, нет ли каких подобных аналогов. Пробовали ZyXEL из серии 3012, но сейчас эту линейку прикрыли, стали выпускать MGS-3712, она стала стоить на 10 т.р дороже а фишек новых не увидел. Да и в части случаев половина портов остается невостребованными.

  9. У меня была/есть похожая проблема, двухголовый тазик на Xeon (стареньких) и сетевухах 82545GM (шина PCI-X), так вот, как только PPS становилось больше 30K, сеть умирала. Поставил более дохлую машину, но с сетевухой 82571EB (PCI-Express) - до 50K PPS (нат+OSPF) проц вытягивал. Так что от сетевой карты ОЧЕНЬ многое зависит

  10. Привет всем!

    Есть сервер с сетевыми картами Intel 82576, драйвер:

     

    ethtool -i eth0

    driver: igb

    version: 2.1.1

    firmware-version: 1.4-3

     

    модуль igb грузится со следующими параметрами:

    options igb IntMode=3,3 RSS=4,4 VMDQ=4,4 QueuePairs=0,0

     

    При просмотре ethtool -S eth0

    tx_queue_0_packets: 37188815606

    tx_queue_0_bytes: 27483174263095

    tx_queue_0_restart: 1605

    tx_queue_1_packets: 0

    tx_queue_1_bytes: 0

    rx_queue_0_packets: 56725607685

    rx_queue_0_bytes: 36201030789217

    rx_queue_0_drops: 0

    rx_queue_0_csum_err: 1409

    rx_queue_0_alloc_failed: 0

    rx_queue_1_packets: 0

    rx_queue_1_bytes: 0

    rx_queue_1_drops: 0

    rx_queue_1_csum_err: 0

    rx_queue_1_alloc_failed: 0

    Ядро - 2.6.31

    Вопрос, почему очереди не работают?

     

    lspci -v

    01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)

    Subsystem: Super Micro Computer Inc Device 0100

    Flags: bus master, fast devsel, latency 0, IRQ 16

    Memory at fafe0000 (32-bit, non-prefetchable)

    Memory at fafc0000 (32-bit, non-prefetchable)

    I/O ports at ec00

    Memory at fafbc000 (32-bit, non-prefetchable)

    Expansion ROM at faf80000 [disabled]

    Capabilities: [40] Power Management version 3

    Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+

    Capabilities: [70] MSI-X: Enable+ Count=10 Masked-

    Capabilities: [a0] Express Endpoint, MSI 00

    Capabilities: [100] Advanced Error Reporting

    Capabilities: [150] Alternative Routing-ID Interpretation (ARI)

    Capabilities: [160] Single Root I/O Virtualization (SR-IOV)

    Kernel driver in use: igb

    Kernel modules: igb

     

    01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)

    Subsystem: Super Micro Computer Inc Device 0100

    Flags: bus master, fast devsel, latency 0, IRQ 17

    Memory at faf20000 (32-bit, non-prefetchable)

    Memory at faf00000 (32-bit, non-prefetchable)

    I/O ports at e880

    Memory at faefc000 (32-bit, non-prefetchable)

    Expansion ROM at faec0000 [disabled]

    Capabilities: [40] Power Management version 3

    Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+

    Capabilities: [70] MSI-X: Enable+ Count=10 Masked-

    Capabilities: [a0] Express Endpoint, MSI 00

    Capabilities: [100] Advanced Error Reporting

    Capabilities: [150] Alternative Routing-ID Interpretation (ARI)

    Capabilities: [160] Single Root I/O Virtualization (SR-IOV)

    Kernel driver in use: igb

    Kernel modules: igb

  11. Кто нибудь мониторит pps на портах циски? Порыскал по великим просторам нашел наработку которая лезет rsh, и парсит вывод show interfaces.

    А как считаете вы?

  12. Это у меня глюк, что при sc init отваливается сервер от сети (при filter_method = u32)?

    Детально пока еще не изучал, да и tc с хэшем только в теории понимаю.