Перейти к содержимому
Калькуляторы

2MEX2

Пользователи
  • Публикации

    67
  • Зарегистрирован

  • Посещение

Все публикации пользователя 2MEX2


  1. Что лишнего отключал? Какие сервисы и т.д.?
  2. 2 клиента 3 VLAN, 1 транк порт, 5 аксес поров и мултикаст, это ядро? :)))
  3. D-Link DGS-1100-06/ME прошивка DGS-1100-06-A1-1-04-B020-ALL последняя на момент моего сообещния здесь. Сидел работал со свитчём, отвалился как по вебу так и по telnet. Пингуется, но не овтечает, помог только рестарт на месте. Версия железа A1
  4. Не обязательно. Я имею в виду любую ситуацию, когда трафик идёт с любого гигабитного порта на стометровые порты. Типовая ситуация - да - аплинк 1G (SFP или медь - без разницы) и клиент(ы) 100M. Причем проявляется даже с одним клиентом на коммутаторе... Как правильно заметили - буфер микронный, и мало того микронный - видимо он еще и ingress-only, как в старину :) Была ли решена проблема когда аплинк 1Гбит, а клиенты 100? Не падает ли скорость споследними прошивками?
  5. Не в курсе решилась ли даная проблема или она прошивками не решается? Если нет, то как быть?
  6. Vlan Filter

    Если тебе надо разделить клиентов на тех кому доступен инет и кому только локалка и её сервис, то стоит их разнести в разные подсети и просто на сисике одной строкой запретить ходить определённой подсети в инет, а не каждому клиенту в отдельности делать правило держа их в в единой подсети.
  7. Vlan Filter

    У Cisco есть ограничение по количеству правил в ACL. Например на 2950T цискак, разрешено 75 правил в сумме на группу портов. Группы портов это порты с 1-8, 9-16, 17-24. т.е. ты можешь повесить 75 правил на 1 порт или на 2 или на 3 и т.д. но в суммена на портах с 1 по 8 не должно быть более 75 правил иначе обработка перекладывается на CPU, у емня анпремр на каждый порт по 9 правил, что укладывается в сумме в 74. А вот на гигабитный порт можно 100 правил в этой циске, причём на каждый по 100. Я думаю у тебя как раз тотже случай только с VLAN, единственное решение уменьшить количество правил. Поищи в инете сколько разрешено правил в том или инном случае конкретно для твоей серии циски.
  8. Собран был тестовый стенд роутер Buffalo WHR-HP-G54, IPTV коробка берущая поток по multicast через роутер и вывод картинки на телик, плюс стационарный ПК подключённый шнурком к роутеру Buffalo и ноутбук подключённый по Wi-Fi для получения интернет соединения. Стандартная прошивка от Buffalo совсем "голая", поэтому без раздумий было решено прошить роутер на DD-WRT V24 preSP2 (BETA) Build 14311 выложенная на сайте разработчика в официальной базе от 23.04.2010. Четвёртый порт на роутере отвели под multicast коробку. Порты 1,2,3 использоваться должны были для обычного подключения ПК, также как и Wi-Fi. Multicast должен был идти только в 4 порт и никуда более. Была найдена иснтрукция, где при помощи VLAN решалась эта задача http://www.dd-wrt.com/wiki/index.php/Setti...ireless_traffic и описывалось, как это сделать. Настроили, всё работает как часы, но встала проблема с подключеним к Wi-Fi. К Wi-Fi подлючиться можно только в том случае, если не установлено шифрование на Wi-Fi - открытое подключение или когда используется WEP шифрование. Если начинаю использовать WPA Personal с AES или TKIP или WPA2 Personal с AES или TKIP, то роутер не раздаёт IP, причём авторизация проходит, но видно, что винда пытается получить IP несколкьо раз повторяя операцию и далее выкидывает, что подключиться невозможно. Кто сталкивался с подобной ситуацией и как решали проблему? Что WPA шифрование использует такого, что ПК не может получить IP по Wi-Fi в этом режиме? Замечу, что multicast блокируется на Wi-Fi и на портах 1,2,3, а разрешён только в VLAN'е котрый смотрит на 4 порт.
  9. Мозг завис от прочитанного. Вы ШО там отмечаете выходные в середины недели?
  10. ipp2p для самых современных ядер доступен в составе xtables-addons, патчить ядро не требуется, должна быть включена опция CONFIG_NETFILTER_XTABLES.<br /><br /><br /><br /> Ты просто спаситель. Сколкьо не искал информации по ipp2p, нигде не пересекалась информация с проектом xtables-addons. Поставил Fedora 12 внедрил из xtables-addons пакет ipp2p, всё поднялось заработало. Осталось проверить точно ли идёт нарезка скорсоти. На тестовом не смогпроверить. О результатах отпишусь позднее.
  11. Проблема в том, что на 2.6.24 и 2.6.31 не прикрутить ipp2p, в том то и проблема. Поэтому и сижу на CentOs 5.4 с последнем их ядром. Максимально куда мог прикрутить ipp2p было 2.6.20 ядро.
  12. Может быть сумма rate всех дочерних классов превышает rate родительского класса ? Я в своё время на такое напоролся и теперь создаю так $TC class add dev $DEV parent 1:${FI}01 classid 1:f701 htb rate 51Kbit ceil 5120Kbit Попробовал сделать как тут советовали, для всех юзеров. Результата не дало.
  13. Полоса выдаётся гарантированной! И заявлена пакетом котрый берёт клиент.
  14. Тогда почему на старом сервере под Fedora 5 это работает, а под CentOS нет?
  15. Написал о проблеме в CentOS Bug Report буду ждать, что ответят.
  16. Дрова весрии 2.1.1 на сетевую я брал с сайта Intel и компилил уже сам.
  17. Тут пост с выдержкой из скрипта: http://forum.ixbt.com/topic.cgi?id=76:9317
  18. Тоже етсь такая проблема, сокрсоть даёт в 2-3 раза выше указанной. Топик по этому поводу тут: http://forum.nag.ru/forum/index.php?showtopic=54131 Vorlog, ты справился у себя с проблемой, если да, то как?
  19. Но у меня выдаётся клиенту в примере выше 5Мбит поэтому и прописано rate 5120Kbit а ceil вообще не указываю, так как если он не указан, то будет равен rate. На старом сервере резало точно. Конфиги скрипта скопирован был со старого, где резалось точно. # htb root class $TC class add dev $DEV parent 1: classid 1:${FI}01 htb rate 1000Mbit
  20. Сперва стоял сервер двухпроцессорный Xeon (одноядерне, на ядре P4), стояла Fedora 5 было скомпилено ядро 2.6.20-1.2319.fc5smp сервер занималдся нарезкой трафика пользователям. Использовался HTB. Всё работало исправно, точно. Машинки марально устарели, нехватка пощности. Купили новый сервер на базе Intel Xeon X5550 (я ядра, микроархитектура Nehalem). Поставлена была CentOS 5.4 и взято последнее для неё ядро 2.6.18-164.10.1.el5PAE и скомпилировано под себя. Проблема в том, что нарезает порядка в 2-4 раза больше, чем указывается. Пробовал всё что можно. При компиляции ядра выбрано было следующее: (так как новой архитектуры не было в ядре) Processor family -> Pentium-4/Celeron(P4-based)/Pentium-4 M/Xeon Preemption Model -> No Forced Preemption (Server) CONFIG_HZ_1000=y CONFIG_HZ=1000 Таймер был сперва tsc, но сменил, чтобы работал hpet. Из доступных есть ещё такие: #cat /sys/devices/system/clocksource/clocksource0/available_clocksource acpi_pm jiffies hpet tsc pit подгружен #cat /sys/devices/system/clocksource/clocksource0/current_clocksource hpet проблема осталась прежней. Затем сменил дрова на сетевую со штаных на последние Intel 2.1.1 09:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) 09:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) #ethtool -i eth0 driver: igb version: 2.1.1 firmware-version: 1.4-3 bus-info: 0000:09:00.0 #modinfo igb filename: /lib/modules/2.6.18-164.10.1-ipp2p.el5PAE/kernel/drivers/net/igb/igb.ko version: 2.1.1 license: GPL description: Intel® Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: FDF9793697169CEE5D4BF75 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-164.10.1-ipp2p.el5PAE SMP mod_unload PENTIUM4 REGPARM 4KSTACKS gcc-4.1 parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) parm: LLIPort:Low Latency Interrupt TCP Port (array of int) parm: LLIPush:Low Latency Interrupt on TCP Push flag (array of int) parm: LLISize:Low Latency Interrupt on Packet Size (array of int) parm: RSS:RSS - multiqueue receive count (array of int) parm: VMDQ:VMDQ - VMDq multiqueue receive (array of int) parm: max_vfs:max_vfs - SR-IOV VF devices (array of int) parm: QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int) parm: debug:Debug level (0=none, ..., 16=all) (int) В некотрых ветках нашёл, что нужно отключить tcp segmentation offload: off #ethtool -k eth0 Offload parameters for eth0: rx-checksumming: on tx-checksumming: on scatter-gather: on tcp segmentation offload: off udp fragmentation offload: off generic segmentation offload: off generic-receive-offload: on Но это всё проблему не решило. Пример нарезки dowbload'a для одного из клиентов (IP закрыт): $TC class add dev $DEV parent 1:${FI}01 classid 1:f701 htb rate 5120Kbit $TC qdisc add dev $DEV parent 1:f701 handle 0xf701 pfifo limit 60 $TC filter add dev $DEV parent 1:0 protocol ip prio 100 u32 ht 2:01: match ip dst xxx.xxx.xxx.1 classid 1:f701 Всё равно когда просматриваю, вижу, что нарезка споконой даёт больше, чем задано: class htb 1:f701 parent 1:be01 leaf f701: prio 0 rate 5120Kbit ceil 5120Kbit burst 2240b cburst 2240b Sent 85217655 bytes 16045 pkt (dropped 0, overlimits 0 requeues 0) rate 14449Kbit 332pps backlog 0b 6p requeues 0 lended: 16039 borrowed: 0 giants: 18590 tokens: -4620 ctokens: -4620 Видно, что нарезана скорость 5Мбит, но клиенту нарезается намного больше. Лимит 5Мбит, а выдаётся подчти 15Мбит. Кто сталкивался, что делать. Виновато ядро? Как исправит?
  21. Также сделал следующее: #ethtool -k eth0 Offload parameters for eth0: rx-checksumming: on tx-checksumming: on scatter-gather: on tcp segmentation offload: off udp fragmentation offload: off generic segmentation offload: off generic-receive-offload: on Не помогло. Ядро скомпилено последнее от CentOS: 2.6.18-164.10.1.el5PAE
  22. Сменил дрова на 2.1.1 #ethtool -i eth0 driver: igb version: 2.1.1 firmware-version: 1.4-3 bus-info: 0000:09:00.0 #modinfo igb filename: /lib/modules/2.6.18-164.10.1-ipp2p.el5PAE/kernel/drivers/net/igb/igb.ko version: 2.1.1 license: GPL description: Intel® Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: FDF9793697169CEE5D4BF75 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-164.10.1-ipp2p.el5PAE SMP mod_unload PENTIUM4 REGPARM 4KSTACKS gcc-4.1 parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) parm: LLIPort:Low Latency Interrupt TCP Port (array of int) parm: LLIPush:Low Latency Interrupt on TCP Push flag (array of int) parm: LLISize:Low Latency Interrupt on Packet Size (array of int) parm: RSS:RSS - multiqueue receive count (array of int) parm: VMDQ:VMDQ - VMDq multiqueue receive (array of int) parm: max_vfs:max_vfs - SR-IOV VF devices (array of int) parm: QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int) parm: debug:Debug level (0=none, ..., 16=all) (int) Переключил режим: options igb IntMode=1,1 130: 0 0 53078699 0 PCI-MSI eth0 146: 0 0 0 63796743 PCI-MSI eth1 Пример нарезки dowbload'a для одного из клиентов: $TC class add dev $DEV parent 1:${FI}01 classid 1:f701 htb rate 5120Kbit $TC qdisc add dev $DEV parent 1:f701 handle 0xf701 pfifo limit 60 $TC filter add dev $DEV parent 1:0 protocol ip prio 100 u32 ht 2:01: match ip dst xxx.xxx.xxx.1 classid 1:f701 Всё равно когда просматриваю, вижу, что нарезка споконой даёт больше, чем задано: class htb 1:f701 parent 1:be01 leaf f701: prio 0 rate 5120Kbit ceil 5120Kbit burst 2240b cburst 2240b Sent 85217655 bytes 16045 pkt (dropped 0, overlimits 0 requeues 0) rate 8638Kbit 201pps backlog 0b 6p requeues 0 lended: 16039 borrowed: 0 giants: 18590 tokens: -4620 ctokens: -4620 В чём проблема, понять не могу. При компиляции выбирал Processor family -> Pentium-4/Celeron(P4-based)/Pentium-4 M/Xeon Preemption Model -> No Forced Preemption (Server) Может это ещё поможет.
  23. Такая проблема, имею сервер с сетевой двух портовой под управлением CentOS 5.4 09:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) 09:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) Драйвер: #ethtool -i eth0 driver: igb version: 1.3.16-k2 firmware-version: 1.4-3 bus-info: 0000:09:00.0 #ethtool -i eth1 driver: igb version: 1.3.16-k2 firmware-version: 1.4-3 bus-info: 0000:09:00.1 #modinfo igb filename: /lib/modules/2.6.18-164.10.1-ipp2p.el5PAE/kernel/drivers/net/igb/igb.ko version: 1.3.16-k2 license: GPL description: Intel® Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: 78555F0A019E05BADBD95AA alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* depends: 8021q vermagic: 2.6.18-164.10.1-ipp2p.el5PAE SMP mod_unload PENTIUM4 REGPARM 4KSTACKS gcc-4.1 parm: max_vfs:Maximum number of virtual functions to allocate per physical function (uint) Выключен tcp segmentation offload: Offload parameters for eth0: Cannot get device udp large send offload settings: Operation not supported rx-checksumming: on tx-checksumming: on scatter-gather: on tcp segmentation offload: off udp fragmentation offload: off generic segmentation offload: off generic-receive-offload: on Разброс по CPU. Процессор Xeon,4 ядра на микроархетектуре Nehalem. Включен HT. #cat /proc/interrupts | grep eth0 130: 44495 34733 7484927 5615102 3671687 3379664 14978147 7185501 PCI-MSI-X eth0-tx-0 138: 36189 0 4133279 2961030 20411918 13030021 3988460 14488795 PCI-MSI-X eth0-rx-0 146: 37544 0 6656333 17368695 17763201 7233573 3099240 6806423 PCI-MSI-X eth0-rx-1 154: 9775 0 16692027 7787024 1205571 940624 27610102 7620119 PCI-MSI-X eth0-rx-2 162: 29231 0 13860738 8678881 5239099 12325437 6459965 10984137 PCI-MSI-X eth0-rx-3 170: 1 0 0 0 0 0 0 0 PCI-MSI-X eth0 #cat /proc/interrupts | grep eth1 186: 19626 0 5236621 7750632 3235880 3739543 8161446 15372173 PCI-MSI-X eth1-tx-0 194: 71532 0 12100413 10864768 8090533 12629584 7928018 4867226 PCI-MSI-X eth1-rx-0 202: 32000 0 9549992 8829928 6468994 14289032 7789334 8690617 PCI-MSI-X eth1-rx-1 210: 34914 0 7415449 9195490 8313026 13668859 10254350 5788638 PCI-MSI-X eth1-rx-2 218: 38561 0 8895092 9718694 9016271 11259618 9219576 7563733 PCI-MSI-X eth1-rx-3 226: 1 0 0 0 0 0 0 0 PCI-MSI-X eth1 Сервер занимается нарезкой скорости, испольуется HTB. Проблема в следующем, из примера видно, что нарезана скорость 5Мбит, но клиенту нарезается намного больше. Внизу видно, что лимит 5Мбит, а выдаётся подчти 15Мбит. class htb 1:f701 parent 1:be01 leaf f701: prio 0 rate 5120Kbit ceil 5120Kbit burst 2240b cburst 2240b Sent 85217655 bytes 16045 pkt (dropped 0, overlimits 0 requeues 0) rate 14449Kbit 332pps backlog 0b 6p requeues 0 lended: 16039 borrowed: 0 giants: 18590 tokens: -4620 ctokens: -4620 Из-за чего такое и как исправить? Или же это связано с множеством веторами котрые система разбрасала по ядрам и HTB неверно считает? Кто как боролся с этим? На старом железе двухпроцессорны Xeon ещё на ядре P4 всё резалось точно.
  24. Неужели никто не может помочь?