Перейти к содержимому
Калькуляторы

z18

Пользователи
  • Публикации

    25
  • Зарегистрирован

  • Посещение

Все публикации пользователя z18


  1. Что такое борьба с оттоком?

    Ну на этом фоне есть чем гордиться.:) А Вы отзыв-то прочитали? ;)
  2. Они суммируются, но не в том смысле в котором вам надо: когда создается полисер, он выгружется в asic'и в pfc и всех dfc, и после этого они работают независимо (в этом и есть смысл dfc), т.е. создав полисер на гигабит, максимальная скорость будет 1(если в портах супервизора есть svi) + N (кол-во dfc где есть нужный вам svi) гигабит. Чтобы сделать то, что вам нужно надо: 1) либо сделать так, чтобы svi не выходил за пределы одной карты (одного dfc) 2) повынимать DFC из карт (продать, деньги пропить ;), тогда они будут пользоваться CFC и решение будет принимать PFC. (правда CFC поддерживает не все карты) вроде так.
  3. Хмм... А можно посмотреть на show mls qos show mls qos ip vlan501 ?   nevermind. судя по этому: https://www.cisco.com/c/en/us/td/docs/switches/lan/catalyst6500/ios/12-2SX/configuration/guide/book/qos.pdf с.43-18 Each PFC or DFC polices independently, which might affect QoS features being applied to traffic that is distributed across the PFC and any DFCs.
  4. а где у вас class-map для Customer1-OUT ? либо нарисуйте, либо в policy используйте "class class-default".
  5. не заметил. это уже iflib драйвер, смотрите в сторону такого: # sysctl -d dev.igb.0.iflib.override_nrxqs dev.igb.0.iflib.override_nrxqs: # of rxqs to use, 0 => use default # # sysctl -d dev.igb.0.iflib.override_ntxqs dev.igb.0.iflib.override_ntxqs: # of txqs to use, 0 => use default #
  6. # host www.segodel.com|grep 195.208.208.120 www.segodel.com has address 195.208.208.120 # host 195.208.208.120 120.208.208.195.in-addr.arpa domain name pointer msk-ix.sberbank.ru.
  7. ipv6, практические вопросы

    Horgi: - Учим русский язык, затем пытаемся на нём общаться. - Читаем книгу до конца, потом озвучиваем свое мнение.
  8. Эээ.. А что тут неясного? Тема про каталист и про его невежество относительно стандарта 802.1ad (либо про каталист и моё невежество относительно него - если мне подскажут как его научить понимать ethertype 0x88a8).
  9. Да, про qinq он знает, но только с ethertype'ом 0x8100. Команду 'dot1q tunneling ethertype 0x88a8' он у меня не понимает :( ios: cat4500e-ENTSERVICESK9-M 12.2(54)SG1
  10. Вот тут обнаружил, что catalyst 4900m ничего не знает про ethertype 0x88a8... Это так или мне бинокль купить?
  11. 1) io_fast не дружит нормально с wf2q на 7.x 2) отрицательная задержка просто вызывает переполние целочисленной арифметики внутри dummynet'а, поэтому результаты могут быть занимательными.
  12. Почему ? При net.inet.ip.dummynet.io_fast=1 и пайпе, не упирающемся в лимит, пакеты идут мимо dummynet шедулера. Это разве не искомое отсутствие задержки ? Чтобы труба 32kbit/s "не упиралась в лимит", пакет должен быть не больше 32бит, т.е. 4байт (при hz=1000).
  13. net.inet.ip.dummynet.io_fast есть в 6.4/7.2 в описанном примере это никак не поможет.
  14. Любой каприз - за Ваши деньги ;) Для простоты считаем, что "красивый/приятный" пинг это 1ms. Если pipe у нас есть в обе стороны, то пакет должен проходить трубу за 0.5ms Если нам надо, чтобы пинг был красивым при пакете 1500 байт, нам надо: 1500 * 8 * 1000 * 2 = 24Mbit/s Если при стандартном (с 56 байт данных): (20 + 8 + 56) * 8 * 1000 * 2 = 1.344Mbit/s Минимальный icmp пакет: (20 + 8) * 8 * 1000 * 2 = 448Kbit/s Резюмирую: если клиент купил 32kbit/s, то делая пинг чего-либо он кладет свой канал на полку. P.S. в 8-ке появилась опция у трубы: burst - с её помощью можно сделать нечто похожее на то, что Вы описали.
  15. Эээ... а как они (пакеты) должны идти?
  16. Процессорная загрузка собирается в dummynet из-за "ipfw add 500 pipe tablearg".Если для каждой скорости сделать отдельную таблицу и отдельное правило "ipfw add 501 pipe 501 from any to table(51)", тогда нагрузка переедет в прерывания от сетевых карт. Теорию не знаю, но лично у меня на практике оказалось так. Теорию знаю - это не так.
  17. Это значит, что у Вас i386 система, и эти счетчики переполнились X раз. Делать на их основании выводы не стоит.
  18. 44 это количество активных flows. buckets это размер хэш таблицы, используемой для раскладывания пакетов по flows. Если buckets=1, то хэш поиск вырождается в линейный. Наращивать кол-во buckets надо если net.inet.ip.dummynet.search_steps/net.inet.ip.dummynet.searches >> 1, иначе это просто раходование памяти ядра.
  19. А что не понятно-то? Идея в том, чтобы пакеты проходящие через dummynet могли fastforward'ится.
  20. Где превышение? Я же Вам предлагал поразмышлять... Ну ладно: Гранулярность времени в dummynet'е при стандартном ядре (HZ=1000) 1ms, т.е. 64Kbit/s это 64Bit/ms. В Вашем примере размер пакета 1500 байт (1472 + 8 + 20 = 1500, a не 1480, как Вы полагаете, но это здесь не Важно), т.е. 1500*8=12Kbit. 12Kbit через трубу с пропускной способностью 64Bit/tick без задержек проехать никак не могут. Можно посчитать, какая должна быть задержка: 12000/64 = 187.5ms в одну сторону. В Вашем примере есть и обратная труба, т.е. задержка на Ваши пинги должна быть 187.5 * 2 = 375ms. Знакомая цифра? ;)
  21. Неверно. Сколько трафика пройдет через pipe здесь абсолютно не причем. И во всем этом меня очень смущает фраза: ... certain packets to bypass the dummynet scheduler. *sigh* Объясню: эти самые "certain packets" - это которые "does not exceed pipe's bandwidth". В вашем случае bandwidth превышается, поэтому Вы наблюдаете задержки.
  22. А вот Вам информация к размышленю: 59Kbit/s это 59 * 86400 ~ 5Gbit/сутки. По Вашей логике получается, что пока Вы не пошлете 5Gbit трафика задержек быть не должно ;)