Перейти к содержимому
Калькуляторы

Свитч на агрегацию. Без проблем c буфером.

6 часов назад, Justas сказал:

То есть, я всё правильно понял, что дело в неправильной архитектуре сети и большими буферами стараются "сгладить" косяки архитектуры? Ну, то есть, по хорошему нужно переводить порты коммутатора агрегации, смотрящие в ядро, с 10G на 40G, а порты, смотрящие на доступ, с 1G на 10G, но из-за экономии стараются вытянуть из 1/10G еще хоть что-то?

"по-хорошему" - надо переводить абонентов на 10G. и тогда возможно буфер пакетов не будет сильно сказываться (при условии, что к абоненту трафик будет идти через 10G, причем - только один, никаких LACP и никаких обменов абон-абон).

иначе - на любом переходе 10G->1G будут проблемы если у свича куриные мозги.

 

6 часов назад, Saab95 сказал:

Кто когда-то арендовывал вланы у крупных операторов знают, что у них постоянно возникают проблемы с блокировкой мультикаста или еще некого трафика

да, как там у некротика с мультикастом? все так же дропает? :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

17 часов назад, darkagent сказал:

Чтоб не ощущать проблем никаких с микроберстами, сеть от поставщика контента до последней мили должна быть гомогенной, но такое не реально даже в теории. Любое перекладывание из большей емкости в меньшую чревато выплескиванием потока. Наглядно такое можно представить взяв бутылку, воронку, и кастрюлю воды...

Тогда получается что проблема фундаментальная и появилась ещё во времена 1-2 мбитных клиентов с концентраторами и аплинками на 10 мегабит, второй круг с 10мбитными клиентами и сотками на магистралях... сейчас круг третий?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Проблема не однозначная.

Для TCP - в целом пофик на потери, клиент уменьшит скорость и перезапросит, тут скорее лучше подропать чем оно будет засирать линки и дропаться где то возле клиента.

Для UDP/мультикаста - зло, ибо перепосылать в случае стримов некому. Но в целом нефик абоненту мультикаст лить и тогда всё просто.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

17 минут назад, Ivan_83 сказал:

Но в целом нефик абоненту мультикаст лить и тогда всё просто

+100

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

19 минут назад, Ivan_83 сказал:

Для TCP - в целом пофик на потери

ну не совсем, если мозги свича куриные, а порт нагружен поболее 50% от полоски - абоны в ЧНН начинают звонить с вопросами "чозанафиг, где мои мегабиы, почему ютуп икает на фуллхд а на спидтесте стыд и срам".

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

58 минут назад, sheft сказал:

Тогда получается что проблема фундаментальная и появилась ещё во времена 1-2 мбитных клиентов с концентраторами и аплинками на 10 мегабит, второй круг с 10мбитными клиентами и сотками на магистралях... сейчас круг третий?

Что-то  я вспомнил чувака который многие месяцы выяснял кто ему шейпит UDP, где-то тут на форуме была тема.

И вспомнил как на нормальном радиолинке ping -s64000 давало потери, а -s 1400 -i0.001 нет.

В момент выстреливания очереди пакетов не хватало буфера по TX, микробёрст не пролазил.

А живым трафом мост пригружался на 300-350 метров спокойно без потерь.

Может истина где-то тут.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

10 часов назад, Ivan_83 сказал:

Для TCP - в целом пофик на потери, клиент уменьшит скорость и перезапросит, тут скорее лучше подропать чем оно будет засирать линки и дропаться где то возле клиента.

Представьте что будет, если входной канал у оператора 10Г, и процент дропов на сети 5%. Это 500М трафика зазря теряется. Тут выгоднее шейпить в центре, раздувая буфер, и выдавать скорость абонентам. Ведь в случае дропов у абонента будут все те же самые проблемы, что и с увеличением общей задержки, а вот со стороны оператора будет перерасход входящего трафика.

 

11 часов назад, NiTr0 сказал:

да, как там у некротика с мультикастом? все так же дропает? :)

Кто вообще такое сказал что микротик дропает мультикаст? Никогда не было такого. Если транспорт L3 то уже не важно, что там внутри передается.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

50 минут назад, Saab95 сказал:

Представьте что будет, если входной канал у оператора 10Г, и процент дропов на сети 5%. Это 500М трафика зазря теряется. Тут выгоднее шейпить в центре, раздувая буфер, и выдавать скорость абонентам. Ведь в случае дропов у абонента будут все те же самые проблемы, что и с увеличением общей задержки, а вот со стороны оператора будет перерасход входящего трафика.

Я бы на твоём месте не фантазировал а почитал про TCP congestion control.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Исходя из того что в существующих чипах с объёмом буфера не густо,

правильнее было бы искать свитч корректно использующий буфер.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Стич 

Если будете искать Huawei, то надо искать свитч, который поддерживает команду qos burst-mode enhanced/shared. Не все свитчи/не все платы это умеют

 

http://support.huawei.com/hedex/pages/EDOC110002054831180AFU/02/EDOC110002054831180AFU/02/resources/dc/qos_burst-mode_system_view.html (тут для CE-свитчей, но и для других есть такая команда)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А кто подскажет скоко стоит Huawei для задачи топика и с qos burst-mode enhanced/shared

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 минуты назад, Стич сказал:

А кто подскажет скоко стоит Huawei для задачи топика и с qos burst-mode enhanced/shared

как договоришься. gpl не смотри, там космос по хлеще циски, на деле может оказаться не сильно дороже длинка. 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

17 минут назад, s.lobanov сказал:

@Стич 

http://support.huawei.com/hedex/pages/EDOC110002054831180AFU/02/EDOC110002054831180AFU/02/resources/dc/qos_burst-mode_system_view.html (тут для CE-свитчей, но и для других есть такая команда)

 

 

Даже не знаю что и сказать о цене на CE6870EI

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Brainiac 

Я же написал, что эта команда и на других свитчах есть. Просто дока на CE-свитчи доступна публична (без логина на сайте). Не у всех есть логин на сайт huawei

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, Brainiac сказал:

Даже не знаю что и сказать о цене на CE6870EI

[S6320]dis this | i qos
qos burst-mode enhanced slot 0

[S6320]qos burst-mode ?
  enhanced  An interface can occupy only dynamic buffer in this mode
  extreme   An interface can occupy not only dynamic buffer but also static
            buffer in this mode

думаю и в младших моделях можно откопать что-то такое, но лучше уточнить у менеджеров хуавея.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

8 часов назад, Saab95 сказал:

Если транспорт L3 то уже не важно, что там внутри передается.

дадада, от только л3 - это маршрутизация. а мультикаст маршрутизировать микротик отродясь нормально не может.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

20 часов назад, NiTr0 сказал:

"по-хорошему" - надо переводить абонентов на 10G. и тогда возможно буфер пакетов не будет сильно сказываться (при условии, что к абоненту трафик будет идти через 10G, причем - только один, никаких LACP и никаких обменов абон-абон).

иначе - на любом переходе 10G->1G будут проблемы если у свича куриные мозги.

 

Не понимаю. Простите. Есть современный коммутатор агрегации с т.н. неблокируемой архитектурой (способен передавать Ethernet-фреймы через свои порты с той же скоростью, с которой они на него поступают по всем портам одновременно), воткнутый в коммутатор ядра на скорости 10G. 20 линков в сторону конечных свитчей доступа на скорости 1G воткнуты в него. Утилизация каждого порта доступа - 400 мбит дуплекс (300 Мбит в сторону доступа/100 Мбит в сторону ядра). Итого 20портов х 400Мбит = 8000 Мбит/с, то есть на магистральном 10G-порте мы наблюдаем 6000 Мбит/с входящего и 2000 Мбит/с исходящего потока.

 

Свободная канальная ёмкость есть с запасом.

 

Пакет на 1500 байт, влетающий в магистральный порт этого свитча, передан коммутатором ядра и принят нашим свитчем на скорости 10G. Далее свитч на принятой скорости, согласно своей неблокируемой архитектуре, тут же передаёт этот пакет для пересылки на необходимый 1G-порт доступа, из которого этот пакет вылетает уже со скоростью 1G согласно скорости линка. Ведь так?

 

Скажем, согласно спецификации линейки D-Link 3420, коммутационная матрица у него - 88 Гбит/с, а скорость перенаправления пакетов: 65,47 Mpps. Как заявляет производитель, при соблюдении этих ограничений, а также ограничений по потолку скорости портов, попадания в буфер рассматриваемого нами пакета и дропов пакетов целом не происходит. Именно по этой причине буфера 2 мегабайта на свитч, очевидно, достаточно, ведь использован буфер будет лишь в моменты несоблюдения установленных ограничений.

 

То есть, производитель какбэ намекает, что нужно соблюдать архитектуру (не упираться в полку) и не превышать лимиты свитча в целом. Однако практика говорит об обратном.

 

Правильно ли я понимаю, что производитель что-то умалчивает и буферизация происходит независимо от нагрузки на коммутатор, а заявляемая "неблокируемая архитектура" на деле не такая уж и неблокируемая?

Изменено пользователем Justas

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

24 минуты назад, Justas сказал:

Не понимаю.

Микроберсты, которые не увидеть с усреднением трафика до минут - ни кто не гарантирует, что в "условную секунду времени" на ОДИН из 20 портов 1G из ядра с 10G не прилетит "чуть более 1G", получим дроп.

Вот тут и помогает широкий буфер.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

13 минут назад, Justas сказал:

Пакет на 1500 байт, влетающий в магистральный порт этого свитча, передан коммутатором ядра и принят нашим свитчем на скорости 10G. Далее свитч на принятой скорости, согласно своей неблокируемой архитектуре, тут же передаёт этот пакет для пересылки на необходимый 1G-порт доступа, из которого этот пакет вылетает уже со скоростью 1G согласно скорости линка. Ведь так?

ну прилетел, ушел в порт на передачу. пока передается - прилетел еще один. и еще один. и еще 10 пакетов. а первый только-только в порт пролез к этому моменту. куда все остальные делись?

далее, в гиговый порт начинает лезть второй пакет. а с аплинка за это время еще 10 пакетов прилетело. куда они делись?

в порт начинает пролазить третий пакет. а с аплинка еще 10 пришло. куда они делись?

тут-то буфер и заканчивается - и все новые пакеты дропаются.

 

16 минут назад, Justas сказал:

Правильно ли я понимаю, что производитель что-то умалчивает и буферизация происходит независимо от нагрузки на коммутатор

нет. буферизация происходит тогда, когда пакеты прилетают со скоростью большей, чем уходят в порт. тут производитель не врет.

вот только проблема в том, что ваши 400 мбит которые вы наблюдаете - это средний трафик. ну т.е. прилетело за секунду 33 тыс.пакетов по 1500 байт - получили 400 мбит. при этом - вполне  может прилететь сразу пачкой 33000 пакетов на 10 гбитах за 40 мс, а потом 960мс линк простаивает, и средняя скорость опять же будет 400 мбит на графике.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

20 минут назад, bike сказал:

ни кто не гарантирует, что в "условную секунду времени" на ОДИН из 20 портов 1G из ядра с 10G не прилетит "чуть более 1G"

 

То есть, если сама архитектура сети и администраторы сети дадут гарантию отсутствия "чуть более 1G", то есть гарантию соответствия архитектуры сети её возможностям, то проблема себя не проявит?

 

 

 

16 минут назад, NiTr0 сказал:

ну прилетел, ушел в порт на передачу. пока передается - прилетел еще один. и еще один. и еще 10 пакетов. а первый только-только в порт пролез к этому моменту. куда все остальные делись?

далее, в гиговый порт начинает лезть второй пакет. а с аплинка за это время еще 10 пакетов прилетело. куда они делись?

в порт начинает пролазить третий пакет. а с аплинка еще 10 пришло. куда они делись?

тут-то буфер и заканчивается - и все новые пакеты дропаются.

 

Насколько я понимаю, неблокируемая архитектура свитча подразумевает приём и передачу любого количества пакетов одновременно на скорости, на которой эти пакеты были приняты при условии наличия свободной ёмкости портов, с которых  они были приняты или на которые эти пакеты переданы.

 

 

 

16 минут назад, NiTr0 сказал:

нет. буферизация происходит тогда, когда пакеты прилетают со скоростью большей, чем уходят в порт. тут производитель не врет.

вот только проблема в том, что ваши 400 мбит которые вы наблюдаете - это средний трафик. ну т.е. прилетело за секунду 33 тыс.пакетов по 1500 байт - получили 400 мбит. при этом - вполне  может прилететь сразу пачкой 33000 пакетов на 10 гбитах за 40 мс, а потом 960мс линк простаивает, и средняя скорость опять же будет 400 мбит на графике.

 

 

Если оставить в стороне графики, ведь я могу снимать данные с портов в режиме реального времени. Какие показатели нагрузки на сеть должны быть соблюдены, чтобы буфер коммутатора не использовался вовсе?

 

 

 

Изменено пользователем Justas

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

19 минут назад, NiTr0 сказал:

нет. буферизация происходит тогда, когда пакеты прилетают со скоростью большей, чем уходят в порт. тут производитель не врет.

 

Вы про cut-through?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

8 минут назад, Justas сказал:

ведь я могу снимать данные с портов в режиме реального времени

Статистика с усреднением в 1 мс?

Расскажите, как и на каком оборудовании это можно сделать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

12 минут назад, bike сказал:

Статистика с усреднением в 1 мс?

Расскажите как и на каком оборудовании это можно сделать?

 

Я не специалист в измерениях. Полагаю, есть анализаторы потоков. Тот же tcpdump покажет количество пакетов для данной задачи достаточно точно. Если проблема себя проявляет явно, то и поймать ее анализатором будет несложно. Поймать превышение 1G на порте несложно. Вопрос в другом.

Изменено пользователем Justas

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

10 минут назад, Justas сказал:

 

Я не специалист в измерениях. Полагаю, есть анализаторы потоков. Тот же tcpdump покажет количество пакетов для данной задачи достаточно точно. Если проблема себя проявляет явно, то и поймать ее анализатором будет несложно. Поймать превышение 1G на порте несложно. Вопрос в другом.

 

Тут вопрос не в превышении полосы, а в том, что в один момент времени может прилететь трафика в порт больше, чем может в него пролезть в текущий момент.

Хороший пример микроберста Вам уже давали выше:

43 минуты назад, NiTr0 сказал:

вот только проблема в том, что ваши 400 мбит которые вы наблюдаете - это средний трафик. ну т.е. прилетело за секунду 33 тыс.пакетов по 1500 байт - получили 400 мбит. при этом - вполне  может прилететь сразу пачкой 33000 пакетов на 10 гбитах за 40 мс, а потом 960мс линк простаивает, и средняя скорость опять же будет 400 мбит на графике.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

26 минут назад, Justas сказал:

Полагаю, есть анализаторы потоков.

Чем они помогут?

Измерять нужно именно на порту коммутатора.

А с порта коммутатора дистанционно получать значения счетчиков можно не меньше, чем за минуту.

Интерактивно на некоторых коммутаторах можно установить и меньший период (30 или 10 секунд), но микровсплески это все равно не покажет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.