anatoly Posted December 20, 2017 (edited) · Report post Есть необходимость в организации серверной. нужно приобрести туда пару коммутаторов. возникла пара вопросов: 1. Оказывается есть много коммутаторов с портами 10GBASE-T. Вопрос: к порту 10GBASE-T подключить сервер/коммутатор/чтоугодно с портом 1GBASE-T - взлетит? 2. На этом форуме часто упоминаются размеры буфферов на портах коммутаторов. Вопрос: эти буфферы ведь начинают играть роль только когда нагрузка превышает бендвич порта? то есть если у меня гигабитные порты, но нагрузка - пятьсот мегабит/с - то все равно что там с буфферами? 3. У циски относительно недавно вышли довольно не дорогие и сильно функциональные (mpls, vxvlan, роутинг разный, только fcoe нет, но серверная из одной корзины для блейдов и одной дисковой полки в этом не сильно нуждается) каталисты 9300, в которые еще и 8 SFP+ отдельным модулем можно воткнуть. Есть ли у них какие-то явные противопоказания для использования в серверных? По производительности pps/bps они перекрывают наши запросы в разы Edited December 20, 2017 by anatoly Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
pfexec Posted December 20, 2017 · Report post 1. если нужны 10G лучше брать sfp+ и уже модулями решать что там будет - 10ка оптикой, или мультирейтовый 10/100/1000 медью (надо мультирейтовые медные модули). 2. толстые буферы нужны при берстах трафика, когда за короткое время кучку пакетов свищ не успевает вывалить в порт. если трафика мало, то об этом можно не думать. 3. хз, покупать в 2017 году железки с реинкарнацией легаси иоса так себе затея кмк. судя по беглому изучению описания - какой то маркетинговый продукт с популярными словами в описании, вобщем надо изучать юзкейсы в которых они позиционируют их. последнее время у циски все очень плохо с маркетингом и позиционированием железа. тут наверно знатоки расскажут. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
andryas Posted December 20, 2017 · Report post 2 часа назад, anatoly сказал: Вопрос: эти буфферы ведь начинают играть роль только когда нагрузка превышает бендвич порта? то есть если у меня гигабитные порты, но нагрузка - пятьсот мегабит/с - то все равно что там с буфферами? При несимметричной коммутации (10G-1G 1G-100M и тд). И чем больше трафика, тем хуже. На недорогих коммутаторах проблема маленьких буферов вылазит обычно на 1/3 ... 1/2 загрузки аплинка. "Дешёвые" свитчи именитых брендов обычно хуже "дорогих" свитчей всяких дликов и прочих ежей (при близкой стоимости) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
uxcr Posted December 20, 2017 · Report post 2 часа назад, andryas сказал: При несимметричной коммутации (10G-1G 1G-100M и тд). И чем больше трафика, тем хуже. На недорогих коммутаторах проблема маленьких буферов вылазит обычно на 1/3 ... 1/2 загрузки аплинка. "Дешёвые" свитчи именитых брендов обычно хуже "дорогих" свитчей всяких дликов и прочих ежей (при близкой стоимости) Эту проблему решили с помощью перехода на cut-through ;) Теперь на буферах опять можно экономить, ура! Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
andryas Posted December 20, 2017 · Report post 22 минуты назад, uxcr сказал: Эту проблему решили с помощью перехода на cut-through ;) "Решили" я бы взял в кавычки, т.к. указанное решение сказочно "помогает" в поиске ошибок в сети. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted December 20, 2017 · Report post 2 часа назад, uxcr сказал: cut-through Это чо, FlowControl по новому обозвали?) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
zhenya` Posted December 21, 2017 · Report post 4 часа назад, Ivan_83 сказал: Это чо, FlowControl по новому обозвали?) Замена store and forward ) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
snvoronkov Posted December 21, 2017 · Report post 5 часов назад, Ivan_83 сказал: Это чо, FlowControl по новому обозвали?) Иван, ну погугли уже... :-))) 8 часов назад, andryas сказал: ...т.к. указанное решение сказочно "помогает" в поиске ошибок в сети. +100500 Ладно еще когда счетчики ошибок синхронно растут только на двух портах. :-) А вот когда сразу на нескольких... Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
darkagent Posted December 21, 2017 · Report post 9 часов назад, uxcr сказал: Эту проблему решили с помощью перехода на cut-through ;) Теперь на буферах опять можно экономить, ура! Надеюсь, вы это не серьезно. cut-through - обоюдоострый меч в вопросе свитчинга, и применим исключительно на top-of-rack. http://thenetworksherpa.com/cut-through-corruption-and-crc-stomping/ Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
flamaster Posted December 21, 2017 · Report post 3 часа назад, darkagent сказал: Надеюсь, вы это не серьезно. cut-through - обоюдоострый меч в вопросе свитчинга, и применим исключительно на top-of-rack. http://thenetworksherpa.com/cut-through-corruption-and-crc-stomping/ странно, что cisco на своих nexus-ах по дефалту работает на cut-through. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
v_r Posted December 21, 2017 · Report post Ничего странного, Нексусы ориентированны на датацентры. На сетях оператора их используют не от хорошей жизни, и операторских фич в них минимум. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
andryas Posted December 21, 2017 · Report post 12 часов назад, Ivan_83 сказал: Это чо, FlowControl по новому обозвали?) Нет, это частичная реинкарнация хаба. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
uxcr Posted December 21, 2017 · Report post 5 часов назад, darkagent сказал: Надеюсь, вы это не серьезно. cut-through - обоюдоострый меч в вопросе свитчинга, и применим исключительно на top-of-rack. http://thenetworksherpa.com/cut-through-corruption-and-crc-stomping/ Окей, в следующий раз поставлю смайликов побольше. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
CNick Posted January 22, 2018 · Report post FYI: В Cisco недавно новые ASIC завезли Jericho они же Dune которых Broadcom купили. Если кратко то теперь к сотне метров буфера на чипе в добавок еще и внешний GDDR5 буфер. Есть пицца боксы на нем C36180YC-R там 8GB буфера, а есть 9500 модульные все которые с окончанием R - N9K-XXXXXX-R в них в зависимости от типа карты 4 гига на каждый ASIC соотвественно 12GB или 24GB на всю карту. Я понимаю что цены там что будь здоров, но учитывая зоопарк разных вариантов карт и коробок, лучше не заводить стереотипы о нексусах :) Сейчас в одном только 9500 может быть 4 разных вариантов исполнения линейных карт и модулей которые имеют очень разные параметры и которые увы совершенно не совместимые между собой, а именно: Broadcom 1st Gen или Broadcom + North Star Tahoe Jericho Broadcom Tomahawk Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...