nicodemus Опубликовано 27 марта, 2023 (изменено) · Жалоба Ну у нас две сетевые, одна на вход, а другая на выход, обе x520-da2. На 6 росе все норм. Почти 10гбит спокойно переваривает. Вот когда пихали в одну сетевую x520-da2 в один порт вход, а в другой выход, тогда было плохо. Изменено 27 марта, 2023 пользователем nicodemus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Qlobus Опубликовано 27 марта, 2023 · Жалоба А XL710 кто-то проверил? То что на 40gig? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
starik-i-more Опубликовано 29 марта, 2023 · Жалоба Цитата Ну у нас две сетевые, одна на вход, а другая на выход, обе x520-da2. На 6 росе все норм. Почти 10гбит спокойно переваривает. Вот когда пихали в одну сетевую x520-da2 в один порт вход, а в другой выход, тогда было плохо. А чем объясняете такое поведение? Не хватает пропускной способности PCI-e слота? Вряд ли... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Saab95 Опубликовано 29 марта, 2023 · Жалоба Цитата А XL710 кто-то проверил? То что на 40gig? Зачем оно вам? У микротика есть роутер в виде платы в комп, на ней уже есть 2 сетевых адаптера - микротик полностью поддерживает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 30 марта, 2023 · Жалоба В 29.03.2023 в 09:25, starik-i-more сказал: А чем объясняете такое поведение? Не хватает пропускной способности PCI-e слота? Вряд ли... Не могу сказать. Проверили еще раз с другими сетевыми и с multi-queue-ethernet-default и зафиксировали частоту. IRQ по одному, двум ядрам уходить в 100% и всё. Остальные практически в простое. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
starik-i-more Опубликовано 30 марта, 2023 · Жалоба Не пробовали разносить IRQ очередей вручную по разным ядрам? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 30 марта, 2023 (изменено) · Жалоба Пробовали, там как будто на одну очередь всё вешается и она умирает. Походу проблема именно в пппое сервере, так как в самом начале на 7.1 или где то там пробовали, микрот уходил в циклическую перезагрузку. Если абоны не подключены, то сервер работает. Изменено 30 марта, 2023 пользователем nicodemus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
starik-i-more Опубликовано 31 марта, 2023 · Жалоба Хмм... А вы не изучали вопрос, по какому критерию X520-DA2 распределяет пакеты по очередям? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 31 марта, 2023 · Жалоба На ros 6 такой проблемы нет, а на 7 не охота на людях экспериментировать, там 10 минут простоя было, а криков на пару часов. Этот же комп попробуем проверить на 6 версии и посмотрим, мб проц чет выделывается. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Saab95 Опубликовано 1 апреля, 2023 · Жалоба У вас АМД процессор, на интеле нет описываемых вами проблем с точно такой же сетевухой. PPPoE нормально работало с шейпером (по интерфейсам pppoe клиентов) выдавало порядка 5 гигов трафика в 7 версии при тестировании, но т.к. возникли проблемы с OSPF (роутер продолжал анонсировать от себя IP отключившихся клиентов), в работе не оставили. Нашли много микротиков CCR1036 с 10Г портами и все собрали на них, проблем никаких. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 2 апреля, 2023 (изменено) · Жалоба Так у нас на 6 версии с 5900 тоже проблем никаких, 9гбит на 40% нагрузки. Просто в 7 частоты в динамике работали, сетевая встроенная в последних версиях тоже заработала, usb клава, мышь тоже едут. Новый тип очереди появился интересный, тоже хотели посмотреть. Вчера подкинул на древнюю машину на АМД ссд для переустановки, так там оказывается и health работает. Просто интересно разобраться почему всё скидывает в одну очередь и на одно ядро. Значит будем ждать новых версий. Изменено 2 апреля, 2023 пользователем nicodemus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeonz Опубликовано 2 апреля, 2023 (изменено) · Жалоба Из всей длинной темы не смог понять, есть ли тут те, у кого mikrotik CHR тянет больше 4-5гбит? Никак не могу выжать на vmware с CHR 7.5-7.8 версии (другие не пробовал) более чем 4-5гбит на простом конфиге ротуинг+нат на паре интерфейсов. При превышении некоего порога начинаются дропы трафика на 0.5-1 секунду практически до нуля с последующим восстановлением до 4-5гбит, затем через 2-3 сек снова дроп и т.д. Использую 8 ядер для микрота, процессоры xeon и amd, на микроте ни одно ядро не упирается в 100%. Не пойму в чем дело. И да, тесты между двумя такими микротами при помощи встроенной измерилки скорости вполне показывают 10гбит, но при реальном трафике (десятки тысяч пользователей, tcp+udp) - проблема. Изменено 2 апреля, 2023 пользователем xeonz Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 2 апреля, 2023 · Жалоба А виртуальный адаптер для машины какой выбран? См. также Large packet loss in the guest OS using VMXNET3 in ESXi (2039495) (vmware.com) VMXNET3 RX Ring Buffer Exhaustion and Packet Loss – vswitchzero Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeonz Опубликовано 2 апреля, 2023 · Жалоба Цитата А виртуальный адаптер для машины какой выбран? vmxnet3. Ссылки посмотрю, спасибо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Saab95 Опубликовано 2 апреля, 2023 · Жалоба Цитата Просто интересно разобраться почему всё скидывает в одну очередь и на одно ядро. Значит будем ждать новых версий. А вы в биосе компьютера все просмотрели на предмет корректной настройки? Например разделы UEFI/Legasy, всякие там PNP? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 3 апреля, 2023 · Жалоба Машины все одинаковые (тут только процессор 5950), биос настроен одинаково, версия биоса одна. Разве что только виртуализация выключена была на этой машине, на остальных не помню. Сегодня попробуем на ней 6 версию и посмотрим как будет работать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AKim Опубликовано 6 апреля, 2023 · Жалоба Цитата Работает пару брасов на х86, но IPoE. V7 показала себя с лучшей стороны. Особенно их новый тип очередей FQ_Codel. Что помимо новых очередей лучше? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
TriKS Опубликовано 6 апреля, 2023 (изменено) · Жалоба Цитата Зачем оно вам? У микротика есть роутер в виде платы в комп, на ней уже есть 2 сетевых адаптера - микротик полностью поддерживает. Это ты про это? https://mikrotik.com/product/ccr2004_1g_2xs_pcie Так тут 2*25G. А xl710 это 2х40Г за те же 200 баксов. Логичный вопрос - зачем платить столько же за почти в 2 раза меньшую скорость порта? Изменено 6 апреля, 2023 пользователем TriKS Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Saab95 Опубликовано 8 апреля, 2023 · Жалоба Цитата Логичный вопрос - зачем платить столько же за почти в 2 раза меньшую скорость порта? Нет проблем с поддержкой микротика. Второй плюс можно сделать большой программный буфер порта средствами этой платы с микротиком и уже получать на вход самого сервера трафик без потерь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
TriKS Опубликовано 23 апреля, 2023 · Жалоба Цитата Нет проблем с поддержкой микротика. Т.е. за умение админа работать только с РОС, собственнику нужно заплатить возможностью юзать более скоростные железки за те же деньги? :) Цитата Второй плюс можно сделать большой программный буфер порта средствами этой платы с микротиком и уже получать на вход самого сервера трафик без потерь. Звучит как бред с будуна, учитывая проц АРМ, работу РОС в целом и невозможность срезать трафик по паттернам прям на сетевой, как у интелов :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicodemus Опубликовано 15 июня, 2023 · Жалоба В 27.03.2023 в 18:00, morf сказал: Работает пару брасов на х86, но IPoE. V7 показала себя с лучшей стороны. Особенно их новый тип очередей FQ_Codel. Попробуйте IRQ везде auto поставить и включить RPS на сетевухах. А вы делали замер по пингу с fq_codel? Какой то интересный график получается. Поставил ограничение на 100мбит, включил загрузку и замер делал через пингплоттер. На микрот потерь нет, после него есть и довольно сильные на промежуточных узлах, а вот на конечный хост уже нет. С 5950х не срослось, он нормально не захотел работать в мамке где стоял 5900, возможно что то с ним или он просто не хочет с микротом работать, в винде с ним проблем под нагрузкой нет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
morf Опубликовано 15 июня, 2023 (изменено) · Жалоба fq_codel при нагрузке очень равномерно распределяет нагрузку по выделенной полосе с ограничем скорости. Если при PCQ/pfifo при наргрузке пинг возрастал и мог теряться, то с использованием fq_codel он стабильный. То, что до конечного хоста потерь нет, а на промежуточных хопах есть потери, возможно, говорит о том, что input-трафик для этих марщрутизаторов дропается из-за того, что обрабатывается CPU, а forward-трафик проходит без проблем. Изменено 15 июня, 2023 пользователем morf Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Timax Опубликовано 16 июня, 2023 · Жалоба Здравствуйте! Посоветуйте на чём сейчас можно собрать x86. Надо 11гига трафика, BGP, NAT, OSPF, bonding. Есть две карточки x520-da2. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Qlobus Опубликовано 16 июня, 2023 · Жалоба А вид для 11гиг вам надо 40гиг карта, ну примерно XL710 к примеру. Мне самому тоже интересно такое конфигурация под микротик... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
morf Опубликовано 16 июня, 2023 · Жалоба 10g в LACP. На кой 40G? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...