Jump to content
Калькуляторы

msdt

Активный участник
  • Content Count

    152
  • Joined

  • Last visited

1 Follower

About msdt

  • Rank
    Студент
  1. vtund вроде подходит под требования
  2. Если вынести сервер в отдельную подсеть, отличную от той, где находятся клиенты, то source-nat для трафика от клиентов к серверу можно будет отключить, оставив только destination-nat. Тогда сервер будет видеть реальные ip клиентов вне зависимости, в интернете они или в локальной сети. А если они в одной подсети, и к серверу обращаются по внешнему ip, то задача нерешаема, т.к. если нет source nat, то обратный трафик от сервера к клиентам пойдет напрямую, а не через Mikrotik. Еще один, совсем плохой способ обойти проблему - прописать всем в hosts сопоставление dns ->внутренний_ip сервера.
  3. идея была в том, чтобы с помощью netwatch отслеживать падение линка на локальном интерфейсе.
  4. В последних версиях RouterOS ip-адрес на интерфейсе продолжает пинговаться, даже если линка в дауне. Интересно, это баг или официально объявленное изменение поведеения?
  5. Там смотрел, но это не даташиты и нужных цифр нет. И насколько я понимаю, пакетный буфер интегрирован в свич-чип, а не вынесен в отдельную микросхему. Разве это не так?
  6. У кого-нибудь есть информация о размере пакетного буфера в коммутаторах CRS309-1G-8S+IN, CRS317-1G-16S+RM? В описании нет, даташит на свич-чипы тоже найти не удалось. Информация интересует в связи с обдумыванием возможности использования данных свичей в бюджетной не сильно нагруженной инфраструктуре виртуализации с СХД, раздающей луны на несколько (до 4 - 5) серверов по ISCSI. Есть положительный или отрицательный опыт эксплуатации? Может быть существуют какие-нибудь бюджетные альтернативы (до 50k рублей) с более предсказуемыми, чем у Микротиков, характеристиками? И попутно второй вопрос - какие сетевые карты будет предпочтительнее взять под данную задачу в сервера? SNR-E2P10GS (на чипе Intel 85299) или SNR-E2P10GS-M (на чипе Mellanox ConnectX-3 Pro). Видел тесты, которые показывают, что с Mellanox можно добиться меньшей latency, и теоретически это должно быть хорошо для ISCSI, но как обстоят дела на практике? На серверах скорее всего будет Proxmox VE.
  7. /ip firewall filter add action=drop chain=input connection-state=invalid Нет чего-то подобного в IP / Firewall / Filter в начале списка? Замечал, что такое правило не всегда работает правильно и иногда начинает дропать валидный трафик. Проявлялось похожими проблемами с хаотичной недозагрузкой веб-страниц. Тоже подозреваю, что как-то влиял mtu - проблема наблюдалась на ppp-соединениях.
  8. У нас много лет под зеркалирование использовался Juniper EX3300 (и как транзитный, и как L3-ядро, с которого делалось зеркалирование). Сейчас перешли на Juniper EX4600 + Eltex MES5324, но топикстартеру это явно будет избыточно. MES5324 один раз спонтанно ребутнулся, а после ребута 40G интнрфейсы на нем поднялись только после перевтыкания модулей...
  9. А были когда-нибудь прецеденты, что RIPE по арбитражу статус LIRу возвращал? Или на такой сценарий лучше вообще не рассчитывать? P.S. Брали в Netup PI-адреса, получили на прошлой неделе "письмо счастья" из техподдержки RIPE. Сам Netup о проблеме не уведомил до того, как мы с ними связались.
  10. Приветствую. Есть вопросы по Mikrotik CAP AC, по которым хотелось бы услышать ответ от тех, кто реально использовал такие точки. 1. В спеке указано, что POE in у нее только активный, 802.3af/at, но при этом в комплекте идет poe-инжектор. Получается, что passive poe тоже поддерживается? И связанный вопрос - можно ли соединять такие точки цепочкой, так чтобы вторая запитывалась от первой? 2. Поддерживается ли фактически стандарты A/N на интерфейсе 5ГГц? В спеке декларируется только AC. Ну и вообще - какие впечатления от эксплуатации девайса? Есть ли какие-то существенные проблемы?
  11. Телеграмм всё?

    Сейчас под блокировкой оказался в числе прочего https://casemanager.juniper.net. И это еще пол-беды, там уже и license.junipercloud.net. Интересно, сервисы каких-то еще производителей телеком-оборудования пострадали от нынешних блокировок?
  12. Если бы только D-Link'и. На свичах Juniper (EX4200, EX2200, EX3300) все также, поэтому делать мирроринг с акцессных и транковых портов одновременно бывает проблематично. Так и победили, ребята с D-Link подтвердили, что это фича-баг именно чипа, а не прошивки :(
  13. Вот фотография разобранного Zpas. Внутри обычный китайский "пилот". Я бы не доверял такому:
  14. Помогло. Спасибо огромное, я чувствовал, что проблема связана с сетевыми картами, но до этого не дошел.Странно, сервер работал год без каких-либо проблем, прежде чем это началось.
  15. Столкнулись с интересной ситуацией. Арендуем у провайдера L2-сегмент, в который включен наш роутер (сервер с Debian Wheezy и стевухами Intel 82576 и I350 в бондинге), и компы и роутеры абонентов. В какой-то момент времени аплоад через наш роутер стал крайне затруднен (speedtest не мог определить исходящую скорость, iperf показывал сотни мегабит к абоненту и десятки килобит от него, отправка почты или запись файлов на шары отваливались с ошибкой). Явных причин для такого явления не обнаружилось. Перебрав все мыслимые варианты, заменил сервер на резервный, после чего все наладилось. На основном сервере изменил ip-адреса, включил обратно в сеть, и собрал следующую тестовую схему: После этого в процессе тестирования скорости с помощью iperf запустил tcpdump на роутере и wireshark на ноутбуке, получив следующие дампы: dumps.zip Скриншот дампа с ноута: Скриншот дампа с роутера: Из дампов видно, что там, где с ноута уходят три фрейма размером 1514 байт (фреймы 7-9), на роутер приходит один фрейм размером 4434 байта, на который роутер отвечает ICMP-пакетом "fragmentation needed". Очень интересует, что может дать такой эффект на L2-сегменте.