Перейти к содержимому
Калькуляторы

Megas

Активный участник
  • Публикации

    785
  • Зарегистрирован

  • Посещение

Все публикации пользователя Megas


  1. вы хотите вашему провайдеру залить все маки с ваших соседей? Вы явно городите что-то не то.
  2. хм, это очень легко, достаточно просто подойди к компьютеру, сесть за него, открыть nag, открыть создание новой темы, зажать капслок и написать: как сделать бесперебойное питание?
  3. работаю как на пограничниках так и на схд, кушают все что подают, одна проблема, по умолчанию открыты 4ре 10ки, лицуха докупается еще на 4ре 10ки, софт обновляется периодически, остальное проблем не замеченно. Агрегациями связанно с экстримами по 10 и джунами по 10, hp по гигам. Во время ddos ведут себя адекватно, живые и отвечают, hp мрут сразу, видно мозги умирают, jun 2200, 3200, 3300 все живут. Как уже сказал, ждем QFX3600 на 48мь 10ок, будет тоже стояит в паре с брокадом на ядре.
  4. Шутите? Dlink... ну ну. а потом как прострелит, максимум клиентов на домах в длинк, а ядро должно быть ядром. L8SaE-RexHn1 brocade 6610 смотрели? у нас 3 шт работает и кушать не просит, 8мь sfp+ 24 или 48 меди, большой функционал.
  5. Ну как зачем? а как без ивращенства, ну нельзя же взять все и ровно построить, обязательно надо где-то что-то начудить.
  6. Медь имеет задержки выше чем оптика, специфика реализацией, не парьтесь и ставитьте sfp+ и юзайте twinax, мы себе заказали juniper на 48мь 10ок чтобы не парится, все оптика и никаких проблем в агрегации.
  7. Сетевой администратор Киев

    Огласите порядок зп, я так понимаю зп на уровне 1,5-2к$ ?
  8. И так, маленький комент по тебе: все у меня работало сходу, вся проблема снова в кривых драйверах virtio, так как тестирование было в виртуальной инфраструктуре.
  9. Народ, тыкните пальцем плиз, через сколько роском выносит из списоков где добавление было по решению суда. У нас жалобы не поступили, а клиент свалил в другой хостинг, а ипы заблочены.
  10. vlad11 , вы используете виртуального клиента с соединенем через бридж и виртуальный роутер на фре поверх квм на одной машине? если вы используете просто тупую виртуалку то там проблем нету.
  11. непонятно чот надо докрутить на хост машине, если как только меняешь вариант сетевого драйвера то все гуд. к стати в рассылке freebsd о таких проблемах куча топиков.
  12. В общем в конечном итоге: как только на сетевых ставишь e1000, все работает, проблема в virtio сетевых.
  13. Жить становится круче, жить становится веселей, при debian в качестве виртуального роутера, все работает на ура. Получается проблема во фряхе.
  14. Имеется довольно сложно запутанная архитектура одного небольшого сервера, выглядит так: debian, ночью подняли с 7.9 до последней jessi Linux windows 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u6 (2015-11-09) x86_64 GNU/Linux к нему от коммутатора подключенно 2 линка и обьеденены в bond0 root@windows:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer3+4 (1) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 200 Down Delay (ms): 200 802.3ad info LACP rate: fast Min links: 0 Aggregator selection policy (ad_select): stable Active Aggregator Info: Aggregator ID: 1 Number of ports: 2 Actor Key: 17 Partner Key: 51 Partner Mac Address: 84:34:97:d8:80:80 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 3 Permanent HW addr: 00:15:17:dd:66:27 Aggregator ID: 1 Slave queue ID: 0 Slave Interface: eth2 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:15:17:dd:66:26 Aggregator ID: 1 Slave queue ID: 0 root@windows:~# Поверх этого bond передаются вланы, auto eth1 iface eth1 inet manual bond-master bond0 auto eth2 iface eth2 inet manual bond-master bond0 auto bond0 iface bond0 inet manual bond-mode 802.3ad bond-miimon 100 bond-downdelay 200 bond-updelay 200 bond-lacp-rate 1 bond-slaves none auto vmbr10 iface vmbr10 inet static bridge_ports bond0.10 bridge_stp off bridge_fb 0 address 10.10.10.1 netmask 255.255.255.0 gateway 10.10.10.254 dns-nameservers 8.8.8.8 dns-search local.loc up ip route add default via 10.10.10.254 table vlan10 up ip rule add from 10.10.10.254 table vlan10 pref 110 down ip rule del pref 110 интерфейс vmbr10 имеет внешний ip адрес который подключен к миру, мир с виртуального роутера пингается и все без проблем. следующий этап, поднимаем тестовую виртуальную машину, подключаем её к интерфейсу vmbr141 к виртуальному роутеру, вещаем внутрение адреса и т.д., пингаем мир, все с виртуальной машины работает вроде как. Переходим к тестам: Пинг с виртуальной машины в мир нормально Трасировка мира с виртуальной машины: умирает после роутера Телнет на ресурсы в мире: умирает Начинаем диагностировать: tcpdump -nei bond0 host 178.2.1.2 and icmp (здесь надо обратить внимание, что трафик снимается с bond0, а не с vmbr и прочего) 12:28:30.555430 52:54:00:0d:38:24 > 88:62:7b:fd:be:90, ethertype 802.1Q (0x8100), length 102: vlan 10, p 0, ethertype IPv4, 178.2.1.2 > 176.3.3.10: ICMP echo request, id 2698, seq 1, length 64 12:28:30.556178 88:62:7b:fd:be:90 > 52:54:00:0d:38:24, ethertype 802.1Q (0x8100), length 102: vlan 10, p 0, ethertype IPv4, 176.3.3.10 > 178.2.1.2: ICMP echo reply, id 2698, seq 1, length 64 telnet: tcpdump пусто. Вешаем tcpdump на бридж: tcpdump -nei vmbr10 host 178.2.1.2 and port 80 12:57:15.153301 52:54:00:0d:38:24 > 88:62:7b:fd:be:90, ethertype IPv4 (0x0800), length 74: 178.2.1.2.35213 > 176.3.3.10.80: Flags , seq 2556358102, win 14600, options [mss 1460,sackOK,TS val 9956629 ecr 0,nop,wscale 4], length 0 Таким образом получается по сути, трафик не уходит дальше vmbr10, попытка поснифать трафик на bond0.10 дает пустой результат, хотя: vmbr10 8000.001517dd6627 no bond0.10 vnet1 интерфейсы в бриджах, все с виду нормально, думал может трафик уходит куда-то в другой интерфейс, а нету его там, все заканчивается на самом бридже. Может у кого-то будут идеи что может быть в такой схеме?
  15. настройки с пиром покажите, в обычном режиме нету у джуна такого чтобы рвать ссесию.
  16. Вот сейчас могу нубом показаться, но почему все цепляются за bgp? это последние о чем я думаю, возьмите дос на гейт который прописан у клиентов в подсети, возможности менять гейт на всех серверах клиентов просто нету.
  17. В общем по теории понятно, по практике для себя сделаю пару тестов, суть задачи замочить не пиринг с апстримом, а гейт в клиентской сети, как раз для тестов есть пара свободных сетей и жирная труба с генерацией трафика, попробую. Но другое смущает, по сути получается что закрыться особо не получится.
  18. Не много пытаюсь для себя разобраться в таком вопросе, а если прилетит маленький ДОС на роутер, что делать? Ну от 1Г до 40Г летит пару раз в месяц, живем, справляемся, blackhole помогает, если все таки будет 40Г на роутер, как с таким тогда жить? Отправлять один из IP машрутизатора в блэк как-то не совсем хорошо, у кого есть какие варианты борьбы с такой вот проблемой?
  19. В роли второго роутера стоит обычный linux, хм, прийдется пересмотреть всю архитектуру, может действительно стоит построить постоянный программный второй роутер для сети и избавится от части проблем.
  20. Может схему не написал, принцип такой, клиент отправляет пакет на первый роутер, первый видит правило, закидывает в новую таблицу и ставит next-hoop второной роутер, дальше пакет на втором роутере проходит фаер и возвращается на default route, default у второго прописан снова первый роутер, потом пакет уходит в мир через первый роутер. Сам filter прицеплен на порту клиента на input, вот думаю может надо фильтр цеплять еще на входящие аплинки, может там пакет когда возвращается не понимает что ему делать, что sync отправляется, а дальше глухо
  21. Помогите понять, чего не хватает системе для policy base forwarding. Добавил show routing-instances sp1-route-table { instance-type forwarding; routing-options { static { route 0.0.0.0/0 next-hop 185.*.*.1; } } } firewall term sp1-customers { from { source-address { 178.*.*.1/32; } } then { count sp1-customers; syslog; routing-instance sp1-route-table; } } term default { then accept; } создал show routing-options interface-routes { rib-group inet fbf-group; } Дальше между Linux и MX сделал отдельный линк, поднял в нем ospf, маршруты все на Router2 приехали с MX нормально, любая трасировка мира с router2 проходит без проблем. traceroute to 8.8.8.8 (8.8.8.8), 30 hops max, 60 byte packets 1 185.*.*.254 (185.*.*.254) 0.382 ms 0.325 ms 0.274 ms 2 64.233.174.173 (64.233.174.173) 35.269 ms 209.85.252.123 (209.85.252.123) 35.259 ms 64.233.174.173 (64.233.174.173) 35.190 ms 3 209.85.249.175 (209.85.249.175) 35.463 ms 216.239.40.239 (216.239.40.239) 35.465 ms 216.239.40.237 (216.239.40.237) 35.440 ms 4 216.239.46.1 (216.239.46.1) 35.334 ms 35.300 ms 72.14.233.174 (72.14.233.174) 34.968 ms 5 * * * 6 google-public-dns-a.google.com (8.8.8.8) 35.510 ms 35.618 ms 35.226 ms А вот трасировка с сервера для которого меняется next-hoop traceroute to 8.8.8.8 (8.8.8.8), 30 hops max, 60 byte packets 1 router.com.ua (178.*.*.1) 0.586 ms 0.583 ms 0.575 ms 2 185.*.7.1 (185.*.*.1) 0.559 ms 0.563 ms 0.558 ms 3 185.*.*.254 (185.*.*.254) 0.640 ms 0.629 ms 0.632 ms 4 209.85.252.123 (209.85.252.123) 35.983 ms 35.979 ms 35.964 ms 5 216.239.40.237 (216.239.40.237) 35.527 ms 35.946 ms 36.027 ms 6 216.239.46.1 (216.239.46.1) 35.898 ms 72.14.233.174 (72.14.233.174) 35.605 ms 216.239.46.9 (216.239.46.9) 35.331 ms 7 * * * 8 google-public-dns-a.google.com (8.8.8.8) 35.708 ms 35.159 ms 35.448 ms А вот из мира трасировка сервера для которого меняется next-hoop уже не работает traceroute to 178.*.*.51 (178.*.*.51), 30 hops max, 60 byte packets │ 1 176.*.*.1 (176.36.33.1) 2.442 ms 2.282 ms 2.207 ms │ 2 194.33.189.178 (194.33.189.178) 17.128 ms 17.080 ms 17.014 ms │ 3 dix.net.ua (195.35.*.*) 0.764 ms 0.770 ms 0.715 ms │ 4 * * * Не мойму чего ему не хватает, получается что трасировка работает только в одну сторону, с tcp сервисами такая же беда, соединения зависают, так понимаю что когда приходят обратные пакеты они не знают что им делать.
  22. Добрый день. В данный момент мы отложили эту затею, ждем прихода 40Г в ядро, тогда можно будет вернуться к ней.
  23. pavel, а насчет запуска нескольких экземпляров fastnetmon ? интересно для фри /etc/rc.conf fastnetmon_first_enable="YES" fastnetmon_first_config="/usr/local/etc/fastnetmon_first.conf" fastnetmon_first_pid="/var/run/fastnetmon_fist.pid" fastnetmon_first_port="3001" fastnetmon_first_interface="ix1, ix2" и т.д.
  24. Народ, а как думаете, стоит пробовать заводить разговор по такой железке? http://eltex-msk.ru/catalog/ethernet/ethernet-kommutatoryi-dlya-czod/mes5248.html Надо свич на схд, ставить что-то с ebay нет возможности, а эти вроде можно купить у нас.
  25. Откройте для себя http://www.supermicro.com/products/chassis/1U/111/SC111TQ-563C.cfm Возможно в серверах был датчик алкоголя в воздухе, и сервер откатился ровно до того момента как датчик зафиксировал пары.