Jump to content
Калькуляторы

tnega

Пользователи
  • Content Count

    53
  • Joined

  • Last visited

Posts posted by tnega


  1. приветствую всех. не подскажите, как данный проект нам подзаточить под аутсорминг?

     

    например: есть абонент с серым адресом, на которого мы делаем snat с одного белого ip. мы так делаем потому что так нам удобнее.

     

    хотелось бы потестировать данное решение и посмотреть на производительность.

  2. 13 минут назад, Saab95 сказал:

    Лучше решения когда все передается по 10Г порту нет.

    Сами ранее с провайдерами мирились, если он по 10Г не мог подключить, но там и провайдеры все же были гибче в плане настроек - все маршрутизировали или по BGP связь была.

    А когда начали появляться варианты подключения к другим уже по 10Г, сразу у старых тоже появилась техническая возможность сделать стык на 10Г портах. Главное сказать что через месяц от них отключаемся.

    я думал об этом.

  3. 10 часов назад, Saab95 сказал:

    Можно и так сделать, только после проблемы выискивать. Современные операторы так не делают. Обычно все агрегации на уровне L3 производят.

    Наверное лучше все же уточнить почему оператор не может дать вам стык на 10Г, может ему надо какое-то оборудование менять - так предложите ему возместить часть стоимости, так будет дешевле, чем еще себе потом оборудование покупать для стыковки.

    по замене оборудования проблем нет, оператор готов приобрести его сам, ответили, что нужно сеть перелапачивать из за такой модернизации.

    оператор крупный, не такой гибкий как хотелось бы. На том узле, от которого мы питаемся - черт ногу сломит. Бардак.

     

    6 часов назад, NiTr0 сказал:

    дадада, из говна и веток в виде костылей с балансировкой половинками подсетей и скриптами, перекидывающими маршруты при отвале одного из линков)))

     

    вижу у всех мнения расходятся, я как раз думал и о том, и о том :-)

    конечно удобней железный вариант, скрипты городить не хотелось бы :-)

     

    7 часов назад, rm_ сказал:

    Вот над этим советую хорошо подумать, или хотя бы хоть сколько-то подумать, если у вас от коммутатора "10G до сервера", то зачем с сервера "обратно" по ДРУГОМУ порту-то.

     

    Можно и на коммутаторе, но это выглядит как "я не умею в линуксе настроить бондинг, лучше натыкаю его же мышкой в веб-интерфейсе коммутатора".

    можно и сразу от аплинка в сервер.

     

    Буду откровенен, смотря на разделение мнений, сам теперь не знаю к чему совету прислушаться :-)

     

     

    Я забыл так же указать товарищи, что на сервере так же имеется I350-T4 с медными гигабитными портами.

  4. сегодня пришел к тому, что проще будет наверное использовать агрегацию не на сервере доступа, а на коммутаторе.

     

    то есть: два канала до коммутатора ядра, из этих двух переводим в 10G до сервера, а с сервера по другому порту возвращаем обратно на коммутатор так же в 10G.

     

    что скажете?

     

    в ядре стоит у нас snr s2990g-24fx

  5. 18 минут назад, Saab95 сказал:

    Видимо оператор даст вам еще один канал на 1г., даст еще один адрес для связи в этом новом канале. После пропишет статическую маршрутизацию уже на 2 адреса, и первый пакет пойдет через первый канал, второй пакет пойдет через второй, третий через первый, четвертый через второй и так далее. Вы со своей стороны так же пропишите второй маршрут на 0.0.0.0/0 в сторону нового шлюза провайдера и всего делов.

     

    Не надо тратить время на прочтения всяких глупостей в интернете. По сути у вас будет как бы канал в 2Г общей скорости. Нужно обратить внимание на то, что будет, если один канал потухнет - тогда и интернет полностью перестанет работать - нужно сделать перекрестную проверку пингом обоих каналов. Что бы при отключении одного ваше оборудование, и оборудование оператора исключала этот канал из работы.

    вот о том, о чем Вы написали я и думал.

     

    Каким образом нам отдают эти адреса,

    допустим, у нас 4 пула /24.

    42.172.10.0

    42.172.11.0

    42.172.12.0

    42.172.13.0

     

    в каждой подсети 254 адрес - адрес шлюза вышестоящего.

    мы поднимаем в каждом пуле соответственно для себя 253

     

    раньше читал про бондинг, сейчас еще раз повторил, может быть проще правда будет обратиться к этому?
     

    но тут с ним другая проблема, мы естественно сразу два гигабита брать не будет, а возьмем для начала 1200. и вот в этом месте я вхожу в ступор! что делать?

  6. Всем привет.

     

    Буду краток.

     

    Имеем одного аплинка, работаем по схеме аутсорминга,сорм на стороне вышестоящего.

     

    Статический ип на каждого своего абонента.

    Ип адреса берем так же у вышестоящего.

     

    Никакого BGP, просто пробрасывают ип адреса статической маршрутизацией на наш канал в Интернет. Берем у них ип адреса подсетями /24.

     

    Берем гигабит, но уже и его стало мало. 10G дать нам не могут. (обещали, но не смогли). Очень обидно, так как мы со своей стороны уже подготовились в переходу, на сервере доступа стоит двухпортовая X520-DA2 и в ядро поставили SNR s2990g-24fx.

     

    Сервер с Debianом

     

    Работает ipset, accel-ppp, работает proxy-arp

    Часть клиентов авторизируются по PPPoE, другая работает по статике.

     

    Вышестоящий предложил дать еще один канал и сделать в них симметричную скорость, но к сожалению опыта большого у меня нет, и не знаю как по человечески все это заставить работать с двумя каналами.

     

    Прошу сильно не ругаться и не смеяться :-) набираюсь опыта по мере появления каких либо проблем.

     

    Прошу помощи и совета!

  7. 1 час назад, dvb2000 сказал:

    А Traffic Storm Control уже совсем запрещается использовать ? Или он больше не практикуется и считается старомодным?

     

    подскажите пожалуйста оптимальное значение Storm Control, у нас почти везде коммутаторы D-Link.

    в сети работает и PPPoE сервер и DHCP.

    storm control везде с одним параметром использовать? только на коммутаторах доступа или везде?

    если можно поподробнее пожалуйста.

  8. в общем, как лучше сделать все же, создать отдельный vlan и перенести туда управление с каждого коммутатора? или все же на каждый коммутатор выделить под управление собственный/отдельный vlan для управления?

  9. всем привет.

     

    нужен совет.

     

    правильно ли мы делаем или нет.

     

    используем схему vlan на коммутатор, коммутатор - это какой-то дом или объект. включаем сегментацию на аплинк порт.

     

    правильно ли мы делаем оставляя управление в первом vlane на всех коммутаторах ?

    в первом vlan нет абонентов, только наши железки.

     

    как лучше будет? дайте совет пожалуйста.

     

  10. 2 часа назад, Saab95 сказал:

    Кроме теста есть смысл запустить и пинг на удаленную точку с интервалом в 100мс, посмотреть сильно ли увеличивается задержка, может появляются потери вот скорость и не проходит.

    имеете виду timeout ?

     

    пингуем с первого моста до базы и одной и другой, посылаем 300 пакетов с тайаутом 100 мс.

    все ок, потерь нет.

     

    посылаем до клиента - видим потери. из 300 пакетов добрались только 282. 4% потерь.

     

    но если пингуем клиента из базы - все ок, потерь нет.

     

    спасибо за наводку конечно! но видимо какое-то есть узкое место где-то...

     

  11. 3 часа назад, Saab95 сказал:

    У вас по частотам оборудование друг другу не мешает?

    Не пробовали делать тест с первой станции моста на адрес БС?

    частоты далеко друг от друга, 400 мгц разница.

     

    Про тест имеете ввиду первый LHG который идет от центра к какой нибудь из базовых? - если да, то пробовали - 100 мегабит к базе приходит без проблем, а вот уже после базы в два раза падает. В этом весь прикол, и в чем дело непонятно. Если бы к базе не приходило бы нужное количество - само собой разумеющееся меняли бы коммутатор который на базах. а тут до баз приходит, а после баз уже нет, но при этом если тестировать напрямую с базы до абонента -к нему прилетает 100 мегабит в полосе 20 мгц, в полосе 40 - чуть больше 150, эфир не такой шумный. нормальный.

     

    3 часа назад, npokypop сказал:

    Была похожая схема и ситуация, только у нас вместо DES-1005a стояла другая мыльница, выбросили ее и поставили hex poe, все стало как надо. 

    mANTBox 15s как настроен ? Просто bridge или routing ?

    ради интереса попробуем поменять на что-то управляемое.

    все настроено в режиме bridge, клиентский LHG в режиме роутера.

  12. привет всем.

     

    наблюдаю проблему со скоростью до абонентского устройства LHG5. Скорость режется раза в два.

     

    Делаю тест скорости с устройства "Мост LHG5 (1)" до Клиентского LHG5 стандартным тестом на микротике, UDP пакетами. Вижу падение скорости в два раза, то есть в 50 мегабит.

    При этом когда делаю тест до базовых станций mANTBox 15s и SXT SA5 - я вижу 100 мегабит.

    Когда делаю тест с моста на мост - вижу свыше 100 мегабит (мосты работают в полосе 40 мгц)

    Когда делаю тест от Базы к Клиенту - вижу 100 мегабит (полоса 20 мгц)

     

    Подскажите что нибудь. Почему теряются эти 50 мегабит.

     

    Схему прикрепляю.

    NONAME5.jpg

  13. 8 часов назад, jffulcrum сказал:

    Если скорость на выходе и на выходе различается - коммутатору нужно буферизировать. Буферизировать у DGS-1100-08  просто нечем - буфер пакетов там 256 кб. Вообще, посмотрите в 

     там полным ходом обсуждение причин и решений. Технически может помочь включение flow-control на всех устройствах и на портах коммутатора - тогда коммутатор будет источнику отправлять сигнал пауза, если приемник уже не может принять или переполнен буфер самого коммутатора. Проблема в том, что этим заниматься будет CPU, а у данной балалайки он тоже символический - неизвестно, что будет хуже работать.

     

    Спасибо! включение flow control помогло, по факту выше 150 мегабит через него пролетать не будет, так как магистраль идет с радиомоста. Посмотрим как будет себя вести.

     

    UPD: спустя несколько минут начал проверять снова тестами, то нормально показывает, то снова 50 мегабит, но чувствуется большой приоритет по исходящей скорости от конечного устройства.

     

    расстроился) 

  14. Приветствую всех.

    Имеем такую схему:
    ... Mikrotik SXT 6 -> Mikrotik SXT 6 -> DGS-1100-08 -> Mikrotik Omnitik

    SXT 6 имеют гигабитные порты, данный радиомост без проблем передаёт нам 150 мегабит
    Омнитик имеет 100 мегабитный порт

    Разумеется в коммутаторе порт приемного моста работает на гигабите а омнитик на 100 мегабитах

    Проблема следующая - при Бандвич тесте встроенном в микротик и вообще, мы не можем передать на Омнитик больше 50 мегабит, как буд-то порт работает в пол силы, но когда мы переводим принудительно порт приемного моста с гигабита в 100 мегабит - мы без проблем до омнитика прогоняем 100 мегабит.

    По статусу у всех портов Фулдуплекс, но проблему это видим конкретно на этой железке, это нас расстраивает, так как она очень компактная и в ней есть всё что нам нужно.

    В итоге, чтобы у нас была полноценная магистраль в 150 мегабит нам нужно поставить какой нибудь 3028 или любой коммутатор где есть на борту и гигабитные и 100 мегабитные порты, в этом случае проблем со скоростью мы не видим.

    Кто что подскажет?

    Очень расстраивает такая не стыковка устройств.

  15. 45 минут назад, alibek сказал:

    Безвозмездный договор в муниципалитете? Зачем им подобный геморрой?

     

    Сами предложили, сказали для них это лучший вариант.

     

    На самом деле действительно взаимовыгода.

     

    Кабель проходит через весь город, волокнами из этого кабеля мы можем объединить другие части города, в свою очередь нам ничего не стоит помочь им с безопасным городом с vlan до камер.

     

    сейчас мы берем волокна у других операторов, чтобы с этими другими частями состыковаться, а так будет резерв.

  16. всех приветствую.

     

    намечается работа с администрацией, взаимовыгодная, безвозмездная.

     

    администрация передает нам в пользования волокна в своем кабеле, мы же в свою очередь помогаем ей в организации vlan по безопасному городу.

     

    может у кого нибудь есть примеры каких нибудь похожих соглашений о безвозмездной передачи ресурсов или о безвозмездном обмене ресурсами? чтобы по данному документу мы что-то разумеется поправили и сделали своё соглашение.

     

    благодарю заранее

  17. Всем привет.

    Все же как я понимаю проблема была в аплинке.

     

    Поставили промежуточный коммутатор между аплинком и сервером доступа, загрузка была в этот момент на аплинк 600 мегабит.

    Подключили к промежуточному коммутатору напрямую клиентскую машину минуя сервер доступа и увидели такое же поведение.

     

    Полагаю тему можно закрывать.

    Всем спасибо.

  18. Завтра попробуем не напрямую в сервер аплинк подключить ,а через коммутатор, и к коммутатору подключить стороннюю клиентскую машину, тут я думаю уже видно будет, кто все-таки скорость режет :-)

  19. Друзья товарищи, давайте забудем про критику друг друга? все с чего-то начинали, и наверное не каждый уже родился со знаниями в голове.

     

    У каждого своё видение и своя специфика работы.

     

    Вернусь к теме:

    Поставили в ядро 3627G, результата никакого не принесло.

     

    Повторюсь:

    В вечернее время при трафике 500-600 мегабит - скорость на клиентских машинах не поднимается больше 100 мегабит. в торренте - 10-12 мегабайт. спидтест показывает 70-80.

    С исходящей скоростью ситуация лучше: тот же спидтест выжимает 300 мегабит.

     

    Когда нет нагрузки на канал (ночью например) на торрентах видим большую скорость и на спидтесте естественно.

     

    Типы подключения разные (PPPoE, snat, ип на прямую + proxyarp), результат один и тот же.

     

    Может все же что-то надо в сервере подтюнить? или все же вышестоящий где-то темнит. Писали ему по поводу этого, сказали что никаких ограничений нет.

  20. 1 минуту назад, LostSoul сказал:

    Понятно.

    Запустите себе IP Mac Binding на DES-3526 и забудьте про pppoe как про кошмарный сон.

    ( для DGS-1100-08 и DIR-100F делайте привязку на последнем управляемом порту )

     

    Абонентам давать статику?