Jump to content
Калькуляторы

tnega

Пользователи
  • Content Count

    52
  • Joined

  • Last visited

Everything posted by tnega


  1. Всем привет. Буду краток. Имеем одного аплинка, работаем по схеме аутсорминга,сорм на стороне вышестоящего. Статический ип на каждого своего абонента. Ип адреса берем так же у вышестоящего. Никакого BGP, просто пробрасывают ип адреса статической маршрутизацией на наш канал в Интернет. Берем у них ип адреса подсетями /24. Берем гигабит, но уже и его стало мало. 10G дать нам не могут. (обещали, но не смогли). Очень обидно, так как мы со своей стороны уже подготовились в переходу, на сервере доступа стоит двухпортовая X520-DA2 и в ядро поставили SNR s2990g-24fx. Сервер с Debianом Работает ipset, accel-ppp, работает proxy-arp Часть клиентов авторизируются по PPPoE, другая работает по статике. Вышестоящий предложил дать еще один канал и сделать в них симметричную скорость, но к сожалению опыта большого у меня нет, и не знаю как по человечески все это заставить работать с двумя каналами. Прошу сильно не ругаться и не смеяться :-) набираюсь опыта по мере появления каких либо проблем. Прошу помощи и совета!
  2. по замене оборудования проблем нет, оператор готов приобрести его сам, ответили, что нужно сеть перелапачивать из за такой модернизации. оператор крупный, не такой гибкий как хотелось бы. На том узле, от которого мы питаемся - черт ногу сломит. Бардак.   вижу у всех мнения расходятся, я как раз думал и о том, и о том :-) конечно удобней железный вариант, скрипты городить не хотелось бы :-)   можно и сразу от аплинка в сервер. Буду откровенен, смотря на разделение мнений, сам теперь не знаю к чему совету прислушаться :-)   Я забыл так же указать товарищи, что на сервере так же имеется I350-T4 с медными гигабитными портами.
  3. сегодня пришел к тому, что проще будет наверное использовать агрегацию не на сервере доступа, а на коммутаторе. то есть: два канала до коммутатора ядра, из этих двух переводим в 10G до сервера, а с сервера по другому порту возвращаем обратно на коммутатор так же в 10G. что скажете? в ядре стоит у нас snr s2990g-24fx
  4. вот о том, о чем Вы написали я и думал. Каким образом нам отдают эти адреса, допустим, у нас 4 пула /24. 42.172.10.0 42.172.11.0 42.172.12.0 42.172.13.0 в каждой подсети 254 адрес - адрес шлюза вышестоящего. мы поднимаем в каждом пуле соответственно для себя 253 раньше читал про бондинг, сейчас еще раз повторил, может быть проще правда будет обратиться к этому? но тут с ним другая проблема, мы естественно сразу два гигабита брать не будет, а возьмем для начала 1200. и вот в этом месте я вхожу в ступор! что делать?
  5. всем привет. нужен совет. правильно ли мы делаем или нет. используем схему vlan на коммутатор, коммутатор - это какой-то дом или объект. включаем сегментацию на аплинк порт. правильно ли мы делаем оставляя управление в первом vlane на всех коммутаторах ? в первом vlan нет абонентов, только наши железки. как лучше будет? дайте совет пожалуйста.
  6. подскажите пожалуйста оптимальное значение Storm Control, у нас почти везде коммутаторы D-Link. в сети работает и PPPoE сервер и DHCP. storm control везде с одним параметром использовать? только на коммутаторах доступа или везде? если можно поподробнее пожалуйста.
  7. в общем, как лучше сделать все же, создать отдельный vlan и перенести туда управление с каждого коммутатора? или все же на каждый коммутатор выделить под управление собственный/отдельный vlan для управления?
  8. как стоит сделать? почему не стоит? интересно ваше мнение.
  9. привет всем. наблюдаю проблему со скоростью до абонентского устройства LHG5. Скорость режется раза в два. Делаю тест скорости с устройства "Мост LHG5 (1)" до Клиентского LHG5 стандартным тестом на микротике, UDP пакетами. Вижу падение скорости в два раза, то есть в 50 мегабит. При этом когда делаю тест до базовых станций mANTBox 15s и SXT SA5 - я вижу 100 мегабит. Когда делаю тест с моста на мост - вижу свыше 100 мегабит (мосты работают в полосе 40 мгц) Когда делаю тест от Базы к Клиенту - вижу 100 мегабит (полоса 20 мгц) Подскажите что нибудь. Почему теряются эти 50 мегабит. Схему прикрепляю.
  10. какое MTU у нас должно быть? стоит по умолчанию все, 1500
  11. Вы очень невнимательны. Есть схема. 5 ГГц.
  12. имеете виду timeout ? пингуем с первого моста до базы и одной и другой, посылаем 300 пакетов с тайаутом 100 мс. все ок, потерь нет. посылаем до клиента - видим потери. из 300 пакетов добрались только 282. 4% потерь. но если пингуем клиента из базы - все ок, потерь нет. спасибо за наводку конечно! но видимо какое-то есть узкое место где-то...
  13. частоты далеко друг от друга, 400 мгц разница. Про тест имеете ввиду первый LHG который идет от центра к какой нибудь из базовых? - если да, то пробовали - 100 мегабит к базе приходит без проблем, а вот уже после базы в два раза падает. В этом весь прикол, и в чем дело непонятно. Если бы к базе не приходило бы нужное количество - само собой разумеющееся меняли бы коммутатор который на базах. а тут до баз приходит, а после баз уже нет, но при этом если тестировать напрямую с базы до абонента -к нему прилетает 100 мегабит в полосе 20 мгц, в полосе 40 - чуть больше 150, эфир не такой шумный. нормальный. ради интереса попробуем поменять на что-то управляемое. все настроено в режиме bridge, клиентский LHG в режиме роутера.
  14. Приветствую всех. Имеем такую схему: ... Mikrotik SXT 6 -> Mikrotik SXT 6 -> DGS-1100-08 -> Mikrotik Omnitik SXT 6 имеют гигабитные порты, данный радиомост без проблем передаёт нам 150 мегабит Омнитик имеет 100 мегабитный порт Разумеется в коммутаторе порт приемного моста работает на гигабите а омнитик на 100 мегабитах Проблема следующая - при Бандвич тесте встроенном в микротик и вообще, мы не можем передать на Омнитик больше 50 мегабит, как буд-то порт работает в пол силы, но когда мы переводим принудительно порт приемного моста с гигабита в 100 мегабит - мы без проблем до омнитика прогоняем 100 мегабит. По статусу у всех портов Фулдуплекс, но проблему это видим конкретно на этой железке, это нас расстраивает, так как она очень компактная и в ней есть всё что нам нужно. В итоге, чтобы у нас была полноценная магистраль в 150 мегабит нам нужно поставить какой нибудь 3028 или любой коммутатор где есть на борту и гигабитные и 100 мегабитные порты, в этом случае проблем со скоростью мы не видим. Кто что подскажет? Очень расстраивает такая не стыковка устройств.
  15. да, глюков со скоростью не наблюдаем. оказывается сколько проблем разных бывает с оборудованием.
  16. Включив все же принудительно flow control на ethernet порту приемного моста микротика - проблема решилась.
  17. Спасибо! включение flow control помогло, по факту выше 150 мегабит через него пролетать не будет, так как магистраль идет с радиомоста. Посмотрим как будет себя вести. UPD: спустя несколько минут начал проверять снова тестами, то нормально показывает, то снова 50 мегабит, но чувствуется большой приоритет по исходящей скорости от конечного устройства. расстроился)
  18. всех приветствую. намечается работа с администрацией, взаимовыгодная, безвозмездная. администрация передает нам в пользования волокна в своем кабеле, мы же в свою очередь помогаем ей в организации vlan по безопасному городу. может у кого нибудь есть примеры каких нибудь похожих соглашений о безвозмездной передачи ресурсов или о безвозмездном обмене ресурсами? чтобы по данному документу мы что-то разумеется поправили и сделали своё соглашение. благодарю заранее
  19. Сами предложили, сказали для них это лучший вариант. На самом деле действительно взаимовыгода. Кабель проходит через весь город, волокнами из этого кабеля мы можем объединить другие части города, в свою очередь нам ничего не стоит помочь им с безопасным городом с vlan до камер. сейчас мы берем волокна у других операторов, чтобы с этими другими частями состыковаться, а так будет резерв.
  20. Приветствую всех. Имеем сервер доступа Supermicro SYS-6016-NTF E5645 - 2 шт. две планки DDR3 по 8 гб (16 гб) На борту сетевушка X520-DA2 - 2 оптических порта 10G Стоит Debian8, 64 битная, 3.16 ядро. Потребление памяти держится в районе 900 мегабайт. С вышестоящим работаем по схеме Аутсорминга, используем канал + ип адреса вышестоящего. (работает статическая маршрутизация), никаких BGP и тому подобных вещей. То есть оператор нам прописал несколько подсетей, например: 47.171.52.0/24 , где ip 47.171.52.254 - шлюз вышестоящего, мы в свою очередь поднимаем 253 айпишник и прописываем шлюз по умолчанию 254. НА коммутаторе аплинка стоит медный модуль, от него идет патчкорд в наш медиаконвертер SNR с модулем 1 gb так же от SNR на 20 км. Расстояние до аплинка ровно километр. На другой стороне модуль такой же вставлен в нашу сетевушку. Собственно конфиг: eth0 - аплинк (берем 900 мегабит) eth1 - внутренняя сеть Разрешающие правила на ИПсете, ограничение скорости - ipt-ratelimit Авторизация абонентов происходит следующим образом: 1. Выдаем ип адреса по PPPoE - используя accel-ppp + включаем proxy arp на аплинк интерфейсе. 2. Используя правила маршрутизация выдаем прямо на интерфейс абоненту нужный ип адрес так же используя proxy arp (Само собой разумеется сеть поделена на vlan) Обычно - один коммутатор доступа этой свой vlan. perf top: Прерывания: Сетевые: sysctl: При старте делаем: Собственно проблема: В часы пик загрузка ЦП судя по htop не поднимается выше 15-20 % При это потребление в районе 500-600 мегабит трафика Еще раз напомню, что от вышестоящего получаем 900 мегабит. В эти моменты я ощущаю как буд-то какую-=то преграду по входящему трафику, если днем на спидтесте том же я вижу 150-200 мегабит, на торрентах естественно больше и до 300 мегабит поднимаюсь, то в часы пик скорость на тех же торрентах в два раза падает и в спидтесте тоже, держится в районе 100 мегабит. Смотрю по snmp скорость на аплинк порту, не видел чтобы она подходила до 700 мегабит, в основном держится в пределах 550-650 мегабит. и не поднимается выше. По исходящему трафику - проблем нет, в том же спдитесте до узлов вышестоящего и других близких операторов скорость может подняться и до 500 мегабит. В чем может быть дело? Сеть небольшая, 700 абонентов. Неужели мощи не хватает? Может быть мы со своей стороны что-то недоглядели? Грешу на ядровой коммутатор, его и ядровым не назовешь конечно. Сразу за сервером стоит DGS-3100-24TG, от него уже идут ответвления на 3526, 1100-06/ME, 1100-08 и еще парочка DGS-3100-24TG в других районах и от них такие же ответвления. Или на медиаконвертер который на аплинке? где-то слышал и не раз, что невозможно по меди поднять чистый гигабит, но слухи были относительно длинных кабелей медных, а там грубо говоря пол метра патч корд. До этого стоял аналогично настроенный сервер: e5440 2 шт. 4 гб ddr2 и сетевушка i350-t2 + медиаконвертер такой же как и на аплинке с модулем. (порты то медные) Нагрузка на цп в часы пик была 30-40 % в htop Новый сервер как мы видим сильно не напрягается. Посоветуйте пожалуйста что нибудь друзья товарищи. Может где-то что-то подтюнить надо или сами где-то что-то не так настроили.
  21. Всем привет. Все же как я понимаю проблема была в аплинке. Поставили промежуточный коммутатор между аплинком и сервером доступа, загрузка была в этот момент на аплинк 600 мегабит. Подключили к промежуточному коммутатору напрямую клиентскую машину минуя сервер доступа и увидели такое же поведение. Полагаю тему можно закрывать. Всем спасибо.
  22. Завтра попробуем не напрямую в сервер аплинк подключить ,а через коммутатор, и к коммутатору подключить стороннюю клиентскую машину, тут я думаю уже видно будет, кто все-таки скорость режет :-)
  23. Друзья товарищи, давайте забудем про критику друг друга? все с чего-то начинали, и наверное не каждый уже родился со знаниями в голове. У каждого своё видение и своя специфика работы. Вернусь к теме: Поставили в ядро 3627G, результата никакого не принесло. Повторюсь: В вечернее время при трафике 500-600 мегабит - скорость на клиентских машинах не поднимается больше 100 мегабит. в торренте - 10-12 мегабайт. спидтест показывает 70-80. С исходящей скоростью ситуация лучше: тот же спидтест выжимает 300 мегабит. Когда нет нагрузки на канал (ночью например) на торрентах видим большую скорость и на спидтесте естественно. Типы подключения разные (PPPoE, snat, ип на прямую + proxyarp), результат один и тот же. Может все же что-то надо в сервере подтюнить? или все же вышестоящий где-то темнит. Писали ему по поводу этого, сказали что никаких ограничений нет.