Перейти к содержимому
Калькуляторы

classic

Пользователи
  • Публикации

    30
  • Зарегистрирован

  • Посещение

Все публикации пользователя classic


  1. Спасибо всем за советы по теме, взял RB750GL на тестирование.
  2. Что касается природы этого l2 канала в 2 mbps: Данный транспортный l2 канал между 2 точками (город-город) построен для компании магистральным оператором связи (по сути оператор владеет собственной оптической сетью, точками присутствия во многих городах, и "прокидывает" этот P2P транспорт для нас через свое оборудование(коммутаторы/mpls роутеры) в виде отдельного vlan). Я этот канал получаю от оператора в своей центральной точке как vlan на моем управляемого коммутаторе, а на филиальной точке - мне его отдают с порта оператора в режиме access на неуправлямый свитч. Т.к. "последняя миля" с обоих сторон канала это оптика, явно позволяющая передать > 2/2 Mbps, скорее всего оператор связи обеспечивает 2/2 для vlan с помощью какого-нибудь VLAN policing на Cisco, либо куда более вероятно использует для этого грубый bandwidth-limit функционал типичных 400-баксовых l2 коммутаторов. Что касается моего оборудования, которое должно понимать, что емкость канала 2 мбита: - У меня на центральной площадке также имеется роутер с Debian, пока выполняющий задачи nat, на который я в принципе могу прогнать voip vlan c центрального коммутатора и реализовать аналог цисковских очередей CBWFQ с помощью tc+cbq, как и посоветовал s.lobanov. Тем самым вопрос на центральной точке решаем. - Однако, на 2 точку (филиал) ставить для решения этой же задачи полноценный linux роутер + коммутатор с 802.1q не позволяет бюджет. Ограничение по деньгам для филиальной точки - до 200$. Возможно существует какая-то компактная l2/l3 combo железка, которая умеет QoS с очередями LLQ/CBWFQ, понимает 802.1q vlan и комплектуется встроенным 8-16 портовым коммутатором ? Пока из советов в теме сделал вывод что напрашивается именно такая комплектация под мою задачу, если не прав - поправьте пожалуйста.
  3. Всем добрый день. Есть вопрос по приоритезации voip в корпоративной сети (задач isp нет). Есть L2 канал передачи данных емкостью 2 Мбит/сек, соединяющий центральную серверную площадку в одном городе с филиалом компании в другом городе. На одной стороне L2 коммутатор D-Link DGS-3120-24TC (802.1q, qos ...), на второй - неуправляемый noname коммутатор, в который включены обычные 10 офисных рабочих ПК (подсеть /24) Пока по этому транспортному каналу бегают только данные без голоса (для ПК филиала шлюз по умолчанию - маршрутизатор на Debian на центральной серверной площадке) RTT в канале между 2 точками около 30 мс, потерь пакетов нет. Однако, на серверной площадке есть Asterisk, по sip trunk принято несколько внешних номеров и есть задача на филиальной площадке установить ip-телефоны, дать им возможность регистрироваться на Asterisk'e и звонить через него. В качестве ip-телефонов - модели не дороже D-Link DPH-150S, Cisco 3911, адаптеры D-Link DVG-2102S. Одна беда - если просто включить ip-телефоны на филиале в коммутатор, они то регистрируется на asterisk'e, но при одновременных звонках по voip и скачивании данных с ПК - начинаются прерывания звонков и прочие деградации voip. Встал вопрос, каким образом в данной казалось бы типичной ситуации обеспечить нормальное качество voip и нормальное качество передачи данных одновременно. Пока вижу 2 варианта: 1. Настроить qos/dscp приоритезацию на маршрутизаторе центральной серверной площадки 2. Заменить на филиале коммутатор с noname на l2 с поддержкой 802.1q и пробросить по этому l2 транспорту доп. vlan для voip, загнать в этот vlan все voip аппараты филиала Что посоветует в данной ситуации?
  4. Все каналы в разных группах... 225.0.0.4 - 225.0.0.23
  5. Добрый день. В домашней сети есть Linux сервер, который вещает видео по протоколу UDP multicast'ом в сеть (~ 70 Мбит - 17 каналов). Находиться в отдельном VLAN. Домашняя сеть построена на L2 коммутаторах Linksys SPS224G4, абоненты включаются по схеме VLAN на абонента. Необходимо реализовать возможность просмотра видео абонентами, например через VLC. На коммутаторах есть MVR, соответственно у меня получилось завернуть трафик из multicast VLAN в определенный абонентский vlan. Видео отлично показывается, однако при этом к абоненту приходит все 70 Мбит, без разницы какой канал он смотрит. Это плохо. Мне нужен вариант, когда при просмотре определенного канала к абоненту придет лишь multicast определенного канала (4-5 Мбит/сек), а не всех. Если правильно понял - реализуется посредством PIM маршрутизации. Для этих целей есть в наличие Cisco 7206 NPE-G2/ Cisco ME 3400/Debian сервер/FreeBSD сервер, которые в любой момент времени могу сделать участниками multicast vlan. Прошу совета, как лучше реализовать подобное решение. P.S. Очевидно нужно решение а-ля PIM маршрутизация для выборки трафика определенной multicast группы (1 канала) + MVR для переброса трафика из multicast VLAN в абонентские.
  6. Я так понимаю ET будет igb ?
  7. Да, читал тему насчет ifconfig ipfw0, ну там быстро решение нашлось. Таки думаю взять себе Intel Gigabit ET Dual Port и PCI-E сервер.
  8. По поводу сколько и каких процессоров в системе: 2 x Intel Xeon CPU 3.8 GHz одноядерных Сделал, как и советовали, отключил поллинг, включил net.isr.direct (из тех соображений что ядер 2 шт <= сетевок 2 шт): ifconfig bge0 -polling ifconfig bge1 -polling sysctl net.isr.direct=1 "Играться грамотно" с net.isr потоками не получилось, т.к. net.isr.maxthreads и net.isr.numthreads - readonly. После этих действий получил на выходе забавную картину в top -SHP (ранее такого небыло): load averages: 0.00, 0.01, 0.10 99 processes: 4 running, 75 sleeping, 20 waiting CPU 0: 0.0% user, 0.0% nice, 0.0% system, 41.2% interrupt, 58.8% idle CPU 1: 0.0% user, 0.0% nice, 0.0% system, 12.1% interrupt, 87.9% idle Mem: 25M Active, 55M Inact, 286M Wired, 320K Cache, 316M Buf, 2603M Free Swap: 4495M Total, 4495M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 32K RUN 1 476:47 83.06% {idle: cpu1} 11 root 171 ki31 0K 32K CPU0 0 409:41 63.38% {idle: cpu0} 12 root -68 - 0K 336K CPU0 0 11:26 20.02% {irq26: bge1} 12 root -68 - 0K 336K WAIT 0 7:29 13.09% {irq25: bge0} 26085 root 48 0 26648K 7640K select 0 19:03 3.56% snmpd 12 root -44 - 0K 336K WAIT 1 198:01 1.90% {swi1: netisr 0} 0 root -68 0 0K 112K - 1 29:53 0.00% {dummynet} 12 root -32 - 0K 336K WAIT 1 2:53 0.00% {swi4: clock} Тобиж, насколько я понимаю, обработка прерываний легла на плечи CPU. Это дало отличный результат, т.к теперь при обработке 210 Mbps bge0 <-> bge1 имею 90 Kpackets / sec и 1.5 input errors / sec. Пробовал патчить /usr/src/sys/dev/bge/if_bge.c как вы и посоветовали, номера строк у меня в оригинальном файле не совпадают.... Вручную нашел и заменил строки, пересобрал ядро, появились "крутилки" hw.bge, пока полёт нормальный. Но меня беспокоит в этой связи вопрос - у меня 8.0-RELEASE, есть ли смысл обновиться до STABLE, возможно я получу исправление ошибок в if_bge ? В целом меня ситуация текущая уже куда более устраивает. По поводу ipfw - там 560 правил на текущий момент, сначала NAT, далее как я уже и писал в 1 посте - на каждого клиента подобные конструкции ну и pipe's: 01090 6055544 1836552801 pipe 19 ip from any to any in recv vlan76 01091 10299079 11122224438 pipe 20 ip from any to any out xmit vlan76 Я бы и рад создать отдельно pipe на каждый тариф (1M/2M/5M/10M), а потом создать table для маппинга абонента к определнному pipe согласно тарифного плана, но беда в том что во всей документации по теме ipfw tablearg примеры приводяться для ipfw table <IP_подсеть> <Номер_PIPE>, в то время как у меня VLAN per user и соответственно мне куда лучше сопоставить абонентский VLAN с pipe. Можно конечно сделать такую таблицу из IP подсетей на каждом VLAN и все же перейти на tablearg, но даст ли это увеличение производительности? Может все же можно увязать tablearg к абонентскому vlan без IP подсетей ? Да и dummynet в top -SHP практически не создает нагрузку, насколько я понимаю. P.S. Забегая наперед, нашел много нареканий на Broadcom'овские встроенные сетевки. Сам их тестил iperf без NAT и абонентской нагрузки, на свободном канале - получил 420 Mbps. Думаю что уперся в их предел. Есть ресурс для покупки под текущий проект чего-то лучше чем Broadcom, например Intel 1000 серии, но версий этих сетевок в продаже много, мне пока удавалось потестить лишь GT Desktop Edition - не обрадовали тесты. Есть ли шанс пропустить больше трафика (мои надежды получить до 800 Mbps) если купить Intel 1000 Server Edition GT/MT или что-то более?
  9. Добрый день всем. Суть проблемы - при увеличении количества проходящих через маршрутизатор пакетов (до 35K pps, 120 Mbps и на входе и на выходе) имею ~ 500 input errors/sec на внешнем интерфейсе, клиенты немного начинают жаловаться. Ошибки: Пакеты: Трафик: Недавно прочитал статью на Nag.ru про NAT,Shaping,Netflow на больших сетях и посему хотел бы получить вашего совета, если кто сталкивался, помойму тема схожая. Схема Есть сервер HP Proliant DL360 G4, с установленной FreeBSD 8.0 RELEASE amd64, в сервере 2 встроенных интерфейса (bge, Broadcom BCM5704, NC7782), ядро пересобрано с: + cpu HAMMER - options INET6 + options SMP + options IPFIREWALL + options IPFIREWALL_VERBOSE + options IPFIREWALL_FORWARD + options IPFIREWALL_DEFAULT_TO_ACCEPT + options IPFIREWALL_NAT + options LIBALIAS + options TCPDEBUG + options IPSTEALTH + options DEVICE_POLLING + options HZ=2000 + options DUMMYNET - ненужный мне FireWire - ненужный мне USB - ненужные мне сетевки В /etc/sysctl.conf: net.inet.ip.forwarding=1 net.inet.ip.fastforwarding=1 net.inet.ip.fw.one_pass=1 net.inet.ip.dummynet.io_fast=1 net.inet.ip.dummynet.expire=0 net.inet.ip.dummynet.hash_size=16384 На bge0 с рядом стоящей Cisco ME3400 подана гигабитная медная шворка, порт на коммутаторе в режиме access, наливаем внешний канал. На bge1 с той же Cisco ME3400 подана вторая гигабитная медная шворка, порт в режиме trunk, принимаем VLAN'ы абонентов (сейчас 305 шт). Работаем пока по схеме VLAN на абонента, /30 на абонента - иногда статический внешний IP иногда серый IP. Не оптимально, но пока хватает, ждем Juniper ERX. NAT делаем через ipfw nat: ${ipfw} add 100 nat 123 ip from 192.168.0.0/16 to any out xmit bge0 ${ipfw} add 110 nat 123 ip frmo any to <A.B.C.D> in recv bge0 ${ipfw} nat 123 config ip <A.B.C.D> log same_ports , где A.B.C.D - внешний IP маршрутизатора на bge0. Ограничение скорости (симметричные тарифы 1M / 2M / 5M / 10M) делаем через dummynet 4 строчками на каждого абонента вида: ${ipfw} add 2000 pipe 10 ip from any to any in recv vlan150 ${ipfw} add 2001 pipe 11 ip from any to any out xmit vlan150 ${ipfw} pipe 10 config bw 2Mbit/s ${ipfw} pipe 11 config bw 2Mbit/s , где vlan150 - очередной абонентский vlan Хотел бы узнать, кто сколько в схожей ситуации по оборудованию и ОС смог выжать Unicast Kpackets/sec и Mbps? Если есть какие-либо существенные советы по оптимизации - тоже буду признателен (грешу на встроенные сетевки Broadcom, может Intel ??) Вопрос возник по причине намечающегося увеличения нагрузки (+200 мбит с другого L2 сегмента), в идеале хотелось бы оценить где предел моей текущей конфигурации.
  10. 1) Ну, вероятно, я уже запустил snmpwalk и ничего касательно сессий не увидел вообще. Как еще ? 2) Да, тариф навешиваю из радиуса, но ведь клиент может по какой-то причине недополучать свою скорость. Интересует как делать troubleshooting скорости абонентских сессий.
  11. Добрый вечер, коллеги! Есть Cisco 7206VXR NPE-G2, ios - c7200p-a3jk91s-mz.122-31.SB10.bin Настроен ISG функционал (flat-rate тарифы по скорости в FreeRADIUS+MySQL). Запущен абонентский портал на PHP + MySQL + CoA запросы на изменение тарифов абонентам. Теперь хочу запустить портал администрирования. Столкнулся с 2 вопросами: 1) Как извне обратиться к Cisco и получить список всех текущих активных сессий ? По какому протоколу ? 2) Как извне узнать текущую скорость по абонентской сессии? Может знаете, в документации не нашел.
  12. Я вас понял, спасибо, доходчиво объяснили. Но, к сожалению, это как минимум требует апгрейда 2 коммутаторов. При этом нужна модель 3750 metro будет стоить: 1) ME-C3750-24TE-M - GPL 6k$ - сам коммутатор 2) ME3750-ADVIP-LIC - GPL 7k$ - лицензия для поддержки MPLS Итого: 13k$ GPL = 7150$ (с 45% скидкой от дистрибьютера) Если честно, это дороговато будет. Учитывая что сделать Q-in-Q можно и на Linksys SPS224G4 (300$). Как вы считаете, где здесь подвох ? )
  13. Привет всем. Есть такая связка физики: Коммутатор абонента - Cisco 3750G - cisco 7606 (PE-1) ------- MPLS LINK -------- cisco 7206VXR (PE-2) - Cisco 2960 - Коммутатор абонента. Абонент хочет между своими коммутаторами получить L2 и запустить туда свои VLAN. Я так понял есть 2 варианта: q-in-q и MPLS L2 VPN. Или может я ошибаюсь? 1) Q-in-Q не получилось, т.к. наш 2960 не поддерживает это 2) MPLS L2VPN - если честно с ним запутался. В доках написано что делается все через xconnect. Но команда xconnect применяется только на интерфейсах (gi0/1, gi0/X т.д.). А у меня, пардон, gi0/X на PE смотрит в сторону моих свичей (3750, 2960), а не в клиента напрямую. Я сделал вывод, что тогда нужно поднимать на каталистах VLAN для абонента, а на PE поднимать sub-interface и писать xconnect уже на саб-интерфейсе. Но на саб-интерфейсе xconnect не применяется. Подскажите пожалуйста, я скорее всего не до конца понял технологию l2vpn в cisco, может кто подскажет как реализовать на моей схеме? Заранее благодарен. P.S. В большинстве схем приводят конфигурацию, когда L2VPN поднимается не между коммутаторами абонента, а между CE Router'ами. Это и обидно )
  14. Привет, коллеги! В рамках домашней сети в одном из многоквартирных многосекционных жилых домов строим бесперебойное питание. Требование начальства - 4 часа автономной работы. В доме установлено 4 шкафа настенных с коммутаторами (linksys sps224g4, zyxel es-2024a), в разных секциях. Договорились о прокладке силы от разнесенных шкафов на один, который выбрали центральным. В центре хотим поставить ИБП на 4 часа автономной работы. Таким образом завязать питанием все свои шкафы из 1 места. Суммарная мощность, потребляемая оборудованием со всех шкафов = 800 Вт. ИБП хотелось бы конечно стоечный, ну и тут не обойдется без батарей. Буду признателен, если подскажете.
  15. Ок, мульткаста сходу 0,125G, через год - 0,25G. У нас планируется стык с сетью обмена трафиком UA-IX на 10G. Мы не первые кто делает такой стык в Киеве. В рамках UA-IX имеется в наличии torrents.net.ua. Пускай 5% (от 300 пользователей - это 15 человек) пользователей начинают качать торренты = 15x100 = 1,5G. Добавьте сюда DC++, которые будут забивать именно внутреннюю полосу. Посмотрите на статистику в регионах - г.Алчевск в Украине (http://hub.alchevsk.net/stat/). Ну пускай DC++ еще 1G максимум. Имеем в магистрали 1,5G+1,G+0,25G = 2,75G.
  16. Итак считаем сходу: 1) 0,3G - multicast поток из 50 каналов ТВ. Через год будет 100 каналов = 0,6G 2) Сейчас у нас 300 домашних пользователей. Пускай 10% из них начали качать качать что-то из UA-IX (фильмы, релизы винды, игр и т.д.) Каждый на честных 100Mbps, это не выдумка - это реальность. Посмотрите на график: http://ix.net.ua/statistics.phtml (там 40G) есть. Мы получаем 30x100 = 3G трафика. В некоторых домашних сетях одновременно качают на 100Mbps до 25% (провел опрос среди знакомых нокеров). Итого 3G+0,3G = 3,3G в этом году. Учтите что за год абонентская база точно расшириться вдвое.
  17. А как на счет CWDM-DWDM? Набить пассивкой, и вытащить все на одну железку в центр. Дешево и сердито. :-) Интересно. Например я ставлю мультиплексор CWDM-Mux-Demux-16-LC производителя OptiCin на опорном узле. С помощью него по 2 волокнам на разных длинах волн мультиплексирую 16 оптических линков в центр. В центре я ставлю такую же железку и "вынимаю" разные лямбда. Железка эта стоит 3,5k$. Мне нужно 2 штуки = 7k$. То есть по 437$ за каждый линк, сведенный в центр. Одно меня интересуют - в центре я смогу получить честные 1G с каждого линка? Если да и других нюансов нет - получиться свести схему с 4 опорными узлами к 2, а то и к 1. Только вот нюанс - если порвут эти 2 волокна от опорного узла к центру, я потеряю связность с 16 выносами. Очень плохо.
  18. Она вообще задумывалась как MPLS-PE, ну да ладно, рассмотрим Ваш вариант. Для того чтобы иметь возможность работы с ISG на 7600 с ES картами мне нужно покупать "20-Gbps Advance IP license" как минимум (76-ES+ADVIP-20G) - это 40k$ по GPL. Умножим эту цифру на 4 опорных узла и получим - 160k$. Добавим сюда скидку 40% = 96k$. Мне дешевле обойдется Cisco ASR1002 или Juniper ERX-310. Что вы называете управляющим модулем в ERX-310 ? SRP модуль ? Кстати да, вы таки правы. Нам долго интегратор рассказывал что отдавать ERX-310 может либо в Radius цифери по количеству трафика сессии в стоп-пакетах, либо с помощью JFlow. В незатейливой статейке http://mtg-nvkz.livejournal.com/47514.html выяснил, что по сути JFlow отдает такие же голые счетчики байт, что нам не подходит. Для отдачи статистики по направлениям нужна система управления SRC. Это софтверное решение, которое работает на так называемых контроллерах, к примеру, SDX-300. Стоит дорого.
  19. а на остальные 2 узла я что поставлю ? У меня узлов 4 шт. На каждый узел придет оптика с выносов. И ее придет гораздо больше, чем волокон между опорными узлами, так что у меня по прежнему стоит вопрос какие 4 железки поставить. Кстати, 100% резервирование по связям я могу сделать и в схеме с 4 узлами, просто нужно будет по 3x10GE интерфейса на каждой железке и вот вам полносвязная система "каждый-с-каждым".
  20. Очень и очень заинтересовал ваш вариант, т.к. нам его уже предлагали именно в аспекте указанных вами моделей. На опорные узлы (4 штуки) - Juniper EX4200-24F я поставить готов, но не укладывается мысль о том, что в теории должен быть PE или P маршрутизатор, а будем ставить коммутатор. Если у вас есть аргументы на этот счет - буду признателен если вы меня сможете переубедить (с учетом того как я хочу доводить 3 услуги до абонентов - описано выше в посте). То есть у меня получается кольцо из 4 Juniper коммутаторов на 10G. Хорошо. Теперь на центр вы предлагает 7600 с ES картами или ERX-310. Я так понимаю что тут вы говорит про BRAS, т.к. кольцо мы "построили" выше на Juniper. Если Cisco - то мы подвязываемся на Cisco ISG технологию. Если Juniper - то там свое. Стоит вопрос - Cisco BRAS vs Juniper BRAS. Вроде как и то и то нравиться, разве что Juniper ERX-310 не поддерживает Netflow, но нам это подали следующим образом - "Juniper считает Netflow крайне громоздким на больших потоках", у них есть JFlow и возможность экспорта статистики по сессиям в RADIUS. не знаю, не знаю ....
  21. Для абонентов широкополосного доступа (домашних пользователей) хотим в магистральной сети применить схему "VLAN per service" (сейчас применяется "VLAN per user") или в рамках MPLS сети применить "L2VPN per service". Каждому абоненту по честному IP адресу без NAT в рамках сети с широкой маской, изоляции не будет. VLAN1: внутрисетевой обмен трафиком и доступ в Интернет. VLAN2: VoIP телефония SIP VLAN3: Multicast-потоки видео из 50 каналов общей емкостью 300 Mbps. На уровне доступа установлены стеки коммутаторов L2 - Linksys SPS224G4. Данные модели понимают DHCP option 82. На каждого абонента выделяем порт. Хотим IPoE и сводить на BRAS. BRAS должен лезть в RADIUS и авторизовать абонента по ID порта. Интересует как вам такое решение и насколько заявленное железо на опорных узлах подойдет под эти задачи ? Хотелось бы домашних пользователей (3 отдельных услуги) прогнать все же по MPLS, а не держать MPLS только ради юр.лиц.
  22. Вообщем делаю предварительное резюме, т.к. много было сказано. 1. Juniper дороже Cisco хотя бы по стоимости за порт на опорном узле, и этот вариант уходит, т.к. нужно много агрегации 2. В этом вопросе мы подвязаны под ОАО "Укртелеком", с которым при внедрении телефонии согласовали проект. Внести изменения в проект, поверьте, дороже будет чем купить это железо. Тут вы глубоко уходите в бизнес, как я понимаю. Но все же оглашу согласно терминологии: Для ШПД - Municipal Broadband Delivery Model А если отойти от бизнес-терминологии, то получается так: Домашним пользователям ШПД - отводится их "уровень доступа" с их CPE. Используются IPoE/PPPoE решения с тарификацией prepaid. Юр.лицам - preWiMAX доступ с услугами l2vpn point-to-point, l2vpn point-to-multipoint. нет, наша абонентская база до 1000 договоров и мы пока оператор связи. А вот сравнить MPLS vs Metro было бы конечно интересно. Если у кого-то есть добротное сравнение этих решений, буду очень признателен.
  23. Тут есть специфика - это Киев, Украина и есть точка обмена трафиком UA-IX, которая налита контентом и давно стала выделять порты 10G для включения операторов. У нас скидка 40% от GPL на оборудование Cisco.Но Cisco это лишь один из вариантов - интеграторы предложили Juniper и Extreme. В этом плане Extreme меня привлекает плотностью портов на железке + ценой, которая меньше Juniper и меньше Cisco. Кто то имел опыт внедрения Extreme?
  24. В кольце из 4 __маршрутизаторов__ нам нужен MPLS, поскольку заявлено было в прес-релизах, что строим именно MPLS. Таким образом оператор проанонсировал коммутацию по меткам и исходя из этого и строимся. Да и как бы MPLS еще не забыта и не раскритикована настолько, чтобы ей как технологии нужно было искать замену. Согласен с Вами, для этого собственно и рассматриваем EAPS в Extreme. У нас опорных узлов 4. На каждый из них приходит оптика с выносов и происходит агрегация. Таким образом, выносы включаются в магистраль - оптика ведеться к тому опорному узлу, к которому ближе. Поэтому железок все же нужно 4. Согласен с Вами. Я писал даже про 1002. Так что в этом у нас консенсус. Тут не соглашусь. 10G кольца построили многие операторы даже в СНГ. И у многих при внедрении ШПД пошел внутрисетевой трафик >1G. Но тут и вы учтите, что железки то нам предложили - модульные шасси. Мы можем сделать 1G, потом перейти на 10G. Мы строим на Cisco и затраты отбиваются. Холивор я разводить не буду, потому как знаю минусы предложенного вами решения.
  25. Домашние пользователи на BSR терминируются. Для 2к пользователей оператора связи ASR1002 это дорого или нецелесообразно ? А вот MPLS функционал на 76 больше для юр.лиц.