Перейти к содержимому
Калькуляторы

classic

Пользователи
  • Публикации

    30
  • Зарегистрирован

  • Посещение

О classic

  • Звание
    Абитуриент
  1. Спасибо всем за советы по теме, взял RB750GL на тестирование.
  2. Что касается природы этого l2 канала в 2 mbps: Данный транспортный l2 канал между 2 точками (город-город) построен для компании магистральным оператором связи (по сути оператор владеет собственной оптической сетью, точками присутствия во многих городах, и "прокидывает" этот P2P транспорт для нас через свое оборудование(коммутаторы/mpls роутеры) в виде отдельного vlan). Я этот канал получаю от оператора в своей центральной точке как vlan на моем управляемого коммутаторе, а на филиальной точке - мне его отдают с порта оператора в режиме access на неуправлямый свитч. Т.к. "последняя миля" с обоих сторон канала это оптика, явно позволяющая передать > 2/2 Mbps, скорее всего оператор связи обеспечивает 2/2 для vlan с помощью какого-нибудь VLAN policing на Cisco, либо куда более вероятно использует для этого грубый bandwidth-limit функционал типичных 400-баксовых l2 коммутаторов. Что касается моего оборудования, которое должно понимать, что емкость канала 2 мбита: - У меня на центральной площадке также имеется роутер с Debian, пока выполняющий задачи nat, на который я в принципе могу прогнать voip vlan c центрального коммутатора и реализовать аналог цисковских очередей CBWFQ с помощью tc+cbq, как и посоветовал s.lobanov. Тем самым вопрос на центральной точке решаем. - Однако, на 2 точку (филиал) ставить для решения этой же задачи полноценный linux роутер + коммутатор с 802.1q не позволяет бюджет. Ограничение по деньгам для филиальной точки - до 200$. Возможно существует какая-то компактная l2/l3 combo железка, которая умеет QoS с очередями LLQ/CBWFQ, понимает 802.1q vlan и комплектуется встроенным 8-16 портовым коммутатором ? Пока из советов в теме сделал вывод что напрашивается именно такая комплектация под мою задачу, если не прав - поправьте пожалуйста.
  3. Всем добрый день. Есть вопрос по приоритезации voip в корпоративной сети (задач isp нет). Есть L2 канал передачи данных емкостью 2 Мбит/сек, соединяющий центральную серверную площадку в одном городе с филиалом компании в другом городе. На одной стороне L2 коммутатор D-Link DGS-3120-24TC (802.1q, qos ...), на второй - неуправляемый noname коммутатор, в который включены обычные 10 офисных рабочих ПК (подсеть /24) Пока по этому транспортному каналу бегают только данные без голоса (для ПК филиала шлюз по умолчанию - маршрутизатор на Debian на центральной серверной площадке) RTT в канале между 2 точками около 30 мс, потерь пакетов нет. Однако, на серверной площадке есть Asterisk, по sip trunk принято несколько внешних номеров и есть задача на филиальной площадке установить ip-телефоны, дать им возможность регистрироваться на Asterisk'e и звонить через него. В качестве ip-телефонов - модели не дороже D-Link DPH-150S, Cisco 3911, адаптеры D-Link DVG-2102S. Одна беда - если просто включить ip-телефоны на филиале в коммутатор, они то регистрируется на asterisk'e, но при одновременных звонках по voip и скачивании данных с ПК - начинаются прерывания звонков и прочие деградации voip. Встал вопрос, каким образом в данной казалось бы типичной ситуации обеспечить нормальное качество voip и нормальное качество передачи данных одновременно. Пока вижу 2 варианта: 1. Настроить qos/dscp приоритезацию на маршрутизаторе центральной серверной площадки 2. Заменить на филиале коммутатор с noname на l2 с поддержкой 802.1q и пробросить по этому l2 транспорту доп. vlan для voip, загнать в этот vlan все voip аппараты филиала Что посоветует в данной ситуации?
  4. Multicast видео и MVR

    Все каналы в разных группах... 225.0.0.4 - 225.0.0.23
  5. Добрый день. В домашней сети есть Linux сервер, который вещает видео по протоколу UDP multicast'ом в сеть (~ 70 Мбит - 17 каналов). Находиться в отдельном VLAN. Домашняя сеть построена на L2 коммутаторах Linksys SPS224G4, абоненты включаются по схеме VLAN на абонента. Необходимо реализовать возможность просмотра видео абонентами, например через VLC. На коммутаторах есть MVR, соответственно у меня получилось завернуть трафик из multicast VLAN в определенный абонентский vlan. Видео отлично показывается, однако при этом к абоненту приходит все 70 Мбит, без разницы какой канал он смотрит. Это плохо. Мне нужен вариант, когда при просмотре определенного канала к абоненту придет лишь multicast определенного канала (4-5 Мбит/сек), а не всех. Если правильно понял - реализуется посредством PIM маршрутизации. Для этих целей есть в наличие Cisco 7206 NPE-G2/ Cisco ME 3400/Debian сервер/FreeBSD сервер, которые в любой момент времени могу сделать участниками multicast vlan. Прошу совета, как лучше реализовать подобное решение. P.S. Очевидно нужно решение а-ля PIM маршрутизация для выборки трафика определенной multicast группы (1 канала) + MVR для переброса трафика из multicast VLAN в абонентские.
  6. FreeBSD 8 Gigabit soft-router

    Я так понимаю ET будет igb ?
  7. FreeBSD 8 Gigabit soft-router

    Да, читал тему насчет ifconfig ipfw0, ну там быстро решение нашлось. Таки думаю взять себе Intel Gigabit ET Dual Port и PCI-E сервер.
  8. FreeBSD 8 Gigabit soft-router

    По поводу сколько и каких процессоров в системе: 2 x Intel Xeon CPU 3.8 GHz одноядерных Сделал, как и советовали, отключил поллинг, включил net.isr.direct (из тех соображений что ядер 2 шт <= сетевок 2 шт): ifconfig bge0 -polling ifconfig bge1 -polling sysctl net.isr.direct=1 "Играться грамотно" с net.isr потоками не получилось, т.к. net.isr.maxthreads и net.isr.numthreads - readonly. После этих действий получил на выходе забавную картину в top -SHP (ранее такого небыло): load averages: 0.00, 0.01, 0.10 99 processes: 4 running, 75 sleeping, 20 waiting CPU 0: 0.0% user, 0.0% nice, 0.0% system, 41.2% interrupt, 58.8% idle CPU 1: 0.0% user, 0.0% nice, 0.0% system, 12.1% interrupt, 87.9% idle Mem: 25M Active, 55M Inact, 286M Wired, 320K Cache, 316M Buf, 2603M Free Swap: 4495M Total, 4495M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 32K RUN 1 476:47 83.06% {idle: cpu1} 11 root 171 ki31 0K 32K CPU0 0 409:41 63.38% {idle: cpu0} 12 root -68 - 0K 336K CPU0 0 11:26 20.02% {irq26: bge1} 12 root -68 - 0K 336K WAIT 0 7:29 13.09% {irq25: bge0} 26085 root 48 0 26648K 7640K select 0 19:03 3.56% snmpd 12 root -44 - 0K 336K WAIT 1 198:01 1.90% {swi1: netisr 0} 0 root -68 0 0K 112K - 1 29:53 0.00% {dummynet} 12 root -32 - 0K 336K WAIT 1 2:53 0.00% {swi4: clock} Тобиж, насколько я понимаю, обработка прерываний легла на плечи CPU. Это дало отличный результат, т.к теперь при обработке 210 Mbps bge0 <-> bge1 имею 90 Kpackets / sec и 1.5 input errors / sec. Пробовал патчить /usr/src/sys/dev/bge/if_bge.c как вы и посоветовали, номера строк у меня в оригинальном файле не совпадают.... Вручную нашел и заменил строки, пересобрал ядро, появились "крутилки" hw.bge, пока полёт нормальный. Но меня беспокоит в этой связи вопрос - у меня 8.0-RELEASE, есть ли смысл обновиться до STABLE, возможно я получу исправление ошибок в if_bge ? В целом меня ситуация текущая уже куда более устраивает. По поводу ipfw - там 560 правил на текущий момент, сначала NAT, далее как я уже и писал в 1 посте - на каждого клиента подобные конструкции ну и pipe's: 01090 6055544 1836552801 pipe 19 ip from any to any in recv vlan76 01091 10299079 11122224438 pipe 20 ip from any to any out xmit vlan76 Я бы и рад создать отдельно pipe на каждый тариф (1M/2M/5M/10M), а потом создать table для маппинга абонента к определнному pipe согласно тарифного плана, но беда в том что во всей документации по теме ipfw tablearg примеры приводяться для ipfw table <IP_подсеть> <Номер_PIPE>, в то время как у меня VLAN per user и соответственно мне куда лучше сопоставить абонентский VLAN с pipe. Можно конечно сделать такую таблицу из IP подсетей на каждом VLAN и все же перейти на tablearg, но даст ли это увеличение производительности? Может все же можно увязать tablearg к абонентскому vlan без IP подсетей ? Да и dummynet в top -SHP практически не создает нагрузку, насколько я понимаю. P.S. Забегая наперед, нашел много нареканий на Broadcom'овские встроенные сетевки. Сам их тестил iperf без NAT и абонентской нагрузки, на свободном канале - получил 420 Mbps. Думаю что уперся в их предел. Есть ресурс для покупки под текущий проект чего-то лучше чем Broadcom, например Intel 1000 серии, но версий этих сетевок в продаже много, мне пока удавалось потестить лишь GT Desktop Edition - не обрадовали тесты. Есть ли шанс пропустить больше трафика (мои надежды получить до 800 Mbps) если купить Intel 1000 Server Edition GT/MT или что-то более?
  9. Добрый день всем. Суть проблемы - при увеличении количества проходящих через маршрутизатор пакетов (до 35K pps, 120 Mbps и на входе и на выходе) имею ~ 500 input errors/sec на внешнем интерфейсе, клиенты немного начинают жаловаться. Ошибки: Пакеты: Трафик: Недавно прочитал статью на Nag.ru про NAT,Shaping,Netflow на больших сетях и посему хотел бы получить вашего совета, если кто сталкивался, помойму тема схожая. Схема Есть сервер HP Proliant DL360 G4, с установленной FreeBSD 8.0 RELEASE amd64, в сервере 2 встроенных интерфейса (bge, Broadcom BCM5704, NC7782), ядро пересобрано с: + cpu HAMMER - options INET6 + options SMP + options IPFIREWALL + options IPFIREWALL_VERBOSE + options IPFIREWALL_FORWARD + options IPFIREWALL_DEFAULT_TO_ACCEPT + options IPFIREWALL_NAT + options LIBALIAS + options TCPDEBUG + options IPSTEALTH + options DEVICE_POLLING + options HZ=2000 + options DUMMYNET - ненужный мне FireWire - ненужный мне USB - ненужные мне сетевки В /etc/sysctl.conf: net.inet.ip.forwarding=1 net.inet.ip.fastforwarding=1 net.inet.ip.fw.one_pass=1 net.inet.ip.dummynet.io_fast=1 net.inet.ip.dummynet.expire=0 net.inet.ip.dummynet.hash_size=16384 На bge0 с рядом стоящей Cisco ME3400 подана гигабитная медная шворка, порт на коммутаторе в режиме access, наливаем внешний канал. На bge1 с той же Cisco ME3400 подана вторая гигабитная медная шворка, порт в режиме trunk, принимаем VLAN'ы абонентов (сейчас 305 шт). Работаем пока по схеме VLAN на абонента, /30 на абонента - иногда статический внешний IP иногда серый IP. Не оптимально, но пока хватает, ждем Juniper ERX. NAT делаем через ipfw nat: ${ipfw} add 100 nat 123 ip from 192.168.0.0/16 to any out xmit bge0 ${ipfw} add 110 nat 123 ip frmo any to <A.B.C.D> in recv bge0 ${ipfw} nat 123 config ip <A.B.C.D> log same_ports , где A.B.C.D - внешний IP маршрутизатора на bge0. Ограничение скорости (симметричные тарифы 1M / 2M / 5M / 10M) делаем через dummynet 4 строчками на каждого абонента вида: ${ipfw} add 2000 pipe 10 ip from any to any in recv vlan150 ${ipfw} add 2001 pipe 11 ip from any to any out xmit vlan150 ${ipfw} pipe 10 config bw 2Mbit/s ${ipfw} pipe 11 config bw 2Mbit/s , где vlan150 - очередной абонентский vlan Хотел бы узнать, кто сколько в схожей ситуации по оборудованию и ОС смог выжать Unicast Kpackets/sec и Mbps? Если есть какие-либо существенные советы по оптимизации - тоже буду признателен (грешу на встроенные сетевки Broadcom, может Intel ??) Вопрос возник по причине намечающегося увеличения нагрузки (+200 мбит с другого L2 сегмента), в идеале хотелось бы оценить где предел моей текущей конфигурации.
  10. 1) Ну, вероятно, я уже запустил snmpwalk и ничего касательно сессий не увидел вообще. Как еще ? 2) Да, тариф навешиваю из радиуса, но ведь клиент может по какой-то причине недополучать свою скорость. Интересует как делать troubleshooting скорости абонентских сессий.
  11. Добрый вечер, коллеги! Есть Cisco 7206VXR NPE-G2, ios - c7200p-a3jk91s-mz.122-31.SB10.bin Настроен ISG функционал (flat-rate тарифы по скорости в FreeRADIUS+MySQL). Запущен абонентский портал на PHP + MySQL + CoA запросы на изменение тарифов абонентам. Теперь хочу запустить портал администрирования. Столкнулся с 2 вопросами: 1) Как извне обратиться к Cisco и получить список всех текущих активных сессий ? По какому протоколу ? 2) Как извне узнать текущую скорость по абонентской сессии? Может знаете, в документации не нашел.
  12. MPLS L2VPN точка-точка

    Я вас понял, спасибо, доходчиво объяснили. Но, к сожалению, это как минимум требует апгрейда 2 коммутаторов. При этом нужна модель 3750 metro будет стоить: 1) ME-C3750-24TE-M - GPL 6k$ - сам коммутатор 2) ME3750-ADVIP-LIC - GPL 7k$ - лицензия для поддержки MPLS Итого: 13k$ GPL = 7150$ (с 45% скидкой от дистрибьютера) Если честно, это дороговато будет. Учитывая что сделать Q-in-Q можно и на Linksys SPS224G4 (300$). Как вы считаете, где здесь подвох ? )
  13. Привет всем. Есть такая связка физики: Коммутатор абонента - Cisco 3750G - cisco 7606 (PE-1) ------- MPLS LINK -------- cisco 7206VXR (PE-2) - Cisco 2960 - Коммутатор абонента. Абонент хочет между своими коммутаторами получить L2 и запустить туда свои VLAN. Я так понял есть 2 варианта: q-in-q и MPLS L2 VPN. Или может я ошибаюсь? 1) Q-in-Q не получилось, т.к. наш 2960 не поддерживает это 2) MPLS L2VPN - если честно с ним запутался. В доках написано что делается все через xconnect. Но команда xconnect применяется только на интерфейсах (gi0/1, gi0/X т.д.). А у меня, пардон, gi0/X на PE смотрит в сторону моих свичей (3750, 2960), а не в клиента напрямую. Я сделал вывод, что тогда нужно поднимать на каталистах VLAN для абонента, а на PE поднимать sub-interface и писать xconnect уже на саб-интерфейсе. Но на саб-интерфейсе xconnect не применяется. Подскажите пожалуйста, я скорее всего не до конца понял технологию l2vpn в cisco, может кто подскажет как реализовать на моей схеме? Заранее благодарен. P.S. В большинстве схем приводят конфигурацию, когда L2VPN поднимается не между коммутаторами абонента, а между CE Router'ами. Это и обидно )
  14. Привет, коллеги! В рамках домашней сети в одном из многоквартирных многосекционных жилых домов строим бесперебойное питание. Требование начальства - 4 часа автономной работы. В доме установлено 4 шкафа настенных с коммутаторами (linksys sps224g4, zyxel es-2024a), в разных секциях. Договорились о прокладке силы от разнесенных шкафов на один, который выбрали центральным. В центре хотим поставить ИБП на 4 часа автономной работы. Таким образом завязать питанием все свои шкафы из 1 места. Суммарная мощность, потребляемая оборудованием со всех шкафов = 800 Вт. ИБП хотелось бы конечно стоечный, ну и тут не обойдется без батарей. Буду признателен, если подскажете.
  15. Кольцо 10G с MPLS

    Ок, мульткаста сходу 0,125G, через год - 0,25G. У нас планируется стык с сетью обмена трафиком UA-IX на 10G. Мы не первые кто делает такой стык в Киеве. В рамках UA-IX имеется в наличии torrents.net.ua. Пускай 5% (от 300 пользователей - это 15 человек) пользователей начинают качать торренты = 15x100 = 1,5G. Добавьте сюда DC++, которые будут забивать именно внутреннюю полосу. Посмотрите на статистику в регионах - г.Алчевск в Украине (http://hub.alchevsk.net/stat/). Ну пускай DC++ еще 1G максимум. Имеем в магистрали 1,5G+1,G+0,25G = 2,75G.