Jump to content
Калькуляторы

svenk

Пользователи
  • Content Count

    79
  • Joined

  • Last visited

Posts posted by svenk


  1. 3 часа назад, Ivan_83 сказал:

    Точню тюнили параметры сокетов для юдп и вообще сокетов?

     

    А загрузка проца случаем не в полку? (хотя бы на одном ядре где ффмпег)

    Ваш супер-пупер железный энкодер тоже выдаёт мультикаст на одну и туже группу но разные порты?

     

    Я бы для начала начал выдавать мультикаст на другие IP.

    Потом попробовал разнести по принципу один канал - один ффмпег - один выход сконвертированного

    1) Тюнили

    2) Шевелится но не в полку

    3) А на декодинг не хочется ресурсы убивать

    Но по 3 надо попробовать! спасибо за совет!

     

     

    Sat_conf.png

  2. Всем привет,

    Существует проблема в транскодинге с помощью ffmpeg входящего spts. Прием идет со спутника и с эфира голова wisi tangram. ffmpeg постоянно жалуется на поток:

     

    [h264 @ 0x4cd0e60] SPS unavailable in decode_picture_timing
    [h264 @ 0x4cd0e60] non-existing PPS 0 referenced
    [h264 @ 0x4cd0e60] SPS unavailable in decode_picture_timing
    [h264 @ 0x4cd0e60] non-existing PPS 0 referenced
    [h264 @ 0x4cd0e60] decode_slice_header error
    [h264 @ 0x4cd0e60] no frame!
    [h264 @ 0x4cd0e60] SPS unavailable in decode_picture_timing
    [h264 @ 0x4cd0e60] non-existing PPS 0 referenced
    [h264 @ 0x4cd0e60] SPS unavailable in decode_picture_timing
    [h264 @ 0x4cd0e60] non-existing PPS 0 referenced
    [h264 @ 0x4cd0e60] decode_slice_header error
    [h264 @ 0x4cd0e60] no frame!
    [h264 @ 0x4cd0e60] reference picture missing during reorder
    [h264 @ 0x4cd0e60] Missing reference picture, default is 2147483647
    [h264 @ 0x4cd0e60] mmco: unref short failure
     

     

    Транскодирую в 3-x разрешениях, для сервиса OTT, проблема в том что она всплывает не только на HD каналах но и на SD, на выходе появляются артефакты. При использовании транскодера Mediaexcel такого не наблюдается. Есть ли какие либо дополнительные опции для mpegts и как это возможно пофиксить если вообще можно. Может кто то сталкивался с такой проблемой?

    Сама команда запуска:

     

    ffmpeg  -re -threads 32 -thread_type 2 -i 'udp://235.240.10.6:9000?fifo_size=100000000&buffer_size=100000000&overrun_nonfatal=1' -preset:v veryfast -g 30  -c:a aac  -c:v libx264 -profile:v baseline -r 15 -maxrate 512k -bufsize 2000k -ar 48000 -ac 2 -crf 23 -strict -2 -async 1 -sn -ab 64k -s 426x240 -vf setdar=16:9 -metadata service_name="Varzish_512" -f mpegts udp://236.240.10.6:9000?pkt_size=1316 -s 640x360 -r 25 -g 50 -preset:v veryfast -c:a aac -c:v libx264 -profile:v main -maxrate 1024k -bufsize 5000k -ar 48000 -ac 2 -crf 23 -strict -2 -async 1 -sn -ab 64k -vf setdar=16:9 -metadata service_name="Varzish_1000" -f mpegts udp://236.240.10.6:9001?pkt_size=1316 -s 854x480 -r 25 -g 50 -preset:v veryfast -c:a aac -c:v libx264 -profile:v high -maxrate 2048k -bufsize 10000k -ar 48000 -ac 2 -crf 23 -strict -2 -async 1 -sn -ab 64k -vf setdar=16:9 -metadata service_name="Varzish_2000" -f mpegts udp://236.240.10.6:9002?pkt_size=1316

     

     

     

     

  3. Добрый день Коллеги,

    Есть задача по построению отказоустойчивого кластера на базе Proxmox. Схему объясню на словах 3-сервера у каждого по паре 10G, эта пара собирается в LAG в 2 разных коммутатора собранных в кластер. Столкнулся со следующей проблемой мира и дружбы Proxmox и OVS. При перезапуске он не цепляет конфигурацию со скрипта /etc/network/interfaces(вообще нестартует), поднимаешь руками через ovs-vsctl все работает, со стартовых не хочет проблема по документации существенная(.

    Proxmox версии 4.4

    Может кто сталкивался знает куда копать?

     

    Заранее спасибо!

  4. поддержка 0, специалисты дауны...

    С этим не спорю.

    У Вас опыть работы именно с этими свичами ZTE 5960-64DL?

    нет с маршрутниками ZXCTN6150 боль и печаль.... Одна из особенностей данного рода железа незаполнение ARP таблиц_)

  5. Появлялось желание назначить на коммутаторе 3750G адрес через Loopback на Vlan и запихнут его в VRF.

     

    И вот лыжи встали:

    1. Если Loopback повесить на Vlan не запихивая в VRF пинг 1 mc

    2. Если Loopback повесить на Vlan и запихнуть в VRF пинг 286 mc

    Не совсем понятно, можете немного описать задачу?

  6. Привет!

    Шейпинг обычнона исходящем интерфейсе, но так как у тебя на linux роутере два интерфейса ты можешь зашейпить траффик на интерфейсе который смотрит в твою сеть с tcp может и поможет а вот с udp наврятли.

  7. Давайте по порядку. У вас VPLS? Где-то поднят vpls-switching, а с других мест сводятся VLL-и туда? Или как оно организовано?

    По порядку.

    1) Есть 3 vpls домена

    2) сеть поделена на зоны A B C D

    3) При конфигурации была допущена ошибка в связи с чем это привело к 3 большим vpls доменам вместо 3 на зону A, 3 на зону B, 3 на зону C и 3 на зону D.

    4) Для разделения пришлось удалить на PE устройствах лишние BGP пиры.

    5) Проблема осталась. Нарыл следующую проблему, в рамках одного VPLS существует n-ое количество VLAN и вместо построения для каждого VLAN своего broadcast домена, он выстраивает один общий и игнорирует VLAN tag. Пробовал в конфигурации указать mac-lear-style qualify не принимает команду...

     

    Возникла проблема на одном из устроиств pe устройств возникла петля что привело к падению всей сети изза широковещательного шторма...

    При анализе конфигурации было выявлено что l2vpn настроен с использованием одних и тех же vci.

    Вопрос при изменении vcid поможет ли это уменьшить зону влияния на сеть или нужно копать в другую сторону?

    Наверно site-id, а не vc-id? В компелле через одинаковые site-id реализуется резервирование псевдопроводов: активен только тот, кто выбрался в bgp лучшим, остальные - backup.

    А как именно сеть упала? BGP/LDP/IGP от перегрузки линков развалились? Тогда нужно QoS настраивать, чтоб юзерский трафик не вытеснял трафик протоколов маршрутизации.

    vc-id одинаковые, сеть не развалилась... пошел шторм на один из кор сайтов порядка 15гб/c, управление не терялось слег весь пользовательский трафик.

  8. А шторм-контроль нельзя на PE включить на абон-портах?

    Добрый день,

    шторм-контроль включен, но при возникновении петли он почему-то прошел по всей сети...

     

    Возникла проблема на одном из устроиств pe устройств возникла петля что привело к падению всей сети изза широковещательного шторма...

    При анализе конфигурации было выявлено что l2vpn настроен с использованием одних и тех же vci.

    Вопрос при изменении vcid поможет ли это уменьшить зону влияния на сеть или нужно копать в другую сторону?

    Наверно site-id, а не vc-id? В компелле через одинаковые site-id реализуется резервирование псевдопроводов: активен только тот, кто выбрался в bgp лучшим, остальные - backup.

    А как именно сеть упала? BGP/LDP/IGP от перегрузки линков развалились? Тогда нужно QoS настраивать, чтоб юзерский трафик не вытеснял трафик протоколов маршрутизации.

    Это не совсем Компелла, используется технология от Huawei bgp-ad l2vpn.

  9. Всем привет!

    Есть сеть mpls состоящая из маршрутизаторов huawei на ней настроена mpls кора на базе ldp, используются сервисы l2vpn и l3vpn в качестве сигналки mpbgp. Соединение full mesh.

     

    Возникла проблема на одном из устроиств pe устройств возникла петля что привело к падению всей сети изза широковещательного шторма...

    При анализе конфигурации было выявлено что l2vpn настроен с использованием одних и тех же vci.

    Вопрос при изменении vcid поможет ли это уменьшить зону влияния на сеть или нужно копать в другую сторону?

  10. Доброго времени суток Уважаемые форумчане,

     

    Возникла необходимость в тестировании оборудования и в одном из тестов необходимо проверить емкость таблицы маршрутизации. Есть ли какое нибудь ПО для генерации маршрутов(ospf,bgp,isis)?

    Спасибо за помощь!

  11. Прошу прощенья если обидел немного попутал, huawey религия не позволяет апгрейд энд офф сэйл модели тоже смотрю в сторону extreme подобрал примерную конфигурацию вышло около 30к по gpl дальше будем посмотреть

     

    Майн готт. Вы этот экстрим на тест сначала возьмите только. А то он местами такой удивительный что выкинуть хочется (а некоторые так и делают).

    В 30к MX80 точно можно уложить.

    Прошу поподробнее какие проблемы?

  12. Привет всем, Хабровчанам

     

    звучит как: привет всем, илитарное быдло

     

    По теме: всякие старые cisco что вам предлагают или ещё из дешёвого huawei s9300, под IX-овые префиксы хватит

    Прошу прощенья если обидел немного попутал, huawey религия не позволяет апгрейд энд офф сэйл модели тоже смотрю в сторону extreme подобрал примерную конфигурацию вышло около 30к по gpl дальше будем посмотреть

     

     

    http://shop.nag.ru/catalog/05288.Extreme-Networks/10215.Summit/07018.17103

  13. Требования организовать 10G стык с локальной точкой обмена. На сегодняшний день стоит Catalist 4503 с WS-X4516 и платами WS-X4506-GB-T 6 SFP и WS-X4548-GB-RJ45 48 GEthernet. Есть вариант модернизации но всего три слота бюджет примерно 15-20К американских президентов.

     

    если этот sup вывозит и вопрос только в 10г аплинках, то может дешевле заменить шасси и доткнуть плату с 10г?

    Придется менять супервизор и плату так как этот супервизор не поддерживает 10g

  14. Привет всем, Хабровчанам.

    бгг

     

    Суть темы моей такова. Поступила задача от руководства найти маршрутизатор с поддержкой 10G uplink(кол-во 4 как минимум), для дистрибуции SFP порты ( не менее 6), с поддержкой bgp4. Заранее спасибо.

    мало вводных. пишите все требования какие знаете, а главное бюджет, тогда помогут )

    Требования организовать 10G стык с локальной точкой обмена. На сегодняшний день стоит Catalist 4503 с WS-X4516 и платами WS-X4506-GB-T 6 SFP и WS-X4548-GB-RJ45 48 GEthernet. Есть вариант модернизации но всего три слота бюджет примерно 15-20К американских президентов.