Перейти к содержимому
Калькуляторы

JohnnyL

Пользователи
  • Публикации

    94
  • Зарегистрирован

  • Посещение

О JohnnyL

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array

Информация

  • Пол
    Array

Посетители профиля

Блок посетителей профиля отключен и не будет отображаться другим пользователям

  1. Я уж думал что такого старься ни у кого не осталось... Мы их лет пять назад как поснимали, хотя для своего времени железка классная была. Особенно нравилась их NMS, карта автоматом строилась, можно было визуально отследить на карте как по сети вланы проходят. Софт + документация
  2. У нас так, жалоб нет, но софт 17.3R3-S3.3: applications { application dns-udp-10s { protocol udp; source-port 1-65535; destination-port 53; inactivity-timeout 10; } application https-1800s { protocol tcp; destination-port 443; inactivity-timeout 1800; } application icmp-30s { protocol icmp; inactivity-timeout 30; } application traceroute-30s { application-protocol traceroute; protocol udp; destination-port 33435-33450; ttl-threshold 30; inactivity-timeout 30; } application xmpp-1800s { protocol tcp; destination-port 5222-5223; inactivity-timeout 1800; } application smtp-ssl { protocol tcp; destination-port 465; } application pop3-ssl { protocol tcp; destination-port 995; } application-set apset-gprs-alg { application junos-ftp; application junos-pptp; application junos-sip; } application-set apset-alg-noeim-noeif { application junos-http; application junos-ftp; application junos-rtsp; application dns-udp-10s; application https-1800s; application icmp-30s; application xmpp-1800s; application traceroute-30s; application junos-ntp; application junos-telnet; application junos-rsh; application junos-ssh; application junos-pop3; application junos-smtp; application junos-imap; application junos-imaps; application pop3-ssl; application smtp-ssl; application junos-pptp; application junos-rpc-portmap-tcp; application junos-rpc-portmap-udp; application junos-tftp; application junos-sip; } } nat: services { captive-portal-content-delivery { rule redirect-rule { match-direction input; term 1 { then { redirect https://xxx.xxx.xxx.xxx; } } } profile my-redirect { cpcd-rules redirect-rule; } inactive: traceoptions { file cp.log size 1m files 2 world-readable; flag all; } } service-set SSET { syslog { host xxx.xxx.xxx.xxx { services any; log-prefix MX960-BRAS; port 514; class { nat-logs; } source-address xxx.xxx.xxx.xxx; } } max-flows 20m; nat-options { max-sessions-per-subscriber 2000; } service-set-options; stateful-firewall-rules FW-RULE; nat-rules RULE-PBA; next-hop-service { inside-service-interface ams0.1; outside-service-interface ams0.2; } } service-set sset-redirect { service-set-options { subscriber-awareness; routing-engine-services; } captive-portal-content-delivery-profile my-redirect; interface-service { service-interface si-10/0/0; } } stateful-firewall { rule FW-RULE { match-direction input; term t1 { from { source-address { 100.64.0.0/15; } } then { accept; } } term t2 { then { discard; } } } } nat { pool CG-NAT-POOL { address xxx.xxx.xxx.0/24; port { range low 1024 high 65535 random-allocation; secured-port-block-allocation block-size 64 max-blocks-per-address 32 active-block-timeout 120; } address-allocation round-robin; mapping-timeout 300; ei-mapping-timeout 120; } rule RULE-PBA { match-direction input; term t1 { from { source-address { 100.64.0.0/15; } application-sets apset-alg-noeim-noeif; } then { translated { source-pool CG-NAT-POOL; translation-type { napt-44; } address-pooling paired; } } } term t2 { from { source-address { 100.64.0.0/15; } } then { translated { source-pool CG-NAT-POOL; translation-type { napt-44; } mapping-type endpoint-independent; filtering-type { endpoint-independent; } address-pooling paired; } } } } rule-set RS-NAT-PBA { rule RULE-PBA; } } }
  3. В основе librenms лежит проект observium, там по ip девайс даже добавить нельзя. Особой проблемы не вижу, у вас же корпоративная сеть, все префиксы известны, просто добавьте их в автообнаружение в конфиге: $config['nets'][] = "xxx.xxx.xxx.0/24"; $config['nets'][] = "xxx.xxx.xxx.0/24"; Сбор lldp данных будет работать как и раньше, просто либра lldp соседей не будет пытаться добавить в мониторинг. Раньше автообнаружение отключить можно было только глобально вместе с lldp, и для меня появление отключения автообнаружения стало приятной фичей, т.к. подключена куча клиентского оборудования, которое мониторить не нужно, а либра в логах постоянно материлась, что отрезолвить не может. Это не либра не берет адрес, а свич так отдает по snmp стандартную таблицу lldp, предполагаю что у hp как и у dlink есть особенности... гляньте includes/discovery/discovery-protocols.inc.php там есть примеры работы с "особенным" железом.
  4. Да, по LLDP. У либры есть особенности, hostname должны быть уникальны, port descriptions тоже, девайсы, у которых не нашлось ни одного известного либре соседа, на карте не отображаюся. Может в этом косяк. Можете подебажить : ./discovery.php -h host -m discovery-protocols -d -v Да и еще, отключите в конфиге отрисовку карты по mac адресам, должно быть так: $config['network_map_items'] = array("xdp"); Ну и проверить корректность установки ./validate.php В длинках нужно обязательно настраивать на портах pvid иначе ни хрена не работает, но даже с этими настойками не всегда корректно работает, т.к. в некоторых сериях по lldp отдается portid в виде interface name, а других interface mac Принадлежность к конкретному вендору определяется по sysObjectID в includes/definitions/*.yaml, соответственно для ciscospa это .1.3.6.1.4.1.9.6.1.23.1.1.1, для HP .1.3.6.1.4.1.11.2.3.7.8.5. и .1.3.6.1.4.1.11.2.3.7.11. Почему у вас так получилось не могу сказать - за два года такую ситуацию не наблюдал. Как вариант, попробуйте почистить кеш rm -f cache/os_defs.cache Можно вручную посмотреть, какой sysObjectID отдает железка ./discovery.php -h host -m os -d -v И попробуйте выключить автодобавление устройств по lldp: $config['autodiscovery']['xdp'] = FALSE;
  5. Подпишитесь на их чат cisco_collection_support и поиск по фразе asr1000rp2
  6. А зачем докер? Там установка на 10 минут с перекурами. А готовые образы действительно кривые, сам пару лет назад столкнулся, когда так же как и вы решил попробовать развернуть готовый образ VM.
  7. Если про кару сети, то полурабочее, добавили скорее чтоб было, карта динамическая, при каждом обновлении расположение нод меняется, жестко зафиксировать нельзя, при большом количестве линков ничего не разобрать, из плюсов - цветом показывает загрузку линков, при наведении курсора на линк открывает график загрузки. Но в librenms это так сказать побочная фишка, основная идея - можно открыть любой девайс и посмотреть хоть в графическом, хоть в табличном виде ближайших соседей. Отлично работает с Cisco, Juniper, Extreme, Eltex, через жопу с Dlink, но это косяк китайцев.
  8. Если нужно поменьше, смотрите в сторону DIN реечных http://www.mean-well.ru/store/DDR-120C-24/
  9. Диапазон входного напряжения какой? Чем этот не устроил http://www.mean-well.ru/store/RSD-100C-24/
  10. Если нужно надежно и нет требований к герметичности - смотрите в сторону MeanWell http://www.mean-well.ru
  11. Смотрите таблицу .iso.org.dod.internet.private.enterprises.extremenetworks.extremeAgent.extremeFdb.extremeFdbMacExosFdbTable .1.3.6.1.4.1.1916.1.16.4
  12. Если обновляетесь до 16 ветки, не забудьте настроить failsafe учетку, иначе будете неприятно удивлены невозможностью залогиниться. https://gtacknowledge.extremenetworks.com/articles/Solution/Cannot-log-into-EXOS-switch-after-downgrading-from-EXOS-16-to-an-earlier-release Ну и судя по тому, что софт у вас древний, могу сделать вывод, что и bootrom тоже.