Перейти к содержимому
Калькуляторы

wed

Активный участник
  • Публикации

    223
  • Зарегистрирован

  • Посещение

Все публикации пользователя wed


  1. А если просто usb удлинители? так 6 штук, и просто втыкать мышку в нужный. Если kvm это все равно переключатель, большой разницы не будет - закрепить 6 выходов, подписать и перетыкать? или менять кнопкой все это дело. Или 6 беспроводных мышек в ящике)
  2. Попробуйте кеши везде почистить. где-то в самом биллинге есть кеш ЛК, и в браузере.
  3. 1228ME_v_3028.rar DES1228ME.zip Народ - поделитесь пожалуйста архивом, что-то отсюда не скачивает.
  4. У меня не докер. Докер вроде бы кто-то из сообщества запилил и поддерживает. Элементов данных 275885, все собирается раз в минуту. Кстати, еще пара плюшек это нативные syslog и trap. Два демона на go которые переливают данные в глабер. NVPS 3796.1 При отвале большой части сети, все триггеры работают быстро, глабер не начинает жутко тормозить.
  5. Мы с timscaledb переезжали. По месту выигрыша почти не было. Но в скорости работы очень даже. timscaledb генерил график около минуты, а clickhouse секунду. Выигрыш по месту только за счет задержки сжатия данных timscaledb. Именно в сжатом виде clickhouse и timscaledb не очень сильно отличались по месту. Вы попробуйте просто. Бекап, поставить вместо заббикса глабер, настроить кликхаус, перелить БД истории и трендов (это долго, я около дня ждал) и все. Скриптами перелива в ЛК поделюсь. Остальная БД родная. api родное.
  6. Посмотрите в сторону форка заббикса - glaber. Это заббикс у которого БД - clickhouse. Работает на порядок быстрее нативного заббикса. Я с своей полусамописной сборки (snmp poller+clickhouse+grafana) ушел в сторону glaber.
  7. Покрутите Bird. Там можно создавать отдельные таблицы маршрутизации. Что-то вроде - все маршруты с этого пиринга положить вот сюда, и отдать вот туда. vrf нем тоже есть.
  8. У меня был момент когда я все перебрал что можно, и в итоге заменил сетевку. Просто бракованная сетевка, на трафике больше 12 гбит выдавала missed, crc error. Заменил на такую же, 520ую.
  9. Я тоже с FreeBSD начинал, и в итоге на Linux перешел. Что серваки, что декстоп. Бирд мне кстати больше понравился по конфигам. Попробуйте на debian собрать в виртуалке, оцените что непривычно поначалу, но удобнее.
  10. Народ, никак не пойму куда копать. Проблема - периодически через NAT перестают проходить пакеты больше 2000. собрано так: bgp_NAT_shaper - разные машины. с bgp на NAT - в момент проблемы нет пингов пакетами больше 2000. с shaper на NAT аналогично. Зависимостей по нагрузке нет. вемя рандомное - просто на пару часов может пропасть прохождение пакетов. Логи - чистые. Куда копать вообще? может кто сталкивался?
  11. Это не индивидуальное решение. Это массовый продукт - сколько у нас СОРМов? 5-6? Сколько инсталляций ланбиллинга? тысячи? Там же по сути все одинаковое. И не надо говорить что эти небольшие изменения - стоят как раз 100 т.р. У меня там все типовое и ничего сверхъестественного нет. Я вообще считаю большой ошибкой позицию ланбиллинга в свое время отказаться от недорогой поддержки. Я платил бы и платил - с момента покупки ланбиллинга - еще версии 1.7. Годовая поддержка тогда стоила чуть дороже чем месячная после их переделки. В итоге вообще отказался от поддержи и покупал ее очень редко, когда они более менее вылизывали lts версии и там были ну очень нужные штуки. Пока я в хорошем выигрыше по затратам. И огромное спасибо за это. Все равно выхода нет - при таких ценах на скрипт придется самим делать...
  12. Я тоже запрашивал - цена безумно высокая была. Вот имхо, нормальная цена это порядка 10 тыр за это дело. Совсем мелочи я и сам подпилю.
  13. под СОРМ-2/3, спецтехнологии. Мне просто примеры, я там подпилю под себя уже. Опять же, скрипт из БД ладно, а еще ж инкрементно на фтп изменения закидывать... Промежуточную таблицу пилить что ли?
  14. Народ, не поделитесь sql скриптом для выгрузки данных в СОРМ инета?
  15. Разобрался. 2 модуля на 11 дебиане будут работать, если их собрать до того как поставить iptables. Либо если выпилить блок проверки наличия iptables из iptables_find_version в configure.
  16. Под debian 10 нормально завелись и работали 2 модуля. Проблема с debian 11.
  17. А он умеет разные пулы брать? Например 192.168.1.0/24 и 192.168.7.0/24? Кажется он подгружает только один пул реальников и все. Мне это не подойдет, нужны разные пулы. И все таки, народ, есть мысли что еще попробовать?
  18. nft для ната используется, и работает гораздо лучше Iptables. Конвертер оставим как самый плохой вариант.
  19. Поставил debian10. Chain INPUT (policy ACCEPT 0 packets, 0 bytes) pkts bytes target prot opt in out source destination 2164 613K NETFLOW all -- * * 0.0.0.0/0 0.0.0.0/0 NETFLOW 2678 734K NETFLOW2 all -- * * 0.0.0.0/0 0.0.0.0/0 NETFLOW2 root@debian10:/home/test/ipt-netflow-master# cat /proc/net/stat/ipt_netflow ipt_NETFLOW 2.6, srcversion 46006394A37CB6C91707DB4; llist Protocol version 9 (netflow), refresh-rate 20, timeout-rate 30, (templates 5, active 5). Timeouts: active 1800s, inactive 15s. Maxflows 2000000 Flows: active 49 (peak 69 reached 0d0h3m ago), mem 994K, worker delay 25/250 [1..25] (52 ms, 0 us, 42:0 0 [cpu0]). Hash: size 126382 (mem 987K), metric 1.00 [1.00, 1.00, 1.00]. InHash: 1167 pkt, 393 K, InPDU 5, 1041. Rate: 40314 bits/sec, 16 packets/sec; Avg 1 min: 31659 bps, 9 pps; 5 min: 25951 bps, 0 pps cpu# pps; <search found new [metric], trunc frag alloc maxflows>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total 16; 1 2817 781 [1.00], 0 0 0 0, traffic: 3598, 1 MB, drop: 0, 0 K Export: Rate 372 bytes/s; Total 26 pkts, 0 MB, 727 flows; Errors 0 pkts; Traffic lost 0 pkts, 0 Kbytes, 0 flows. sock0: 127.0.0.1:2000, sndbuf 212992, filled 1, peak 1; err: sndbuf reached 0, connect 0, cberr 15, other 0 root@debian10:/home/test/ipt-netflow-master# cat /proc/net/stat/ipt_netflow2 ipt_NETFLOW2 2.6, srcversion 04DBE03B2C2FA3F87645595; llist Protocol version 5 (netflow2) Timeouts: active 1800s, inactive 15s. Maxflows 2000000 Flows: active 52 (peak 69 reached 0d0h3m ago), mem 994K, worker delay 25/250 [1..25] (72 ms, 0 us, 44:0 0 [cpu0]). Hash: size 126382 (mem 987K), metric 1.00 [1.00, 1.00, 1.00]. InHash: 2816 pkt, 941 K, InPDU 16, 3253. Rate: 39976 bits/sec, 15 packets/sec; Avg 1 min: 31671 bps, 8 pps; 5 min: 27003 bps, 0 pps cpu# pps; <search found new [metric], trunc frag alloc maxflows>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total 15; 1 3274 878 [1.00], 0 0 0 0, traffic: 4152, 1 MB, drop: 0, 0 K Export: Rate 366 bytes/s; Total 27 pkts, 0 MB, 810 flows; Errors 0 pkts; Traffic lost 0 pkts, 0 Kbytes, 0 flows. sock0: 127.0.0.1:2055, sndbuf 212992, filled 1, peak 1; err: sndbuf reached 0, connect 0, cberr 27, other 0 и файрволл нормально принял правила и статистика работает... Проблема в debian11. Как бы это найти? Там iptables выпилен, вместо него правила конвертируются и добавляются в nft.
  20. насчет прокси думал, искал - не нашел красивого решения. предлагается в nfdump с патчем под v9 и из него в v5
  21. find -type f -name \* -exec sed -i -r 's/netflow/netflow2/g' {} \; find -type f -name \* -exec sed -i -r 's/NETFLOW/NETFLOW2/g' {} \; Вот так сделал. Файлы переименовал тоже. (иначе make не сработал бы, он же не найдет netflow.h например. )
  22. Тут странно вообще. Я в исходниках переименовал вообще все. Пишу iptables -I FORWARD -j NETFLOW загружает. Пишу iptables -I FORWARD -j NETFLOW2 говорит Chain 'NETFLOW2' does not exist Кажется в это пробовал делать на debian10, и на 10ке это работало. А в 11 debian под капотом уже nftables работает... Может быть с этим что-то связано. Так или иначе - задача в СОРМ отдавать v9, а в биллинг v5
  23. Пробовал разными вариантами - и netflow2 и NETFLOW2. Возможно, но биллинг не понимает v9
  24. Народ, как отправлять и 5 и 9 версию? Пересобрал модуль - везде заменил netflow на netflow2, подцепил к ядру, модуль задействовался. Не могу подцепить второй модуль в файрволл... iptables -I FORWARD -j netflow2 Chain 'netflow2' does not exist Сам модуль в ядре есть cat /proc/net/stat/ipt_netflow2 ipt_netflow2 2.6, srcversion 08AFC7D33ACEC6137DCB775; llist Protocol version 5 (netflow2) Timeouts: active 1800s, inactive 15s. Maxflows 2000000 Flows: active 0 (peak 0 reached 0d0h30m ago), mem 5120K, worker delay 25/250 [1..25] (12 ms, 0 us, 0:0 0 [cpu0]). Hash: size 655360 (mem 5120K), metric 1.00 [1.00, 1.00, 1.00]. InHash: 0 pkt, 0 K, InPDU 0, 0. Rate: 0 bits/sec, 0 packets/sec; Avg 1 min: 0 bps, 0 pps; 5 min: 0 bps, 0 pps cpu# pps; <search found new [metric], trunc frag alloc maxflows>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total 0; 0 0 0 [0.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu0 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu1 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu2 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu3 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu4 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu5 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu6 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu7 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu8 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu9 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu10 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K cpu11 0; 0 0 0 [1.00], 0 0 0 0, traffic: 0, 0 MB, drop: 0, 0 K Export: Rate 0 bytes/s; Total 0 pkts, 0 MB, 0 flows; Errors 0 pkts; Traffic lost 0 pkts, 0 Kbytes, 0 flows. sock0: 192.168.0.12:9895, sndbuf 212992, filled 1, peak 0; err: sndbuf reached 0, connect 0, cberr 0, other 0
  25. cisco 7200p router bgp 64500 bgp log-neighbor-changes network 100.0.0.0 mask 255.255.254.0 neighbor 101.0.0.1 remote-as 64501 neighbor 101.0.0.4 remote-as 64502