syster

Пользователи
  • Публикаций

    30
  • Зарегистрирован

  • Посещение

Информация о syster

  • Звание
    Абитуриент
  • День рождения
  1. Решил modprobe -r ifb modprobe ifb numifbs=5
  2. ОС: Centos 7 modprobe ifb numifbs=5 ip link set dev ifb2 up Cannot find device "ifb2" ifb0 и ifb1 поднимаются нормально В чём проблема?
  3. Имеется два сервера: сервер1(10.0.0.1) и сервер2(10.0.0.2). На втором сервере есть ещё несколько интерфейсов. Маршруты на сервере1: default 192.168.1.1 10.50.50.1 via 10.0.0.2 Маршруты на сервере2: default 10.0.0.1 10.50.50.1 via 10.40.40.1 10.40.40.1 via 10.30.30.1 10.30.30.1 via 10.20.20.1 10.20.20.1 via 10.0.0.1 Хочу при трассировке 10.50.50.1 на сервере1 видеть следующее: 1. 10.20.20.1 2. 10.30.30.1 3. 10.40.40.1 4. 10.50.50.1 Но вижу: 1. 10.50.50.1 Возможно ли что-то подобное сделать? Если да, то как?
  4. Каким образом во время трассировки берётся имя хоста? Допустим запускаю трассировку до узла 8.8.8.8 и вижу, что трафик проходит через "edge3.Frankfurt". Как настроить linux роутер, чтоб при трассировке он отдавал такой же домен?
  5. Имеется роутер с двумя камнями Opteron 6172 и сетевой Intel i350-t4 (4 гигабитных порта). На роутере настроены прерывания, да и в общем всё великолепно работает. В связи с увеличением кол-ва абонентов трафик начал существенно расти. Добавлять ещё одну сетевую не позволяет мамка сервера, да и нет смысла. Было принято решение установить 10гбитную сетевую. Выбор пал на довольно бюджетную карту Intel X520-DA2 (требуется минимум два 10G порта), работающую на чипсете Intel 82599ES. Прочитал на наге статью: "Как мы 10Gigabit на Linux роутере маршрутизировали", в которой меня смутило следующее: "Хоть и написано у Intel, что до 128 очередей, но для работы под RSS задействовано лишь 16 (остальные - это уже при виртуализации или для особых фильтров), то есть более, чем на 16 ядер оно входящий трафик не распараллелит. Отсюда и недогруз последних 8 ядер, ибо только 16 были задействованы из 24.". Вопрос в том, какую бюджетную SFP+ 2портовую сетевую можно взять, которая распараллелит трафик по всем 24 ядрам?
  6. Как-то год назад поднимал тему про нагрузку CPU во время генерации трафика утилитой hping3. Суть в том, что как только через Centos-роутер проходил hping3 трафик от абонента A к абоненту B (A<--->РОУТЕР<--->B) , процессор роутера сразу же грузился на 100%. Проблема решилась отключением dhcpd и переносом dhcp на другой сервер. Сейчас возник вопрос, можно ли профиксить это (хотелось бы dhcp держать на роутере, а не на ещё одном сервере)?
  7. С dhcp решил... ip link add link eth4 name eth4.200 type vlan id 200 ip addr add 10.0.0.1/24 dev eth4.200 ip link set eth4.200 up echo 1 > /proc/sys/net/ipv4/conf/eth4.200/proxy_arp # ip link add link eth4 name eth4.201 type vlan id 201 ip addr add 10.0.0.1/24 dev eth4.201 ip link set eth4.201 up echo 1 > /proc/sys/net/ipv4/conf/eth4.201/proxy_arp # ip route replace 10.0.0.200 dev eth4.200 ip route replace 10.0.0.201 dev eth4.201
  8. Добрый день. Цель на каждый дом запустить по отдельному влану и сэкономить на ip-адресах. Поднял на Centos ip unumbered. Есть 2 вопроса: 1)Приходится включать arp proxy, чтоб абоненты могли между собой общаться. На производительность сильно повлияет? Вообще чего мне ожидать от arp proxy в будущем? 2)Как раздать абонентам статические ip-адреса в соответствии с маком? Как поднимал: ifconfig dummy0 10.0.0.1/24 up ip link add link eth4 name eth4.200 type vlan id 200 ip link add link eth4 name eth4.201 type vlan id 201 ifconfig eth4.200 0.0.0.0 up ifconfig eth4.201 0.0.0.0 up ip route add 10.0.0.200 dev eth4.200 src 10.0.0.1 ip route add 10.0.0.201 dev eth4.201 src 10.0.0.1 arp -s 10.0.0.200 e8:94:f6:62:06:99 arp -s 10.0.0.201 8c:c8:cd:ed:7f:59 echo 1 > /proc/sys/net/ipv4/conf/eth4.200/proxy_arp echo 1 > /proc/sys/net/ipv4/conf/eth4.201/proxy_arp DHCP: shared-network net1 { subnet 10.0.0.0 netmask 255.255.255.0 { } host atestwr5 { hardware ethernet 8c:c8:cd:ed:7f:59; fixed-address 10.0.0.201; option routers 10.0.0.1; } host atestwr7 { hardware ethernet e8:94:f6:62:06:99; fixed-address 10.0.0.200; option routers 10.0.0.1; } }
  9. Да квагга, всё дело в rp_filter, спасибо большое ))
  10. Network Next Hop Metric LocPrf Weight Path *> 0.0.0.0 192.168.1.17 60 12345 21345 54321 i *> 5.32.168.0/21 192.168.1.69 60 12345 54321 15836 i *> 5.56.64.0/18 192.168.1.69 60 12345 54321 7548 i *> 5.154.190.0/24 192.168.1.69 60 12345 54321 31254 58728 i *> 5.154.191.0/24 192.168.1.69 60 12345 54321 31254 58728 i *> 31.14.180.0/23 192.168.1.69 60 12345 54321 ? *> 31.14.182.0/24 192.168.1.69 60 12345 54321 ? *> 31.14.182.204/30 192.168.1.69 60 12345 ? ...
  11. Имеется 2 подключения (оба к одной AS). По одному получаю дефолт, по другому префиксы местных провайдеров. Если поднять сессию только с местными провайдерами, то пинги до них идут, внешки нет (так и было задумано) Если поднять и дефолт и местную сеть, то пинги до местных провайдеров (именно с моей подсети) не идут, внешка работает. Пинги с подсетей, которые выдал вышестоящий идут и на внешку и на местную сеть. Конфиг (белые адреса заменены на серые): router bgp 11111 bgp router-id 192.168.1.18 network 10.10.0.0/19 !Внешка neighbor 192.168.1.17 remote-as 12345 neighbor 192.168.1.17 ebgp-multihop 255 neighbor 192.168.1.17 update-source 192.168.1.18 neighbor 192.168.1.17 weight 60 neighbor 192.168.1.17 distribute-list iout out !Местная сеть neighbor 192.168.1.69 remote-as 12345 neighbor 192.168.1.69 ebgp-multihop 255 neighbor 192.168.1.69 update-source 192.168.1.70 neighbor 192.168.1.69 weight 60 neighbor 194.143.128.29 distribute-list iout out ! access-list iout permit 10.10.0.0/19 access-list iout deny any
  12. Требуется вести учёт потребления трафика по IP адресам. Имеется сервер, на который зеркалируется весь трафик (на интерфейс eth3). Пробовал использовать netflowd + flow-capture. softflowd -i eth3 -n 127.0.0.1:9991 /etc/sysconfig/flow-capture: OPTIONS="-n 275 -w /home/dumps 0/0/9991" filter.acl: ip access-list standard n192 permit 192.168.1.0 0.0.0.255 test_report.cfg: stat-report localnet_out type ip-source-address output format ascii options +header,+xheader,+totals fields +flows,+packets,+duration sort +packets stat-report localnet_in type ip-destination-address output format ascii options +header,+xheader,+totals fields +flows,+packets,+duration sort +packets stat-definition localnet_out report localnet_out stat-definition localnet_in report localnet_in Далее вывожу отчёт по вх. трафику: flow-cat -p путь_до_дампа | flow-filter -D n192 -f filter.acl | flow-report -s test_report.cfg -S localnet_in | flow-rptfmt -f html -H отчёт выводится А вот когда пытаюсь вывести отчёт по исх. трафику, ничего не получается: flow-cat -p путь_до_дампа | flow-filter -S n192 -f filter.acl | flow-report -s test_report.cfg -S localnet_out | flow-rptfmt -f html -H Что делать? Как вывести отчёт по исх. трафику? Может быть есть другие варианты подсчёта трафика по ip? (P.S. Пожалуйста, без вопросов зачем сейчас вести учёт по трафику...)
  13. А как же у провайдеров получается? Захожу с мобилки на https://vk.com с отрицательным балансом, получаю сообщение о том, что я должен пополнить счёт...
  14. Организован редирект 80 и 443 порта всей подсети на локальный 81 порт роутера. iptables -t nat -A PREROUTING -s 10.0.0.0/8 -p tcp -m multiport --destination-port 80,443 -j REDIRECT --to-ports 81 Всё работает, при открытии http://site.ru или http://site.ru:443 открывается моя страничка на 81 порту, но вот при попытке открыть https://site.ru я получаю ошибку. Как сделать редирект https?