deep_admin
-
Публикации
237 -
Зарегистрирован
-
Посещение
Сообщения, опубликованные пользователем deep_admin
-
-
Нужно следущее... есть серваки на linux, упсы иппон с управлением по ком порту. Нужно софтовое решение в случае отрубания электричества, чтобы отсылала смс на телефон.
Ктонибудь чтонибудь такое использует?
Используем упсы APC с платами управления, они сами умеют слать электронные письма, в качестве адресата которого можно указать 9хххххххх@beeline.ru например. Для линукса можно подобрать прогу типа apcupsd, которая будет контролировать упс и слать сообщения таким же макаром на электронку, которую сотовый оператор пришлет в виде смс.
модельку упса не подскажите?
-
вы хотите сказать что в 20мгц запихнули 70мбит/с? или я что-то не так понял?
я думаю вы представляете себе сколько полосы ЭТО занимает в эфире :)Две карты R52 +RB333 с каждой стороны линка с дистанцией в 5км... одна карта в режиме 5ггц вторая 2.4 + офсетная тарель 1.2м с облучателем "банкой" c двумя резонаторами (один расчитан на 2.4ггц второй на 5ггц) МТ+DualNstream= в итоге стабильные 140Mbit c двух bonding интерфейсов езернета ..причем стабильно ..
на столе то все красиво...
20мгц полосы в 2.4ггц (т.е. один стандартный канал в 20мгц) и также один в 5ггц = 40мгц общей полосы также как и атеросовское 108g но только с реальными 140 мбит :)))) Можно тоже сделать и на двух PC с pci dlink ag530 (у треднета подещевле тоже есть аналоги) .. мне больше понравилось что не надо лепить по две антены с каждой стороны ...
в атеросовском 108g ширина канала 40мгц - проверялось лично спектроанализатором
-
я думаю вы представляете себе сколько полосы ЭТО занимает в эфире :)Две карты R52 +RB333 с каждой стороны линка с дистанцией в 5км... одна карта в режиме 5ггц вторая 2.4 + офсетная тарель 1.2м с облучателем "банкой" c двумя резонаторами (один расчитан на 2.4ггц второй на 5ггц) МТ+DualNstream= в итоге стабильные 140Mbit c двух bonding интерфейсов езернета ..причем стабильно ..на столе то все красиво...
-
схема более чем жизнеспособная, пппое в кернел-моде имеет network-speed, то есть практически без оверхеда
кстати такая схема легко масштабируется, можно поставить 2,3,N концентраторов которые на автомате будут балансировать пппое-подключения
-
http://www.intraffic.com.ua/ - вижу свет в конце тонеля :))) Эту сетку явно не бывшие военные планировали :)
Заметте разницу между военными и образованными людьми - не скрывают оборудования, тут фотки, рассказывают про технологию :)
да уж, фотки - зашибись :)
и сетка серьезная с wnet'ом почему то, а не УТ в качестве аплинка, и даже с отсутствием своей аски. Зато ПОН-блин
-
а подскажите, возможно ли на микротике организовать AP Isolation для беспроводных клиентов?
что-то в мануалах не могу найти...
в access list'е убрать галочку forwarding
-
не подскажите каким образом можно эти синтетические нагрузки создавать?
вот щас создал синтетическую нагрузку порядка 60-80kpps между серверами (имхо, больше каталист не тянет)>у меня накопительный счетчик (в top) показывает никак не более 1 секунды
Пока 5-10К p/s - у меня тоже не более секунды натикивает.
А как поднимается до 50000 - так хоть "top не смотри". Одно расстройство.
например на линуксе вот таким скриптом:
#! /bin/sh modprobe pktgen function pgset() { local result echo $1 > $PGDEV result=`cat $PGDEV | fgrep "Result: OK:"` if [ "$result" = "" ]; then cat $PGDEV | fgrep Result: fi } function pg() { echo inject > $PGDEV cat $PGDEV } PGDEV=/proc/net/pktgen/kpktgend_0 echo "Removing all devices" pgset "rem_device_all" echo "Adding eth0" pgset "add_device eth0" echo "Setting max_before_softirq 10000" pgset "max_before_softirq 10000" CLONE_SKB="clone_skb 0" # NIC adds 4 bytes CRC PKT_SIZE="pkt_size 64" # COUNT 0 means forever #COUNT="count 0" COUNT="count 100000000" DELAY="delay 100000" PGDEV=/proc/net/pktgen/eth0 echo "Configuring $PGDEV" pgset "$COUNT" pgset "$CLONE_SKB" pgset "$PKT_SIZE" pgset "$DELAY" # Random address with in the min-max range pgset "flag IPDST_RND" pgset "dst_min 192.168.0.1" pgset "dst_max 192.168.255.255" pgset "dst_mac 00:0D:65:8F:B1:34" pgset "udp_dst_min 1000" pgset "udp_dst_max 65535" # Time to run PGDEV=/proc/net/pktgen/pgctrl echo "Running... ctrl^C to stop" pgset "start" echo "Done"
-
да, это с рабочего девайсаи он реально присутствовал в транке?на white russian мне не удавалось добавить больше 15
ls /proc/switch/eth0/vlan/
только первые 15 :(
-
//marten разминает пальцы
итак :)
активно юзаем openwrt (тока white russian), на нем больше всего установок. железяка - linksys wrt 54 gl, в асусе номера портов другие!
роутит до 35Мбит/с по моим подсчетам (циски 800 серии нервно курят :) ), pps не знаю, не считал.
думаю, больше не выйдет, это связано с архитектурой железа (фактически, там router on the stick, т.е. даже в теории больше 50 Мбит не выйдет), ну и проц 200мгц тоже не фонтан.
есть некоторые существенные ограничения (во всяком случае в линксисе): встроенный свич держит 15 вланов и только номера 1...15, умеет транки, но не умеет во влан добавлять более 2х портов (стоит учесть, что один порт - аплинк к самому ядру девайса, поэтому реально остается 1 порт).
вот пример простого стартового скрипта
не знаю, у нас получались любые номера вланов на WRT54GL, правда в режиме роутера, например
цепляем 102 влан к wan-порту
VLAN_ID=102 VLAN_IFACE="vlan$VLAN_ID" robocfg switch disable vlans enable reset vlan $VLAN_ID ports "0 1 2 3 4t 5t" \ port 0 state enabled stp none switch enable vconfig add eth0 $VLAN_ID ifconfig $VLAN_IFACE up brctl delif br0 vlan0 brctl addif br0 $VLAN_IFACE ifconfig vlan0 down ifconfig vlan1 down vconfig rem vlan0 vconfig rem vlan 1
-
кстати, ктонибудь тестил, сколько мегабит / пакетов способно это чудо прорутить?
после 5kpps начинает перегружаться :)
-
Увидел такую штуку. Что это за чудо и где взять? может пользует кто?
а смысл? вы так часто добавляете новые хосты в нагиос? или мониторите всех юзеров?
-
Опубликовано · Изменено пользователем deep_admin · Жалоба на ответ
Прошу отписаться, какое максимальное кол-во пакетов в секунду обрабатывает ядро Вашего Linux-роутера без ощутимых потерь в производительности.В моем случае - Xeon 2.4 Debian Etch - 50000 P/s. После начинаются тормоза, отказы в авторизации (PPPoE,radius) и повышенная загрузка от ksoftirqd.
Хотелось бы услышать мнения других людей на эту тему.
процессор: P4 D 3.40GHz HT
сетевые: intel pro/1000 PT PCI-e x1 2 шт, драйвера с включенным NAPI
pps: ~ 160000 с файрволом и шейперами (в рабочем режиме) и ~200000 чистый роутинг
pppoe только kernel-space
система: asplinux 11
-
load-balancing не просуммирует скорость, на то это и балансировка, нужен именно бондинг, или транк если l2
Необходим роутер который разделит исходящий и входящий поток с одного eth порта на два других eth порта с той целью что бы один из них работал только на прием а второй только на передачу.
если каждая пара точек будет обеспечивать только прием или передачу, то 70 мегабит это прием+передача или же 35мбит фул-дуплекса.
кстати лоад-балансинг на линуксах работает per route, а не per packet поэтому канал не просуммируется
-
а что если вешать 2 облучателя на одно зеркало?
Тогда будет "два луча" один из которых можно "нацелить" на желаемый объект
а второй на другой желаемый объект. На один и тот же желаемый объект
"оба луча" "нацелить" невозможно.
какой роутер посоветуете для такой задачи? (интересует есно минимальная цена)
Тот который может обеспечить load-balancing для реальных 70 Mbit.
load-balancing не просуммирует скорость, на то это и балансировка, нужен именно бондинг, или транк если l2
-
на столе примерно 5,5 килопакетов оригинальные ББ
-
пппое?
есть допустим сегменты которые висят на радио, прогонять L2 через вайфай - бред.
почему???
-
У моих точек проц Atmel AT76C510. что лить предлагаете?
ничего не надо лить, я так понял что эта точка работает в режиме езернет-конвертор (как старые люценты), другими словами форвардит мак с езернета в радио. Поэтому надо на базе прописывать мак самого клиента а не точки, ну и соответсвенно более одного мака в радио не пролезет, так что за точкой только роутер
-
После перепрошивки точка видно МAC-ом девайся который к Ethernet порту подключен. Если кабель запихать в комп все будет работать на ура. Но каждый эффект имеет свой дефект. А что если кабель воткнуть в свич к которому соединении 2(и больше) машин ?? Так и сделал. И пинги пропали, точка исчезла, стоит снять все кабели из свича и оставить только 1, точка появляется, нормально работает, регистрируется на МТ MAC-ом единственной машины подключенной свичу. Теперь подключаем 2-ой кабель, и точка пропадает. Как решить эту проблему? L2 свич поможет? Предполагаю что Точка будет виден MAC-м свича и никаких проблем не будет. Или я плохо предполагаю?
не занимайтесь ерундой, вам нужна прошивка которая будет уметь делать mac-nat, такое есть практически на любой точке на rtl8186
ниодин свитч такого функционала не имеет, этот костыль специально придуман для обхода ограничений мак-уровня 802.11 в режиме АП-клиент
-
ну http сессию еще реально собрать в файлы, а вот остальные протоколы ...
может достаточно статистики по well known services ?
-
Заранее извините за глупый вопрос, помимо создания route-object для каждой сети /24 (как показано в примере) нужно оставить route-object для всей сети /23 (не хочется лишний раз допустить ошибки в БД RIPE)?
нужно, вам же его тоже надо анонсировать
-
Мне такая же аналогия придумалась :) Но у меня тогда вопрос: если я начал качать большой блок данных по протоколу без контроля потока, то удаленный сервер по своему широкому каналу будет передавать его непрерывно и не угомонится пока данные не закончатся. Этому процессу должен быть некоторый предел (ведь TCP/IP имеет собственные средства контроля потока), после которого серверу пойдут отлупы и он будет думать прежде чем передать следующий кусок данных? Если так, то значит уменьшение размера пакета и длины очереди таки поможет улучшить время реакции, или я чего-нибудь недопонимаю?ps: пришла в голову автомобильная аналогия:
трасса, три полосы. все едут 100-120. въезд в город - пост дпс, все едут по одной полосе, скорость 40-60. перед постом образуется пробка, в ней машины теряют время.
вот ваш узкий канал - это пост дпс, если пакетов больше, чем он может пропустить - возникает та же самая пробка, задержки увеличиваются.
когда пробка становится слишком большой - часть машин разворачивается и едет назад или ищет обходную дорогу (для нас они пропали - через пост дпс они уже не проедут).
вот пакеты начали теряться.
из известных протоколов такой контроль имеет только TCP и тому подобные реализации, опять же размер пакета не уменьшится, станет размер сегмента, но все равно не менее размера MTU - служебная инфа. С UDP такого даже не произойдет - не влезающие в канал пакеты будут тупо отбрасываться
-
Так, а если каким-либо образом уменьшить максимальный размер пакета и длину буфера передачи, то по идее должно сократиться и время между успешным проталкиванием блока данных в сокет и их реальным уходом в мир?не почему, а зачем
шейпер именно "размазывает" трафик в попытке одновременно не превысить скорость, и не потерять пакеты.
А почему тогда пинги продолжают доходить (и почти так же быстро как и без нагрузки)? Или мне кто-то не дает на все 100% загрузить сеть? Слышал краем уха когда-то про надстройку QoS и десятипроцентный резерв канала под нее...В случае с физикой - лишнее просто отбрасывается.вы врядли грузите 100мбит езернета под 100%, вы попробуйте взять железки ну например теже дслки или вай-фай и нагрузить их, и посмотрите на пинги
icmp это такой же трафик как и любой другой
-
Примерно так же, как до 100 Mbps ограничивает скорость обычная сетевая плата....по-другому это как?
она не ограничивает, тут физика не позволяет....
если хотите такого же - используйте оборудование для подключения к провайдеру которое физически не сможет дать большую скорость, например e1 с одним таймслотом (как раз 64кбит/с)
-
Запланированный рестарт
в Беспроводные сети Wi-Fi, 3G/LTE/5G, LoRa...
Опубликовано · Жалоба на ответ
Легко под виндой, качаете ActivePerl с www.activestate.com/Products/activeperl/
там есть модуль Net::Telnet
вот пример скрипта работающего с dlink-совместимым cli
подставьте свой адрес/логин/пароль и вместо команды get sta пишите reboot
все :)