Перейти к содержимому
Калькуляторы

codegencolix

Пользователи
  • Публикации

    15
  • Зарегистрирован

  • Посещение

О codegencolix

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array
  1. Дело как раз в том, что у upstream провайдера на оборудовании слишком маленькая очередь, ну а весь остальной трафик соответственно дропается. Вот и думаю как мне при достижении полки в 250 мегабит, увеличивать очередь на своей стороне, чтобы максимум исключить потери пакетов. Понятно дело что это не решение проблемы. Скоро будем увеличивать полочку.
  2. Все сделал. В итоге вижу: class htb 1:1 root rate 245760Kbit ceil 245760Kbit burst 1566b/8 mpu 0b overhead 0b cburst 1566b/8 mpu 0b overhead 0b level 7 Sent 47509049778 bytes 60644002 pkt (dropped 0, overlimits 0 requeues 0) rate 248751Kbit 40431pps backlog 0b 0p requeues 0 lended: 0 borrowed: 0 giants: 0 tokens: -4371032 ctokens: -4371032 Полоса у меня в 250 мегабит. В dmesg: HTB: quantum of class 10001 is big. Consider r2q change. Может быть сделать увеличение quantum до 60000 ?
  3. Подскажите пожалуйста как можно ограничить пропускную способность канала. Этот метод не заработал: $root_cid указывал 0002 Трафик все равно ползет выше. В dmesg HTB: quantum of class 10002 is big. Consider r2q change.
  4. Всем огромное спасибо. Установил sc на шлюз, все настроил. Проц не наргужен совсем. Скорости соответствуют ТП. Нерешенной осталась только одна проблема. speedtest.net и другие онлайн замерители упорно показывают скорость максимум в 4 мегабита (при 12 положенных). Хотя скорость загрузки с трекеров выдает все положенное. Спасет ли policing per interface на PPPoE серверах в данном случае?
  5. Странно. С хранилищем SQLite таких проблем не было. Надо будет поэкспериментировать с другими базами. Следует отметить, что это решение для IPoE, а не для PPPoE. Нужно будет что-то менять в коде, чтобы часть правил создавалась на виртуальных интерфейсах. Этот шейпер я буду использовать на вышестоящем роутере. А как посмотреть какие правила будут создаваться без их применения?
  6. Проблема решилась изменением в таблице rates типа поля ip с INT(11) на VARCHAR(11) Имеется ли возможность просмотреть правила, которые будут созданы, без их применения.
  7. Есть генератор для правил шейпинга с хэш-фильтрами: http://forum.nag.ru/forum/index.php?showtopic=48301 Очень интересный генератор. Правда почему то появляется ряд ошибок. Использую mysql. В конфиге прописал network = 195.88.132.0/24 filter_network = 195.88.132.0/24 Теперь пытаюсь # sc dbadd 195.88.132.130 2048Kbit Все проходит успешно Далее # sc dbadd 195.88.132.129 2048Kbit DBD::mysql::st execute failed: Duplicate entry '2147483647' for key 'PRIMARY' at /usr/local/sbin/sc line 2067. DBD::mysql::st execute failed: Duplicate entry '2147483647' for key 'PRIMARY' at /usr/local/sbin/sc line 2067. В чем может быть проблемка?
  8. Смотрел уже в сторону хеш-таблиц. Пока не совсем понял как реализовать. Надо покурить в эту сторону =) Ээм. Действительно. Никакой цели нет =) Остановлюсь пока на варианте с TOS, как осилю хеш-таблицы - так сразу на них. У вас есть примерчик шейпера на таблицах? =) P.S. С Наступившим всех Новым Годом!
  9. Вобщем ситуация следующая. Есть PPPOE сервер, выше него стоят два шлюза. 1. Интернет 2. Пиринговый шлюз Задача: Шейпить только интернет трафик. Трафик до пиринговых сетей шейпить ненадо, так же как и трафик между пользователями. Казалось бы - самое оптимальное это повесить шейпер на Интернет шлюз, НО получается слишком много правил. Процессор не справляется. Трафик до пирингового шлюза уходит через тот же интерфейс, что и до интернета. Сейчас все организовано таким вот способом, поторый я описал в верхних постах. Сейчас вот думаю как бы пустить торрент трафик мимо шейпера? Если использовать вариант с маркировкой пакетов с TOS=8 на пиринге и пускать его мимо шейпера на pppX ? P.S. ЧТо такое ROW трафик? ПОдсказали тут вариант: на ppp только вход для клиентов и тот не весь есть row трафик, который пускаем мимо шейпера, а все остальное через шейпер. Так и непонял что за ROW трафик =)
  10. Попробую сегодня вечером. Я использую prio там. $tc qdisc add dev $dev2 root handle 1: htb default 115 $tc class add dev $dev2 parent 1: classid 1:1 htb rate ${int}kbit .... $tc class add dev $dev2 parent 1:1 classid 1:10 htb rate ${speed}kbit $tc class add dev $dev2 parent 1:1 classid 1:13 htb rate ${peer}kbit prio 5 # $tc class add dev $dev2 parent 1:10 classid 1:111 htb rate ${p2p}kbit ceil ${speed}kbit prio 7 $tc class add dev $dev2 parent 1:10 classid 1:112 htb rate ${www}kbit ceil ${speed}kbit prio 3 $tc class add dev $dev2 parent 1:10 classid 1:113 htb rate ${udp}kbit ceil ${speed}kbit prio 3 $tc class add dev $dev2 parent 1:10 classid 1:115 htb rate ${other}kbit ceil ${speed}kbit prio 5 $tc qdisc add dev $dev2 parent 1:13 handle 13: sfq perturb 10 $tc qdisc add dev $dev2 parent 1:112 handle 112: sfq perturb 10 $tc qdisc add dev $dev2 parent 1:113 handle 113: sfq perturb 10 $tc qdisc add dev $dev2 parent 1:115 handle 115: sfq perturb 10 Ну а ниже u32 match
  11. Так и делали, но потом появилась необходимость скорости до определенных сетей. Пиринг - 100 мегабит, инет - по тарифу. К сожалению TBF classless =( По увеличению очереди можно поподробнее? Каким именно образом?)
  12. У вас htb+sfq, добавляйте +5% тогда будет по тарифу ) =) Было бы все так просто. У http трафика стоит самый высокий приоритет,а спидтест при 12Мегабит в сек показывает только 4-5 =(
  13. Уж слишком много фильтров и классов получается при выводе след. команд: tc -s class show dev eth1 tc -s filter show dev eth1 Приоритезацию, как и сказали, разделил на другой сервер. А как на этом грамотнее шейпить исход. трафик? Может в ifb интерфейс засунуть и там шейпить?
  14. Спасибо за совет по приоритезации. Тоже об этом думал. А по поводу этой схемы... Скорости получаются заметно ниже, чем предусмотрено шейпером. Хотя полоса позволяет. P.S. На сервере порядка 300-350 pppoe сессий
  15. Добрый день. Есть софт-роутер с линуксом На нем поднят PPPOE сервер. Одним интерфейсом (eth0) он смотрит в локальную сеть, другим (eth1) в интернет. Полоса интернет 100 мегабит. Задача шейпить трафик в сеть интернет. Между пользователями скорость ограничиваться не должна. Сейчас все сделано след образом: При загрузке системы выполняется след tc qdisc add dev eth1 root handle 1: htb # СОздаем корневую дисциплину HTB для управления исходящим трафиком tc class add dev eth1 parent 1: classid 1:1 htb rate 1048576kbit # Указываем макс. скорость на интерфейсе При поднятии pppoe соединения выполняется след скрипт: $tc qdisc del dev $PPP_IFACE root # Трафик к клиенту (вход) $tc qdisc add dev $PPP_IFACE root handle 1: htb default 20 $tc class add dev $PPP_IFACE parent 1: classid 1:1 htb rate ${allspeed}kbit # Общая скорость на ppp интерфейсе $tc class add dev $PPP_IFACE parent 1:1 classid 1:10 htb rate ${vspeed}kbit # Скорость между ppp соединениями $tc class add dev $PPP_IFACE parent 1:1 classid 1:20 htb rate ${speed}kbit # Скорость в сеть интернет $tc filter add dev $PPP_IFACE protocol ip parent 1:0 prio 1 u32 match ip dst 195.88.*.*/24 match ip src 195.88.*.0/24 flowid 1:10 # Тут мы устанавливаем фильтры на наших ip dev_out=eth1 X=`echo $PPP_IFACE | cut -d'p' -f4` let "X = $X + 2" $tc class add dev $dev_out parent 1: classid 1:$X htb rate ${ishspeed}kbit ceil ${ishspeed}kbit prio 3 # Исходящая скорость $tc qdisc add dev $dev_out parent 1:$X handle $X: sfq perturb 10 $tc filter add dev $dev_out protocol ip parent 1: prio $X u32 match ip src $PPP_REMOTE flowid 1:$X ПОкритикуйте пожалуйста схему. Как ко всему этому можно прикрутить прриоритезацию. Например HTTP трафик должен иметь больший приоритет нежели торренты