Перейти к содержимому
Калькуляторы
  

398 пользователей проголосовало

  1. 1. Ось для бордера



Vote. Система для бордера Кто что держит на бордерах?

Нет, если прерывания валятся только на TxRx0 - это к сетевому адаптеру. А вот если прерывания по очередям идут нормально - но весь трафик на одном проце - это к RPS в 6.1.

Покажите cat /proc/interrupts и вывод ethtool для сетевухи

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Немного поправлюсь. Они не все конечно валятся на очередь TxRx0 (которая у меня прибита к последнему ядру второго проца), а скажем так значительное количество идет туда, а на остальные значительно меньше. Соответственно, негрузка в основном на этом ядре (картинка на несколько постов выше). После Вашего совета о переходе с htb на hfsc нагрузка стала значительно ниже, но все еще очень большая (при простое остальных ядер). Ни как не пойму, откуда она берется и как ее раскидать по ядрам. У меня pppoe и ifb висят на vlan`ах поверх eth0 (10g)

 

 

 59:       9810          0          0          0          0          0          0          0          0          0          0 2087373723   PCI-MSI-edge      eth0-TxRx-0
 60:       4743          0          0          0          0          0          0          0          0          0  183627210          0   PCI-MSI-edge      eth0-TxRx-1
 61:       5103          0          0          0          0          0          0          0          0  187729546          0          0   PCI-MSI-edge      eth0-TxRx-2
 62:       6302          0          0          0          0          0          0          0  187173782          0          0          0   PCI-MSI-edge      eth0-TxRx-3
 63:       4609          0          0          0          0          0          0  183738173          0          0          0          0   PCI-MSI-edge      eth0-TxRx-4
 64:       4132          0          0          0          0          0  179825009          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-5
 65:       5279          0          0          0          0  192252216          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-6
 66:       4988          0          0          0  176515970          0          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-7
 67:      12692          0          0  162994130          0          0          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-8
 68:       4636          0  168253244          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-9
 69:      58235 3618274074          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-10
 70:  172626382          0          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eth0-TxRx-11
 71:         21          0          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eth0

ethtool -S eth0                                                                                                                                          
NIC statistics:                                                                                                                                                         
    rx_packets: 4830390091                                                                                                                                             
    tx_packets: 4797593879                                                                                                                                             
    rx_bytes: 4117704265573                                                                                                                                            
    tx_bytes: 4084315741514                                                                                                                                            
    rx_errors: 0                                                                                                                                                       
    tx_errors: 0                                                                                                                                                       
    rx_dropped: 0                                                                                                                                                      
    tx_dropped: 0                                                                                                                                                      
    multicast: 4908277                                                                                                                                                 
    collisions: 0                                                                                                                                                      
    rx_over_errors: 0                                                                                                                                                  
    rx_crc_errors: 0                                                                                                                                                   
    rx_frame_errors: 0                                                                                                                                                 
    rx_fifo_errors: 0                                                                                                                                                  
    rx_missed_errors: 0                                                                                                                                                
    tx_aborted_errors: 0                                                                                                                                               
    tx_carrier_errors: 0                                                                                                                                               
    tx_fifo_errors: 0                                                                                                                                                  
    tx_heartbeat_errors: 0                                                                                                                                             
    rx_pkts_nic: 4830388053                                                                                                                                            
    tx_pkts_nic: 4797593421                                                                                                                                            
    rx_bytes_nic: 4156346824048                                                                                                                                        
    tx_bytes_nic: 4123447489222                                                                                                                                        
    lsc_int: 2                                                                                                                                                         
    tx_busy: 0                                                                                                                                                         
    non_eop_descs: 0                                                                                                                                                   
    broadcast: 1388024                                                                                                                                                 
    rx_no_buffer_count: 0                                                                                                                                              
    tx_timeout_count: 0                                                                                                                                                
    tx_restart_queue: 7110                                                                                                                                             
    rx_long_length_errors: 0                                                                                                                                           
    rx_short_length_errors: 0                                                                                                                                          
    tx_flow_control_xon: 301                                                                                                                                           
    rx_flow_control_xon: 0                                                                                                                                             
    tx_flow_control_xoff: 1279                                                                                                                                         
    rx_flow_control_xoff: 0                                                                                                                                            
    rx_csum_offload_errors: 94                                                                                                                                         
    alloc_rx_page_failed: 0                                                                                                                                            
    alloc_rx_buff_failed: 0                                                                                                                                            
    lro_aggregated: 0                                                                                                                                                  
    lro_flushed: 0                                                                                                                                                     
    lro_recycled: 0                                                                                                                                                    
    rx_no_dma_resources: 0                                                                                                                                             
    hw_rsc_aggregated: 0                                                                                                                                               
    hw_rsc_flushed: 0                                                                                                                                                  
    fdir_match: 46348                                                                                                                                                  
    fdir_miss: 2314556141                                                                                                                                              
    fdir_overflow: 2851                                                                                                                                                
    fcoe_bad_fccrc: 0                                                                                                                                                  
    fcoe_last_errors: 0                                                                                                                                                
    rx_fcoe_dropped: 0                                                                                                                                                 
    rx_fcoe_packets: 0                                                                                                                                                 
    rx_fcoe_dwords: 0                                                                                                                                                  
    tx_fcoe_packets: 0                                                                                                                                                 
    tx_fcoe_dwords: 0                                                                                                                                                  
    os2bmc_rx_by_bmc: 0                                                                                                                                                
    os2bmc_tx_by_bmc: 0                                                                                                                                                
    os2bmc_tx_by_host: 0                                                                                                                                               
    os2bmc_rx_by_host: 0                                                                                                                                               
    tx_queue_0_packets: 2806291                                                                                                                                        
    tx_queue_0_bytes: 741568314                                                                                                                                        
    tx_queue_1_packets: 3034008                                                                                                                                        
    tx_queue_1_bytes: 347044974                                                                                                                                        
    tx_queue_2_packets: 2266473                                                                                                                                        
    tx_queue_2_bytes: 312981475                                                                                                                                        
    tx_queue_3_packets: 2561228                                                                                                                                        
    tx_queue_3_bytes: 298322645                                                                                                                                        
    tx_queue_4_packets: 2740544                                                                                                                                        
    tx_queue_4_bytes: 374884421                                                                                                                                        
    tx_queue_5_packets: 2956444                                                                                                                                        
    tx_queue_5_bytes: 407615884
    tx_queue_6_packets: 1907654
    tx_queue_6_bytes: 230587865
    tx_queue_7_packets: 1719369
    tx_queue_7_bytes: 225944085
    tx_queue_8_packets: 1654237
    tx_queue_8_bytes: 210841162
    tx_queue_9_packets: 1866286
    tx_queue_9_bytes: 231383402
    tx_queue_10_packets: 4767905812
    tx_queue_10_bytes: 4078986724882
    tx_queue_11_packets: 6175543
    tx_queue_11_bytes: 1947845892
    rx_queue_0_packets: 2714495756
    rx_queue_0_bytes: 2428993038335
    rx_queue_1_packets: 197828385
    rx_queue_1_bytes: 164548775761
    rx_queue_2_packets: 202104788
    rx_queue_2_bytes: 161655362204
    rx_queue_3_packets: 201369212
    rx_queue_3_bytes: 161402428212
    rx_queue_4_packets: 197967978
    rx_queue_4_bytes: 162024987313
    rx_queue_5_packets: 193069683
    rx_queue_5_bytes: 152821196376
    rx_queue_6_packets: 207219588
    rx_queue_6_bytes: 167266301112
    rx_queue_7_packets: 195073927
    rx_queue_7_bytes: 148559741626
    rx_queue_8_packets: 175986588
    rx_queue_8_bytes: 144089758033
    rx_queue_9_packets: 180823351
    rx_queue_9_bytes: 143701270579
    rx_queue_10_packets: 180652473
    rx_queue_10_bytes: 138943716530
    rx_queue_11_packets: 183798372
    rx_queue_11_bytes: 143697694353

ethtool -k eth0
Offload parameters for eth0:
rx-checksumming: on
tx-checksumming: on
scatter-gather: on
tcp-segmentation-offload: off
udp-fragmentation-offload: off
generic-segmentation-offload: off
generic-receive-offload: off
large-receive-offload: off


ethtool -c eth0
Coalesce parameters for eth0:
Adaptive RX: off  TX: off
stats-block-usecs: 0
sample-interval: 0
pkt-rate-low: 0
pkt-rate-high: 0

rx-usecs: 1
rx-frames: 0
rx-usecs-irq: 0
rx-frames-irq: 0

tx-usecs: 0
tx-frames: 0
tx-usecs-irq: 0
tx-frames-irq: 256

rx-usecs-low: 0
rx-frame-low: 0
tx-usecs-low: 0
tx-frame-low: 0

rx-usecs-high: 0
rx-frame-high: 0
tx-usecs-high: 0
tx-frame-high: 0


ethtool -g eth0
Ring parameters for eth0:
Pre-set maximums:
RX:             4096
RX Mini:        0
RX Jumbo:       0
TX:             4096
Current hardware settings:
RX:             1024
RX Mini:        0
RX Jumbo:       0
TX:             1024


ethtool -i eth0
driver: ixgbe
version: 3.6.7-NAPI
firmware-version: 0x000118ef
bus-info: 0000:03:00.0

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Немного поправлюсь. У меня pppoe

Трафик инкапсулированный в PPPoE не параллелится силами драйвера, и ничего с этим не сделаешь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Немного поправлюсь. У меня pppoe

Трафик инкапсулированный в PPPoE не параллелится силами драйвера, и ничего с этим не сделаешь.

И какой выход?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Немного поправлюсь. У меня pppoe

Трафик инкапсулированный в PPPoE не параллелится силами драйвера, и ничего с этим не сделаешь.

И какой выход?

Использовать несколько гигабитных адаптеров(число равно количеству ядер) в бондинге, 10г для нагруженных pppoe-брасов не имеет смысла.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, в случае PPPoE надо использовать RPS, т.е. софтово раскидывать трафик на процы уже после декапсуляции, на PPP-интерфейсах. Ну и да - несколько сетевых плат не помешает.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в случае PPPoE надо использовать RPS, т.е. софтово раскидывать трафик на процы уже после декапсуляции, на PPP-интерфейсах

Будьте любезны, подробнее об этом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

echo X > /sys/class/net/pppY/queues/rx-0/rps_cpus

 

X - ваша маска RPS для CPU

Y - номер PPP-интерфейса

 

Можно сию операцию завесить на ip-up, чтобы автоматически вешалось на каждый интерфейс PPP.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Можно сию операцию завесить на ip-up, чтобы автоматически вешалось на каждый интерфейс PPP.

Рандомно, что бы равномерно загрузить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Зачем рандомно? Он и так будет по хешам IP-адресов и портов в пакетах раскидывать по процам. Укажите маску процов, к которым хотите прибивать фреймы (тут зависит от задач, например я обычно одно ядро выкидываю, и к нему строго прибиваю весь софт-обвязку).

 

Если у вас цента 6.1 - раскидывать не будет, надо патчить. См. тут: https://bugzilla.redhat.com/show_bug.cgi?id=757040 - первый баг в багрепорте в C6.1 не существует, существует только в нашей версии ядра - это был косяк при обработке данных с внутреннего багтрекера. А вот второй баг - имеется.

 

Вам удобнее будет второй предложенный в багрепорте вариант исправления - всего одна правка в net/core/dev.c, и не нарушает ABI:

tcpu = map->cpus[((u64) skb->rxhash * map->len) >> 32];
заменить на
tcpu = map->cpus[((u32) skb->rxhash * map->len) >> 16];

Не уверен в равномерности распределения по процам при таком варианте, мы используем вариант с 32-битным rxhash, но это разрушает ABI по skb.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Пару вопросов. Почему ffff не делаете. В этом форуме один человек писал, что ffff ну никак у него не работает, только к конкретному процу. У Вас так же?

Интерфейсы IFB прибиваете, или они сами по себе?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Поставил 3.1.5. Настроил RPS. Получилось, точнее сказать не получилось:

12:07:48 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %idle

12:07:49 all 0.17 0.00 0.17 0.00 0.92 9.33 0.00 0.00 89.42

12:07:49 0 2.00 0.00 1.00 0.00 1.00 7.00 0.00 0.00 89.00

12:07:49 1 0.00 0.00 0.00 0.00 1.00 6.00 0.00 0.00 93.00

12:07:49 2 0.00 0.00 0.00 0.00 1.00 5.00 0.00 0.00 94.00

12:07:49 3 0.00 0.00 0.00 0.00 1.01 5.05 0.00 0.00 93.94

12:07:49 4 0.00 0.00 1.00 0.00 1.00 6.00 0.00 0.00 92.00

12:07:49 5 0.00 0.00 0.00 0.00 0.99 6.93 0.00 0.00 92.08

12:07:49 6 0.00 0.00 0.00 0.00 1.00 7.00 0.00 0.00 92.00

12:07:49 7 0.00 0.00 0.00 0.00 1.00 7.00 0.00 0.00 92.00

12:07:49 8 0.00 0.00 0.00 0.00 1.00 6.00 0.00 0.00 93.00

12:07:49 9 0.00 0.00 0.00 0.00 0.99 6.93 0.00 0.00 92.08

12:07:49 10 0.00 0.00 0.00 0.00 1.00 6.00 0.00 0.00 93.00

12:07:49 11 0.99 0.00 0.00 0.00 0.99 43.56 0.00 0.00 54.46

 

 

Вернул 2.6.32.50. Получилось:

12:25:56 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %idle

12:25:57 all 0.25 0.00 2.23 0.00 0.00 1.40 0.00 0.00 96.13

12:25:57 0 2.00 0.00 6.00 0.00 0.00 3.00 0.00 0.00 89.00

12:25:57 1 1.02 0.00 10.20 0.00 0.00 0.00 0.00 0.00 88.78

12:25:57 2 0.99 0.00 0.00 0.00 0.00 0.99 0.00 0.00 98.02

12:25:57 3 0.00 0.00 0.86 0.00 0.00 0.86 0.00 0.00 98.28

12:25:57 4 0.00 0.00 0.00 0.00 0.00 1.12 0.00 0.00 98.88

12:25:57 5 0.00 0.00 0.00 0.00 0.00 2.91 0.00 0.00 97.09

12:25:57 6 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00

12:25:57 7 0.00 0.00 0.00 0.00 0.00 0.87 0.00 0.00 99.13

12:25:57 8 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00

12:25:57 9 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00

12:25:57 10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.00

12:25:57 11 0.99 0.00 8.91 0.00 0.00 7.92 0.00 0.00 82.18

 

 

И это в дневные часы, когда нагрузка не большая....

Или я делаю что-то не то, или новое ядро нагружается на тех же задачах в пять раз больше.

Кроме того, на каком ядре прибита очередь, на том нагрузка и осталась. echo X > /sys/class/net/pppY/queues/rx-0/rps_cpus в ip-up делал....

Изменено пользователем telecom

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Банально. Менялся HFSC на HTB в SSG, после этого нагрузка от softirq росла где-то втрое. По коду сложности алгоритмов сопоставимы, разница есть в пользу HFSC, но вряд ли троекратный рост можно объяснить этой разницей.

В пару раз точно. По сложности реализации HFSC легче и гибче.

 

поскольку HFSC даёт ко всему прочему более стабильные параметры потока (с HTB правильное задание параметров, чтобы пропускную способность клиента не бросало из стороны в сторону - настоящее мучение, особенно когда верхний порог начинает превышать 10mbps), было решено не мучаться.

Действительно, более гладкое ограничение. В HTB при скоростях выше 6-10 надо делать динамический burst

 

Сразу говорю - есть определённая специфика. Шейперы висят на pppX/ifbX, коих очень много (от одной до нескольких тысяч). Поэтому вполне возможно, что HTB загнивает именно в таких условиях. Ну и на последних ядрах не тестировал, вполне возможно, что что-то починилось. Надо будет попробовать, если попробую - напишу результат.

У меня абсолюто такая же специфика. Грабли полезли, как ни странно, после перехода с FC13 на Centos6. Проблема в значительно большем кол-ве прерываний на первой очереди. Поделитесь, плиз, идеями.

 

Есть ли возможность в HFSC сделать аналог burst или cburst как в htb ? Вчера читал про hfsc, но ничего аналогичного не нашёл, хотя бурст нужен.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Пару вопросов. Почему ffff не делаете. В этом форуме один человек писал, что ffff ну никак у него не работает, только к конкретному процу. У Вас так же?

Интерфейсы IFB прибиваете, или они сами по себе?

Делаем. Прибиваем к каждому PPPoE свой IFB, редиректим на ffff.

 

Есть ли возможность в HFSC сделать аналог burst или cburst как в htb ?

Нет. А зачем он Вам? У HFSC time-based лимитер, не токены, burst там без надобности.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Пару вопросов. Почему ffff не делаете. В этом форуме один человек писал, что ffff ну никак у него не работает, только к конкретному процу. У Вас так же?

Интерфейсы IFB прибиваете, или они сами по себе?

Делаем. Прибиваем к каждому PPPoE свой IFB, редиректим на ffff.

 

Есть ли возможность в HFSC сделать аналог burst или cburst как в htb ?

Нет. А зачем он Вам? У HFSC time-based лимитер, не токены, burst там без надобности.

 

Ну чтобы N мегабайт качалось с одной скоростью, а дальше с более медленной :-). У htb это можно бурстами делать, например, www ночит бурстовый характер.

 

Если можно, приведите пример сабкласса hfsc с time-based параметрами, где, например, можно качать 30 секунд со скоростью 5 мегабит, а дальше - с 1 мбит. Или 30 секунд с бесконечностью, а дальше с мегабитом. Ещё хотелось бы коментарии к этому подробные, а то из доки ничё не понял.

Изменено пользователем wtyd

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Например вот так:

 

tc class add dev eth0 parent 1:1 classid 1:2 hfsc sc m1 2048kbit d 30s m2 1024kbit ul rate 2048kbit

 

В первые 30 секунд классу будет гарантироваться 2048Kbps, далее - 1024Kbps.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Например вот так:

 

tc class add dev eth0 parent 1:1 classid 1:2 hfsc sc m1 2048kbit d 30s m2 1024kbit ul rate 2048kbit

 

В первые 30 секунд классу будет гарантироваться 2048Kbps, далее - 1024Kbps.

 

Блин, как же всё просто :-). Касательно приведённого примера есть вопрос: при каком условии полоса снова увеличится до 2Мбит на 30 секунд ? В терминологии htb есть время перезарядки бурста - это когда токены нагенерятся снова на новый бурст, а в hfsc как это происходит ?

 

А то ведь обязательно найдутся умники, которые будут качать по 30 секунд, потом останавливать и потом докачку включать - захотят выжрать полосу по-больше. Ну и так, чтобы самому знать, я уже почти собрался с htb на hfsc переходить :-).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А то ведь обязательно найдутся умники, которые будут качать по 30 секунд, потом останавливать и потом докачку включать - захотят выжрать полосу по-больше. Ну и так, чтобы самому знать, я уже почти собрался с htb на hfsc переходить :-).

Не стоит заморачиваться с этим повышением полосы пропускания на 30 секунд. Провайдер должен предоставить полосу согласно тарифному плану, а приоритизация и прочие тонкие настройки -- дело пользователя. Если пользователь ничего не соображает и забивает собственную полосу торрентами -- это его проблемы, т.к. он не разобрался в настройке ограничения скоростей торрент-клиента.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А то ведь обязательно найдутся умники, которые будут качать по 30 секунд, потом останавливать и потом докачку включать - захотят выжрать полосу по-больше. Ну и так, чтобы самому знать, я уже почти собрался с htb на hfsc переходить :-).

Не стоит заморачиваться с этим повышением полосы пропускания на 30 секунд. Провайдер должен предоставить полосу согласно тарифному плану, а приоритизация и прочие тонкие настройки -- дело пользователя. Если пользователь ничего не соображает и забивает собственную полосу торрентами -- это его проблемы, т.к. он не разобрался в настройке ограничения скоростей торрент-клиента.

 

Тут у каждого может быть своя позиция.

 

Скажите тогда на сколько hfsc легче для ЦПУ , чем htb ? Может быть у кого-то есть конкретные результаты с htb и сразу же c hfsc, т.е. на таком же трафике.

 

tc -s class sh dev eth0 для htb выводит среди прочего какую-то average скорость по классу, в hfsc скорость не показывается, но есть period (пока не знаю, что это такое, время работы шейпера ?) и другие параметры, которых нет в htb. Можно ли как-то оценить/узнать скорость по данному классу в hfsc

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тут у каждого может быть своя позиция.

 

Скажите тогда на сколько hfsc легче для ЦПУ , чем htb ? Может быть у кого-то есть конкретные результаты с htb и сразу же c hfsc, т.е. на таком же трафике.

У меня нет таких данных, более того, я и не утверждаю, что hfsc оптимальнее использовать для простого шейпинга, чем htb. Везде, где был Linux, использовал htb с хэш-фильтрами. При правильных сетевухах и драйверах все шейпится с аппаратными скоростями и обрабатывается на всех процессорах. Во FreeBSD нет такого большого выбора дисциплин, и народ прекрасно обходится обычными token buckets (pipe).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

есть конкретные результаты с htb и сразу же c hfsc, т.е. на таком же трафике.

Есть. Второй "легче" для проца в 2-2,5 раза.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

есть конкретные результаты с htb и сразу же c hfsc, т.е. на таком же трафике.

Есть. Второй "легче" для проца в 2-2,5 раза.

Аналогично. Ну и более предсказуем, поскольку time-based, не надо играться с бурстами, квантами и прочим чтобы добиться хотя бы мало-мальски сносного поведения при колебаниях полос от 1 до 100 Мбит.

Изменено пользователем Alex/AT

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

есть конкретные результаты с htb и сразу же c hfsc, т.е. на таком же трафике.

Есть. Второй "легче" для проца в 2-2,5 раза.

Аналогично. Ну и более предсказуем, поскольку time-based, не надо играться с бурстами, квантами и прочим чтобы добиться хотя бы мало-мальски сносного поведения при колебаниях полос от 1 до 100 Мбит.

 

Что-то у меня пока hfsc на 20 процентов (не ЦПУ, а в общем) больше стал жрать, чем было на htb. Просто заменил htb на hfsc, краевые дисциплины как и были с htb - bfifo. Т.е. просто заменил. Хотя надо подождатьи посмотреть :-). Но явного падения в загрузке ЦПУ точно нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вполне возможно, что у Вас узкое место - не дисциплины. Netfilter активно используете? NAT?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вполне возможно, что у Вас узкое место - не дисциплины. Netfilter активно используете? NAT?

 

Нет, на той железке нет ната и нет iptables правил, просто шейпер. Лишние модули выгружены все. Фильтр на u32 хешах рассовывает пакеты в свои подклассы. На самом деле я до сих пор не пришёл к однозначному выводу :-). Пока думаю, что либо так же, либо hfsc грузит ЦПУ всё же больше чем htb. Корреляция между pps, bps и ЦПУ изменилась + ещё трафик куда-то делся :-). Может перед НГ спад активности начался. Может это особенности оптимизации/неоптимизации кода под ЦПУ (это не РС). Короче, хрен сним, мне hfsc нравится больше, даже если чуть-чуть больше ЦПУ стало жрать. ПРо 20 процентов это я погорячился конечно, но надо набрать статистику, а НГ всю статистику испортит :-).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.