Jump to content
Калькуляторы

powerbeamAC-500 проблемы с каналом Падает реальный трафик, до полного дисконекта

Добрый вечер Всем!

Решили мы поменять один из мостов powerbridge на powerbeam, расстояние 11км, есть прямая видимость. Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ, Канальная скорость подключения на 80 Мг 350/350, вроде все ни чего, и тесты проходит хорошие, но как только пускаем реальный трафик, capacity начинает сыпаться и уходит в ноль, далее линк разрывается с реконнектом. Грешили уже на все что можно, пробывали разные частоты, меняли полосу, три раза крутили... Эффекта нет. Последнее что приходит на ум, это брак антен, еще настораживает то, что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет?

Share this post


Link to post
Share on other sites

Кто что скажет?

Если 20/40Мгц ширину полосы установить ? Какие сигналы с обоих сторон и прокачка ?

Скрины в студию.

 

Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ

Какие исходные расчетные данные ?

 

slv700 воздержись от преждевременных высказываний и спама, название темы еще раз внимательно прочти, тема не для продвигаемых тобой продуктов.

Share this post


Link to post
Share on other sites

Я также могу посоветовать уменьшить ширину канала до 40 или даже до 20 Мгц и выложить скрины local и remote, где есть data rate, CINR и Interference+ Noise. И само собой результаты не только встроенного теста , а внешнего типа bandwidth тест микротик , iperf или speedtest.net.

Share this post


Link to post
Share on other sites

На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70

 

Вот

post-81901-036207400 1438199689_thumb.png

post-81901-036207400 1438199689_thumb.png

Share this post


Link to post
Share on other sites
что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет?

скрины, параметры агрегации, ошибки в канале? снижайте ширину до 40-60МГц, и Вам следовало взять 620-ый.

 

Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ,

отстраивайте лучше, в 20МГц получаете расчётные уровни?

Share this post


Link to post
Share on other sites
что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет?

скрины, параметры агрегации, ошибки в канале? снижайте ширину до 40-60МГц, и Вам следовало взять 620-ый.

 

Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ,

отстраивайте лучше, в 20МГц получаете расчётные уровни?

 

 

Отстраивали в 20, значния те-же если судить по общей силе сигнала получали -63, на разных частотах разные значения, к сожалению 620 не было в наличии, изначально хотели вообще тики с дишами брать, но решили, что для 11 км слишком...

Share this post


Link to post
Share on other sites

Тестировал Powerbeam na 3-х местах - он больше 5 километров не работает хорошо. Ставьте лучше рокет или уберите и смотрите у других.

Share this post


Link to post
Share on other sites

Я также могу посоветовать уменьшить ширину канала до 40 или даже до 20 Мгц и выложить скрины local и remote, где есть data rate, CINR и Interference+ Noise. И само собой результаты не только встроенного теста , а внешнего типа bandwidth тест микротик , iperf или speedtest.net.

 

К сожалению тестов не скринели, при тестах канал работает стабильно, но когда подключаем реальный трафик линк лопается...

 

Тестировал Powerbeam na 3-х местах - он больше 5 километров не работает хорошо. Ставьте лучше рокет или уберите и смотрите у других.

 

Но это шлак полный... Такие блины и на 5КМ? Это nanostation M5 жует в легкую, а здесь пушка целая... Как у людей тогда на 13км. Взлеты такие?

Share this post


Link to post
Share on other sites

Фирмовые тесты при пустом канале... Все красиво без намека на проблемы!

 

Фирмовые тесты при пустом канале... Все красиво без намека на проблемы!

 

Это в 40Мг, Были тесты и на 200 на других частотах, и на 300 в 80 Мгц

post-81901-023075700 1438201964_thumb.png

post-81901-086610000 1438201972_thumb.png

post-81901-034114700 1438201980_thumb.png

post-81901-023075700 1438201964_thumb.png

post-81901-086610000 1438201972_thumb.png

post-81901-034114700 1438201980_thumb.png

Share this post


Link to post
Share on other sites
но когда подключаем реальный трафик линк лопается...

 

по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок

 

ip  -s link

 

.

Ну и athstat.

Edited by NewUse

Share this post


Link to post
Share on other sites
но когда подключаем реальный трафик линк лопается...

 

по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок

 

ip  -s link

 

.

Ну и athstat.

 

 

Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще!

 

но когда подключаем реальный трафик линк лопается...

 

по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок

 

ip  -s link

 

.

Ну и athstat.

 

 

Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще!

 

 

flow выключен!

 

но когда подключаем реальный трафик линк лопается...

 

по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок

 

ip  -s link

 

.

Ну и athstat.

 

 

Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще!

 

 

flow выключен!

 

А вот в радио

 

196 tx failed 'cuz too many retries

286093 tx failed 'cuz FIFO underrun

286093 tx failed 'cuz xmit filtered

Share this post


Link to post
Share on other sites

Давайте не будем гадать:

1)

ip  -s link

 

2)тест iperf

3)

athstat ath0

 

 

PPPoE у Вас часом там не ходит?

Edited by NewUse

Share this post


Link to post
Share on other sites

Давайте не будем гадать:

1)

ip  -s link

 

2)тест iperf

3)

athstat ath0

 

 

PPPoE у Вас часом там не ходит?

[/quote[29.07.15, 23:48:55] Vladimir Popov: iperf я гонял

в один поток - ровно 50М

в несколько потоков не запускается, идёт всёравно один поток. на старых железках работало нормально

[29.07.15, 23:48:57] Vladimir Popov:

XC.v7.1.3# athstats

1 watchdog timeouts

94003 # packets sent on the interface

13 # packets receive on the interface

1 tx queue stopped because full

4 tx failed 'cuz no node

90 Number of times netif_stop called

1853622 Number of times netif_wake called

196 tx failed 'cuz too many retries

286093 tx failed 'cuz FIFO underrun

286093 tx failed 'cuz xmit filtered

3 tx frames with cts enabled

71986 tx frames with short preamble

39 tx frames with 11g protection

101500 rx failed 'cuz decryption

1424 rx setup failed 'cuz no skbuff

Radio profile:

310793 number of received data packets

1422667 number of received control packets

955275 number of received num mgmt packets

646 number of transmit retries in hardware

Antenna profile:

 

11n stats

0 total tx data packets

0 tx drops in wrong state

0 tx drops due to qdepth limit

0 tx when h/w queue depth is low

0 tx pkts when h/w queue is busy

0 tx completions

0 tx pkts filtered for requeueing

0 txq empty occurences

0 tx no skbs for encapsulations

0 tx no descriptors

0 tx key setup failures

0 tx no desc for legacy packets

0 tx schedule pkt queue empty

0 tx bars sent

0 tx bar retries sent

0 tx bar last frame failed

0 tx bar excessive retries

0 tx unaggregated frame completions

0 tx unaggregated excessive retries

0 tx unaggregated unacked frames

0 tx unaggregated last frame failed

0 tx aggregated completions

0 tx block ack window advanced

0 tx block ack window retries

0 tx block ack window additions

0 tx block ack window updates

0 tx block ack window advances

0 tx retries of sub frames

0 tx excessive retries of aggregates

0 tx no skbs for aggr encapsualtion

0 tx no desc for aggr

0 tx enc key setup failures

0 tx no frame scheduled: baw limited

0 tx frames not aggregated

0 tx frames aggregated for mimo

0 tx aggr good completions

0 tx aggr excessive retries

0 tx aggr unacked subframes

0 tx aggr old frames requeued

0 filtered aggr packet

0 fifo underrun of aggregate

0 txop exceeded for an aggregate

0 aggregate descriptor config error

0 data underrun for an aggregate

0 delimiter underrun for an aggregate

0 tx aggr: last sub-frame failed

0 tx aggr: h/w long retries

0 tx aggr: h/w short retries

0 tx aggr: tx timer expired

0 tx aggr: BA state is not updated

0 tx aggr: BA bad tid

0 tx frames not aggregated

0 tx rifs: BA state is not updated

0 tx rifs: unacked subframes

0 tx rifs: bar frames allocated

0 tx rifs: bar frames freed

0 tx rifs: good completions

0 tx rifs completions

0 tx non-rifs frame completions

0 tx rifs old frames requeued

0 rx pkts

0 rx aggregated packets

0 rx pkts with bad version

0 rx bars

0 rx non qos-data frames

0 rx sequence resets

0 rx old packets

0 rx block ack window reset

0 rx pts indicated due to baw resets

0 rx duplicate pkts

0 rx block ack window advanced

0 rx pkt completions

0 rx bar discarded

0 rx pkts unblocked on bar reception

0 rx pkt completions on bar reception

0 rx pkt sequences skipped on timeout

0 rx indications due to timeout

0 watchdog: tx is active

0 watchdog: tx is not active

0 watchdog: tx is hung

0 watchdog: spurious tx hang

0 filter & requeue on 20/40 transitions

0 draining tx queue on error

0 draining tid buf queue on error

0 draining tid buf queue on node cleanup

0 buffers drained from pending tid queue

0 tid paused

0 tid resumed

0 unaggregated tx pkts filtered

0 aggregated tx pkts filtered

0 total sub-frames filtered

0 rb on

0 rb off

0 rx descriptor status corrupted

0.00 tx unaggregated excessive retry percent

0.00 tx aggregated long retry percent

0.00 tx aggregated excessive retry percent

0.00 tx aggregate subframe retry percent

0.00 tx aggregate subframe excessive retry percent

VOW STATS: ul_tx_calls: 0 0 0 0 ath_txq_calls: 0 0 0 0 drops(be/bk): 0 0

 

HT Tx Rate STATS:

mcs 0- mcs 7 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

mcs 8- mcs15 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

mcs16- mcs23 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

TxBF STATS:

Sounding sent 0

V/CV received 0

0.00 tx unaggregated excessive retry percent

0.00 tx aggregated long retry percent

0.00 tx aggregated excessive retry percent

0.00 tx aggregate subframe retry percent

0.00 tx aggregate subframe excessive retry percent

 

 

XC.v7.1.3# ip -s link

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN mode DEFAULT

link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

RX: bytes packets errors dropped overrun mcast

30315487 7181 0 0 0 0

TX: bytes packets errors dropped carrier collsns

30315487 7181 0 0 0 0

2: tunl0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT

link/ipip 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

3: sit0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT

link/sit 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

4: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT qlen 1000

link/ether 04:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

661249312 520338 0 0 0 319126

TX: bytes packets errors dropped carrier collsns

164528513 981718 0 0 0 0

5: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000

link/ether 06:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

6: gre0: <NOARP> mtu 1476 qdisc noop state DOWN mode DEFAULT

link/gre 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

7: teql0: <NOARP> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 100

link/void

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

8: wifi0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 2286 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447

link/ieee802.11 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 1819325 0 642974 0 0

TX: bytes packets errors dropped carrier collsns

0 1393714 0 1424 0 0

9: wifi1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447

link/ieee802.11 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 1894846 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

10: ath0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 1000

link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

766433308 1446858 0 0 0 0

TX: bytes packets errors dropped carrier collsns

1276179855 981910 0 0 0 0

11: ath0.5@ath0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT

link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

596066239 467666 0 0 0 9748

TX: bytes packets errors dropped carrier collsns

662717821 484937 0 0 0 0

12: eth0.5@eth0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT

link/ether 04:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

355462 1704 0 0 0 59

TX: bytes packets errors dropped carrier collsns

2179188 13180 0 0 0 0

13: br0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

91282748 633558 0 0 0 622904

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

14: br1: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

593060236 465889 0 0 0 10717

TX: bytes packets errors dropped carrier collsns

79336559 88747 0 0 0 0

15: airview1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ieee802.11/prism 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

 

 

PPPOE -не ходит

Share this post


Link to post
Share on other sites

Да, есть проблема в радио, антенны случайно не вблизи металла находятся? На переотражённку в ближней зоне смахивает...

Увеличьте АСК-дитанцию до 12км.

Edited by NewUse

Share this post


Link to post
Share on other sites

Да, есть проблема в радио, антенны случайно не вблизи металла находятся? На переотражённку в ближней зоне смахивает...

Увеличьте АСК-дитанцию до 12км.

 

 

Перед Антенами поля на 1,5-2 км, между ними лесополоса. Железок ни каких нету!

 

Сейчас попробуем увеличить на 12

Share this post


Link to post
Share on other sites

В ближней зоне (+-5м во всех направлениях)

антенны на чём расположены, на крышах? из какого материала?

Share this post


Link to post
Share on other sites

В ближней зоне (+-5м во всех направлениях)

антенны на чём расположены, на крышах? из какого материала?

 

Обычные многоэтажки, висят на вентшахтах бетонных, возможно в радиусе 5 метров есть и другие антены и много чего... Но в целом бетон от всего спасает.

 

В ближней зоне (+-5м во всех направлениях)

антенны на чём расположены, на крышах? из какого материала?

 

Обычные многоэтажки, висят на вентшахтах бетонных, возможно в радиусе 5 метров есть и другие антены и много чего... Но в целом бетон от всего спасает.

 

Да и еще рядом линк живет на n, там проблем нету с переотраженкой!

Share this post


Link to post
Share on other sites

Тогда попробуйте сменить частоту шагом 100МГц, перегрузть точку, повторить тест iperf и выложить повторно:

ip -s link

athstat ath0

Share this post


Link to post
Share on other sites

в несколько потоков не запускается, идёт всёравно один поток. на старых железках работало нормально

Да есть такая шляпа, запускается только один поток.

Можно запустить с внешних устройств, за линком, ubnt М серии отлично для этого подойдет.

Share this post


Link to post
Share on other sites

Да, наблюдаю в статистики мульткаст тафик, по возможности, на время тестирования и начального этапа отладки линка -- отфильтруйте его до моста (важно, помнить что направление мультикаста на боевом лнке должно быть строго от АП к Станции).

Share this post


Link to post
Share on other sites

На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70

 

Вот

А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон.

Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль.

Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например).

И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема.

ЗЫ

Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех).

А теперь, добро пожаловать убнт АС в реалии сетей ШБД.

Share this post


Link to post
Share on other sites

На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70

 

Вот

А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон.

Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль.

Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например).

И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема.

ЗЫ

Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех).

А теперь, добро пожаловать убнт АС в реалии сетей ШБД.

В 20 Мгц ситуация такая-же, ошибок на медных портах и намека на мультик нету, После перевода на реальный трафик видем картину по падению трафика, в это время линк и модуляция держаться стабильно.

post-81901-005558700 1438247664_thumb.png

post-81901-032796300 1438247684_thumb.png

post-81901-071667100 1438247710_thumb.png

Share this post


Link to post
Share on other sites

На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70

 

Вот

А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон.

Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль.

Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например).

И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема.

ЗЫ

Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех).

А теперь, добро пожаловать убнт АС в реалии сетей ШБД.

В 20 Мгц ситуация такая-же, ошибок на медных портах и намека на мультик нету, После перевода на реальный трафик видем картину по падению трафика, в это время линк и модуляция держаться стабильно.

 

Вот сигнал в -61, на таких цифрах у нас наносы на 5 км работают, в РЕАЛЬНЫХ условиях, а здесь все очень нежное, Да и опять же, почему нету мультикаст фильтра в АйрОС 7, ведь был. Вообще половину функционала вырезали и изуродовали. Работать с такой железкой крайне не удобно, даже лампочки на излучателе сделали белого цвета все одинаковые! Это реально издевательство!

Share this post


Link to post
Share on other sites

[30.07.15, 13:31:24] Vladimir Popov: XC.v7.1.3# iperf -c 10.11.55.200 -t 600

------------------------------------------------------------

Client connecting to 10.11.55.200, TCP port 5001

TCP window size: 16.0 KByte (default)

------------------------------------------------------------

[ 3] local 10.11.55.201 port 33000 connected with 10.11.55.200 port 5001

[ ID] Interval Transfer Bandwidth

[ 3] 0.0-600.0 sec 3.11 GBytes 44.5 Mbits/sec

 

 

 

 

XC.v7.1.3# iperf -s

------------------------------------------------------------

Server listening on TCP port 5001

TCP window size: 85.3 KByte (default)

------------------------------------------------------------

[ 4] local 10.11.55.201 port 5001 connected with 10.11.55.200 port 37577

[ ID] Interval Transfer Bandwidth

[ 4] 0.0-600.0 sec 3.19 GBytes 45.7 Mbits/sec

[30.07.15, 13:32:09] Vladimir Popov: 10,11,55,200

 

^CXC.v7.1.3# ip -s link

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN mode DEFAULT

link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

RX: bytes packets errors dropped overrun mcast

392 3 0 0 0 0

TX: bytes packets errors dropped carrier collsns

392 3 0 0 0 0

2: tunl0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT

link/ipip 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

3: sit0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT

link/sit 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

4: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT qlen 1000

link/ether 04:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

54054806 271449 0 0 0 94065

TX: bytes packets errors dropped carrier collsns

63308850 80057 0 0 0 0

5: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000

link/ether 06:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

6: gre0: <NOARP> mtu 1476 qdisc noop state DOWN mode DEFAULT

link/gre 0.0.0.0 brd 0.0.0.0

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

7: teql0: <NOARP> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 100

link/void

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

8: wifi0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 2286 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447

link/ieee802.11 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 3928129 0 527683 0 0

TX: bytes packets errors dropped carrier collsns

0 4021264 0 1424 0 0

9: wifi1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447

link/ieee802.11 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 645032 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

10: ath0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 1000

link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

3753455295 3815129 0 0 0 0

TX: bytes packets errors dropped carrier collsns

3648499276 3965185 0 4305 0 0

11: ath0.5@ath0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT

link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

3699488557 3810821 0 0 0 3428

TX: bytes packets errors dropped carrier collsns

3615308679 3771325 0 0 0 0

12: eth0.5@eth0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT

link/ether 04:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

19825700 77064 0 0 0 3422

TX: bytes packets errors dropped carrier collsns

63308947 80058 0 0 0 0

13: br0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

30912059 197547 0 0 0 193767

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

14: br1: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

3623306235 3741101 0 0 0 4019

TX: bytes packets errors dropped carrier collsns

3580645318 3703560 0 0 0 0

15: airview1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT

link/ieee802.11/prism 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

0 0 0 0 0 0

TX: bytes packets errors dropped carrier collsns

0 0 0 0 0 0

[30.07.15, 13:32:43] Vladimir Popov: XC.v7.1.3# athstats

1 watchdog timeouts

512896 # packets sent on the interface

2 # packets receive on the interface

1 tx queue stopped because full

9 tx failed 'cuz no node

5 Number of times netif_stop called

3944165 Number of times netif_wake called

4 tx failed 'cuz too many retries

105218 tx failed 'cuz FIFO underrun

105218 tx failed 'cuz xmit filtered

1 tx frames with cts enabled

8452 tx frames with short preamble

30 tx frames with 11g protection

1424 rx setup failed 'cuz no skbuff

Radio profile:

76572 number of received data packets

3815811 number of received control packets

3947558 number of received num mgmt packets

55 number of transmit retries in hardware

Antenna profile:

 

11n stats

0 total tx data packets

0 tx drops in wrong state

0 tx drops due to qdepth limit

0 tx when h/w queue depth is low

0 tx pkts when h/w queue is busy

0 tx completions

0 tx pkts filtered for requeueing

0 txq empty occurences

0 tx no skbs for encapsulations

0 tx no descriptors

0 tx key setup failures

0 tx no desc for legacy packets

0 tx schedule pkt queue empty

0 tx bars sent

0 tx bar retries sent

0 tx bar last frame failed

0 tx bar excessive retries

0 tx unaggregated frame completions

0 tx unaggregated excessive retries

0 tx unaggregated unacked frames

0 tx unaggregated last frame failed

0 tx aggregated completions

0 tx block ack window advanced

0 tx block ack window retries

0 tx block ack window additions

0 tx block ack window updates

0 tx block ack window advances

0 tx retries of sub frames

0 tx excessive retries of aggregates

0 tx no skbs for aggr encapsualtion

0 tx no desc for aggr

0 tx enc key setup failures

0 tx no frame scheduled: baw limited

0 tx frames not aggregated

0 tx frames aggregated for mimo

0 tx aggr good completions

0 tx aggr excessive retries

0 tx aggr unacked subframes

0 tx aggr old frames requeued

0 filtered aggr packet

0 fifo underrun of aggregate

0 txop exceeded for an aggregate

0 aggregate descriptor config error

0 data underrun for an aggregate

0 delimiter underrun for an aggregate

0 tx aggr: last sub-frame failed

0 tx aggr: h/w long retries

0 tx aggr: h/w short retries

0 tx aggr: tx timer expired

0 tx aggr: BA state is not updated

0 tx aggr: BA bad tid

0 tx frames not aggregated

0 tx rifs: BA state is not updated

0 tx rifs: unacked subframes

0 tx rifs: bar frames allocated

0 tx rifs: bar frames freed

0 tx rifs: good completions

0 tx rifs completions

0 tx non-rifs frame completions

0 tx rifs old frames requeued

0 rx pkts

0 rx aggregated packets

0 rx pkts with bad version

0 rx bars

0 rx non qos-data frames

0 rx sequence resets

0 rx old packets

0 rx block ack window reset

0 rx pts indicated due to baw resets

0 rx duplicate pkts

0 rx block ack window advanced

0 rx pkt completions

0 rx bar discarded

0 rx pkts unblocked on bar reception

0 rx pkt completions on bar reception

0 rx pkt sequences skipped on timeout

0 rx indications due to timeout

0 watchdog: tx is active

0 watchdog: tx is not active

0 watchdog: tx is hung

0 watchdog: spurious tx hang

0 filter & requeue on 20/40 transitions

0 draining tx queue on error

0 draining tid buf queue on error

0 draining tid buf queue on node cleanup

0 buffers drained from pending tid queue

0 tid paused

0 tid resumed

0 unaggregated tx pkts filtered

0 aggregated tx pkts filtered

0 total sub-frames filtered

0 rb on

0 rb off

0 rx descriptor status corrupted

0.00 tx unaggregated excessive retry percent

0.00 tx aggregated long retry percent

0.00 tx aggregated excessive retry percent

0.00 tx aggregate subframe retry percent

0.00 tx aggregate subframe excessive retry percent

VOW STATS: ul_tx_calls: 0 0 0 0 ath_txq_calls: 0 0 0 0 drops(be/bk): 0 0

 

HT Tx Rate STATS:

mcs 0- mcs 7 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

mcs 8- mcs15 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

mcs16- mcs23 STATS: 0, 0, 0, 0, 0, 0, 0, 0,

TxBF STATS:

Sounding sent 0

V/CV received 0

0.00 tx unaggregated excessive retry percent

0.00 tx aggregated long retry percent

0.00 tx aggregated excessive retry percent

0.00 tx aggregate subframe retry percent

0.00 tx aggregate subframe excessive retry percent

SIOCGATHPHYSTATSCUR: Invalid argument

Share this post


Link to post
Share on other sites

Частоту меняли?

Для фильтра мултикаста используйте внешние устройства, мост должен быть мостом, задача разгрузить его процессор от специфичного типа пакетов, а не наоборот загружать, добавляя дополнительные правила фильтрации.

Edited by NewUse

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this