mavrick2004 Опубликовано 29 июля, 2015 · Жалоба Добрый вечер Всем! Решили мы поменять один из мостов powerbridge на powerbeam, расстояние 11км, есть прямая видимость. Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ, Канальная скорость подключения на 80 Мг 350/350, вроде все ни чего, и тесты проходит хорошие, но как только пускаем реальный трафик, capacity начинает сыпаться и уходит в ноль, далее линк разрывается с реконнектом. Грешили уже на все что можно, пробывали разные частоты, меняли полосу, три раза крутили... Эффекта нет. Последнее что приходит на ум, это брак антен, еще настораживает то, что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kosmich7 Опубликовано 29 июля, 2015 · Жалоба Кто что скажет? Если 20/40Мгц ширину полосы установить ? Какие сигналы с обоих сторон и прокачка ?Скрины в студию. Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ Какие исходные расчетные данные ? slv700 воздержись от преждевременных высказываний и спама, название темы еще раз внимательно прочти, тема не для продвигаемых тобой продуктов. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
slv700 Опубликовано 29 июля, 2015 · Жалоба Я также могу посоветовать уменьшить ширину канала до 40 или даже до 20 Мгц и выложить скрины local и remote, где есть data rate, CINR и Interference+ Noise. И само собой результаты не только встроенного теста , а внешнего типа bandwidth тест микротик , iperf или speedtest.net. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70 Вот Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 · Жалоба что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет? скрины, параметры агрегации, ошибки в канале? снижайте ширину до 40-60МГц, и Вам следовало взять 620-ый. Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ, отстраивайте лучше, в 20МГц получаете расчётные уровни? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба что любые тесты и даже 50 Мбит трафика задирают процессор до 100%. Кто что скажет? скрины, параметры агрегации, ошибки в канале? снижайте ширину до 40-60МГц, и Вам следовало взять 620-ый. Во первых долго не могли отстроить канал, по расчетным данным должны были получить -55, получили -65 ДБ, отстраивайте лучше, в 20МГц получаете расчётные уровни? Отстраивали в 20, значния те-же если судить по общей силе сигнала получали -63, на разных частотах разные значения, к сожалению 620 не было в наличии, изначально хотели вообще тики с дишами брать, но решили, что для 11 км слишком... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
h3ll1 Опубликовано 29 июля, 2015 · Жалоба Тестировал Powerbeam na 3-х местах - он больше 5 километров не работает хорошо. Ставьте лучше рокет или уберите и смотрите у других. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба Я также могу посоветовать уменьшить ширину канала до 40 или даже до 20 Мгц и выложить скрины local и remote, где есть data rate, CINR и Interference+ Noise. И само собой результаты не только встроенного теста , а внешнего типа bandwidth тест микротик , iperf или speedtest.net. К сожалению тестов не скринели, при тестах канал работает стабильно, но когда подключаем реальный трафик линк лопается... Тестировал Powerbeam na 3-х местах - он больше 5 километров не работает хорошо. Ставьте лучше рокет или уберите и смотрите у других. Но это шлак полный... Такие блины и на 5КМ? Это nanostation M5 жует в легкую, а здесь пушка целая... Как у людей тогда на 13км. Взлеты такие? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба Фирмовые тесты при пустом канале... Все красиво без намека на проблемы! Фирмовые тесты при пустом канале... Все красиво без намека на проблемы! Это в 40Мг, Были тесты и на 200 на других частотах, и на 300 в 80 Мгц Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 (изменено) · Жалоба но когда подключаем реальный трафик линк лопается... по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок ip -s link . Ну и athstat. Изменено 29 июля, 2015 пользователем NewUse Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба но когда подключаем реальный трафик линк лопается... по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок ip -s link . Ну и athstat. Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще! но когда подключаем реальный трафик линк лопается... по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок ip -s link . Ну и athstat. Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще! flow выключен! но когда подключаем реальный трафик линк лопается... по всей видимости идут ошибки по ethernet, такую фигню иногда flow-control даёт, попробуйте посмотреть счётчик ошибок ip -s link . Ну и athstat. Тогда вопрос, почему падает Isolated Capacity при нагрузке падает вдвое моментом, а потом стремится к нулю, здесь что-то еще! flow выключен! А вот в радио 196 tx failed 'cuz too many retries 286093 tx failed 'cuz FIFO underrun 286093 tx failed 'cuz xmit filtered Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 (изменено) · Жалоба Давайте не будем гадать: 1) ip -s link 2)тест iperf 3) athstat ath0 PPPoE у Вас часом там не ходит? Изменено 29 июля, 2015 пользователем NewUse Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба Давайте не будем гадать: 1) ip -s link 2)тест iperf 3) athstat ath0 PPPoE у Вас часом там не ходит? [/quote[29.07.15, 23:48:55] Vladimir Popov: iperf я гонял в один поток - ровно 50М в несколько потоков не запускается, идёт всёравно один поток. на старых железках работало нормально [29.07.15, 23:48:57] Vladimir Popov: XC.v7.1.3# athstats 1 watchdog timeouts 94003 # packets sent on the interface 13 # packets receive on the interface 1 tx queue stopped because full 4 tx failed 'cuz no node 90 Number of times netif_stop called 1853622 Number of times netif_wake called 196 tx failed 'cuz too many retries 286093 tx failed 'cuz FIFO underrun 286093 tx failed 'cuz xmit filtered 3 tx frames with cts enabled 71986 tx frames with short preamble 39 tx frames with 11g protection 101500 rx failed 'cuz decryption 1424 rx setup failed 'cuz no skbuff Radio profile: 310793 number of received data packets 1422667 number of received control packets 955275 number of received num mgmt packets 646 number of transmit retries in hardware Antenna profile: 11n stats 0 total tx data packets 0 tx drops in wrong state 0 tx drops due to qdepth limit 0 tx when h/w queue depth is low 0 tx pkts when h/w queue is busy 0 tx completions 0 tx pkts filtered for requeueing 0 txq empty occurences 0 tx no skbs for encapsulations 0 tx no descriptors 0 tx key setup failures 0 tx no desc for legacy packets 0 tx schedule pkt queue empty 0 tx bars sent 0 tx bar retries sent 0 tx bar last frame failed 0 tx bar excessive retries 0 tx unaggregated frame completions 0 tx unaggregated excessive retries 0 tx unaggregated unacked frames 0 tx unaggregated last frame failed 0 tx aggregated completions 0 tx block ack window advanced 0 tx block ack window retries 0 tx block ack window additions 0 tx block ack window updates 0 tx block ack window advances 0 tx retries of sub frames 0 tx excessive retries of aggregates 0 tx no skbs for aggr encapsualtion 0 tx no desc for aggr 0 tx enc key setup failures 0 tx no frame scheduled: baw limited 0 tx frames not aggregated 0 tx frames aggregated for mimo 0 tx aggr good completions 0 tx aggr excessive retries 0 tx aggr unacked subframes 0 tx aggr old frames requeued 0 filtered aggr packet 0 fifo underrun of aggregate 0 txop exceeded for an aggregate 0 aggregate descriptor config error 0 data underrun for an aggregate 0 delimiter underrun for an aggregate 0 tx aggr: last sub-frame failed 0 tx aggr: h/w long retries 0 tx aggr: h/w short retries 0 tx aggr: tx timer expired 0 tx aggr: BA state is not updated 0 tx aggr: BA bad tid 0 tx frames not aggregated 0 tx rifs: BA state is not updated 0 tx rifs: unacked subframes 0 tx rifs: bar frames allocated 0 tx rifs: bar frames freed 0 tx rifs: good completions 0 tx rifs completions 0 tx non-rifs frame completions 0 tx rifs old frames requeued 0 rx pkts 0 rx aggregated packets 0 rx pkts with bad version 0 rx bars 0 rx non qos-data frames 0 rx sequence resets 0 rx old packets 0 rx block ack window reset 0 rx pts indicated due to baw resets 0 rx duplicate pkts 0 rx block ack window advanced 0 rx pkt completions 0 rx bar discarded 0 rx pkts unblocked on bar reception 0 rx pkt completions on bar reception 0 rx pkt sequences skipped on timeout 0 rx indications due to timeout 0 watchdog: tx is active 0 watchdog: tx is not active 0 watchdog: tx is hung 0 watchdog: spurious tx hang 0 filter & requeue on 20/40 transitions 0 draining tx queue on error 0 draining tid buf queue on error 0 draining tid buf queue on node cleanup 0 buffers drained from pending tid queue 0 tid paused 0 tid resumed 0 unaggregated tx pkts filtered 0 aggregated tx pkts filtered 0 total sub-frames filtered 0 rb on 0 rb off 0 rx descriptor status corrupted 0.00 tx unaggregated excessive retry percent 0.00 tx aggregated long retry percent 0.00 tx aggregated excessive retry percent 0.00 tx aggregate subframe retry percent 0.00 tx aggregate subframe excessive retry percent VOW STATS: ul_tx_calls: 0 0 0 0 ath_txq_calls: 0 0 0 0 drops(be/bk): 0 0 HT Tx Rate STATS: mcs 0- mcs 7 STATS: 0, 0, 0, 0, 0, 0, 0, 0, mcs 8- mcs15 STATS: 0, 0, 0, 0, 0, 0, 0, 0, mcs16- mcs23 STATS: 0, 0, 0, 0, 0, 0, 0, 0, TxBF STATS: Sounding sent 0 V/CV received 0 0.00 tx unaggregated excessive retry percent 0.00 tx aggregated long retry percent 0.00 tx aggregated excessive retry percent 0.00 tx aggregate subframe retry percent 0.00 tx aggregate subframe excessive retry percent XC.v7.1.3# ip -s link 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN mode DEFAULT link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 RX: bytes packets errors dropped overrun mcast 30315487 7181 0 0 0 0 TX: bytes packets errors dropped carrier collsns 30315487 7181 0 0 0 0 2: tunl0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT link/ipip 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 3: sit0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT link/sit 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 4: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT qlen 1000 link/ether 04:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 661249312 520338 0 0 0 319126 TX: bytes packets errors dropped carrier collsns 164528513 981718 0 0 0 0 5: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000 link/ether 06:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 6: gre0: <NOARP> mtu 1476 qdisc noop state DOWN mode DEFAULT link/gre 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 7: teql0: <NOARP> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 100 link/void RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 8: wifi0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 2286 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447 link/ieee802.11 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 1819325 0 642974 0 0 TX: bytes packets errors dropped carrier collsns 0 1393714 0 1424 0 0 9: wifi1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447 link/ieee802.11 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 1894846 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 10: ath0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 1000 link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 766433308 1446858 0 0 0 0 TX: bytes packets errors dropped carrier collsns 1276179855 981910 0 0 0 0 11: ath0.5@ath0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 596066239 467666 0 0 0 9748 TX: bytes packets errors dropped carrier collsns 662717821 484937 0 0 0 0 12: eth0.5@eth0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT link/ether 04:18:d6:af:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 355462 1704 0 0 0 59 TX: bytes packets errors dropped carrier collsns 2179188 13180 0 0 0 0 13: br0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 91282748 633558 0 0 0 622904 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 14: br1: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ether 04:18:d6:ae:c7:fb brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 593060236 465889 0 0 0 10717 TX: bytes packets errors dropped carrier collsns 79336559 88747 0 0 0 0 15: airview1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ieee802.11/prism 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 PPPOE -не ходит Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 (изменено) · Жалоба Да, есть проблема в радио, антенны случайно не вблизи металла находятся? На переотражённку в ближней зоне смахивает... Увеличьте АСК-дитанцию до 12км. Изменено 29 июля, 2015 пользователем NewUse Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба Да, есть проблема в радио, антенны случайно не вблизи металла находятся? На переотражённку в ближней зоне смахивает... Увеличьте АСК-дитанцию до 12км. Перед Антенами поля на 1,5-2 км, между ними лесополоса. Железок ни каких нету! Сейчас попробуем увеличить на 12 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 · Жалоба В ближней зоне (+-5м во всех направлениях) антенны на чём расположены, на крышах? из какого материала? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 29 июля, 2015 · Жалоба В ближней зоне (+-5м во всех направлениях) антенны на чём расположены, на крышах? из какого материала? Обычные многоэтажки, висят на вентшахтах бетонных, возможно в радиусе 5 метров есть и другие антены и много чего... Но в целом бетон от всего спасает. В ближней зоне (+-5м во всех направлениях) антенны на чём расположены, на крышах? из какого материала? Обычные многоэтажки, висят на вентшахтах бетонных, возможно в радиусе 5 метров есть и другие антены и много чего... Но в целом бетон от всего спасает. Да и еще рядом линк живет на n, там проблем нету с переотраженкой! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 · Жалоба Тогда попробуйте сменить частоту шагом 100МГц, перегрузть точку, повторить тест iperf и выложить повторно: ip -s link athstat ath0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kosmich7 Опубликовано 29 июля, 2015 · Жалоба в несколько потоков не запускается, идёт всёравно один поток. на старых железках работало нормально Да есть такая шляпа, запускается только один поток.Можно запустить с внешних устройств, за линком, ubnt М серии отлично для этого подойдет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 29 июля, 2015 · Жалоба Да, наблюдаю в статистики мульткаст тафик, по возможности, на время тестирования и начального этапа отладки линка -- отфильтруйте его до моста (важно, помнить что направление мультикаста на боевом лнке должно быть строго от АП к Станции). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
slv700 Опубликовано 30 июля, 2015 · Жалоба На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70 Вот А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон. Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль. Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например). И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема. ЗЫ Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех). А теперь, добро пожаловать убнт АС в реалии сетей ШБД. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 30 июля, 2015 · Жалоба На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70 Вот А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон. Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль. Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например). И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема. ЗЫ Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех). А теперь, добро пожаловать убнт АС в реалии сетей ШБД. В 20 Мгц ситуация такая-же, ошибок на медных портах и намека на мультик нету, После перевода на реальный трафик видем картину по падению трафика, в это время линк и модуляция держаться стабильно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 30 июля, 2015 · Жалоба На картинке -70, если поиграть с частотами можно добиться -65 -63 , но сути вопроса не меняет, есть подозрение на Лес, который закрывает зону, но проблема в том, что паралельно стоит nanobridge, который прокачивает 60/20 Мбит и имеет канальную скорость 240/180 тоже на -70 Вот А справа на скрине должны быть данные Interference+Noise . Покажите эти цифры с двух сторон. Я пока вижу что CINR 24 дБ ( и временами падает на remote стороне до 21 дб), а для 64QAM5/6 CINR должен быть минимум стабильных 28 Дб, а то и все 30дБ. Отсюда и наблюдаем ошибки в радиоканале. Встроенный тест UDP не учитывает эти ошибки и дает относительно приличную скорость ( хотя 100М UL+DL для 40 Мгц все равно очень мало). На реальном трафике ошибок столько много, что переповторы забивают все очереди на передачу, даже CPU захлебывается и канал падает в ноль. Попробуйте помимо перевода в 20 Мгц также ограничить скорость 16QAM 2/3 - правильную для CINR 24 Дб. Если канал на живом трафике перестанет после этого хотя бы падать, то проблема в потерях. Где ошибки - в радио или на ethernet ? Я убежден что в радио, хотя проверить ethernet тоже следует ( поменять свич например). И опять уже на этом тесте потеряли на убнт АС 10 дб энергетики. Опять nearLOS? Видимо у убнт АС ( точнее с передатчиком или зависимостью Tx vs data rate/modulation ) с этим все же есть проблема. ЗЫ Люди, которые раньше тестировали убнт АС на 5 и 13 км ( АС 620) делали это на пристрелянных линках с известными хорошими трассами LOS и без помех ( мало помех). А теперь, добро пожаловать убнт АС в реалии сетей ШБД. В 20 Мгц ситуация такая-же, ошибок на медных портах и намека на мультик нету, После перевода на реальный трафик видем картину по падению трафика, в это время линк и модуляция держаться стабильно. Вот сигнал в -61, на таких цифрах у нас наносы на 5 км работают, в РЕАЛЬНЫХ условиях, а здесь все очень нежное, Да и опять же, почему нету мультикаст фильтра в АйрОС 7, ведь был. Вообще половину функционала вырезали и изуродовали. Работать с такой железкой крайне не удобно, даже лампочки на излучателе сделали белого цвета все одинаковые! Это реально издевательство! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mavrick2004 Опубликовано 30 июля, 2015 · Жалоба [30.07.15, 13:31:24] Vladimir Popov: XC.v7.1.3# iperf -c 10.11.55.200 -t 600 ------------------------------------------------------------ Client connecting to 10.11.55.200, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.11.55.201 port 33000 connected with 10.11.55.200 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-600.0 sec 3.11 GBytes 44.5 Mbits/sec XC.v7.1.3# iperf -s ------------------------------------------------------------ Server listening on TCP port 5001 TCP window size: 85.3 KByte (default) ------------------------------------------------------------ [ 4] local 10.11.55.201 port 5001 connected with 10.11.55.200 port 37577 [ ID] Interval Transfer Bandwidth [ 4] 0.0-600.0 sec 3.19 GBytes 45.7 Mbits/sec [30.07.15, 13:32:09] Vladimir Popov: 10,11,55,200 ^CXC.v7.1.3# ip -s link 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN mode DEFAULT link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 RX: bytes packets errors dropped overrun mcast 392 3 0 0 0 0 TX: bytes packets errors dropped carrier collsns 392 3 0 0 0 0 2: tunl0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT link/ipip 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 3: sit0: <NOARP> mtu 1480 qdisc noop state DOWN mode DEFAULT link/sit 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 4: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT qlen 1000 link/ether 04:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 54054806 271449 0 0 0 94065 TX: bytes packets errors dropped carrier collsns 63308850 80057 0 0 0 0 5: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000 link/ether 06:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 6: gre0: <NOARP> mtu 1476 qdisc noop state DOWN mode DEFAULT link/gre 0.0.0.0 brd 0.0.0.0 RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 7: teql0: <NOARP> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 100 link/void RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 8: wifi0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 2286 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447 link/ieee802.11 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 3928129 0 527683 0 0 TX: bytes packets errors dropped carrier collsns 0 4021264 0 1424 0 0 9: wifi1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 447 link/ieee802.11 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 645032 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 10: ath0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT qlen 1000 link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 3753455295 3815129 0 0 0 0 TX: bytes packets errors dropped carrier collsns 3648499276 3965185 0 4305 0 0 11: ath0.5@ath0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 3699488557 3810821 0 0 0 3428 TX: bytes packets errors dropped carrier collsns 3615308679 3771325 0 0 0 0 12: eth0.5@eth0: <BROADCAST,MULTICAST,ALLMULTI,PROMISC,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT link/ether 04:18:d6:af:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 19825700 77064 0 0 0 3422 TX: bytes packets errors dropped carrier collsns 63308947 80058 0 0 0 0 13: br0: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 30912059 197547 0 0 0 193767 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 14: br1: <BROADCAST,MULTICAST,ALLMULTI,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ether 04:18:d6:ae:c6:e0 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 3623306235 3741101 0 0 0 4019 TX: bytes packets errors dropped carrier collsns 3580645318 3703560 0 0 0 0 15: airview1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT link/ieee802.11/prism 00:02:03:04:05:06 brd ff:ff:ff:ff:ff:ff RX: bytes packets errors dropped overrun mcast 0 0 0 0 0 0 TX: bytes packets errors dropped carrier collsns 0 0 0 0 0 0 [30.07.15, 13:32:43] Vladimir Popov: XC.v7.1.3# athstats 1 watchdog timeouts 512896 # packets sent on the interface 2 # packets receive on the interface 1 tx queue stopped because full 9 tx failed 'cuz no node 5 Number of times netif_stop called 3944165 Number of times netif_wake called 4 tx failed 'cuz too many retries 105218 tx failed 'cuz FIFO underrun 105218 tx failed 'cuz xmit filtered 1 tx frames with cts enabled 8452 tx frames with short preamble 30 tx frames with 11g protection 1424 rx setup failed 'cuz no skbuff Radio profile: 76572 number of received data packets 3815811 number of received control packets 3947558 number of received num mgmt packets 55 number of transmit retries in hardware Antenna profile: 11n stats 0 total tx data packets 0 tx drops in wrong state 0 tx drops due to qdepth limit 0 tx when h/w queue depth is low 0 tx pkts when h/w queue is busy 0 tx completions 0 tx pkts filtered for requeueing 0 txq empty occurences 0 tx no skbs for encapsulations 0 tx no descriptors 0 tx key setup failures 0 tx no desc for legacy packets 0 tx schedule pkt queue empty 0 tx bars sent 0 tx bar retries sent 0 tx bar last frame failed 0 tx bar excessive retries 0 tx unaggregated frame completions 0 tx unaggregated excessive retries 0 tx unaggregated unacked frames 0 tx unaggregated last frame failed 0 tx aggregated completions 0 tx block ack window advanced 0 tx block ack window retries 0 tx block ack window additions 0 tx block ack window updates 0 tx block ack window advances 0 tx retries of sub frames 0 tx excessive retries of aggregates 0 tx no skbs for aggr encapsualtion 0 tx no desc for aggr 0 tx enc key setup failures 0 tx no frame scheduled: baw limited 0 tx frames not aggregated 0 tx frames aggregated for mimo 0 tx aggr good completions 0 tx aggr excessive retries 0 tx aggr unacked subframes 0 tx aggr old frames requeued 0 filtered aggr packet 0 fifo underrun of aggregate 0 txop exceeded for an aggregate 0 aggregate descriptor config error 0 data underrun for an aggregate 0 delimiter underrun for an aggregate 0 tx aggr: last sub-frame failed 0 tx aggr: h/w long retries 0 tx aggr: h/w short retries 0 tx aggr: tx timer expired 0 tx aggr: BA state is not updated 0 tx aggr: BA bad tid 0 tx frames not aggregated 0 tx rifs: BA state is not updated 0 tx rifs: unacked subframes 0 tx rifs: bar frames allocated 0 tx rifs: bar frames freed 0 tx rifs: good completions 0 tx rifs completions 0 tx non-rifs frame completions 0 tx rifs old frames requeued 0 rx pkts 0 rx aggregated packets 0 rx pkts with bad version 0 rx bars 0 rx non qos-data frames 0 rx sequence resets 0 rx old packets 0 rx block ack window reset 0 rx pts indicated due to baw resets 0 rx duplicate pkts 0 rx block ack window advanced 0 rx pkt completions 0 rx bar discarded 0 rx pkts unblocked on bar reception 0 rx pkt completions on bar reception 0 rx pkt sequences skipped on timeout 0 rx indications due to timeout 0 watchdog: tx is active 0 watchdog: tx is not active 0 watchdog: tx is hung 0 watchdog: spurious tx hang 0 filter & requeue on 20/40 transitions 0 draining tx queue on error 0 draining tid buf queue on error 0 draining tid buf queue on node cleanup 0 buffers drained from pending tid queue 0 tid paused 0 tid resumed 0 unaggregated tx pkts filtered 0 aggregated tx pkts filtered 0 total sub-frames filtered 0 rb on 0 rb off 0 rx descriptor status corrupted 0.00 tx unaggregated excessive retry percent 0.00 tx aggregated long retry percent 0.00 tx aggregated excessive retry percent 0.00 tx aggregate subframe retry percent 0.00 tx aggregate subframe excessive retry percent VOW STATS: ul_tx_calls: 0 0 0 0 ath_txq_calls: 0 0 0 0 drops(be/bk): 0 0 HT Tx Rate STATS: mcs 0- mcs 7 STATS: 0, 0, 0, 0, 0, 0, 0, 0, mcs 8- mcs15 STATS: 0, 0, 0, 0, 0, 0, 0, 0, mcs16- mcs23 STATS: 0, 0, 0, 0, 0, 0, 0, 0, TxBF STATS: Sounding sent 0 V/CV received 0 0.00 tx unaggregated excessive retry percent 0.00 tx aggregated long retry percent 0.00 tx aggregated excessive retry percent 0.00 tx aggregate subframe retry percent 0.00 tx aggregate subframe excessive retry percent SIOCGATHPHYSTATSCUR: Invalid argument Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NewUse Опубликовано 30 июля, 2015 (изменено) · Жалоба Частоту меняли? Для фильтра мултикаста используйте внешние устройства, мост должен быть мостом, задача разгрузить его процессор от специфичного типа пакетов, а не наоборот загружать, добавляя дополнительные правила фильтрации. Изменено 30 июля, 2015 пользователем NewUse Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...