DVM-Avgoor Опубликовано 25 сентября, 2014 · Жалоба В общем заменил я кучу своих айпишников на таблицу, загрузка упала в разы. А вот картина с пингами так и не поменялась. Уж больно странная картина получается. Грешу на аплинка, хоть они мне и отписались, что у них проблем нет. Ну показывайте объективные данные еще. top -SCHP / vmstat -i / netstat -w1 в моменты высокого пинга. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 25 сентября, 2014 · Жалоба Может система думает что в такие моменты шторм irq, тогда нужно подтюнить в сисцтл порог. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 26 сентября, 2014 · Жалоба Может система думает что в такие моменты шторм irq, тогда нужно подтюнить в сисцтл порог. Вы имеете ввиду этот параметр hw.igb.max_interrupt_rate? Если этот, то ставил и 32к и 128к, ситуация одна и та же. В общем заменил я кучу своих айпишников на таблицу, загрузка упала в разы. А вот картина с пингами так и не поменялась. Уж больно странная картина получается. Грешу на аплинка, хоть они мне и отписались, что у них проблем нет. Ну показывайте объективные данные еще. top -SCHP / vmstat -i / netstat -w1 в моменты высокого пинга. Хорошо, как зацеплю данные - выложу. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 26 сентября, 2014 · Жалоба hw.intr_storm_threshold=16000 # Number of consecutive interrupts before storm protection is enabled Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 26 сентября, 2014 · Жалоба hw.intr_storm_threshold=16000 # Number of consecutive interrupts before storm protection is enabled да, стояло 9к, поставил 16, понаблюдаю. спасибо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 26 сентября, 2014 (изменено) · Жалоба В общем заменил я кучу своих айпишников на таблицу, загрузка упала в разы. А вот картина с пингами так и не поменялась. Уж больно странная картина получается. Грешу на аплинка, хоть они мне и отписались, что у них проблем нет. Ну показывайте объективные данные еще. top -SCHP / vmstat -i / netstat -w1 в моменты высокого пинга. Вот данные в момент высокого пинга. Возрос примерно в два раза. top -SCHP: last pid: 79537; load averages: 1.94, 1.80, 1.86 up 2+20:46:27 21:30:48 213 processes: 11 running, 153 sleeping, 49 waiting CPU 0: 1.2% user, 0.0% nice, 1.9% system, 16.7% interrupt, 80.2% idle CPU 1: 0.6% user, 0.0% nice, 6.2% system, 16.7% interrupt, 76.5% idle CPU 2: 0.6% user, 0.0% nice, 2.5% system, 24.7% interrupt, 72.2% idle CPU 3: 3.1% user, 0.0% nice, 4.3% system, 19.1% interrupt, 73.5% idle CPU 4: 1.2% user, 0.0% nice, 4.3% system, 14.8% interrupt, 79.6% idle CPU 5: 0.6% user, 0.0% nice, 7.4% system, 21.0% interrupt, 71.0% idle CPU 6: 1.2% user, 0.0% nice, 3.7% system, 19.1% interrupt, 75.9% idle CPU 7: 0.6% user, 0.0% nice, 7.4% system, 14.2% interrupt, 77.8% idle Mem: 595M Active, 1121M Inact, 1364M Wired, 1647M Buf, 12G Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND 11 root 155 ki31 0K 128K RUN 7 58.2H 87.16% idle{idle: cpu7} 11 root 155 ki31 0K 128K CPU6 6 58.2H 85.99% idle{idle: cpu6} 11 root 155 ki31 0K 128K RUN 5 58.0H 85.60% idle{idle: cpu5} 11 root 155 ki31 0K 128K RUN 4 58.2H 85.06% idle{idle: cpu4} 11 root 155 ki31 0K 128K CPU0 0 59.1H 84.38% idle{idle: cpu0} 11 root 155 ki31 0K 128K CPU1 1 59.1H 81.69% idle{idle: cpu1} 11 root 155 ki31 0K 128K CPU3 3 58.9H 80.96% idle{idle: cpu3} 11 root 155 ki31 0K 128K RUN 2 59.2H 80.37% idle{idle: cpu2} 12 root -92 - 0K 800K WAIT 3 197:31 10.50% intr{irq267: igb1:que} 12 root -92 - 0K 800K WAIT 2 197:38 9.96% intr{irq266: igb1:que} 12 root -60 - 0K 800K WAIT 1 17:16 9.57% intr{swi4: clock} 12 root -92 - 0K 800K WAIT 4 208:29 8.40% intr{irq268: igb1:que} 12 root -92 - 0K 800K CPU1 1 183:07 8.25% intr{irq257: igb0:que} 12 root -92 - 0K 800K WAIT 0 217:24 7.96% intr{irq272: igb1:que} 12 root -92 - 0K 800K WAIT 0 173:52 7.96% intr{irq256: igb0:que} 12 root -92 - 0K 800K WAIT 1 189:42 7.57% intr{irq265: igb1:que} 12 root -92 - 0K 800K WAIT 2 173:14 7.47% intr{irq258: igb0:que} 12 root -92 - 0K 800K WAIT 6 213:32 7.18% intr{irq270: igb1:que} 12 root -92 - 0K 800K WAIT 5 190:17 7.08% intr{irq261: igb0:que} 12 root -92 - 0K 800K WAIT 7 193:18 6.98% intr{irq271: igb1:que} 12 root -92 - 0K 800K WAIT 5 191:47 6.98% intr{irq269: igb1:que} 12 root -92 - 0K 800K WAIT 4 172:38 6.88% intr{irq260: igb0:que} 12 root -92 - 0K 800K WAIT 6 165:58 6.79% intr{irq262: igb0:que} 12 root -92 - 0K 800K WAIT 3 190:11 6.69% intr{irq259: igb0:que} 12 root -92 - 0K 800K WAIT 7 173:32 6.49% intr{irq263: igb0:que} 12890 nobody 20 -15 144M 100M umtxn 0 104:13 1.95% ipcad{ipcad} 12890 nobody 20 -15 144M 100M CPU0 0 46:49 1.46% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 6 30:17 1.07% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 0 31:45 0.78% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 4 29:19 0.49% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 1 27:49 0.49% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 5 27:32 0.49% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 0 27:23 0.49% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 0 17:33 0.39% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 4 15:27 0.29% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 0 14:34 0.29% ipcad{ipcad} 12890 nobody 20 -15 144M 100M select 2 16:45 0.20% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 1 13:15 0.20% ipcad{ipcad} 12890 nobody 20 -15 144M 100M umtxn 4 7:44 0.20% ipcad{ipcad} 12890 nobody 20 -15 144M 100M select 0 14:02 0.10% ipcad{ipcad} 12890 nobody 20 -15 144M 100M select 3 11:18 0.10% ipcad{ipcad} vmstat -i: interrupt total rate irq1: atkbd0 18 0 irq14: ata0 165135 0 irq20: hpet0 277974897 1122 irq22: uhci4 24 0 irq256: igb0:que 0 1516234251 6120 irq257: igb0:que 1 1479890509 5973 irq258: igb0:que 2 1521416505 6141 irq259: igb0:que 3 1534503111 6194 irq260: igb0:que 4 1449469607 5851 irq261: igb0:que 5 1490359681 6016 irq262: igb0:que 6 1420281557 5733 irq263: igb0:que 7 1445186665 5833 irq264: igb0:link 2 0 irq265: igb1:que 0 1332699535 5379 irq266: igb1:que 1 1315583035 5310 irq267: igb1:que 2 1356298399 5475 irq268: igb1:que 3 1353977228 5465 irq269: igb1:que 4 1462307835 5903 irq270: igb1:que 5 1526586653 6162 irq271: igb1:que 6 1452473867 5863 irq272: igb1:que 7 1502409597 6064 irq273: igb1:link 6 0 irq274: ciss0 596064 2 Total 23438414181 94615 netstat -w1: input (Total) output packets errs idrops bytes packets errs bytes colls 138214 0 0 97571280 142735 0 113951649 0 124948 0 0 88803544 128098 0 100261256 0 127157 0 0 89686708 131324 0 105261655 0 122950 0 0 85154767 127125 0 99404755 0 119806 0 0 83055338 124409 0 96763729 0 124760 0 0 89158423 130759 0 103859597 0 124635 0 0 87534971 128941 0 100131306 0 128290 0 0 90788934 131392 0 102078929 0 124671 0 0 87787217 127764 0 99787106 0 125529 0 0 88816840 128855 0 99698855 0 123670 0 0 87612567 126913 0 99443799 0 116982 0 0 81622585 120040 0 91630961 0 119987 0 0 82736205 123087 0 93832044 0 115475 0 0 79706890 118934 0 90655161 0 124284 0 0 84182160 132158 0 92592253 0 119444 0 0 83465986 122948 0 94825216 0 121147 0 0 83740009 124725 0 97781314 0 121010 0 0 84122663 124899 0 96872244 0 116991 0 0 79704861 120286 0 92015745 0 120244 0 0 83001152 122728 0 95802147 0 input (Total) output packets errs idrops bytes packets errs bytes colls 120958 0 0 83793990 123629 0 93596124 0 125380 0 0 86778170 128742 0 99045259 0 124182 0 0 87140830 127294 0 97158315 0 120705 0 0 84098709 123779 0 95723211 0 117162 0 0 80389650 120004 0 92815276 0 115913 0 0 80716794 119002 0 90256804 0 120537 0 0 84740661 124387 0 98150079 0 127900 0 0 88543085 131055 0 105270691 0 122173 0 0 82838775 126385 0 100268511 0 127977 0 0 87462449 133820 0 108460591 0 128274 0 0 88387608 133175 0 107088300 0 122765 0 0 84549091 127402 0 99457625 0 117667 0 0 80597401 121624 0 93194747 0 117032 0 0 81098040 120333 0 93261866 0 122644 0 0 84439427 126534 0 98616898 0 122769 0 0 86396094 125619 0 97971439 0 125644 0 0 86672367 130406 0 102772978 0 129903 0 0 90756077 134718 0 106883019 0 133744 0 0 93756661 140253 0 114064733 0 136428 0 0 95357883 143095 0 115756825 0 137786 0 0 97793075 145523 0 119078404 0 Изменено 26 сентября, 2014 пользователем roma33rus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 26 сентября, 2014 · Жалоба да, стояло 9к, поставил 16, понаблюдаю. спасибо. Может быть мало, но в dmesg обычно есть записи о штормах прерываний, если они были. 12890 nobody 20 -15 144M 100M umtxn 0 104:13 1.95% ipcad{ipcad} 12890 nobody 20 -15 144M 100M CPU0 0 46:49 1.46% ipcad{ipcad} Это выключать пробовали? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
polmax Опубликовано 26 сентября, 2014 · Жалоба Походу в 10 этот модуль umtxn, всем мешает жить :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 26 сентября, 2014 (изменено) · Жалоба да, стояло 9к, поставил 16, понаблюдаю. спасибо. Может быть мало, но в dmesg обычно есть записи о штормах прерываний, если они были. 12890 nobody 20 -15 144M 100M umtxn 0 104:13 1.95% ipcad{ipcad} 12890 nobody 20 -15 144M 100M CPU0 0 46:49 1.46% ipcad{ipcad} Это выключать пробовали? В логах сообщение о штормах не было. Только сообщения об limit icmp ping и Bump sched buckets to 65536. Айпикад может добавлять глюков в систему? О_о При следующей проблеме попробую вырубить Изменено 26 сентября, 2014 пользователем roma33rus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 26 сентября, 2014 · Жалоба Айпикад может добавлять глюков в систему? О_о При следующей проблеме попробую вырубить Может. Он же переваривает сетевые пакеты? - значит влияет на сетевую подсистему. Надо смотреть как именно он пакеты получает чтобы детальнее разобраться. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DVM-Avgoor Опубликовано 27 сентября, 2014 · Жалоба Ох. IPCAD через libpcap же работает. Вообще делайте так: начнет расти пинг - отключайте сначала ипкад, проверяйте пинг. Не помогло - обнуляйте ipfw, проверяйте. Если никакие телодвижения не помогают против роста пинга - большая вероятность что это вообще не у вас. Ничего подозрительного в представленной вами информации лично я не вижу. PS. Если действительно виноват ipcad, есть и другие способы собрать netflow. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 27 сентября, 2014 · Жалоба На днях буду проверять. Странно еще то, что возрастание пингов происходит как по расписанию, каждый день с 19:00 и до 23:00. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DVM-Avgoor Опубликовано 27 сентября, 2014 · Жалоба На днях буду проверять. Странно еще то, что возрастание пингов происходит как по расписанию, каждый день с 19:00 и до 23:00. А у вас апстрим какой-либо из магистральных операторов или местный агрегатор трафика? И второе: какая загрузка сетевух в отдельности? Графики строите? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 27 сентября, 2014 · Жалоба На днях буду проверять. Странно еще то, что возрастание пингов происходит как по расписанию, каждый день с 19:00 и до 23:00. А у вас апстрим какой-либо из магистральных операторов или местный агрегатор трафика? И второе: какая загрузка сетевух в отдельности? Графики строите? Да у нас магистрал, мегафон. Да конечно, графики есть и по трафику и по ппс. Отличаются они не значительно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DVM-Avgoor Опубликовано 27 сентября, 2014 · Жалоба Да конечно, графики есть и по трафику и по ппс. Отличаются они не значительно. Как там на предмет полок? Да у нас магистрал, мегафон. Лол. С мегафоном у нас было много печали, отказались. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 27 сентября, 2014 · Жалоба Да конечно, графики есть и по трафику и по ппс. Отличаются они не значительно. Как там на предмет полок? Да у нас магистрал, мегафон. Лол. С мегафоном у нас было много печали, отказались. В запасе где то мегабит 50-70, это пока первые такие непонятки. Да и у нас тут особого выбора нет. Мегафон лучший пока в наших краях. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DVM-Avgoor Опубликовано 27 сентября, 2014 · Жалоба В запасе где то мегабит 50-70, это пока первые такие непонятки. Да и у нас тут особого выбора нет. Мегафон лучший пока в наших краях. Я про то, что на интерфейсах полки-то возле гигабита нет? Или у вас 400-500Мбит на каждом? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 27 сентября, 2014 · Жалоба В запасе где то мегабит 50-70, это пока первые такие непонятки. Да и у нас тут особого выбора нет. Мегафон лучший пока в наших краях. Я про то, что на интерфейсах полки-то возле гигабита нет? Или у вас 400-500Мбит на каждом? Да, до гигабита далеко)))) все именно так как Вы и все сказали. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
andryas Опубликовано 27 сентября, 2014 · Жалоба Дважды была такая проблема, лет 10 назад. Первый раз - по вине аплинка (месяц морозился, покая я не поменял писюк на свитч и не показал наглядно), второй раз - по причине того, что гигабитная сетевая упёрлась в свою PCI шину. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 29 сентября, 2014 · Жалоба Попробовал в общем вырубать ipcad и ipfw, ничего не помогло. Отписался аплинку. А случаем из-за свича не может быть? у меня идет переприем. Приход оптики в DLink DGS 3120, потом медью в сервак и из сервака обратно в коммутатор. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DVM-Avgoor Опубликовано 29 сентября, 2014 · Жалоба Попробовал в общем вырубать ipcad и ipfw, ничего не помогло. Отписался аплинку. А случаем из-за свича не может быть? у меня идет переприем. Приход оптики в DLink DGS 3120, потом медью в сервак и из сервака обратно в коммутатор. Если полок на портах 3120 нет, или вы ручками там ограничение скорости не ставили, то вероятность мала. 3120 хорошая железка. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roma33rus Опубликовано 29 сентября, 2014 · Жалоба Попробовал в общем вырубать ipcad и ipfw, ничего не помогло. Отписался аплинку. А случаем из-за свича не может быть? у меня идет переприем. Приход оптики в DLink DGS 3120, потом медью в сервак и из сервака обратно в коммутатор. Если полок на портах 3120 нет, или вы ручками там ограничение скорости не ставили, то вероятность мала. 3120 хорошая железка. Нет, ничего такого не было. Ну в общем буду ждать комментарии от аплинка. Там картина такая, что как-будто по крону запускается какой-то скрипт и генерирует задержки, каждый день в одно и то же время. Всем спасибо за подсказки. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
220B Опубликовано 30 ноября, 2014 · Жалоба Кстати, вопрос не в тему: а 65'я разве нормально натить умеет? На 76 с RSP720 (SUP3CXL) как-то не получилось. Нет, на 65ой с натом все плохо, зато все хорошо с PBR для заворачивания серых в нат (чтобы белые ходили всегда прямо, а не через ненадежный писюк). DVM-Avgoor, а с каким сапом на 6500 шасси PBR получалось сделать не софтово? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SyJet Опубликовано 30 ноября, 2014 · Жалоба Кстати, вопрос не в тему: а 65'я разве нормально натить умеет? На 76 с RSP720 (SUP3CXL) как-то не получилось. Нет, на 65ой с натом все плохо, зато все хорошо с PBR для заворачивания серых в нат (чтобы белые ходили всегда прямо, а не через ненадежный писюк). DVM-Avgoor, а с каким сапом на 6500 шасси PBR получалось сделать не софтово? И пример тоже ))) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dreambox Опубликовано 12 декабря, 2014 · Жалоба Кто по сколько готов скинутся на новый NAT для фри и какие фичи нужны? Я готов, если что в ЛС. П.С фичи уже упоминались. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...