Перейти к содержимому
Калькуляторы

Sincha

Пользователи
  • Публикации

    63
  • Зарегистрирован

  • Посещение

Все публикации пользователя Sincha


  1. а как нынче с применением 2020? сигнатур же давно нет
  2. magnet:?xt=urn:btih:DAC07F92B9CBAA1FC29EE763EB1C2F41BA52CB1F&dn=Nexus3K_9K&tr
  3. Добрый день! А как решать проблемы с местом? вроде бы файлик компактный один, а места осталось буд-то файликов два актуально?
  4. Добрый день! Поделитесь у кого есть мибы этим устройствам. В частности, S4820
  5. Google Global Cache

    @disappointed У Вас вариант только общаться с аплинком, через которого Вы не хотите получать трафик, на предмет того, что бы сняли анонс
  6. Google Global Cache

    @Борис Иванович Врятли. Ждите. Например, в нашем регионе это занимало 6-10 месяцев.
  7. Нет, от других долбежки нет. И от прежних тплинков нет. А эти рвут сессию каждые пару минут. С исмп открытым такого нет, говорите? А для чего ицмп оставили при минусе?
  8. Что с игмп не так на них? По туннелю уточнение: проблема возникает или периодически ( возможно, недоступен префикс из какой Азии, ибо в списке нтп сервера со всего света), или если за туннелем нет интернетов (затычка по отрицательному балансу)
  9. @Trueno Снимайте дамп трафика на стенде - 99%, что flow control на тп-линке включен и он шлёт pause. Опции отключения в интерфейсе нет. Выключайте на коммутаторах flow control, если речь о длинках - выключайте несмотря на то, что он как бы и не включен. С тупыми сегментами вы ничего не сделаете. К слову, это не единственная прелесть новых тп-линков (я не про 1 сведиод на все, не-а). Устройства имеют теперь какой-то неотключаемый пинг-чекер. Конечно, и раньше устройства лезли спрашивать время у 10-15 нтп-серверов, но теперь они это делают даже если вбит руками свой + резолвят корни (у корней что-то?). Если что-то из вышепереисленного не удалось - рвут туннель и переподключают его заново. Переподключаются 840-ые очень медленно и в момент переподключений могут зависнуть. Как ведут себя без туннелей в этом ключе - не знаю, не проверял. Сам на стенде флуд pause не отлавливал (flow control держим прибитым), но коллеги по цеху жаловались. Добавлю, что у конкурентного китайца видел флуд pause в момент краша ядра\зависания. Обращался в тп-линк по поводу обрыва туннеля - отрицали, после, с логами, объявили это недокументированной фичей, ну а на сегодняшний день прошло уже около 3-4 недель с момента пинка следующей ветки техподдержки. Призываю Вас, коллеги, не молчать об этом, приводить факты и обращаться в техническую поддержку. На сколько я помню, техническая поддержка говорила, что каких-либо обращений с новыми устройствами в общем-то и нет..
  10. Ретрекер BTRT

    нету нгинкса, веб сервер же не нужен по сути ретрекеру. а что с запросами ннмклаба?
  11. Ретрекер BTRT

    Решили ли эти вопросы? @DimaM На отвязывание от кэша подзабили? Есть ли более подробное описание, кроме как в разделе btrt вашей вики? Статистику нормальную не делали этому продукту?
  12. Google Global Cache

    MATPOCДа пока работает без маршрута мимо ната. С точки зрения работы узла ggc в этой затее есть смысл?
  13. Google Global Cache

    Добрый вечер. А вы дурили голову с маршрутом до кэшей при использовании ната?
  14. Добрый вечер! SoftWare Version 6.2.150.134 BootRom Version 4.10.4 HardWare Version R01 CPLD Version 4.9 Что сюда лить?
  15. ipv4 аренда/продажа

    /24 - /23 pi передача интересует
  16. Куплю PI и AS ipv4

    Интересует /24 /23 сеть. Перевод, не аренда. В кранем случае чуть больше размером
  17. Добрый! Медные модуля бывают те, которые: поднимают линк на порту коммутатора когда на медной линии линк поднялся; поднимают линк на порту коммутатора всегда, независимо от линка на медной линии; есть те, которые с согласованием скорости, а есть те, которые совсем простые и работают исключительно в гигабите, никих 10\100\1000. Вот с ними в оборудовании, которое не понимает 100-мбитные sfp, у меня были проблемы. Поведение этих rj45 вроде как в даташите видно. Например: http://www.avagotech.com/products/fiber-optics/optical-transceivers/sfp/abcu-5730gz ABCU-5730RZ -5~70 RX_LOS enabled ABCU-5740RZ -5~70 RX_LOS disabled ABCU-5730GZ -5~70 RX_LOS enabled and Isolated ground ABCU-5730ARZ -40~85 RX_LOS enabled ABCU-5740ARZ -40~85 RX_LOS disabled ABCU-5731ARZ -40~85 SGMII RX_LOS enabled ABCU-5741ARZ -40~85 SGMII RX_LOS disabled ABCU-5741AGZ -40~85 SGMII RX_LOS disabled and Isolated ground Кажется, под рукой у меня есть разные rj45 по поведению и могу с них снять прошивки, но реализация этого функционала железная, да и на порту, который 100 мбит sfp не поддерживает, не все модуля заработают.
  18. Добрый день! А X2 Fibre Chanell DS-X2-FC10G-LR перепрошить в Ethernet выйдет? Спасибо
  19. Ivan_83 т.е. для браса отдавая все ресурсы, кол-во тредов=кол-ву процессоров + биндить. Как выше. Что же у меня 4 треда получилось?
  20. Не в пик наблюдаю следующее: last pid: 4386; load averages: 2.00, 2.23, 2.03 up 0+04:30:57 10:57:14 200 processes: 11 running, 153 sleeping, 36 waiting CPU 0: 0.0% user, 0.0% nice, 3.1% system, 27.2% interrupt, 69.7% idle CPU 1: 0.0% user, 0.0% nice, 4.3% system, 26.8% interrupt, 68.9% idle CPU 2: 0.0% user, 0.0% nice, 4.3% system, 22.0% interrupt, 73.6% idle CPU 3: 0.0% user, 0.0% nice, 1.6% system, 20.9% interrupt, 77.6% idle CPU 4: 0.0% user, 0.0% nice, 16.9% system, 4.7% interrupt, 78.3% idle CPU 5: 0.4% user, 0.0% nice, 19.3% system, 3.9% interrupt, 76.4% idle CPU 6: 0.0% user, 0.0% nice, 18.5% system, 2.8% interrupt, 78.7% idle CPU 7: 0.0% user, 0.0% nice, 13.8% system, 4.3% interrupt, 81.9% idle Mem: 28M Active, 37M Inact, 212M Wired, 19M Buf, 3661M Free Swap: 3052M Total, 3052M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 155 ki31 0K 128K CPU4 4 238:35 88.48% idle{idle: cpu4} 11 root 155 ki31 0K 128K CPU7 7 238:40 87.60% idle{idle: cpu7} 11 root 155 ki31 0K 128K CPU5 5 238:21 84.08% idle{idle: cpu5} 11 root 155 ki31 0K 128K CPU6 6 238:41 82.86% idle{idle: cpu6} 11 root 155 ki31 0K 128K CPU3 3 230:52 80.57% idle{idle: cpu3} 11 root 155 ki31 0K 128K RUN 1 230:18 79.39% idle{idle: cpu1} 11 root 155 ki31 0K 128K CPU2 2 228:16 78.37% idle{idle: cpu2} 11 root 155 ki31 0K 128K CPU0 0 223:42 71.19% idle{idle: cpu0} 12 root -72 - 0K 592K WAIT 0 36:08 23.49% intr{swi1: netisr 0} 12 root -72 - 0K 592K WAIT 2 32:31 20.46% intr{swi1: netisr 2} 12 root -72 - 0K 592K WAIT 1 30:17 20.36% intr{swi1: netisr 1} 12 root -72 - 0K 592K WAIT 3 29:58 18.90% intr{swi1: netisr 3} 13 root -16 - 0K 128K sleep 4 14:18 8.79% ng_queue{ng_queue2} 13 root -16 - 0K 128K sleep 6 14:16 8.59% ng_queue{ng_queue4} 13 root -16 - 0K 128K sleep 2 14:17 8.40% ng_queue{ng_queue6} 13 root -16 - 0K 128K sleep 6 14:16 8.40% ng_queue{ng_queue1} 13 root -16 - 0K 128K CPU7 7 14:18 8.25% ng_queue{ng_queue5} 13 root -16 - 0K 128K sleep 6 14:16 8.25% ng_queue{ng_queue0} 13 root -16 - 0K 128K sleep 4 14:16 8.25% ng_queue{ng_queue7} 13 root -16 - 0K 128K sleep 4 14:17 8.15% ng_queue{ng_queue3} 721 root 22 0 154M 40900K select 7 14:07 3.56% mpd5{mpd5} 12 root -92 - 0K 592K WAIT 0 4:44 2.88% intr{irq258: igb0:que} 12 root -92 - 0K 592K WAIT 6 4:26 2.69% intr{irq265: igb1:que} 12 root -92 - 0K 592K WAIT 4 4:45 2.49% intr{irq263: igb1:que} 12 root -92 - 0K 592K WAIT 2 4:34 2.49% intr{irq260: igb0:que} 12 root -92 - 0K 592K CPU1 1 4:18 2.49% intr{irq259: igb0:que} 12 root -92 - 0K 592K WAIT 7 4:02 2.49% intr{irq266: igb1:que} 12 root -92 - 0K 592K WAIT 5 4:22 2.39% intr{irq264: igb1:que} 12 root -92 - 0K 592K WAIT 3 4:04 2.39% intr{irq261: igb0:que} sysctl net.isr net.isr.numthreads: 8 net.isr.maxprot: 16 net.isr.defaultqlimit: 4096 net.isr.maxqlimit: 10240 net.isr.bindthreads: 1 net.isr.maxthreads: 8 net.isr.direct: 0 net.isr.direct_force: 0 net.isr.dispatch: deferred
  21. Ivan_83 Я всё думал о роли gre в моем pptp трафике и должна ли интеловская сетевушка разбрасывать этот трафик по очередям; думал, не начать ли использовать l2tp (соответсвующий бандл настроен и запущен вместе с pptp на всех брасах). Пришел к выводу, что разницы особой быть не должно, но перейти на использование isr-a, что бы обработка была не в контексте прерываний, попробовать стоит. Думаю, утром сегодня\завтра так и сделаю. Только биндить наверное в моем случае не стоит: кол-во очередей карты равно у меня кол-ву ядер. Все верно? vlad11 Наверное, переупорядочивание пакетов было бы страшно с шифрованием. Шифрование трафика не использую. Его патч, кстати, наложен и используется с глубиной очереди в 16 и таймаутом в 2мс. net.graph.pptpgre.reorder_max=16 net.graph.pptpgre.reorder_timeout=2 MTU туннелям ограничено в MPD set link mtu 1460 , на интерфейсах входном и выходном - 1500, дальше и до на оборудовании - 1500, q-n-q нету, поэтому не увеличивал. Если посмотреть ifconfig, то абсолютное большинство клиентов с 1420, в целом же 1400 - 1460. Вы это имели ввиду под долей? Я не уверен, что net.graph.maxdata надо такое огромное число. Погуглите. Имхо, 2х максимального числа пользователей. (с) Гросбеин.Дефолт 4096 и с ним гарантированно спустя несколько дней нельзя уже было посмотреть ngctl list. Значения действительно просто были скопипащены. С другой стороны, они больше дефолтных в 10 раз. Возможно, на реальном примере, при аналогичной нагрузке, когда нет FAIL для ITEM|NetGraph, Вы можете рекомендовать конкретные значения из опыта? Значение данного параметра в работе не изменить, только с рестартом, поэтому хотелось бы обдуманно это делать. Может быть у Вас есть мысли каким образом резкое завышение данного параметра мне может мешать? ... Посмотрел я вывод ngctl list тут Name: igb0 Type: ether ID: 00000003 Num hooks: 0 Name: igb1 Type: ether ID: 00000004 Num hooks: 0 Name: mpd691-lso Type: socket ID: 00000007 Num hooks: 621 Name: mpd691-cso Type: socket ID: 00000008 Num hooks: 0 Name: mpd691-eso Type: socket ID: 00000009 Num hooks: 0 Name: mpd691-stats Type: socket ID: 00000024 Num hooks: 0 Name: mpd691-nf Type: netflow ID: 00000026 Num hooks: 1243 Name: mpd691-L_pptp-254-lt Type: tee ID: 00d20027 Num hooks: 2 Name: mpd691-nfso Type: ksocket ID: 00000027 Num hooks: 1 Name: <unnamed> Type: pptpgre ID: 00d20029 Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00d2002a Num hooks: 1 Name: ng88 Type: iface ID: 00d20030 Num hooks: 1 Name: mpd691-B_ppp-89 Type: ppp ID: 00d20031 Num hooks: 3 Name: mpd691-L_pptp-109-lt Type: tee ID: 00328036 Num hooks: 2 Name: mpd691-B_ppp-89-mss Type: tcpmss ID: 00d20037 Num hooks: 2 Name: mpd691-B_ppp-89-lim Type: bpf ID: 00d20038 Num hooks: 14 Name: <unnamed> Type: pptpgre ID: 00328038 Num hooks: 2 Name: <unnamed> Type: car ID: 00d20039 Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00328039 Num hooks: 1 Name: <unnamed> Type: car ID: 00d2003a Num hooks: 2 Name: <unnamed> Type: car ID: 00d2003b Num hooks: 2 Name: <unnamed> Type: car ID: 00d2003c Num hooks: 2 Name: ng535 Type: iface ID: 00328050 Num hooks: 1 Name: mpd691-B_ppp-536 Type: ppp ID: 00328051 Num hooks: 3 Name: mpd691-B_ppp-536-mss Type: tcpmss ID: 00328069 Num hooks: 2 Name: mpd691-B_ppp-536-lim Type: bpf ID: 0032806a Num hooks: 14 Name: <unnamed> Type: car ID: 0032806b Num hooks: 2 Name: <unnamed> Type: car ID: 0032806c Num hooks: 2 Name: <unnamed> Type: car ID: 0032806d Num hooks: 2 Name: <unnamed> Type: car ID: 0032806e Num hooks: 2 Name: mpd691-L_pptp-100-lt Type: tee ID: 00d6007e Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00d60080 Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00d60081 Num hooks: 1 Name: ng90 Type: iface ID: 00d60086 Num hooks: 1 Name: mpd691-B_ppp-91 Type: ppp ID: 00d60087 Num hooks: 3 Name: mpd691-B_ppp-91-mss Type: tcpmss ID: 00d60088 Num hooks: 2 Name: mpd691-B_ppp-91-lim Type: bpf ID: 00d60089 Num hooks: 14 Name: <unnamed> Type: car ID: 00d6008a Num hooks: 2 Name: <unnamed> Type: car ID: 00d6008b Num hooks: 2 Name: <unnamed> Type: car ID: 00d6008c Num hooks: 2 Name: <unnamed> Type: car ID: 00d6008d Num hooks: 2 Name: mpd691-L_pptp-116-lt Type: tee ID: 00d600d8 Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00d600da Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00d600db Num hooks: 1 Name: ng157 Type: iface ID: 00d600dc Num hooks: 1 Name: mpd691-B_ppp-158 Type: ppp ID: 00d600dd Num hooks: 3 Name: mpd691-L_pptp-244-lt Type: tee ID: 00d60147 Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00d60149 Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00d6014a Num hooks: 1 Name: ng30 Type: iface ID: 00d6014b Num hooks: 1 Name: mpd691-B_ppp-31 Type: ppp ID: 00d6014c Num hooks: 3 Name: mpd691-L_pptp-650-lt Type: tee ID: 00c3820b Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00c3820d Num hooks: 2 Name: <unnamed> Type: ksocket ID: 00c3820e Num hooks: 1 Name: ng1 Type: iface ID: 00c3820f Num hooks: 1 Name: mpd691-B_ppp-2 Type: ppp ID: 00c38210 Num hooks: 3 Name: mpd691-B_ppp-2-mss Type: tcpmss ID: 00c38211 Num hooks: 2 Name: mpd691-B_ppp-2-lim Type: bpf ID: 00c38212 Num hooks: 14 Name: <unnamed> Type: car ID: 00c38213 Num hooks: 2 Name: <unnamed> Type: car ID: 00c38214 Num hooks: 2 Name: <unnamed> Type: car ID: 00c38215 Num hooks: 2 Name: <unnamed> Type: car ID: 00c38216 Num hooks: 2 Name: mpd691-L_pptp-152-lt Type: tee ID: 00c88225 Num hooks: 2 Name: mpd691-B_ppp-317-mss Type: tcpmss ID: 00d60227 Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00c88227 Num hooks: 2 Name: mpd691-B_ppp-317-lim Type: bpf ID: 00d60228 Num hooks: 14 Name: <unnamed> Type: ksocket ID: 00c88228 Num hooks: 1 Name: <unnamed> Type: car ID: 00d60229 Num hooks: 2 Name: ng96 Type: iface ID: 00c88229 Num hooks: 1 Name: <unnamed> Type: car ID: 00d6022a Num hooks: 2 Name: mpd691-B_ppp-97 Type: ppp ID: 00c8822a Num hooks: 3 Name: <unnamed> Type: car ID: 00d6022b Num hooks: 2 Name: <unnamed> Type: car ID: 00d6022c Num hooks: 2 Name: mpd691-B_ppp-280-mss Type: tcpmss ID: 00d6022d Num hooks: 2 Name: mpd691-B_ppp-280-lim Type: bpf ID: 00d6022e Num hooks: 14 Name: <unnamed> Type: car ID: 00d6022f Num hooks: 2 Name: <unnamed> Type: car ID: 00d60230 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60231 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60232 Num hooks: 2 Name: mpd691-B_ppp-332-mss Type: tcpmss ID: 00d60233 Num hooks: 2 Name: mpd691-B_ppp-332-lim Type: bpf ID: 00d60234 Num hooks: 14 Name: <unnamed> Type: car ID: 00d60235 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60236 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60237 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60238 Num hooks: 2 Name: mpd691-B_ppp-170-mss Type: tcpmss ID: 00d60239 Num hooks: 2 Name: mpd691-B_ppp-170-lim Type: bpf ID: 00d6023a Num hooks: 14 Name: <unnamed> Type: car ID: 00d6023b Num hooks: 2 Name: <unnamed> Type: car ID: 00d6023c Num hooks: 2 Name: <unnamed> Type: car ID: 00d6023d Num hooks: 2 Name: mpd691-L_pptp-191-lt Type: tee ID: 00d5823d Num hooks: 2 Name: <unnamed> Type: car ID: 00d6023e Num hooks: 2 Name: mpd691-B_ppp-554-mss Type: tcpmss ID: 00d6023f Num hooks: 2 Name: <unnamed> Type: pptpgre ID: 00d5823f Num hooks: 2 Name: mpd691-B_ppp-554-lim Type: bpf ID: 00d60240 Num hooks: 14 Name: <unnamed> Type: ksocket ID: 00d58240 Num hooks: 1 Name: <unnamed> Type: car ID: 00d60241 Num hooks: 2 Name: ng123 Type: iface ID: 00d58241 Num hooks: 1 Name: <unnamed> Type: car ID: 00d60242 Num hooks: 2 Name: mpd691-B_ppp-124 Type: ppp ID: 00d58242 Num hooks: 3 Name: <unnamed> Type: car ID: 00d60243 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60244 Num hooks: 2 Name: mpd691-B_ppp-575-mss Type: tcpmss ID: 00d60245 Num hooks: 2 Name: mpd691-B_ppp-575-lim Type: bpf ID: 00d60246 Num hooks: 14 Name: <unnamed> Type: car ID: 00d60247 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60248 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60249 Num hooks: 2 Name: <unnamed> Type: car ID: 00d6024a Num hooks: 2 Name: mpd691-B_ppp-281-mss Type: tcpmss ID: 00d6024b Num hooks: 2 Name: mpd691-B_ppp-281-lim Type: bpf ID: 00d6024c Num hooks: 14 Name: <unnamed> Type: car ID: 00d6024d Num hooks: 2 Name: <unnamed> Type: car ID: 00d6024e Num hooks: 2 Name: <unnamed> Type: car ID: 00d6024f Num hooks: 2 Name: <unnamed> Type: car ID: 00d60250 Num hooks: 2 Name: mpd691-B_ppp-290-mss Type: tcpmss ID: 00d60251 Num hooks: 2 Name: mpd691-B_ppp-290-lim Type: bpf ID: 00d60252 Num hooks: 14 Name: <unnamed> Type: car ID: 00d60253 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60254 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60255 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60256 Num hooks: 2 Name: mpd691-B_ppp-145-mss Type: tcpmss ID: 00d60257 Num hooks: 2 Name: mpd691-B_ppp-145-lim Type: bpf ID: 00d60258 Num hooks: 14 Name: <unnamed> Type: car ID: 00d60259 Num hooks: 2 Name: <unnamed> Type: car ID: 00d6025a Num hooks: 2 Name: <unnamed> Type: car ID: 00d6025b Num hooks: 2 Name: <unnamed> Type: car ID: 00d6025c Num hooks: 2 Name: mpd691-B_ppp-24-mss Type: tcpmss ID: 00d6025d Num hooks: 2 Name: mpd691-B_ppp-24-lim Type: bpf ID: 00d6025e Num hooks: 14 Name: <unnamed> Type: car ID: 00d6025f Num hooks: 2 Name: <unnamed> Type: car ID: 00d60260 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60261 Num hooks: 2 Name: <unnamed> Type: car ID: 00d60262 Num hooks: 2 Name: mpd691-B_ppp-416-mss Type: tcpmss ID: 00d60263 Num hooks: 2 Name: mpd691-B_ppp-416-lim Type: bpf ID: 00d60264 Num hooks: 14 Не isr поможет, так следующим шагом думать как это mpd-шное оптимизировать
  22. tcp: 358972912 packets sent 244965799 data packets (5006541835 bytes) 710879 data packets (22253188 bytes) retransmitted 56625 data packets unnecessarily retransmitted 0 resends initiated by MTU discovery 111195837 ack-only packets (97072219 delayed) 0 URG only packets 0 window probe packets 518 window update packets 2101394 control packets 417348196 packets received 243446913 acks (for 4989168706 bytes) 2061217 duplicate acks 0 acks for unsent data 245005807 packets (5132659982 bytes) received in-sequence 95486 completely duplicate packets (1311480 bytes) 15468 old duplicate packets 48 packets with some dup. data (1156 bytes duped) 12915 out-of-order packets (3791624 bytes) 33 packets (0 bytes) of data after window 0 window probes 4720 window update packets 6646 packets received after close 195 discarded for bad checksums 0 discarded for bad header offset fields 0 discarded because packet too short 0 discarded due to memory problems 891 connection requests 2152172 connection accepts 0 bad connection attempts 16 listen queue overflows 89954 ignored RSTs in the windows 2152673 connections established (including accepts) 2152639 connections closed (including 141761 drops) 2090355 connections updated cached RTT on close 2135456 connections updated cached RTT variance on close 1520265 connections updated cached ssthresh on close 0 embryonic connections dropped 243343161 segments updated rtt (of 238747379 attempts) 721043 retransmit timeouts 44083 connections dropped by rexmit timeout 0 persist timeouts 0 connections dropped by persist timeout 0 Connections (fin_wait_2) dropped because of timeout 204 keepalive timeouts 198 keepalive probes sent 6 connections dropped by keepalive 159508206 correct ACK header predictions 165851118 correct data packet header predictions 2888909 syncache entries added 2104439 retransmitted 1709979 dupsyn 1 dropped 2152172 completed 3650 bucket overflow 0 cache overflow 41782 reset 691187 stale 16 aborted 0 badack 121 unreach 0 zone failures 2888833 cookies sent 19 cookies received 188240 hostcache entries added 0 bucket overflow 259 SACK recovery episodes 30 segment rexmits in SACK recovery episodes 9596 byte rexmits in SACK recovery episodes 80957 SACK options (SACK blocks) received 6221 SACK options (SACK blocks) sent 0 SACK scoreboard overflow 0 packets with ECN CE bit set 0 packets with ECN ECT(0) bit set 0 packets with ECN ECT(1) bit set 0 successful ECN handshakes 0 times ECN reduced the congestion window udp: 2332636108 datagrams received 0 with incomplete header 0 with bad data length field 63 with bad checksum 58396262 with no checksum 1549080 dropped due to no socket 51407892 broadcast/multicast datagrams undelivered 2894 dropped due to full socket buffers 0 not for hashed pcb 2279676179 delivered 4005325298 datagrams output 0 times multicast source filter matched sctp: 0 input packets 0 datagrams 0 packets that had data 0 input SACK chunks 0 input DATA chunks 0 duplicate DATA chunks 0 input HB chunks 0 HB-ACK chunks 0 input ECNE chunks 0 input AUTH chunks 0 chunks missing AUTH 0 invalid HMAC ids received 0 invalid secret ids received 0 auth failed 0 fast path receives all one chunk 0 fast path multi-part data 0 output packets 0 output SACKs 0 output DATA chunks 0 retransmitted DATA chunks 0 fast retransmitted DATA chunks 0 FR's that happened more than once to same chunk 0 output HB chunks 0 output ECNE chunks 0 output AUTH chunks 0 ip_output error counter Packet drop statistics: 0 from middle box 0 from end host 0 with data 0 non-data, non-endhost 0 non-endhost, bandwidth rep only 0 not enough for chunk header 0 not enough data to confirm 0 where process_chunk_drop said break 0 failed to find TSN 0 attempt reverse TSN lookup 0 e-host confirms zero-rwnd 0 midbox confirms no space 0 data did not match TSN 0 TSN's marked for Fast Retran Timeouts: 0 iterator timers fired 0 T3 data time outs 0 window probe (T3) timers fired 0 INIT timers fired 0 sack timers fired 0 shutdown timers fired 0 heartbeat timers fired 0 a cookie timeout fired 0 an endpoint changed its cookiesecret 0 PMTU timers fired 0 shutdown ack timers fired 0 shutdown guard timers fired 0 stream reset timers fired 0 early FR timers fired 0 an asconf timer fired 0 auto close timer fired 0 asoc free timers expired 0 inp free timers expired 0 packet shorter than header 0 checksum error 0 no endpoint for port 0 bad v-tag 0 bad SID 0 no memory 0 number of multiple FR in a RTT window 0 RFC813 allowed sending 0 RFC813 does not allow sending 0 times max burst prohibited sending 0 look ahead tells us no memory in interface 0 numbers of window probes sent 0 times an output error to clamp down on next user send 0 times sctp_senderrors were caused from a user 0 number of in data drops due to chunk limit reached 0 number of in data drops due to rwnd limit reached 0 times a ECN reduced the cwnd 0 used express lookup via vtag 0 collision in express lookup 0 times the sender ran dry of user data on primary 0 same for above 0 sacks the slow way 0 window update only sacks sent 0 sends with sinfo_flags !=0 0 unordered sends 0 sends with EOF flag set 0 sends with ABORT flag set 0 times protocol drain called 0 times we did a protocol drain 0 times recv was called with peek 0 cached chunks used 0 cached stream oq's used 0 unread messages abandonded by close 0 send burst avoidance, already max burst inflight to net 0 send cwnd full avoidance, already max burst inflight to net 0 number of map array over-runs via fwd-tsn's ip: 1028486637714 total packets received 435 bad header checksums 0 with size smaller than minimum 3782908 with data size < data length 0 with ip length > max ip packet size 0 with header length < data size 0 with data length < header length 9 with bad options 0 with incorrect version number 1040445263 fragments received 2 fragments dropped (dup or out of space) 57230 fragments dropped after timeout 520193992 packets reassembled ok 310069951016 packets for this host 35511480 packets for unknown/unsupported protocol 717688261988 packets forwarded (414241041968 packets fast forwarded) 3606193 packets not forwardable 0 packets received for unknown multicast group 0 redirects sent 394001171795 packets sent from this host 1 packet sent with fabricated ip header 519247 output packets dropped due to no bufs, etc. 0 output packets discarded due to no route 8946634319 output datagrams fragmented 17892859240 fragments created 8721452 datagrams that can't be fragmented 0 tunneling packets that can't find gif 19265 datagrams with bad address in header icmp: 212810240 calls to icmp_error 1979205 errors not generated in response to an icmp message Output histogram: echo reply: 6084383 destination unreachable: 8723734 time exceeded: 201751747 time stamp reply: 8 7 messages with bad code fields 0 messages less than the minimum length 1719 messages with bad checksum 59 messages with bad length 0 multicast echo requests ignored 0 multicast timestamp requests ignored Input histogram: echo reply: 423 #1: 3 #2: 2 destination unreachable: 8510050 source quench: 15 routing redirect: 250846 #6: 4 #7: 3 echo: 12969353 router advertisement: 4 router solicitation: 2 time exceeded: 132409 parameter problem: 3 time stamp: 8 time stamp reply: 8 information request: 4 information request reply: 2 address mask request: 3 address mask reply: 1 #19: 3 #20: 2 #21: 4 #23: 3 #24: 1 #25: 9 #26: 3 #27: 4 #28: 6 #29: 4 icmp traceroute: 4 datagram conversion error: 3 IPv6 where-are-you: 2 IPv6 i-am-here: 1 mobile registration req: 3 mobile registration reply: 1 domain name request: 5 domain name reply: 1 icmp SKIP: 3 icmp photuris: 3 6084391 message responses generated 0 invalid return addresses 0 no return routes ICMP address mask responses are disabled igmp: 17949300 messages received 0 messages received with too few bytes 0 messages received with wrong TTL 0 messages received with bad checksum 16291116 V1/V2 membership queries received 19 V3 membership queries received 0 membership queries received with invalid field(s) 16291135 general queries received 0 group queries received 0 group-source queries received 0 group-source queries dropped 1000641 membership reports received 28062 membership reports received with invalid field(s) 0 membership reports received for groups to which we belong 326705 V3 reports received without Router Alert 0 membership reports sent arp: 37902 ARP requests sent 895498 ARP replies sent 5352581 ARP requests received 36230 ARP replies received 5388811 ARP packets received 3906 total packets dropped due to no ARP entry 6730 ARP entrys timed out 0 Duplicate IPs seen Больше, чем после суток. Гипертрейдинг выключен, это 2 процессора