agnitumus Posted March 28, 2016 (edited) Доброго времени суток ! Есть боевой сервер MPD5 (shaper) + RAdius + L2TP(3500+ Online) При непонятных обстоятельствах начинает подыматься пинг на выданные ип адреса... Подскажите, как понять кто грузит ! Шейпит NG_CAR/NG_BPF (MPD5) ipfw ${FwCMD} -f flush ${FwCMD} -f pipe flush ${FwCMD} -f queue flush ${FwCMD} add check-state ${FwCMD} add allow ip from any to any via lo0 ${FwCMD} add deny ip from any to 127.0.0.0/8 ${FwCMD} add deny ip from 127.0.0.0/8 to any ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add allow all from me to any ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. ${FwCMD} add deny all from 10.0.0.0/22 to ${NotLocal} 25 ${FwCMD} add deny ip from any to 192.168.0.0/16 in via ${LanOut_i} ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} ... Сетевухи 07:00.0 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix0 Internet 07:00.1 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix1 через неё L2TP Нат на отдельной машине Картинки Вкучу netstat -m vmstat -i vmstat -z ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP UMA Kegs: 208, 0, 112, 7, 113, 0, 0 UMA Zones: 3456, 0, 112, 0, 113, 0, 0 UMA Slabs: 568, 0, 74660, 16,16457409, 0, 0 UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0 UMA Hash: 256, 0, 0, 15, 4, 0, 0 16 Bucket: 152, 0, 260, 15, 260, 0, 0 32 Bucket: 280, 0, 590, 12, 593, 1, 0 64 Bucket: 536, 0, 1237, 2, 1269, 86, 0 128 Bucket: 1048, 0, 9877, 2, 10316,17576, 0 VM OBJECT: 232, 0, 188446, 6674,187832986, 0, 0 MAP: 240, 0, 8, 24, 8, 0, 0 KMAP ENTRY: 128, 6257185, 1392, 4437,43966762, 0, 0 MAP ENTRY: 128, 0, 4333, 62077,764088175, 0, 0 fakepg: 120, 0, 0, 0, 0, 0, 0 mt_zone: 4112, 0, 304, 7, 304, 0, 0 16: 16, 0, 9022, 4082,125058830, 0, 0 32: 32, 0, 22791, 25790,34632566360, 0, 0 64: 64, 0, 18801, 30031,311417003, 0, 0 128: 128, 0, 185173, 276536,40772887, 0, 0 256: 256, 0, 49960, 10070,120999905, 0, 0 512: 512, 0, 15064, 19327, 4000960, 0, 0 1024: 1024, 0, 100, 1948,16708911, 0, 0 2048: 2048, 0, 5010, 2466, 1258735, 0, 0 4096: 4096, 0, 7341, 2901, 4228575, 0, 0 Files: 80, 0, 3300, 4620,260845765, 0, 0 TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0 rl_entry: 40, 0, 1321, 1031, 1321, 0, 0 umtx pi: 96, 0, 0, 0, 0, 0, 0 MAC labels: 40, 0, 0, 0, 0, 0, 0 PROC: 1192, 0, 83, 1258, 2578305, 0, 0 THREAD: 1160, 0, 1837, 3215, 936590, 0, 0 SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0 VMSPACE: 400, 0, 63, 2151, 2578209, 0, 0 cpuset: 72, 0, 176, 1124, 256, 0, 0 audit_record: 960, 0, 0, 0, 0, 0, 0 mbuf_packet: 256, 26023590, 1, 7423,432544103, 0, 0 mbuf: 256, 26023590, 34116, 42685,42672981055, 0, 0 mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0 mbuf_jumbo_page: 4096, 5824288, 0, 2360, 238143, 0, 0 mbuf_jumbo_9k: 9216, 602397, 33293, 25594,10140746194, 0, 0 mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0 NetGraph items: 72, 20480003, 39, 3586,8009516815, 0, 0 NetGraph data items: 72, 20480003, 7, 44421,18664026246, 0, 0 g_bio: 248, 0, 0, 11115,10241114, 0, 0 ttyinq: 160, 0, 315, 1077, 1305, 0, 0 ttyoutq: 256, 0, 167, 718, 689, 0, 0 ata_request: 320, 0, 0, 24, 1, 0, 0 ata_composite: 336, 0, 0, 0, 0, 0, 0 vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0 VNODE: 504, 0, 422200, 2864, 1770452, 0, 0 VNODEPOLL: 112, 0, 0, 132, 4, 0, 0 S VFS Cache: 108, 0, 305330, 114133, 1705457, 0, 0 STS VFS Cache: 148, 0, 0, 0, 0, 0, 0 L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0 LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0 NAMEI: 1024, 0, 1, 1019,437924699, 0, 0 NCLNODE: 568, 0, 0, 0, 0, 0, 0 DIRHASH: 1024, 0, 5407, 789, 5537, 0, 0 Mountpoints: 824, 0, 4, 16, 4, 0, 0 pipe: 728, 0, 7, 1168, 1027084, 0, 0 ksiginfo: 112, 0, 1330, 2960, 190654, 0, 0 itimer: 344, 0, 0, 22, 1, 0, 0 KNOTE: 128, 0, 49, 1836, 3022540, 0, 0 socket: 680, 4191264, 3831, 3609, 5263904, 0, 0 unpcb: 240, 4191264, 439, 2169, 3310964, 0, 0 ipq: 56, 12537, 0, 1701, 182, 0, 0 udp_inpcb: 392, 4191270, 1805, 3335, 1704417, 0, 0 udpcb: 16, 4191264, 1805, 4579, 1704417, 0, 0 tcp_inpcb: 392, 4191270, 19, 951, 54728, 0, 0 tcpcb: 976, 4191264, 19, 897, 54728, 0, 0 tcptw: 72, 2000000, 0, 1800, 2764, 0, 0 syncache: 152, 102400, 0, 1250, 39165, 0, 0 hostcache: 136, 15372, 12, 912, 129, 0, 0 sackhole: 32, 0, 0, 2727, 685, 0, 0 tcpreass: 40, 25032, 0, 3948, 6047, 0, 0 sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0 sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0 sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0 sctp_raddr: 696, 80000, 0, 0, 0, 0, 0 sctp_chunk: 136, 400008, 0, 0, 0, 0, 0 sctp_readq: 104, 400032, 0, 0, 0, 0, 0 sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0 sctp_asconf: 40, 400008, 0, 0, 0, 0, 0 sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0 ripcb: 392, 4191270, 3, 537, 9177, 0, 0 rtentry: 200, 0, 11853, 2435, 76388, 0, 0 IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0 divcb: 392, 4191270, 0, 0, 0, 0, 0 selfd: 56, 0, 6488, 7057,38980319756, 0, 0 SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0 FFS inode: 168, 0, 422157, 2795, 1770287, 0, 0 FFS1 dinode: 128, 0, 0, 0, 0, 0, 0 FFS2 dinode: 256, 0, 422157, 2853, 1770285, 0, 0 NetFlow IPv4 cache: 88, 262160, 130602, 23939,433703402, 0, 0 pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0 pfrulepl: 936, 0, 1, 67, 16, 0, 0 pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0 pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0 pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0 pfaltqpl: 240, 0, 0, 0, 0, 0, 0 pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0 pfrktable: 1296, 1002, 0, 0, 0, 0, 0 pfrkentry: 160, 200016, 0, 0, 0, 0, 0 pfrkcounters: 64, 0, 0, 0, 0, 0, 0 pffrent: 32, 200081, 0, 2727, 4538, 0, 0 pffrag: 80, 0, 0, 1395, 2270, 0, 0 pffrcache: 80, 10035, 0, 0, 0, 0, 0 pffrcent: 24, 50022, 0, 0, 0, 0, 0 pfstatescrub: 40, 0, 0, 0, 0, 0, 0 pfiaddrpl: 120, 0, 0, 0, 0, 0, 0 pfospfen: 112, 0, 710, 775, 12070, 0, 0 pfosfp: 40, 0, 420, 1764, 7140, 0, 0 Думал дело в нате, унес его , но увы. Если еще чё надо говорите ... СПАСИБО Спустя 20 минут после поднятия нагрузки пинг стал в норму (но иногда скачет) netstat -m 34956/49269/84225 mbufs in use (current/cache/total) 2/8132/8134/400000 mbuf clusters in use (current/cache/total/max) 2/7422 mbuf+clusters out of packet secondary zone in use (current/cache) 0/2360/2360/5824288 4k (page size) jumbo clusters in use (current/cache/total/max) 33665/25222/58887/602397 9k jumbo clusters in use (current/cache/total/max) 0/0/0/338848 16k jumbo clusters in use (current/cache/total/max) 311781K/265019K/576800K bytes allocated to network (current/cache/total) 0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters) 0/0/0 requests for mbufs delayed (mbufs/clusters/mbuf+clusters) 0/0/0 requests for jumbo clusters delayed (4k/9k/16k) 0/0/0 requests for jumbo clusters denied (4k/9k/16k) 0/0/0 sfbufs in use (current/peak/max) 0 requests for sfbufs denied 0 requests for sfbufs delayed 0 requests for I/O initiated by sendfile 0 calls to protocol drain routines vmstat -i interrupt total rate irq1: atkbd0 18 0 irq4: uart0 21171 0 irq16: uhci0 19 0 irq17: atapci0 1 0 irq20: ehci1 372481 2 irq21: ehci0 270077 1 cpu0:timer 156840447 1125 irq264: ix0:que 0 1125496419 8075 irq265: ix0:que 1 1028924424 7382 irq266: ix0:que 2 1045978224 7504 irq267: ix0:que 3 1108415400 7952 irq268: ix0:que 4 1097056318 7871 irq269: ix0:que 5 1093941655 7848 irq270: ix0:que 6 1063311184 7629 irq271: ix0:que 7 1032907769 7411 irq272: ix0:link 2 0 irq273: ix1:que 0 674952654 4842 irq274: ix1:que 1 655818135 4705 irq275: ix1:que 2 679990663 4878 irq276: ix1:que 3 747791298 5365 irq277: ix1:que 4 716262939 5139 irq278: ix1:que 5 703105544 5044 irq279: ix1:que 6 691388068 4960 irq280: ix1:que 7 687523181 4932 irq281: ix1:link 320 0 irq286: ciss0 3412718 24 cpu1:timer 152129230 1091 cpu10:timer 120028283 861 cpu15:timer 143606874 1030 cpu11:timer 120085908 861 cpu19:timer 143764099 1031 cpu18:timer 144106619 1033 cpu5:timer 153457328 1101 cpu2:timer 153129861 1098 cpu16:timer 143991357 1033 cpu8:timer 119892620 860 cpu17:timer 143737285 1031 cpu9:timer 119451347 857 cpu22:timer 144235245 1034 cpu4:timer 153488040 1101 cpu21:timer 143949628 1032 cpu6:timer 153965531 1104 cpu7:timer 153883161 1104 cpu14:timer 144144348 1034 cpu13:timer 143381254 1028 cpu3:timer 154230851 1106 cpu23:timer 143882308 1032 cpu20:timer 144098071 1033 cpu12:timer 143771837 1031 Total 17594192214 126237 vmstat -z ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP UMA Kegs: 208, 0, 112, 7, 113, 0, 0 UMA Zones: 3456, 0, 112, 0, 113, 0, 0 UMA Slabs: 568, 0, 74669, 14,16741885, 0, 0 UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0 UMA Hash: 256, 0, 0, 15, 4, 0, 0 16 Bucket: 152, 0, 260, 15, 260, 0, 0 32 Bucket: 280, 0, 590, 12, 593, 1, 0 64 Bucket: 536, 0, 1238, 1, 1270, 86, 0 128 Bucket: 1048, 0, 9883, 2, 10322,17576, 0 VM OBJECT: 232, 0, 188582, 6538,191300828, 0, 0 MAP: 240, 0, 8, 24, 8, 0, 0 KMAP ENTRY: 128, 6257185, 1337, 4492,44629677, 0, 0 MAP ENTRY: 128, 0, 4437, 61973,777409820, 0, 0 fakepg: 120, 0, 0, 0, 0, 0, 0 mt_zone: 4112, 0, 304, 7, 304, 0, 0 16: 16, 0, 9017, 4087,127804868, 0, 0 32: 32, 0, 23548, 25033,35565469725, 0, 0 64: 64, 0, 18783, 30049,313764838, 0, 0 128: 128, 0, 184910, 276799,41178166, 0, 0 256: 256, 0, 49863, 10167,123166702, 0, 0 512: 512, 0, 15059, 19332, 4071473, 0, 0 1024: 1024, 0, 101, 1947,16993064, 0, 0 2048: 2048, 0, 5003, 2473, 1279449, 0, 0 4096: 4096, 0, 7329, 2913, 4313243, 0, 0 Files: 80, 0, 3301, 4619,265647807, 0, 0 TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0 rl_entry: 40, 0, 1321, 1031, 1321, 0, 0 umtx pi: 96, 0, 0, 0, 0, 0, 0 MAC labels: 40, 0, 0, 0, 0, 0, 0 PROC: 1192, 0, 89, 1252, 2625470, 0, 0 THREAD: 1160, 0, 1829, 3223, 955585, 0, 0 SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0 VMSPACE: 400, 0, 65, 2149, 2625374, 0, 0 cpuset: 72, 0, 176, 1124, 256, 0, 0 audit_record: 960, 0, 0, 0, 0, 0, 0 mbuf_packet: 256, 26023590, 4, 7420,433068407, 0, 0 mbuf: 256, 26023590, 35053, 41748,43866402498, 0, 0 mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0 mbuf_jumbo_page: 4096, 5824288, 0, 2360, 242872, 0, 0 mbuf_jumbo_9k: 9216, 602397, 33424, 25463,10412460088, 0, 0 mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0 NetGraph items: 72, 20480003, 27, 3598,8212100044, 0, 0 NetGraph data items: 72, 20480003, 9, 44419,19152871801, 0, 0 g_bio: 248, 0, 0, 11115,10391472, 0, 0 ttyinq: 160, 0, 375, 1041, 1365, 0, 0 ttyoutq: 256, 0, 198, 732, 720, 0, 0 ata_request: 320, 0, 0, 24, 1, 0, 0 ata_composite: 336, 0, 0, 0, 0, 0, 0 vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0 FPU_save_area: 832, 0, 0, 0, 0, 0, 0 VNODE: 504, 0, 422270, 2794, 1775098, 0, 0 VNODEPOLL: 112, 0, 0, 132, 4, 0, 0 S VFS Cache: 108, 0, 305385, 114078, 1710360, 0, 0 STS VFS Cache: 148, 0, 0, 0, 0, 0, 0 L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0 LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0 NAMEI: 1024, 0, 0, 1080,445916953, 0, 0 NCLNODE: 568, 0, 0, 0, 0, 0, 0 DIRHASH: 1024, 0, 5407, 789, 5569, 0, 0 Mountpoints: 824, 0, 4, 16, 4, 0, 0 pipe: 728, 0, 10, 1165, 1045824, 0, 0 ksiginfo: 112, 0, 1330, 2960, 195362, 0, 0 itimer: 344, 0, 0, 22, 1, 0, 0 KNOTE: 128, 0, 49, 1836, 3187319, 0, 0 socket: 680, 4191264, 3836, 3604, 5366681, 0, 0 unpcb: 240, 4191264, 441, 2167, 3375363, 0, 0 ipq: 56, 12537, 0, 1701, 186, 0, 0 udp_inpcb: 392, 4191270, 1801, 3339, 1738933, 0, 0 udpcb: 16, 4191264, 1801, 4583, 1738933, 0, 0 tcp_inpcb: 392, 4191270, 26, 944, 55770, 0, 0 tcpcb: 976, 4191264, 26, 890, 55770, 0, 0 tcptw: 72, 2000000, 0, 1900, 2886, 0, 0 syncache: 152, 102400, 0, 1250, 39874, 0, 0 hostcache: 136, 15372, 13, 911, 133, 0, 0 sackhole: 32, 0, 0, 2727, 689, 0, 0 tcpreass: 40, 25032, 0, 3948, 6051, 0, 0 sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0 sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0 sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0 sctp_raddr: 696, 80000, 0, 0, 0, 0, 0 sctp_chunk: 136, 400008, 0, 0, 0, 0, 0 sctp_readq: 104, 400032, 0, 0, 0, 0, 0 sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0 sctp_asconf: 40, 400008, 0, 0, 0, 0, 0 sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0 ripcb: 392, 4191270, 3, 537, 9182, 0, 0 rtentry: 200, 0, 11839, 2449, 77226, 0, 0 IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0 divcb: 392, 4191270, 0, 0, 0, 0, 0 selfd: 56, 0, 6200, 7345,39651602454, 0, 0 SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0 FFS inode: 168, 0, 422225, 2727, 1774931, 0, 0 FFS1 dinode: 128, 0, 0, 0, 0, 0, 0 FFS2 dinode: 256, 0, 422225, 2785, 1774929, 0, 0 NetFlow IPv4 cache: 88, 262160, 130417, 24124,446072655, 0, 0 pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0 pfrulepl: 936, 0, 1, 67, 16, 0, 0 pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0 pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0 pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0 pfaltqpl: 240, 0, 0, 0, 0, 0, 0 pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0 pfrktable: 1296, 1002, 0, 0, 0, 0, 0 pfrkentry: 160, 200016, 0, 0, 0, 0, 0 pfrkcounters: 64, 0, 0, 0, 0, 0, 0 pffrent: 32, 200081, 0, 2727, 4538, 0, 0 pffrag: 80, 0, 0, 1395, 2270, 0, 0 pffrcache: 80, 10035, 0, 0, 0, 0, 0 pffrcent: 24, 50022, 0, 0, 0, 0, 0 pfstatescrub: 40, 0, 0, 0, 0, 0, 0 pfiaddrpl: 120, 0, 0, 0, 0, 0, 0 pfospfen: 112, 0, 710, 775, 12070, 0, 0 pfosfp: 40, 0, 420, 1764, 7140, 0, 0 Edited March 28, 2016 by agnitumus Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
GrandPr1de Posted March 28, 2016 sysctl.conf loader.conf тоже в студию пинги - либо буфера либо перегруз по CPU ИМХО Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted March 28, 2016 Гипертрединг отключать пробовали? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
uxcr Posted March 29, 2016 (edited) sysctl net.isr sysctl net.link sysctl hw.ix sysctl dev.ix Edited March 29, 2016 by uxcr Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
agnitumus Posted March 29, 2016 sysctl net.isr sysctl net.link sysctl hw.ix sysctl dev.ix sysctl net.isr net.isr.dispatch: deferred net.isr.direct_force: 0 net.isr.direct: 0 net.isr.maxthreads: 12 net.isr.bindthreads: 0 net.isr.maxqlimit: 512000 net.isr.defaultqlimit: 4096 net.isr.maxprot: 16 net.isr.numthreads: 12 sysctl net.link net.link.generic.system.ifcount: 3804 net.link.ether.inet.max_age: 1200 net.link.ether.inet.maxtries: 5 net.link.ether.inet.useloopback: 1 net.link.ether.inet.proxyall: 0 net.link.ether.inet.wait: 20 net.link.ether.inet.maxhold: 1 net.link.ether.inet.log_arp_wrong_iface: 0 net.link.ether.inet.log_arp_movements: 0 net.link.ether.inet.log_arp_permanent_modify: 0 net.link.ether.inet.allow_multicast: 0 net.link.ether.ipfw: 0 net.link.vlan.soft_pad: 0 net.link.gif.max_nesting: 1 net.link.gif.parallel_tunnels: 0 net.link.tun.devfs_cloning: 1 net.link.ifqmaxlen: 24240 net.link.log_link_state_change: 1 sysctl hw.ix hw.ix.enable_aim: 1 hw.ix.max_interrupt_rate: 31250 hw.ix.rx_process_limit: 256 hw.ix.tx_process_limit: 256 hw.ix.enable_msix: 1 hw.ix.num_queues: 8 hw.ix.txd: 2048 hw.ix.rxd: 2048 sysctl dev.ix dev.ix.1.mac_stats.tx_frames_1024_1522: 12473859835 dev.ix.1.mac_stats.tx_frames_512_1023: 308283718 dev.ix.1.mac_stats.tx_frames_256_511: 297279764 dev.ix.1.mac_stats.tx_frames_128_255: 639609101 dev.ix.1.mac_stats.tx_frames_65_127: 994665720 dev.ix.1.mac_stats.tx_frames_64: 182046 dev.ix.1.mac_stats.management_pkts_txd: 0 dev.ix.1.mac_stats.mcast_pkts_txd: 0 dev.ix.1.mac_stats.bcast_pkts_txd: 62536 dev.ix.1.mac_stats.good_pkts_txd: 14713880184 dev.ix.1.mac_stats.total_pkts_txd: 14713880184 dev.ix.1.mac_stats.good_octets_txd: 19178203278164 dev.ix.1.mac_stats.checksum_errs: 9767634090 dev.ix.1.mac_stats.management_pkts_drpd: 0 dev.ix.1.mac_stats.management_pkts_rcvd: 0 dev.ix.1.mac_stats.recv_jabberd: 0 dev.ix.1.mac_stats.recv_oversized: 0 dev.ix.1.mac_stats.recv_fragmented: 0 dev.ix.1.mac_stats.recv_undersized: 0 dev.ix.1.mac_stats.rx_frames_1024_1522: 449505480 dev.ix.1.mac_stats.rx_frames_512_1023: 156829508 dev.ix.1.mac_stats.rx_frames_256_511: 164586604 dev.ix.1.mac_stats.rx_frames_128_255: 1940342051 dev.ix.1.mac_stats.rx_frames_65_127: 7059768369 dev.ix.1.mac_stats.rx_frames_64: 236458 dev.ix.1.mac_stats.bcast_pkts_rcvd: 681165 dev.ix.1.mac_stats.mcast_pkts_rcvd: 3212 dev.ix.1.mac_stats.good_pkts_rcvd: 9771268470 dev.ix.1.mac_stats.total_pkts_rcvd: 9771375825 dev.ix.1.mac_stats.good_octets_rcvd: 1863601390925 dev.ix.1.mac_stats.total_octets_rcvd: 1863627109062 dev.ix.1.mac_stats.xoff_recvd: 0 dev.ix.1.mac_stats.xoff_txd: 0 dev.ix.1.mac_stats.xon_recvd: 0 dev.ix.1.mac_stats.xon_txd: 0 dev.ix.1.mac_stats.rec_len_errs: 0 dev.ix.1.mac_stats.remote_faults: 0 dev.ix.1.mac_stats.local_faults: 7 dev.ix.1.mac_stats.short_discards: 0 dev.ix.1.mac_stats.byte_errs: 0 dev.ix.1.mac_stats.ill_errs: 0 dev.ix.1.mac_stats.crc_errs: 0 dev.ix.1.queue7.lro_flushed: 0 dev.ix.1.queue7.lro_queued: 0 dev.ix.1.queue7.rx_copies: 1024445549 dev.ix.1.queue7.rx_bytes: 235953559404 dev.ix.1.queue7.rx_packets: 1174187922 dev.ix.1.queue7.rxd_tail: 1916 dev.ix.1.queue7.rxd_head: 1917 dev.ix.1.queue7.tx_packets: 2022446148 dev.ix.1.queue7.no_desc_avail: 0 dev.ix.1.queue7.no_tx_dma_setup: 0 dev.ix.1.queue7.tso_tx: 0 dev.ix.1.queue7.txd_tail: 1410 dev.ix.1.queue7.txd_head: 1410 dev.ix.1.queue7.irqs: 1009514646 dev.ix.1.queue7.interrupt_rate: 5434 dev.ix.1.queue6.lro_flushed: 0 dev.ix.1.queue6.lro_queued: 0 dev.ix.1.queue6.rx_copies: 1077098208 dev.ix.1.queue6.rx_bytes: 217212921824 dev.ix.1.queue6.rx_packets: 1198541912 dev.ix.1.queue6.rxd_tail: 1090 dev.ix.1.queue6.rxd_head: 1091 dev.ix.1.queue6.tx_packets: 2037406872 dev.ix.1.queue6.no_desc_avail: 0 dev.ix.1.queue6.no_tx_dma_setup: 0 dev.ix.1.queue6.tso_tx: 0 dev.ix.1.queue6.txd_tail: 1379 dev.ix.1.queue6.txd_head: 1379 dev.ix.1.queue6.irqs: 1008395595 dev.ix.1.queue6.interrupt_rate: 500000 dev.ix.1.queue5.lro_flushed: 0 dev.ix.1.queue5.lro_queued: 0 dev.ix.1.queue5.rx_copies: 1167528573 dev.ix.1.queue5.rx_bytes: 218893281755 dev.ix.1.queue5.rx_packets: 1285416661 dev.ix.1.queue5.rxd_tail: 1729 dev.ix.1.queue5.rxd_head: 1731 dev.ix.1.queue5.tx_packets: 2002950206 dev.ix.1.queue5.no_desc_avail: 0 dev.ix.1.queue5.no_tx_dma_setup: 0 dev.ix.1.queue5.tso_tx: 0 dev.ix.1.queue5.txd_tail: 2043 dev.ix.1.queue5.txd_head: 2043 dev.ix.1.queue5.irqs: 1033518517 dev.ix.1.queue5.interrupt_rate: 5263 dev.ix.1.queue4.lro_flushed: 0 dev.ix.1.queue4.lro_queued: 0 dev.ix.1.queue4.rx_copies: 1212637630 dev.ix.1.queue4.rx_bytes: 240627524913 dev.ix.1.queue4.rx_packets: 1343530592 dev.ix.1.queue4.rxd_tail: 1603 dev.ix.1.queue4.rxd_head: 1605 dev.ix.1.queue4.tx_packets: 2027485156 dev.ix.1.queue4.no_desc_avail: 0 dev.ix.1.queue4.no_tx_dma_setup: 0 dev.ix.1.queue4.tso_tx: 0 dev.ix.1.queue4.txd_tail: 1372 dev.ix.1.queue4.txd_head: 1372 dev.ix.1.queue4.irqs: 1050138669 dev.ix.1.queue4.interrupt_rate: 5263 dev.ix.1.queue3.lro_flushed: 0 dev.ix.1.queue3.lro_queued: 0 dev.ix.1.queue3.rx_copies: 1286161856 dev.ix.1.queue3.rx_bytes: 256635281807 dev.ix.1.queue3.rx_packets: 1433529756 dev.ix.1.queue3.rxd_tail: 1414 dev.ix.1.queue3.rxd_head: 1415 dev.ix.1.queue3.tx_packets: 1658019765 dev.ix.1.queue3.no_desc_avail: 0 dev.ix.1.queue3.no_tx_dma_setup: 0 dev.ix.1.queue3.tso_tx: 0 dev.ix.1.queue3.txd_tail: 1568 dev.ix.1.queue3.txd_head: 1568 dev.ix.1.queue3.irqs: 1072397249 dev.ix.1.queue3.interrupt_rate: 500000 dev.ix.1.queue2.lro_flushed: 0 dev.ix.1.queue2.lro_queued: 0 dev.ix.1.queue2.rx_copies: 1000181989 dev.ix.1.queue2.rx_bytes: 209416326456 dev.ix.1.queue2.rx_packets: 1122132849 dev.ix.1.queue2.rxd_tail: 858 dev.ix.1.queue2.rxd_head: 859 dev.ix.1.queue2.tx_packets: 1676077684 dev.ix.1.queue2.no_desc_avail: 0 dev.ix.1.queue2.no_tx_dma_setup: 0 dev.ix.1.queue2.tso_tx: 0 dev.ix.1.queue2.txd_tail: 824 dev.ix.1.queue2.txd_head: 824 dev.ix.1.queue2.irqs: 985438366 dev.ix.1.queue2.interrupt_rate: 5263 dev.ix.1.queue1.lro_flushed: 0 dev.ix.1.queue1.lro_queued: 0 dev.ix.1.queue1.rx_copies: 955517678 dev.ix.1.queue1.rx_bytes: 192271507849 dev.ix.1.queue1.rx_packets: 1059347096 dev.ix.1.queue1.rxd_tail: 643 dev.ix.1.queue1.rxd_head: 645 dev.ix.1.queue1.tx_packets: 1642772812 dev.ix.1.queue1.no_desc_avail: 0 dev.ix.1.queue1.no_tx_dma_setup: 0 dev.ix.1.queue1.tso_tx: 0 dev.ix.1.queue1.txd_tail: 93 dev.ix.1.queue1.txd_head: 93 dev.ix.1.queue1.irqs: 946247443 dev.ix.1.queue1.interrupt_rate: 5263 dev.ix.1.queue0.lro_flushed: 0 dev.ix.1.queue0.lro_queued: 0 dev.ix.1.queue0.rx_copies: 1026926709 dev.ix.1.queue0.rx_bytes: 214424973571 dev.ix.1.queue0.rx_packets: 1154605623 dev.ix.1.queue0.rxd_tail: 549 dev.ix.1.queue0.rxd_head: 550 dev.ix.1.queue0.tx_packets: 1646760213 dev.ix.1.queue0.no_desc_avail: 0 dev.ix.1.queue0.no_tx_dma_setup: 0 dev.ix.1.queue0.tso_tx: 0 dev.ix.1.queue0.txd_tail: 1277 dev.ix.1.queue0.txd_head: 1277 dev.ix.1.queue0.irqs: 972912316 dev.ix.1.queue0.interrupt_rate: 500000 dev.ix.1.link_irq: 320 dev.ix.1.watchdog_events: 0 dev.ix.1.mbuf_defrag_failed: 0 dev.ix.1.dropped: 0 dev.ix.1.advertise_speed: 0 dev.ix.1.enable_aim: 1 dev.ix.1.fc: 0 dev.ix.1.%parent: pci7 dev.ix.1.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000 dev.ix.1.%location: slot=0 function=1 handle=\_SB_.PCI0.PT1A.SLT1 dev.ix.1.%driver: ix dev.ix.1.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15 dev.ix.0.mac_stats.tx_frames_1024_1522: 442131810 dev.ix.0.mac_stats.tx_frames_512_1023: 148566083 dev.ix.0.mac_stats.tx_frames_256_511: 141852302 dev.ix.0.mac_stats.tx_frames_128_255: 299199963 dev.ix.0.mac_stats.tx_frames_65_127: 6182024993 dev.ix.0.mac_stats.tx_frames_64: 2521336526 dev.ix.0.mac_stats.management_pkts_txd: 0 dev.ix.0.mac_stats.mcast_pkts_txd: 27428 dev.ix.0.mac_stats.bcast_pkts_txd: 162729 dev.ix.0.mac_stats.good_pkts_txd: 9735111677 dev.ix.0.mac_stats.total_pkts_txd: 9735111677 dev.ix.0.mac_stats.good_octets_txd: 1491964662545 dev.ix.0.mac_stats.checksum_errs: 13670065 dev.ix.0.mac_stats.management_pkts_drpd: 0 dev.ix.0.mac_stats.management_pkts_rcvd: 0 dev.ix.0.mac_stats.recv_jabberd: 0 dev.ix.0.mac_stats.recv_oversized: 0 dev.ix.0.mac_stats.recv_fragmented: 0 dev.ix.0.mac_stats.recv_undersized: 0 dev.ix.0.mac_stats.rx_frames_1024_1522: 12595556479 dev.ix.0.mac_stats.rx_frames_512_1023: 300066538 dev.ix.0.mac_stats.rx_frames_256_511: 251711561 dev.ix.0.mac_stats.rx_frames_128_255: 366949189 dev.ix.0.mac_stats.rx_frames_65_127: 1038614658 dev.ix.0.mac_stats.rx_frames_64: 259342893 dev.ix.0.mac_stats.bcast_pkts_rcvd: 505045 dev.ix.0.mac_stats.mcast_pkts_rcvd: 50608 dev.ix.0.mac_stats.good_pkts_rcvd: 14812135578 dev.ix.0.mac_stats.total_pkts_rcvd: 14812272569 dev.ix.0.mac_stats.good_octets_rcvd: 18757764026281 dev.ix.0.mac_stats.total_octets_rcvd: 18757768826945 dev.ix.0.mac_stats.xoff_recvd: 0 dev.ix.0.mac_stats.xoff_txd: 0 dev.ix.0.mac_stats.xon_recvd: 0 dev.ix.0.mac_stats.xon_txd: 0 dev.ix.0.mac_stats.rec_len_errs: 0 dev.ix.0.mac_stats.remote_faults: 0 dev.ix.0.mac_stats.local_faults: 9 dev.ix.0.mac_stats.short_discards: 0 dev.ix.0.mac_stats.byte_errs: 0 dev.ix.0.mac_stats.ill_errs: 0 dev.ix.0.mac_stats.crc_errs: 0 dev.ix.0.queue7.lro_flushed: 0 dev.ix.0.queue7.lro_queued: 0 dev.ix.0.queue7.rx_copies: 188769037 dev.ix.0.queue7.rx_bytes: 2289534092672 dev.ix.0.queue7.rx_packets: 1832922772 dev.ix.0.queue7.rxd_tail: 1683 dev.ix.0.queue7.rxd_head: 1684 dev.ix.0.queue7.tx_packets: 1174269679 dev.ix.0.queue7.no_desc_avail: 0 dev.ix.0.queue7.no_tx_dma_setup: 0 dev.ix.0.queue7.tso_tx: 0 dev.ix.0.queue7.txd_tail: 1254 dev.ix.0.queue7.txd_head: 1254 dev.ix.0.queue7.irqs: 1477775005 dev.ix.0.queue7.interrupt_rate: 100000 dev.ix.0.queue6.lro_flushed: 0 dev.ix.0.queue6.lro_queued: 0 dev.ix.0.queue6.rx_copies: 183298034 dev.ix.0.queue6.rx_bytes: 2318200911448 dev.ix.0.queue6.rx_packets: 1838716133 dev.ix.0.queue6.rxd_tail: 1251 dev.ix.0.queue6.rxd_head: 1252 dev.ix.0.queue6.tx_packets: 1206479885 dev.ix.0.queue6.no_desc_avail: 0 dev.ix.0.queue6.no_tx_dma_setup: 0 dev.ix.0.queue6.tso_tx: 0 dev.ix.0.queue6.txd_tail: 734 dev.ix.0.queue6.txd_head: 734 dev.ix.0.queue6.irqs: 1514787680 dev.ix.0.queue6.interrupt_rate: 500000 dev.ix.0.queue5.lro_flushed: 0 dev.ix.0.queue5.lro_queued: 0 dev.ix.0.queue5.rx_copies: 188942027 dev.ix.0.queue5.rx_bytes: 2356938163018 dev.ix.0.queue5.rx_packets: 1879172126 dev.ix.0.queue5.rxd_tail: 1051 dev.ix.0.queue5.rxd_head: 1052 dev.ix.0.queue5.tx_packets: 1290664812 dev.ix.0.queue5.no_desc_avail: 0 dev.ix.0.queue5.no_tx_dma_setup: 0 dev.ix.0.queue5.tso_tx: 0 dev.ix.0.queue5.txd_tail: 1977 dev.ix.0.queue5.txd_head: 1977 dev.ix.0.queue5.irqs: 1564478667 dev.ix.0.queue5.interrupt_rate: 125000 dev.ix.0.queue4.lro_flushed: 0 dev.ix.0.queue4.lro_queued: 0 dev.ix.0.queue4.rx_copies: 182804591 dev.ix.0.queue4.rx_bytes: 2319893741160 dev.ix.0.queue4.rx_packets: 1840058562 dev.ix.0.queue4.rxd_tail: 192 dev.ix.0.queue4.rxd_head: 193 dev.ix.0.queue4.tx_packets: 1342598038 dev.ix.0.queue4.no_desc_avail: 0 dev.ix.0.queue4.no_tx_dma_setup: 0 dev.ix.0.queue4.tso_tx: 0 dev.ix.0.queue4.txd_tail: 967 dev.ix.0.queue4.txd_head: 967 dev.ix.0.queue4.irqs: 1569158296 dev.ix.0.queue4.interrupt_rate: 500000 dev.ix.0.queue3.lro_flushed: 0 dev.ix.0.queue3.lro_queued: 0 dev.ix.0.queue3.rx_copies: 185706062 dev.ix.0.queue3.rx_bytes: 2321607977727 dev.ix.0.queue3.rx_packets: 1843880674 dev.ix.0.queue3.rxd_tail: 735 dev.ix.0.queue3.rxd_head: 736 dev.ix.0.queue3.tx_packets: 1411316736 dev.ix.0.queue3.no_desc_avail: 0 dev.ix.0.queue3.no_tx_dma_setup: 0 dev.ix.0.queue3.tso_tx: 0 dev.ix.0.queue3.txd_tail: 254 dev.ix.0.queue3.txd_head: 256 dev.ix.0.queue3.irqs: 1569318710 dev.ix.0.queue3.interrupt_rate: 100000 dev.ix.0.queue2.lro_flushed: 0 dev.ix.0.queue2.lro_queued: 0 dev.ix.0.queue2.rx_copies: 184514753 dev.ix.0.queue2.rx_bytes: 2347062920038 dev.ix.0.queue2.rx_packets: 1858859097 dev.ix.0.queue2.rxd_tail: 88 dev.ix.0.queue2.rxd_head: 89 dev.ix.0.queue2.tx_packets: 1121197042 dev.ix.0.queue2.no_desc_avail: 0 dev.ix.0.queue2.no_tx_dma_setup: 0 dev.ix.0.queue2.tso_tx: 0 dev.ix.0.queue2.txd_tail: 1909 dev.ix.0.queue2.txd_head: 1909 dev.ix.0.queue2.irqs: 1498039322 dev.ix.0.queue2.interrupt_rate: 83333 dev.ix.0.queue1.lro_flushed: 0 dev.ix.0.queue1.lro_queued: 0 dev.ix.0.queue1.rx_copies: 187393476 dev.ix.0.queue1.rx_bytes: 2326596164921 dev.ix.0.queue1.rx_packets: 1850966652 dev.ix.0.queue1.rxd_tail: 634 dev.ix.0.queue1.rxd_head: 635 dev.ix.0.queue1.tx_packets: 1055628454 dev.ix.0.queue1.no_desc_avail: 0 dev.ix.0.queue1.no_tx_dma_setup: 0 dev.ix.0.queue1.tso_tx: 0 dev.ix.0.queue1.txd_tail: 1683 dev.ix.0.queue1.txd_head: 1683 dev.ix.0.queue1.irqs: 1463495041 dev.ix.0.queue1.interrupt_rate: 100000 dev.ix.0.queue0.lro_flushed: 0 dev.ix.0.queue0.lro_queued: 0 dev.ix.0.queue0.rx_copies: 182515793 dev.ix.0.queue0.rx_bytes: 2359338826932 dev.ix.0.queue0.rx_packets: 1867596285 dev.ix.0.queue0.rxd_tail: 505 dev.ix.0.queue0.rxd_head: 509 dev.ix.0.queue0.tx_packets: 1132980809 dev.ix.0.queue0.no_desc_avail: 0 dev.ix.0.queue0.no_tx_dma_setup: 0 dev.ix.0.queue0.tso_tx: 0 dev.ix.0.queue0.txd_tail: 1285 dev.ix.0.queue0.txd_head: 1285 dev.ix.0.queue0.irqs: 1579992727 dev.ix.0.queue0.interrupt_rate: 100000 dev.ix.0.link_irq: 2 dev.ix.0.watchdog_events: 0 dev.ix.0.mbuf_defrag_failed: 0 dev.ix.0.dropped: 0 dev.ix.0.advertise_speed: 0 dev.ix.0.enable_aim: 1 dev.ix.0.fc: 0 dev.ix.0.%parent: pci7 dev.ix.0.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000 dev.ix.0.%location: slot=0 function=0 handle=\_SB_.PCI0.PT1A.SLT0 dev.ix.0.%driver: ix dev.ix.0.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15 Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted March 29, 2016 А смысл на это смотреть, когда у него проц в полку загружен! Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было. Я не знаток ipfw, но правила ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} как то стрёмно выглядят. А вот этот блок: ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. тут по идее только to any должно хватить, хотя я не уверен. Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
agnitumus Posted March 29, 2016 А смысл на это смотреть, когда у него проц в полку загружен! Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было. Я не знаток ipfw, но правила ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} как то стрёмно выглядят. А вот этот блок: ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. тут по идее только to any должно хватить, хотя я не уверен. Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз. Т.Е думаете процессор в полке или уверенны ? Нагружает думаю ng car/bpf а вот почему при нагрузке пинг нормальный, без нагрузки (до 1гигабита) идеальный, при средней нагрузке Ужасный ? --- Я конечно с гипертредингом еще раз попробую, но машина долго не протянет =) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
agnitumus Posted March 29, 2016 (edited) Ой ребята ! Нашел я прикол ... И не только я страдаю !!! ДУмаю стоит подымать разработчиков МПД Дело обстоит так: Подымается пинг на определённого клиента, при это на сервере процессор в полке или нет без разници. В этот же момент, сетевая подситема в норме (Выдfет еще 2G на speedtest/iperf). Лечение: дропаем соединение, после поднятия имеем чистый пинг. Какие будут коментарии ? ADD +20 min: Проверил опытным путем, какой параметр плохой итак: 1 передаем опускание шейпера клиенту через COA - НЕГАТИВ 2 возвращаем шейпер клиенту через COA - НЕГАТИВ 4 отключаем нетфлоу через консоль - НЕГАТИВ ---при отключенном нетфлоу 5 передаем опускание шейпера клиенту через COA - НЕГАТИВ 6 возвращаем шейпер клиенту через COA - ПОЛОЖИТЕЛЬНО 7 возвращаем шейпер клиенту через COA + Нетфлоу - ПОЛОЖИТЕЛЬНО Итог: что-то не то в механизме нетфлоу P.S: без нетфлоу не пробовал, так как он нужен ! Багрепорт: https://sourceforge.net/p/mpd/bugs/58/ Edited March 29, 2016 by agnitumus Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
polmax Posted March 29, 2016 (edited) Нетфлов в мпд рекомендуют сразу отключить, так как с ним замечены проблемы (как раз такие как у Вас). Собирать нетфлов другими средствами (ngctl). Багрепорт: https://sourceforge.net/p/mpd/bugs/58/ Можно было и по-русски написать, разработчик, русскоговорящий же :) Edited March 29, 2016 by polmax Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
GrandPr1de Posted March 29, 2016 вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл я с ним много гемора поимел симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя снимайте нетфлоу чем-то другим например на исходящем интерфейсе или на натилке обычно нетфлоу собирают Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
agnitumus Posted March 31, 2016 вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл я с ним много гемора поимел симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя снимайте нетфлоу чем-то другим например на исходящем интерфейсе или на натилке обычно нетфлоу собирают Все спасибо ! Проблема была в нетфлоу ! проблемы пвдения quagga буду решать сам ! P.S: Трафик пишет через ng_nat Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
vlad11 Posted March 31, 2016 Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
agnitumus Posted March 31, 2016 Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
vlad11 Posted April 1, 2016 Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =) Ага, поэтому лучше включать в нужных местах netflow: set iface enable netflow-in set iface enable netflow-out set netflow peer IP1 port1 set netflow self IP2 port2 А по правильному - зеркалить с входящего порта маршрутизатора и выборочно абонентские вланы. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted April 5, 2016 проблемы пвдения quagga буду решать сам ! Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
vlad11 Posted April 6, 2016 проблемы пвдения quagga буду решать сам ! Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :) Очень голословное утверждение. Не указано: версия quagga версия OS объем ОЗУ данные с мониторинга - pps, Mbps канала наличия OSPF причины столь частого флаппинга BGP сессий Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...