agnitumus Опубликовано 28 марта, 2016 (изменено) · Жалоба Доброго времени суток ! Есть боевой сервер MPD5 (shaper) + RAdius + L2TP(3500+ Online) При непонятных обстоятельствах начинает подыматься пинг на выданные ип адреса... Подскажите, как понять кто грузит ! Шейпит NG_CAR/NG_BPF (MPD5) ipfw ${FwCMD} -f flush ${FwCMD} -f pipe flush ${FwCMD} -f queue flush ${FwCMD} add check-state ${FwCMD} add allow ip from any to any via lo0 ${FwCMD} add deny ip from any to 127.0.0.0/8 ${FwCMD} add deny ip from 127.0.0.0/8 to any ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add allow all from me to any ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. ${FwCMD} add deny all from 10.0.0.0/22 to ${NotLocal} 25 ${FwCMD} add deny ip from any to 192.168.0.0/16 in via ${LanOut_i} ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} ... Сетевухи 07:00.0 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix0 Internet 07:00.1 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix1 через неё L2TP Нат на отдельной машине Картинки Вкучу netstat -m vmstat -i vmstat -z ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP UMA Kegs: 208, 0, 112, 7, 113, 0, 0 UMA Zones: 3456, 0, 112, 0, 113, 0, 0 UMA Slabs: 568, 0, 74660, 16,16457409, 0, 0 UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0 UMA Hash: 256, 0, 0, 15, 4, 0, 0 16 Bucket: 152, 0, 260, 15, 260, 0, 0 32 Bucket: 280, 0, 590, 12, 593, 1, 0 64 Bucket: 536, 0, 1237, 2, 1269, 86, 0 128 Bucket: 1048, 0, 9877, 2, 10316,17576, 0 VM OBJECT: 232, 0, 188446, 6674,187832986, 0, 0 MAP: 240, 0, 8, 24, 8, 0, 0 KMAP ENTRY: 128, 6257185, 1392, 4437,43966762, 0, 0 MAP ENTRY: 128, 0, 4333, 62077,764088175, 0, 0 fakepg: 120, 0, 0, 0, 0, 0, 0 mt_zone: 4112, 0, 304, 7, 304, 0, 0 16: 16, 0, 9022, 4082,125058830, 0, 0 32: 32, 0, 22791, 25790,34632566360, 0, 0 64: 64, 0, 18801, 30031,311417003, 0, 0 128: 128, 0, 185173, 276536,40772887, 0, 0 256: 256, 0, 49960, 10070,120999905, 0, 0 512: 512, 0, 15064, 19327, 4000960, 0, 0 1024: 1024, 0, 100, 1948,16708911, 0, 0 2048: 2048, 0, 5010, 2466, 1258735, 0, 0 4096: 4096, 0, 7341, 2901, 4228575, 0, 0 Files: 80, 0, 3300, 4620,260845765, 0, 0 TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0 rl_entry: 40, 0, 1321, 1031, 1321, 0, 0 umtx pi: 96, 0, 0, 0, 0, 0, 0 MAC labels: 40, 0, 0, 0, 0, 0, 0 PROC: 1192, 0, 83, 1258, 2578305, 0, 0 THREAD: 1160, 0, 1837, 3215, 936590, 0, 0 SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0 VMSPACE: 400, 0, 63, 2151, 2578209, 0, 0 cpuset: 72, 0, 176, 1124, 256, 0, 0 audit_record: 960, 0, 0, 0, 0, 0, 0 mbuf_packet: 256, 26023590, 1, 7423,432544103, 0, 0 mbuf: 256, 26023590, 34116, 42685,42672981055, 0, 0 mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0 mbuf_jumbo_page: 4096, 5824288, 0, 2360, 238143, 0, 0 mbuf_jumbo_9k: 9216, 602397, 33293, 25594,10140746194, 0, 0 mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0 NetGraph items: 72, 20480003, 39, 3586,8009516815, 0, 0 NetGraph data items: 72, 20480003, 7, 44421,18664026246, 0, 0 g_bio: 248, 0, 0, 11115,10241114, 0, 0 ttyinq: 160, 0, 315, 1077, 1305, 0, 0 ttyoutq: 256, 0, 167, 718, 689, 0, 0 ata_request: 320, 0, 0, 24, 1, 0, 0 ata_composite: 336, 0, 0, 0, 0, 0, 0 vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0 VNODE: 504, 0, 422200, 2864, 1770452, 0, 0 VNODEPOLL: 112, 0, 0, 132, 4, 0, 0 S VFS Cache: 108, 0, 305330, 114133, 1705457, 0, 0 STS VFS Cache: 148, 0, 0, 0, 0, 0, 0 L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0 LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0 NAMEI: 1024, 0, 1, 1019,437924699, 0, 0 NCLNODE: 568, 0, 0, 0, 0, 0, 0 DIRHASH: 1024, 0, 5407, 789, 5537, 0, 0 Mountpoints: 824, 0, 4, 16, 4, 0, 0 pipe: 728, 0, 7, 1168, 1027084, 0, 0 ksiginfo: 112, 0, 1330, 2960, 190654, 0, 0 itimer: 344, 0, 0, 22, 1, 0, 0 KNOTE: 128, 0, 49, 1836, 3022540, 0, 0 socket: 680, 4191264, 3831, 3609, 5263904, 0, 0 unpcb: 240, 4191264, 439, 2169, 3310964, 0, 0 ipq: 56, 12537, 0, 1701, 182, 0, 0 udp_inpcb: 392, 4191270, 1805, 3335, 1704417, 0, 0 udpcb: 16, 4191264, 1805, 4579, 1704417, 0, 0 tcp_inpcb: 392, 4191270, 19, 951, 54728, 0, 0 tcpcb: 976, 4191264, 19, 897, 54728, 0, 0 tcptw: 72, 2000000, 0, 1800, 2764, 0, 0 syncache: 152, 102400, 0, 1250, 39165, 0, 0 hostcache: 136, 15372, 12, 912, 129, 0, 0 sackhole: 32, 0, 0, 2727, 685, 0, 0 tcpreass: 40, 25032, 0, 3948, 6047, 0, 0 sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0 sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0 sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0 sctp_raddr: 696, 80000, 0, 0, 0, 0, 0 sctp_chunk: 136, 400008, 0, 0, 0, 0, 0 sctp_readq: 104, 400032, 0, 0, 0, 0, 0 sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0 sctp_asconf: 40, 400008, 0, 0, 0, 0, 0 sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0 ripcb: 392, 4191270, 3, 537, 9177, 0, 0 rtentry: 200, 0, 11853, 2435, 76388, 0, 0 IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0 divcb: 392, 4191270, 0, 0, 0, 0, 0 selfd: 56, 0, 6488, 7057,38980319756, 0, 0 SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0 FFS inode: 168, 0, 422157, 2795, 1770287, 0, 0 FFS1 dinode: 128, 0, 0, 0, 0, 0, 0 FFS2 dinode: 256, 0, 422157, 2853, 1770285, 0, 0 NetFlow IPv4 cache: 88, 262160, 130602, 23939,433703402, 0, 0 pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0 pfrulepl: 936, 0, 1, 67, 16, 0, 0 pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0 pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0 pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0 pfaltqpl: 240, 0, 0, 0, 0, 0, 0 pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0 pfrktable: 1296, 1002, 0, 0, 0, 0, 0 pfrkentry: 160, 200016, 0, 0, 0, 0, 0 pfrkcounters: 64, 0, 0, 0, 0, 0, 0 pffrent: 32, 200081, 0, 2727, 4538, 0, 0 pffrag: 80, 0, 0, 1395, 2270, 0, 0 pffrcache: 80, 10035, 0, 0, 0, 0, 0 pffrcent: 24, 50022, 0, 0, 0, 0, 0 pfstatescrub: 40, 0, 0, 0, 0, 0, 0 pfiaddrpl: 120, 0, 0, 0, 0, 0, 0 pfospfen: 112, 0, 710, 775, 12070, 0, 0 pfosfp: 40, 0, 420, 1764, 7140, 0, 0 Думал дело в нате, унес его , но увы. Если еще чё надо говорите ... СПАСИБО Спустя 20 минут после поднятия нагрузки пинг стал в норму (но иногда скачет) netstat -m 34956/49269/84225 mbufs in use (current/cache/total) 2/8132/8134/400000 mbuf clusters in use (current/cache/total/max) 2/7422 mbuf+clusters out of packet secondary zone in use (current/cache) 0/2360/2360/5824288 4k (page size) jumbo clusters in use (current/cache/total/max) 33665/25222/58887/602397 9k jumbo clusters in use (current/cache/total/max) 0/0/0/338848 16k jumbo clusters in use (current/cache/total/max) 311781K/265019K/576800K bytes allocated to network (current/cache/total) 0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters) 0/0/0 requests for mbufs delayed (mbufs/clusters/mbuf+clusters) 0/0/0 requests for jumbo clusters delayed (4k/9k/16k) 0/0/0 requests for jumbo clusters denied (4k/9k/16k) 0/0/0 sfbufs in use (current/peak/max) 0 requests for sfbufs denied 0 requests for sfbufs delayed 0 requests for I/O initiated by sendfile 0 calls to protocol drain routines vmstat -i interrupt total rate irq1: atkbd0 18 0 irq4: uart0 21171 0 irq16: uhci0 19 0 irq17: atapci0 1 0 irq20: ehci1 372481 2 irq21: ehci0 270077 1 cpu0:timer 156840447 1125 irq264: ix0:que 0 1125496419 8075 irq265: ix0:que 1 1028924424 7382 irq266: ix0:que 2 1045978224 7504 irq267: ix0:que 3 1108415400 7952 irq268: ix0:que 4 1097056318 7871 irq269: ix0:que 5 1093941655 7848 irq270: ix0:que 6 1063311184 7629 irq271: ix0:que 7 1032907769 7411 irq272: ix0:link 2 0 irq273: ix1:que 0 674952654 4842 irq274: ix1:que 1 655818135 4705 irq275: ix1:que 2 679990663 4878 irq276: ix1:que 3 747791298 5365 irq277: ix1:que 4 716262939 5139 irq278: ix1:que 5 703105544 5044 irq279: ix1:que 6 691388068 4960 irq280: ix1:que 7 687523181 4932 irq281: ix1:link 320 0 irq286: ciss0 3412718 24 cpu1:timer 152129230 1091 cpu10:timer 120028283 861 cpu15:timer 143606874 1030 cpu11:timer 120085908 861 cpu19:timer 143764099 1031 cpu18:timer 144106619 1033 cpu5:timer 153457328 1101 cpu2:timer 153129861 1098 cpu16:timer 143991357 1033 cpu8:timer 119892620 860 cpu17:timer 143737285 1031 cpu9:timer 119451347 857 cpu22:timer 144235245 1034 cpu4:timer 153488040 1101 cpu21:timer 143949628 1032 cpu6:timer 153965531 1104 cpu7:timer 153883161 1104 cpu14:timer 144144348 1034 cpu13:timer 143381254 1028 cpu3:timer 154230851 1106 cpu23:timer 143882308 1032 cpu20:timer 144098071 1033 cpu12:timer 143771837 1031 Total 17594192214 126237 vmstat -z ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP UMA Kegs: 208, 0, 112, 7, 113, 0, 0 UMA Zones: 3456, 0, 112, 0, 113, 0, 0 UMA Slabs: 568, 0, 74669, 14,16741885, 0, 0 UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0 UMA Hash: 256, 0, 0, 15, 4, 0, 0 16 Bucket: 152, 0, 260, 15, 260, 0, 0 32 Bucket: 280, 0, 590, 12, 593, 1, 0 64 Bucket: 536, 0, 1238, 1, 1270, 86, 0 128 Bucket: 1048, 0, 9883, 2, 10322,17576, 0 VM OBJECT: 232, 0, 188582, 6538,191300828, 0, 0 MAP: 240, 0, 8, 24, 8, 0, 0 KMAP ENTRY: 128, 6257185, 1337, 4492,44629677, 0, 0 MAP ENTRY: 128, 0, 4437, 61973,777409820, 0, 0 fakepg: 120, 0, 0, 0, 0, 0, 0 mt_zone: 4112, 0, 304, 7, 304, 0, 0 16: 16, 0, 9017, 4087,127804868, 0, 0 32: 32, 0, 23548, 25033,35565469725, 0, 0 64: 64, 0, 18783, 30049,313764838, 0, 0 128: 128, 0, 184910, 276799,41178166, 0, 0 256: 256, 0, 49863, 10167,123166702, 0, 0 512: 512, 0, 15059, 19332, 4071473, 0, 0 1024: 1024, 0, 101, 1947,16993064, 0, 0 2048: 2048, 0, 5003, 2473, 1279449, 0, 0 4096: 4096, 0, 7329, 2913, 4313243, 0, 0 Files: 80, 0, 3301, 4619,265647807, 0, 0 TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0 rl_entry: 40, 0, 1321, 1031, 1321, 0, 0 umtx pi: 96, 0, 0, 0, 0, 0, 0 MAC labels: 40, 0, 0, 0, 0, 0, 0 PROC: 1192, 0, 89, 1252, 2625470, 0, 0 THREAD: 1160, 0, 1829, 3223, 955585, 0, 0 SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0 VMSPACE: 400, 0, 65, 2149, 2625374, 0, 0 cpuset: 72, 0, 176, 1124, 256, 0, 0 audit_record: 960, 0, 0, 0, 0, 0, 0 mbuf_packet: 256, 26023590, 4, 7420,433068407, 0, 0 mbuf: 256, 26023590, 35053, 41748,43866402498, 0, 0 mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0 mbuf_jumbo_page: 4096, 5824288, 0, 2360, 242872, 0, 0 mbuf_jumbo_9k: 9216, 602397, 33424, 25463,10412460088, 0, 0 mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0 NetGraph items: 72, 20480003, 27, 3598,8212100044, 0, 0 NetGraph data items: 72, 20480003, 9, 44419,19152871801, 0, 0 g_bio: 248, 0, 0, 11115,10391472, 0, 0 ttyinq: 160, 0, 375, 1041, 1365, 0, 0 ttyoutq: 256, 0, 198, 732, 720, 0, 0 ata_request: 320, 0, 0, 24, 1, 0, 0 ata_composite: 336, 0, 0, 0, 0, 0, 0 vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0 FPU_save_area: 832, 0, 0, 0, 0, 0, 0 VNODE: 504, 0, 422270, 2794, 1775098, 0, 0 VNODEPOLL: 112, 0, 0, 132, 4, 0, 0 S VFS Cache: 108, 0, 305385, 114078, 1710360, 0, 0 STS VFS Cache: 148, 0, 0, 0, 0, 0, 0 L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0 LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0 NAMEI: 1024, 0, 0, 1080,445916953, 0, 0 NCLNODE: 568, 0, 0, 0, 0, 0, 0 DIRHASH: 1024, 0, 5407, 789, 5569, 0, 0 Mountpoints: 824, 0, 4, 16, 4, 0, 0 pipe: 728, 0, 10, 1165, 1045824, 0, 0 ksiginfo: 112, 0, 1330, 2960, 195362, 0, 0 itimer: 344, 0, 0, 22, 1, 0, 0 KNOTE: 128, 0, 49, 1836, 3187319, 0, 0 socket: 680, 4191264, 3836, 3604, 5366681, 0, 0 unpcb: 240, 4191264, 441, 2167, 3375363, 0, 0 ipq: 56, 12537, 0, 1701, 186, 0, 0 udp_inpcb: 392, 4191270, 1801, 3339, 1738933, 0, 0 udpcb: 16, 4191264, 1801, 4583, 1738933, 0, 0 tcp_inpcb: 392, 4191270, 26, 944, 55770, 0, 0 tcpcb: 976, 4191264, 26, 890, 55770, 0, 0 tcptw: 72, 2000000, 0, 1900, 2886, 0, 0 syncache: 152, 102400, 0, 1250, 39874, 0, 0 hostcache: 136, 15372, 13, 911, 133, 0, 0 sackhole: 32, 0, 0, 2727, 689, 0, 0 tcpreass: 40, 25032, 0, 3948, 6051, 0, 0 sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0 sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0 sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0 sctp_raddr: 696, 80000, 0, 0, 0, 0, 0 sctp_chunk: 136, 400008, 0, 0, 0, 0, 0 sctp_readq: 104, 400032, 0, 0, 0, 0, 0 sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0 sctp_asconf: 40, 400008, 0, 0, 0, 0, 0 sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0 ripcb: 392, 4191270, 3, 537, 9182, 0, 0 rtentry: 200, 0, 11839, 2449, 77226, 0, 0 IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0 divcb: 392, 4191270, 0, 0, 0, 0, 0 selfd: 56, 0, 6200, 7345,39651602454, 0, 0 SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0 FFS inode: 168, 0, 422225, 2727, 1774931, 0, 0 FFS1 dinode: 128, 0, 0, 0, 0, 0, 0 FFS2 dinode: 256, 0, 422225, 2785, 1774929, 0, 0 NetFlow IPv4 cache: 88, 262160, 130417, 24124,446072655, 0, 0 pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0 pfrulepl: 936, 0, 1, 67, 16, 0, 0 pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0 pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0 pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0 pfaltqpl: 240, 0, 0, 0, 0, 0, 0 pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0 pfrktable: 1296, 1002, 0, 0, 0, 0, 0 pfrkentry: 160, 200016, 0, 0, 0, 0, 0 pfrkcounters: 64, 0, 0, 0, 0, 0, 0 pffrent: 32, 200081, 0, 2727, 4538, 0, 0 pffrag: 80, 0, 0, 1395, 2270, 0, 0 pffrcache: 80, 10035, 0, 0, 0, 0, 0 pffrcent: 24, 50022, 0, 0, 0, 0, 0 pfstatescrub: 40, 0, 0, 0, 0, 0, 0 pfiaddrpl: 120, 0, 0, 0, 0, 0, 0 pfospfen: 112, 0, 710, 775, 12070, 0, 0 pfosfp: 40, 0, 420, 1764, 7140, 0, 0 Изменено 28 марта, 2016 пользователем agnitumus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
GrandPr1de Опубликовано 28 марта, 2016 · Жалоба sysctl.conf loader.conf тоже в студию пинги - либо буфера либо перегруз по CPU ИМХО Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 28 марта, 2016 · Жалоба Гипертрединг отключать пробовали? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
uxcr Опубликовано 29 марта, 2016 (изменено) · Жалоба sysctl net.isr sysctl net.link sysctl hw.ix sysctl dev.ix Изменено 29 марта, 2016 пользователем uxcr Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
agnitumus Опубликовано 29 марта, 2016 · Жалоба sysctl net.isr sysctl net.link sysctl hw.ix sysctl dev.ix sysctl net.isr net.isr.dispatch: deferred net.isr.direct_force: 0 net.isr.direct: 0 net.isr.maxthreads: 12 net.isr.bindthreads: 0 net.isr.maxqlimit: 512000 net.isr.defaultqlimit: 4096 net.isr.maxprot: 16 net.isr.numthreads: 12 sysctl net.link net.link.generic.system.ifcount: 3804 net.link.ether.inet.max_age: 1200 net.link.ether.inet.maxtries: 5 net.link.ether.inet.useloopback: 1 net.link.ether.inet.proxyall: 0 net.link.ether.inet.wait: 20 net.link.ether.inet.maxhold: 1 net.link.ether.inet.log_arp_wrong_iface: 0 net.link.ether.inet.log_arp_movements: 0 net.link.ether.inet.log_arp_permanent_modify: 0 net.link.ether.inet.allow_multicast: 0 net.link.ether.ipfw: 0 net.link.vlan.soft_pad: 0 net.link.gif.max_nesting: 1 net.link.gif.parallel_tunnels: 0 net.link.tun.devfs_cloning: 1 net.link.ifqmaxlen: 24240 net.link.log_link_state_change: 1 sysctl hw.ix hw.ix.enable_aim: 1 hw.ix.max_interrupt_rate: 31250 hw.ix.rx_process_limit: 256 hw.ix.tx_process_limit: 256 hw.ix.enable_msix: 1 hw.ix.num_queues: 8 hw.ix.txd: 2048 hw.ix.rxd: 2048 sysctl dev.ix dev.ix.1.mac_stats.tx_frames_1024_1522: 12473859835 dev.ix.1.mac_stats.tx_frames_512_1023: 308283718 dev.ix.1.mac_stats.tx_frames_256_511: 297279764 dev.ix.1.mac_stats.tx_frames_128_255: 639609101 dev.ix.1.mac_stats.tx_frames_65_127: 994665720 dev.ix.1.mac_stats.tx_frames_64: 182046 dev.ix.1.mac_stats.management_pkts_txd: 0 dev.ix.1.mac_stats.mcast_pkts_txd: 0 dev.ix.1.mac_stats.bcast_pkts_txd: 62536 dev.ix.1.mac_stats.good_pkts_txd: 14713880184 dev.ix.1.mac_stats.total_pkts_txd: 14713880184 dev.ix.1.mac_stats.good_octets_txd: 19178203278164 dev.ix.1.mac_stats.checksum_errs: 9767634090 dev.ix.1.mac_stats.management_pkts_drpd: 0 dev.ix.1.mac_stats.management_pkts_rcvd: 0 dev.ix.1.mac_stats.recv_jabberd: 0 dev.ix.1.mac_stats.recv_oversized: 0 dev.ix.1.mac_stats.recv_fragmented: 0 dev.ix.1.mac_stats.recv_undersized: 0 dev.ix.1.mac_stats.rx_frames_1024_1522: 449505480 dev.ix.1.mac_stats.rx_frames_512_1023: 156829508 dev.ix.1.mac_stats.rx_frames_256_511: 164586604 dev.ix.1.mac_stats.rx_frames_128_255: 1940342051 dev.ix.1.mac_stats.rx_frames_65_127: 7059768369 dev.ix.1.mac_stats.rx_frames_64: 236458 dev.ix.1.mac_stats.bcast_pkts_rcvd: 681165 dev.ix.1.mac_stats.mcast_pkts_rcvd: 3212 dev.ix.1.mac_stats.good_pkts_rcvd: 9771268470 dev.ix.1.mac_stats.total_pkts_rcvd: 9771375825 dev.ix.1.mac_stats.good_octets_rcvd: 1863601390925 dev.ix.1.mac_stats.total_octets_rcvd: 1863627109062 dev.ix.1.mac_stats.xoff_recvd: 0 dev.ix.1.mac_stats.xoff_txd: 0 dev.ix.1.mac_stats.xon_recvd: 0 dev.ix.1.mac_stats.xon_txd: 0 dev.ix.1.mac_stats.rec_len_errs: 0 dev.ix.1.mac_stats.remote_faults: 0 dev.ix.1.mac_stats.local_faults: 7 dev.ix.1.mac_stats.short_discards: 0 dev.ix.1.mac_stats.byte_errs: 0 dev.ix.1.mac_stats.ill_errs: 0 dev.ix.1.mac_stats.crc_errs: 0 dev.ix.1.queue7.lro_flushed: 0 dev.ix.1.queue7.lro_queued: 0 dev.ix.1.queue7.rx_copies: 1024445549 dev.ix.1.queue7.rx_bytes: 235953559404 dev.ix.1.queue7.rx_packets: 1174187922 dev.ix.1.queue7.rxd_tail: 1916 dev.ix.1.queue7.rxd_head: 1917 dev.ix.1.queue7.tx_packets: 2022446148 dev.ix.1.queue7.no_desc_avail: 0 dev.ix.1.queue7.no_tx_dma_setup: 0 dev.ix.1.queue7.tso_tx: 0 dev.ix.1.queue7.txd_tail: 1410 dev.ix.1.queue7.txd_head: 1410 dev.ix.1.queue7.irqs: 1009514646 dev.ix.1.queue7.interrupt_rate: 5434 dev.ix.1.queue6.lro_flushed: 0 dev.ix.1.queue6.lro_queued: 0 dev.ix.1.queue6.rx_copies: 1077098208 dev.ix.1.queue6.rx_bytes: 217212921824 dev.ix.1.queue6.rx_packets: 1198541912 dev.ix.1.queue6.rxd_tail: 1090 dev.ix.1.queue6.rxd_head: 1091 dev.ix.1.queue6.tx_packets: 2037406872 dev.ix.1.queue6.no_desc_avail: 0 dev.ix.1.queue6.no_tx_dma_setup: 0 dev.ix.1.queue6.tso_tx: 0 dev.ix.1.queue6.txd_tail: 1379 dev.ix.1.queue6.txd_head: 1379 dev.ix.1.queue6.irqs: 1008395595 dev.ix.1.queue6.interrupt_rate: 500000 dev.ix.1.queue5.lro_flushed: 0 dev.ix.1.queue5.lro_queued: 0 dev.ix.1.queue5.rx_copies: 1167528573 dev.ix.1.queue5.rx_bytes: 218893281755 dev.ix.1.queue5.rx_packets: 1285416661 dev.ix.1.queue5.rxd_tail: 1729 dev.ix.1.queue5.rxd_head: 1731 dev.ix.1.queue5.tx_packets: 2002950206 dev.ix.1.queue5.no_desc_avail: 0 dev.ix.1.queue5.no_tx_dma_setup: 0 dev.ix.1.queue5.tso_tx: 0 dev.ix.1.queue5.txd_tail: 2043 dev.ix.1.queue5.txd_head: 2043 dev.ix.1.queue5.irqs: 1033518517 dev.ix.1.queue5.interrupt_rate: 5263 dev.ix.1.queue4.lro_flushed: 0 dev.ix.1.queue4.lro_queued: 0 dev.ix.1.queue4.rx_copies: 1212637630 dev.ix.1.queue4.rx_bytes: 240627524913 dev.ix.1.queue4.rx_packets: 1343530592 dev.ix.1.queue4.rxd_tail: 1603 dev.ix.1.queue4.rxd_head: 1605 dev.ix.1.queue4.tx_packets: 2027485156 dev.ix.1.queue4.no_desc_avail: 0 dev.ix.1.queue4.no_tx_dma_setup: 0 dev.ix.1.queue4.tso_tx: 0 dev.ix.1.queue4.txd_tail: 1372 dev.ix.1.queue4.txd_head: 1372 dev.ix.1.queue4.irqs: 1050138669 dev.ix.1.queue4.interrupt_rate: 5263 dev.ix.1.queue3.lro_flushed: 0 dev.ix.1.queue3.lro_queued: 0 dev.ix.1.queue3.rx_copies: 1286161856 dev.ix.1.queue3.rx_bytes: 256635281807 dev.ix.1.queue3.rx_packets: 1433529756 dev.ix.1.queue3.rxd_tail: 1414 dev.ix.1.queue3.rxd_head: 1415 dev.ix.1.queue3.tx_packets: 1658019765 dev.ix.1.queue3.no_desc_avail: 0 dev.ix.1.queue3.no_tx_dma_setup: 0 dev.ix.1.queue3.tso_tx: 0 dev.ix.1.queue3.txd_tail: 1568 dev.ix.1.queue3.txd_head: 1568 dev.ix.1.queue3.irqs: 1072397249 dev.ix.1.queue3.interrupt_rate: 500000 dev.ix.1.queue2.lro_flushed: 0 dev.ix.1.queue2.lro_queued: 0 dev.ix.1.queue2.rx_copies: 1000181989 dev.ix.1.queue2.rx_bytes: 209416326456 dev.ix.1.queue2.rx_packets: 1122132849 dev.ix.1.queue2.rxd_tail: 858 dev.ix.1.queue2.rxd_head: 859 dev.ix.1.queue2.tx_packets: 1676077684 dev.ix.1.queue2.no_desc_avail: 0 dev.ix.1.queue2.no_tx_dma_setup: 0 dev.ix.1.queue2.tso_tx: 0 dev.ix.1.queue2.txd_tail: 824 dev.ix.1.queue2.txd_head: 824 dev.ix.1.queue2.irqs: 985438366 dev.ix.1.queue2.interrupt_rate: 5263 dev.ix.1.queue1.lro_flushed: 0 dev.ix.1.queue1.lro_queued: 0 dev.ix.1.queue1.rx_copies: 955517678 dev.ix.1.queue1.rx_bytes: 192271507849 dev.ix.1.queue1.rx_packets: 1059347096 dev.ix.1.queue1.rxd_tail: 643 dev.ix.1.queue1.rxd_head: 645 dev.ix.1.queue1.tx_packets: 1642772812 dev.ix.1.queue1.no_desc_avail: 0 dev.ix.1.queue1.no_tx_dma_setup: 0 dev.ix.1.queue1.tso_tx: 0 dev.ix.1.queue1.txd_tail: 93 dev.ix.1.queue1.txd_head: 93 dev.ix.1.queue1.irqs: 946247443 dev.ix.1.queue1.interrupt_rate: 5263 dev.ix.1.queue0.lro_flushed: 0 dev.ix.1.queue0.lro_queued: 0 dev.ix.1.queue0.rx_copies: 1026926709 dev.ix.1.queue0.rx_bytes: 214424973571 dev.ix.1.queue0.rx_packets: 1154605623 dev.ix.1.queue0.rxd_tail: 549 dev.ix.1.queue0.rxd_head: 550 dev.ix.1.queue0.tx_packets: 1646760213 dev.ix.1.queue0.no_desc_avail: 0 dev.ix.1.queue0.no_tx_dma_setup: 0 dev.ix.1.queue0.tso_tx: 0 dev.ix.1.queue0.txd_tail: 1277 dev.ix.1.queue0.txd_head: 1277 dev.ix.1.queue0.irqs: 972912316 dev.ix.1.queue0.interrupt_rate: 500000 dev.ix.1.link_irq: 320 dev.ix.1.watchdog_events: 0 dev.ix.1.mbuf_defrag_failed: 0 dev.ix.1.dropped: 0 dev.ix.1.advertise_speed: 0 dev.ix.1.enable_aim: 1 dev.ix.1.fc: 0 dev.ix.1.%parent: pci7 dev.ix.1.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000 dev.ix.1.%location: slot=0 function=1 handle=\_SB_.PCI0.PT1A.SLT1 dev.ix.1.%driver: ix dev.ix.1.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15 dev.ix.0.mac_stats.tx_frames_1024_1522: 442131810 dev.ix.0.mac_stats.tx_frames_512_1023: 148566083 dev.ix.0.mac_stats.tx_frames_256_511: 141852302 dev.ix.0.mac_stats.tx_frames_128_255: 299199963 dev.ix.0.mac_stats.tx_frames_65_127: 6182024993 dev.ix.0.mac_stats.tx_frames_64: 2521336526 dev.ix.0.mac_stats.management_pkts_txd: 0 dev.ix.0.mac_stats.mcast_pkts_txd: 27428 dev.ix.0.mac_stats.bcast_pkts_txd: 162729 dev.ix.0.mac_stats.good_pkts_txd: 9735111677 dev.ix.0.mac_stats.total_pkts_txd: 9735111677 dev.ix.0.mac_stats.good_octets_txd: 1491964662545 dev.ix.0.mac_stats.checksum_errs: 13670065 dev.ix.0.mac_stats.management_pkts_drpd: 0 dev.ix.0.mac_stats.management_pkts_rcvd: 0 dev.ix.0.mac_stats.recv_jabberd: 0 dev.ix.0.mac_stats.recv_oversized: 0 dev.ix.0.mac_stats.recv_fragmented: 0 dev.ix.0.mac_stats.recv_undersized: 0 dev.ix.0.mac_stats.rx_frames_1024_1522: 12595556479 dev.ix.0.mac_stats.rx_frames_512_1023: 300066538 dev.ix.0.mac_stats.rx_frames_256_511: 251711561 dev.ix.0.mac_stats.rx_frames_128_255: 366949189 dev.ix.0.mac_stats.rx_frames_65_127: 1038614658 dev.ix.0.mac_stats.rx_frames_64: 259342893 dev.ix.0.mac_stats.bcast_pkts_rcvd: 505045 dev.ix.0.mac_stats.mcast_pkts_rcvd: 50608 dev.ix.0.mac_stats.good_pkts_rcvd: 14812135578 dev.ix.0.mac_stats.total_pkts_rcvd: 14812272569 dev.ix.0.mac_stats.good_octets_rcvd: 18757764026281 dev.ix.0.mac_stats.total_octets_rcvd: 18757768826945 dev.ix.0.mac_stats.xoff_recvd: 0 dev.ix.0.mac_stats.xoff_txd: 0 dev.ix.0.mac_stats.xon_recvd: 0 dev.ix.0.mac_stats.xon_txd: 0 dev.ix.0.mac_stats.rec_len_errs: 0 dev.ix.0.mac_stats.remote_faults: 0 dev.ix.0.mac_stats.local_faults: 9 dev.ix.0.mac_stats.short_discards: 0 dev.ix.0.mac_stats.byte_errs: 0 dev.ix.0.mac_stats.ill_errs: 0 dev.ix.0.mac_stats.crc_errs: 0 dev.ix.0.queue7.lro_flushed: 0 dev.ix.0.queue7.lro_queued: 0 dev.ix.0.queue7.rx_copies: 188769037 dev.ix.0.queue7.rx_bytes: 2289534092672 dev.ix.0.queue7.rx_packets: 1832922772 dev.ix.0.queue7.rxd_tail: 1683 dev.ix.0.queue7.rxd_head: 1684 dev.ix.0.queue7.tx_packets: 1174269679 dev.ix.0.queue7.no_desc_avail: 0 dev.ix.0.queue7.no_tx_dma_setup: 0 dev.ix.0.queue7.tso_tx: 0 dev.ix.0.queue7.txd_tail: 1254 dev.ix.0.queue7.txd_head: 1254 dev.ix.0.queue7.irqs: 1477775005 dev.ix.0.queue7.interrupt_rate: 100000 dev.ix.0.queue6.lro_flushed: 0 dev.ix.0.queue6.lro_queued: 0 dev.ix.0.queue6.rx_copies: 183298034 dev.ix.0.queue6.rx_bytes: 2318200911448 dev.ix.0.queue6.rx_packets: 1838716133 dev.ix.0.queue6.rxd_tail: 1251 dev.ix.0.queue6.rxd_head: 1252 dev.ix.0.queue6.tx_packets: 1206479885 dev.ix.0.queue6.no_desc_avail: 0 dev.ix.0.queue6.no_tx_dma_setup: 0 dev.ix.0.queue6.tso_tx: 0 dev.ix.0.queue6.txd_tail: 734 dev.ix.0.queue6.txd_head: 734 dev.ix.0.queue6.irqs: 1514787680 dev.ix.0.queue6.interrupt_rate: 500000 dev.ix.0.queue5.lro_flushed: 0 dev.ix.0.queue5.lro_queued: 0 dev.ix.0.queue5.rx_copies: 188942027 dev.ix.0.queue5.rx_bytes: 2356938163018 dev.ix.0.queue5.rx_packets: 1879172126 dev.ix.0.queue5.rxd_tail: 1051 dev.ix.0.queue5.rxd_head: 1052 dev.ix.0.queue5.tx_packets: 1290664812 dev.ix.0.queue5.no_desc_avail: 0 dev.ix.0.queue5.no_tx_dma_setup: 0 dev.ix.0.queue5.tso_tx: 0 dev.ix.0.queue5.txd_tail: 1977 dev.ix.0.queue5.txd_head: 1977 dev.ix.0.queue5.irqs: 1564478667 dev.ix.0.queue5.interrupt_rate: 125000 dev.ix.0.queue4.lro_flushed: 0 dev.ix.0.queue4.lro_queued: 0 dev.ix.0.queue4.rx_copies: 182804591 dev.ix.0.queue4.rx_bytes: 2319893741160 dev.ix.0.queue4.rx_packets: 1840058562 dev.ix.0.queue4.rxd_tail: 192 dev.ix.0.queue4.rxd_head: 193 dev.ix.0.queue4.tx_packets: 1342598038 dev.ix.0.queue4.no_desc_avail: 0 dev.ix.0.queue4.no_tx_dma_setup: 0 dev.ix.0.queue4.tso_tx: 0 dev.ix.0.queue4.txd_tail: 967 dev.ix.0.queue4.txd_head: 967 dev.ix.0.queue4.irqs: 1569158296 dev.ix.0.queue4.interrupt_rate: 500000 dev.ix.0.queue3.lro_flushed: 0 dev.ix.0.queue3.lro_queued: 0 dev.ix.0.queue3.rx_copies: 185706062 dev.ix.0.queue3.rx_bytes: 2321607977727 dev.ix.0.queue3.rx_packets: 1843880674 dev.ix.0.queue3.rxd_tail: 735 dev.ix.0.queue3.rxd_head: 736 dev.ix.0.queue3.tx_packets: 1411316736 dev.ix.0.queue3.no_desc_avail: 0 dev.ix.0.queue3.no_tx_dma_setup: 0 dev.ix.0.queue3.tso_tx: 0 dev.ix.0.queue3.txd_tail: 254 dev.ix.0.queue3.txd_head: 256 dev.ix.0.queue3.irqs: 1569318710 dev.ix.0.queue3.interrupt_rate: 100000 dev.ix.0.queue2.lro_flushed: 0 dev.ix.0.queue2.lro_queued: 0 dev.ix.0.queue2.rx_copies: 184514753 dev.ix.0.queue2.rx_bytes: 2347062920038 dev.ix.0.queue2.rx_packets: 1858859097 dev.ix.0.queue2.rxd_tail: 88 dev.ix.0.queue2.rxd_head: 89 dev.ix.0.queue2.tx_packets: 1121197042 dev.ix.0.queue2.no_desc_avail: 0 dev.ix.0.queue2.no_tx_dma_setup: 0 dev.ix.0.queue2.tso_tx: 0 dev.ix.0.queue2.txd_tail: 1909 dev.ix.0.queue2.txd_head: 1909 dev.ix.0.queue2.irqs: 1498039322 dev.ix.0.queue2.interrupt_rate: 83333 dev.ix.0.queue1.lro_flushed: 0 dev.ix.0.queue1.lro_queued: 0 dev.ix.0.queue1.rx_copies: 187393476 dev.ix.0.queue1.rx_bytes: 2326596164921 dev.ix.0.queue1.rx_packets: 1850966652 dev.ix.0.queue1.rxd_tail: 634 dev.ix.0.queue1.rxd_head: 635 dev.ix.0.queue1.tx_packets: 1055628454 dev.ix.0.queue1.no_desc_avail: 0 dev.ix.0.queue1.no_tx_dma_setup: 0 dev.ix.0.queue1.tso_tx: 0 dev.ix.0.queue1.txd_tail: 1683 dev.ix.0.queue1.txd_head: 1683 dev.ix.0.queue1.irqs: 1463495041 dev.ix.0.queue1.interrupt_rate: 100000 dev.ix.0.queue0.lro_flushed: 0 dev.ix.0.queue0.lro_queued: 0 dev.ix.0.queue0.rx_copies: 182515793 dev.ix.0.queue0.rx_bytes: 2359338826932 dev.ix.0.queue0.rx_packets: 1867596285 dev.ix.0.queue0.rxd_tail: 505 dev.ix.0.queue0.rxd_head: 509 dev.ix.0.queue0.tx_packets: 1132980809 dev.ix.0.queue0.no_desc_avail: 0 dev.ix.0.queue0.no_tx_dma_setup: 0 dev.ix.0.queue0.tso_tx: 0 dev.ix.0.queue0.txd_tail: 1285 dev.ix.0.queue0.txd_head: 1285 dev.ix.0.queue0.irqs: 1579992727 dev.ix.0.queue0.interrupt_rate: 100000 dev.ix.0.link_irq: 2 dev.ix.0.watchdog_events: 0 dev.ix.0.mbuf_defrag_failed: 0 dev.ix.0.dropped: 0 dev.ix.0.advertise_speed: 0 dev.ix.0.enable_aim: 1 dev.ix.0.fc: 0 dev.ix.0.%parent: pci7 dev.ix.0.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000 dev.ix.0.%location: slot=0 function=0 handle=\_SB_.PCI0.PT1A.SLT0 dev.ix.0.%driver: ix dev.ix.0.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 29 марта, 2016 · Жалоба А смысл на это смотреть, когда у него проц в полку загружен! Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было. Я не знаток ipfw, но правила ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} как то стрёмно выглядят. А вот этот блок: ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. тут по идее только to any должно хватить, хотя я не уверен. Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
agnitumus Опубликовано 29 марта, 2016 · Жалоба А смысл на это смотреть, когда у него проц в полку загружен! Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было. Я не знаток ipfw, но правила ${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17 ${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i} как то стрёмно выглядят. А вот этот блок: ${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any. ${FwCMD} add setfib 1 ip from any to 10.0.0.0/20.. ${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any ${FwCMD} add setfib 1 ip from any to 10.0.16.0/22. ${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any ${FwCMD} add setfib 1 ip from any to 10.0.20.0/24. тут по идее только to any должно хватить, хотя я не уверен. Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз. Т.Е думаете процессор в полке или уверенны ? Нагружает думаю ng car/bpf а вот почему при нагрузке пинг нормальный, без нагрузки (до 1гигабита) идеальный, при средней нагрузке Ужасный ? --- Я конечно с гипертредингом еще раз попробую, но машина долго не протянет =) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
agnitumus Опубликовано 29 марта, 2016 (изменено) · Жалоба Ой ребята ! Нашел я прикол ... И не только я страдаю !!! ДУмаю стоит подымать разработчиков МПД Дело обстоит так: Подымается пинг на определённого клиента, при это на сервере процессор в полке или нет без разници. В этот же момент, сетевая подситема в норме (Выдfет еще 2G на speedtest/iperf). Лечение: дропаем соединение, после поднятия имеем чистый пинг. Какие будут коментарии ? ADD +20 min: Проверил опытным путем, какой параметр плохой итак: 1 передаем опускание шейпера клиенту через COA - НЕГАТИВ 2 возвращаем шейпер клиенту через COA - НЕГАТИВ 4 отключаем нетфлоу через консоль - НЕГАТИВ ---при отключенном нетфлоу 5 передаем опускание шейпера клиенту через COA - НЕГАТИВ 6 возвращаем шейпер клиенту через COA - ПОЛОЖИТЕЛЬНО 7 возвращаем шейпер клиенту через COA + Нетфлоу - ПОЛОЖИТЕЛЬНО Итог: что-то не то в механизме нетфлоу P.S: без нетфлоу не пробовал, так как он нужен ! Багрепорт: https://sourceforge.net/p/mpd/bugs/58/ Изменено 29 марта, 2016 пользователем agnitumus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
polmax Опубликовано 29 марта, 2016 (изменено) · Жалоба Нетфлов в мпд рекомендуют сразу отключить, так как с ним замечены проблемы (как раз такие как у Вас). Собирать нетфлов другими средствами (ngctl). Багрепорт: https://sourceforge.net/p/mpd/bugs/58/ Можно было и по-русски написать, разработчик, русскоговорящий же :) Изменено 29 марта, 2016 пользователем polmax Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
GrandPr1de Опубликовано 29 марта, 2016 · Жалоба вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл я с ним много гемора поимел симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя снимайте нетфлоу чем-то другим например на исходящем интерфейсе или на натилке обычно нетфлоу собирают Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
agnitumus Опубликовано 31 марта, 2016 · Жалоба вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл я с ним много гемора поимел симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя снимайте нетфлоу чем-то другим например на исходящем интерфейсе или на натилке обычно нетфлоу собирают Все спасибо ! Проблема была в нетфлоу ! проблемы пвдения quagga буду решать сам ! P.S: Трафик пишет через ng_nat Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 31 марта, 2016 · Жалоба Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
agnitumus Опубликовано 31 марта, 2016 · Жалоба Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 1 апреля, 2016 · Жалоба Точнее проблема в тюнинге нетграфа и соответственно нетфлоу. Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =) Ага, поэтому лучше включать в нужных местах netflow: set iface enable netflow-in set iface enable netflow-out set netflow peer IP1 port1 set netflow self IP2 port2 А по правильному - зеркалить с входящего порта маршрутизатора и выборочно абонентские вланы. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
YuryD Опубликовано 5 апреля, 2016 · Жалоба проблемы пвдения quagga буду решать сам ! Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 6 апреля, 2016 · Жалоба проблемы пвдения quagga буду решать сам ! Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :) Очень голословное утверждение. Не указано: версия quagga версия OS объем ОЗУ данные с мониторинга - pps, Mbps канала наличия OSPF причины столь частого флаппинга BGP сессий Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...