Перейти к содержимому
Калькуляторы

Freebsd как найти причину поднятия пинг

Доброго времени суток !

Есть боевой сервер MPD5 (shaper) + RAdius + L2TP(3500+ Online)

 

При непонятных обстоятельствах начинает подыматься пинг на выданные ип адреса...

Подскажите, как понять кто грузит !

 

Шейпит NG_CAR/NG_BPF (MPD5)

 

ipfw

 

${FwCMD} -f flush

${FwCMD} -f pipe flush

${FwCMD} -f queue flush

${FwCMD} add check-state

${FwCMD} add allow ip from any to any via lo0

${FwCMD} add deny ip from any to 127.0.0.0/8

${FwCMD} add deny ip from 127.0.0.0/8 to any

${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17

${FwCMD} add allow all from me to any

 

${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any.

${FwCMD} add setfib 1 ip from any to 10.0.0.0/20..

${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any

${FwCMD} add setfib 1 ip from any to 10.0.16.0/22.

${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any

${FwCMD} add setfib 1 ip from any to 10.0.20.0/24.

 

${FwCMD} add deny all from 10.0.0.0/22 to ${NotLocal} 25

 

${FwCMD} add deny ip from any to 192.168.0.0/16 in via ${LanOut_i}

${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i}

 

...

 

Сетевухи

07:00.0 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix0 Internet

07:00.1 Ethernet controller: Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection (rev 01) <-- ix1 через неё L2TP

 

 

 

Нат на отдельной машине

 

Картинки

 

Вкучу post-132773-092100600 1459180409_thumb.png

netstat -mpost-132773-095630400 1459180402_thumb.png

vmstat -ipost-132773-082423000 1459180475_thumb.png

 

 

 

vmstat -z

 

ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP

 

UMA Kegs: 208, 0, 112, 7, 113, 0, 0

UMA Zones: 3456, 0, 112, 0, 113, 0, 0

UMA Slabs: 568, 0, 74660, 16,16457409, 0, 0

UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0

UMA Hash: 256, 0, 0, 15, 4, 0, 0

16 Bucket: 152, 0, 260, 15, 260, 0, 0

32 Bucket: 280, 0, 590, 12, 593, 1, 0

64 Bucket: 536, 0, 1237, 2, 1269, 86, 0

128 Bucket: 1048, 0, 9877, 2, 10316,17576, 0

VM OBJECT: 232, 0, 188446, 6674,187832986, 0, 0

MAP: 240, 0, 8, 24, 8, 0, 0

KMAP ENTRY: 128, 6257185, 1392, 4437,43966762, 0, 0

MAP ENTRY: 128, 0, 4333, 62077,764088175, 0, 0

fakepg: 120, 0, 0, 0, 0, 0, 0

mt_zone: 4112, 0, 304, 7, 304, 0, 0

16: 16, 0, 9022, 4082,125058830, 0, 0

32: 32, 0, 22791, 25790,34632566360, 0, 0

64: 64, 0, 18801, 30031,311417003, 0, 0

128: 128, 0, 185173, 276536,40772887, 0, 0

256: 256, 0, 49960, 10070,120999905, 0, 0

512: 512, 0, 15064, 19327, 4000960, 0, 0

1024: 1024, 0, 100, 1948,16708911, 0, 0

2048: 2048, 0, 5010, 2466, 1258735, 0, 0

4096: 4096, 0, 7341, 2901, 4228575, 0, 0

Files: 80, 0, 3300, 4620,260845765, 0, 0

TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0

rl_entry: 40, 0, 1321, 1031, 1321, 0, 0

umtx pi: 96, 0, 0, 0, 0, 0, 0

MAC labels: 40, 0, 0, 0, 0, 0, 0

PROC: 1192, 0, 83, 1258, 2578305, 0, 0

THREAD: 1160, 0, 1837, 3215, 936590, 0, 0

SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0

VMSPACE: 400, 0, 63, 2151, 2578209, 0, 0

cpuset: 72, 0, 176, 1124, 256, 0, 0

audit_record: 960, 0, 0, 0, 0, 0, 0

mbuf_packet: 256, 26023590, 1, 7423,432544103, 0, 0

mbuf: 256, 26023590, 34116, 42685,42672981055, 0, 0

mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0

mbuf_jumbo_page: 4096, 5824288, 0, 2360, 238143, 0, 0

mbuf_jumbo_9k: 9216, 602397, 33293, 25594,10140746194, 0, 0

mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0

mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0

NetGraph items: 72, 20480003, 39, 3586,8009516815, 0, 0

NetGraph data items: 72, 20480003, 7, 44421,18664026246, 0, 0

g_bio: 248, 0, 0, 11115,10241114, 0, 0

ttyinq: 160, 0, 315, 1077, 1305, 0, 0

ttyoutq: 256, 0, 167, 718, 689, 0, 0

ata_request: 320, 0, 0, 24, 1, 0, 0

ata_composite: 336, 0, 0, 0, 0, 0, 0

vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0

VNODE: 504, 0, 422200, 2864, 1770452, 0, 0

VNODEPOLL: 112, 0, 0, 132, 4, 0, 0

S VFS Cache: 108, 0, 305330, 114133, 1705457, 0, 0

STS VFS Cache: 148, 0, 0, 0, 0, 0, 0

L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0

LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0

NAMEI: 1024, 0, 1, 1019,437924699, 0, 0

NCLNODE: 568, 0, 0, 0, 0, 0, 0

DIRHASH: 1024, 0, 5407, 789, 5537, 0, 0

Mountpoints: 824, 0, 4, 16, 4, 0, 0

pipe: 728, 0, 7, 1168, 1027084, 0, 0

ksiginfo: 112, 0, 1330, 2960, 190654, 0, 0

itimer: 344, 0, 0, 22, 1, 0, 0

KNOTE: 128, 0, 49, 1836, 3022540, 0, 0

socket: 680, 4191264, 3831, 3609, 5263904, 0, 0

unpcb: 240, 4191264, 439, 2169, 3310964, 0, 0

ipq: 56, 12537, 0, 1701, 182, 0, 0

udp_inpcb: 392, 4191270, 1805, 3335, 1704417, 0, 0

udpcb: 16, 4191264, 1805, 4579, 1704417, 0, 0

tcp_inpcb: 392, 4191270, 19, 951, 54728, 0, 0

tcpcb: 976, 4191264, 19, 897, 54728, 0, 0

tcptw: 72, 2000000, 0, 1800, 2764, 0, 0

syncache: 152, 102400, 0, 1250, 39165, 0, 0

hostcache: 136, 15372, 12, 912, 129, 0, 0

sackhole: 32, 0, 0, 2727, 685, 0, 0

tcpreass: 40, 25032, 0, 3948, 6047, 0, 0

sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0

sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0

sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0

sctp_raddr: 696, 80000, 0, 0, 0, 0, 0

sctp_chunk: 136, 400008, 0, 0, 0, 0, 0

sctp_readq: 104, 400032, 0, 0, 0, 0, 0

sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0

sctp_asconf: 40, 400008, 0, 0, 0, 0, 0

sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0

ripcb: 392, 4191270, 3, 537, 9177, 0, 0

rtentry: 200, 0, 11853, 2435, 76388, 0, 0

IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0

divcb: 392, 4191270, 0, 0, 0, 0, 0

selfd: 56, 0, 6488, 7057,38980319756, 0, 0

SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0

FFS inode: 168, 0, 422157, 2795, 1770287, 0, 0

FFS1 dinode: 128, 0, 0, 0, 0, 0, 0

FFS2 dinode: 256, 0, 422157, 2853, 1770285, 0, 0

NetFlow IPv4 cache: 88, 262160, 130602, 23939,433703402, 0, 0

pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0

pfrulepl: 936, 0, 1, 67, 16, 0, 0

pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0

pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0

pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0

pfaltqpl: 240, 0, 0, 0, 0, 0, 0

pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0

pfrktable: 1296, 1002, 0, 0, 0, 0, 0

pfrkentry: 160, 200016, 0, 0, 0, 0, 0

pfrkcounters: 64, 0, 0, 0, 0, 0, 0

pffrent: 32, 200081, 0, 2727, 4538, 0, 0

pffrag: 80, 0, 0, 1395, 2270, 0, 0

pffrcache: 80, 10035, 0, 0, 0, 0, 0

pffrcent: 24, 50022, 0, 0, 0, 0, 0

pfstatescrub: 40, 0, 0, 0, 0, 0, 0

pfiaddrpl: 120, 0, 0, 0, 0, 0, 0

pfospfen: 112, 0, 710, 775, 12070, 0, 0

pfosfp: 40, 0, 420, 1764, 7140, 0, 0

 

 

Думал дело в нате, унес его , но увы.

Если еще чё надо говорите ...

СПАСИБО

 

Спустя 20 минут после поднятия нагрузки пинг стал в норму (но иногда скачет)

post-132773-051604100 1459182853_thumb.png

 

netstat -m

 

34956/49269/84225 mbufs in use (current/cache/total)

2/8132/8134/400000 mbuf clusters in use (current/cache/total/max)

2/7422 mbuf+clusters out of packet secondary zone in use (current/cache)

0/2360/2360/5824288 4k (page size) jumbo clusters in use (current/cache/total/max)

33665/25222/58887/602397 9k jumbo clusters in use (current/cache/total/max)

0/0/0/338848 16k jumbo clusters in use (current/cache/total/max)

311781K/265019K/576800K bytes allocated to network (current/cache/total)

0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)

0/0/0 requests for mbufs delayed (mbufs/clusters/mbuf+clusters)

0/0/0 requests for jumbo clusters delayed (4k/9k/16k)

0/0/0 requests for jumbo clusters denied (4k/9k/16k)

0/0/0 sfbufs in use (current/peak/max)

0 requests for sfbufs denied

0 requests for sfbufs delayed

0 requests for I/O initiated by sendfile

0 calls to protocol drain routines

 

 

vmstat -i

 

interrupt total rate

irq1: atkbd0 18 0

irq4: uart0 21171 0

irq16: uhci0 19 0

irq17: atapci0 1 0

irq20: ehci1 372481 2

irq21: ehci0 270077 1

cpu0:timer 156840447 1125

irq264: ix0:que 0 1125496419 8075

irq265: ix0:que 1 1028924424 7382

irq266: ix0:que 2 1045978224 7504

irq267: ix0:que 3 1108415400 7952

irq268: ix0:que 4 1097056318 7871

irq269: ix0:que 5 1093941655 7848

irq270: ix0:que 6 1063311184 7629

irq271: ix0:que 7 1032907769 7411

irq272: ix0:link 2 0

irq273: ix1:que 0 674952654 4842

irq274: ix1:que 1 655818135 4705

irq275: ix1:que 2 679990663 4878

irq276: ix1:que 3 747791298 5365

irq277: ix1:que 4 716262939 5139

irq278: ix1:que 5 703105544 5044

irq279: ix1:que 6 691388068 4960

irq280: ix1:que 7 687523181 4932

irq281: ix1:link 320 0

irq286: ciss0 3412718 24

cpu1:timer 152129230 1091

cpu10:timer 120028283 861

cpu15:timer 143606874 1030

cpu11:timer 120085908 861

cpu19:timer 143764099 1031

cpu18:timer 144106619 1033

cpu5:timer 153457328 1101

cpu2:timer 153129861 1098

cpu16:timer 143991357 1033

cpu8:timer 119892620 860

cpu17:timer 143737285 1031

cpu9:timer 119451347 857

cpu22:timer 144235245 1034

cpu4:timer 153488040 1101

cpu21:timer 143949628 1032

cpu6:timer 153965531 1104

cpu7:timer 153883161 1104

cpu14:timer 144144348 1034

cpu13:timer 143381254 1028

cpu3:timer 154230851 1106

cpu23:timer 143882308 1032

cpu20:timer 144098071 1033

cpu12:timer 143771837 1031

Total 17594192214 126237

 

 

vmstat -z

 

ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP

 

UMA Kegs: 208, 0, 112, 7, 113, 0, 0

UMA Zones: 3456, 0, 112, 0, 113, 0, 0

UMA Slabs: 568, 0, 74669, 14,16741885, 0, 0

UMA RCntSlabs: 568, 0, 65314, 3, 65314, 0, 0

UMA Hash: 256, 0, 0, 15, 4, 0, 0

16 Bucket: 152, 0, 260, 15, 260, 0, 0

32 Bucket: 280, 0, 590, 12, 593, 1, 0

64 Bucket: 536, 0, 1238, 1, 1270, 86, 0

128 Bucket: 1048, 0, 9883, 2, 10322,17576, 0

VM OBJECT: 232, 0, 188582, 6538,191300828, 0, 0

MAP: 240, 0, 8, 24, 8, 0, 0

KMAP ENTRY: 128, 6257185, 1337, 4492,44629677, 0, 0

MAP ENTRY: 128, 0, 4437, 61973,777409820, 0, 0

fakepg: 120, 0, 0, 0, 0, 0, 0

mt_zone: 4112, 0, 304, 7, 304, 0, 0

16: 16, 0, 9017, 4087,127804868, 0, 0

32: 32, 0, 23548, 25033,35565469725, 0, 0

64: 64, 0, 18783, 30049,313764838, 0, 0

128: 128, 0, 184910, 276799,41178166, 0, 0

256: 256, 0, 49863, 10167,123166702, 0, 0

512: 512, 0, 15059, 19332, 4071473, 0, 0

1024: 1024, 0, 101, 1947,16993064, 0, 0

2048: 2048, 0, 5003, 2473, 1279449, 0, 0

4096: 4096, 0, 7329, 2913, 4313243, 0, 0

Files: 80, 0, 3301, 4619,265647807, 0, 0

TURNSTILE: 136, 0, 5053, 487, 5053, 0, 0

rl_entry: 40, 0, 1321, 1031, 1321, 0, 0

umtx pi: 96, 0, 0, 0, 0, 0, 0

MAC labels: 40, 0, 0, 0, 0, 0, 0

PROC: 1192, 0, 89, 1252, 2625470, 0, 0

THREAD: 1160, 0, 1829, 3223, 955585, 0, 0

SLEEPQUEUE: 80, 0, 5053, 602, 5053, 0, 0

VMSPACE: 400, 0, 65, 2149, 2625374, 0, 0

cpuset: 72, 0, 176, 1124, 256, 0, 0

audit_record: 960, 0, 0, 0, 0, 0, 0

mbuf_packet: 256, 26023590, 4, 7420,433068407, 0, 0

mbuf: 256, 26023590, 35053, 41748,43866402498, 0, 0

mbuf_cluster: 2048, 400000, 7424, 710, 7424, 0, 0

mbuf_jumbo_page: 4096, 5824288, 0, 2360, 242872, 0, 0

mbuf_jumbo_9k: 9216, 602397, 33424, 25463,10412460088, 0, 0

mbuf_jumbo_16k: 16384, 338848, 0, 0, 0, 0, 0

mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0

NetGraph items: 72, 20480003, 27, 3598,8212100044, 0, 0

NetGraph data items: 72, 20480003, 9, 44419,19152871801, 0, 0

g_bio: 248, 0, 0, 11115,10391472, 0, 0

ttyinq: 160, 0, 375, 1041, 1365, 0, 0

ttyoutq: 256, 0, 198, 732, 720, 0, 0

ata_request: 320, 0, 0, 24, 1, 0, 0

ata_composite: 336, 0, 0, 0, 0, 0, 0

vtnet_tx_hdr: 24, 0, 0, 0, 0, 0, 0

FPU_save_area: 832, 0, 0, 0, 0, 0, 0

VNODE: 504, 0, 422270, 2794, 1775098, 0, 0

VNODEPOLL: 112, 0, 0, 132, 4, 0, 0

S VFS Cache: 108, 0, 305385, 114078, 1710360, 0, 0

STS VFS Cache: 148, 0, 0, 0, 0, 0, 0

L VFS Cache: 328, 0, 58151, 8089, 138833, 0, 0

LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0

NAMEI: 1024, 0, 0, 1080,445916953, 0, 0

NCLNODE: 568, 0, 0, 0, 0, 0, 0

DIRHASH: 1024, 0, 5407, 789, 5569, 0, 0

Mountpoints: 824, 0, 4, 16, 4, 0, 0

pipe: 728, 0, 10, 1165, 1045824, 0, 0

ksiginfo: 112, 0, 1330, 2960, 195362, 0, 0

itimer: 344, 0, 0, 22, 1, 0, 0

KNOTE: 128, 0, 49, 1836, 3187319, 0, 0

socket: 680, 4191264, 3836, 3604, 5366681, 0, 0

unpcb: 240, 4191264, 441, 2167, 3375363, 0, 0

ipq: 56, 12537, 0, 1701, 186, 0, 0

udp_inpcb: 392, 4191270, 1801, 3339, 1738933, 0, 0

udpcb: 16, 4191264, 1801, 4583, 1738933, 0, 0

tcp_inpcb: 392, 4191270, 26, 944, 55770, 0, 0

tcpcb: 976, 4191264, 26, 890, 55770, 0, 0

tcptw: 72, 2000000, 0, 1900, 2886, 0, 0

syncache: 152, 102400, 0, 1250, 39874, 0, 0

hostcache: 136, 15372, 13, 911, 133, 0, 0

sackhole: 32, 0, 0, 2727, 689, 0, 0

tcpreass: 40, 25032, 0, 3948, 6051, 0, 0

sctp_ep: 1376, 4191264, 0, 0, 0, 0, 0

sctp_asoc: 2288, 40000, 0, 0, 0, 0, 0

sctp_laddr: 48, 80064, 0, 2088, 1635, 0, 0

sctp_raddr: 696, 80000, 0, 0, 0, 0, 0

sctp_chunk: 136, 400008, 0, 0, 0, 0, 0

sctp_readq: 104, 400032, 0, 0, 0, 0, 0

sctp_stream_msg_out: 104, 400032, 0, 0, 0, 0, 0

sctp_asconf: 40, 400008, 0, 0, 0, 0, 0

sctp_asconf_ack: 48, 400032, 0, 0, 0, 0, 0

ripcb: 392, 4191270, 3, 537, 9182, 0, 0

rtentry: 200, 0, 11839, 2449, 77226, 0, 0

IPFW dynamic rule: 120, 165540, 0, 50995,29012299, 0, 0

divcb: 392, 4191270, 0, 0, 0, 0, 0

selfd: 56, 0, 6200, 7345,39651602454, 0, 0

SWAPMETA: 288, 5421585, 0, 0, 0, 0, 0

FFS inode: 168, 0, 422225, 2727, 1774931, 0, 0

FFS1 dinode: 128, 0, 0, 0, 0, 0, 0

FFS2 dinode: 256, 0, 422225, 2785, 1774929, 0, 0

NetFlow IPv4 cache: 88, 262160, 130417, 24124,446072655, 0, 0

pfsrctrpl: 152, 200000, 0, 0, 0, 0, 0

pfrulepl: 936, 0, 1, 67, 16, 0, 0

pfstatepl: 288, 5000008, 0, 39221, 63167, 0, 0

pfstatekeypl: 288, 0, 0, 38883, 63167, 0, 0

pfstateitempl: 288, 0, 0, 38766, 63167, 0, 0

pfaltqpl: 240, 0, 0, 0, 0, 0, 0

pfpooladdrpl: 88, 0, 1, 377, 9, 0, 0

pfrktable: 1296, 1002, 0, 0, 0, 0, 0

pfrkentry: 160, 200016, 0, 0, 0, 0, 0

pfrkcounters: 64, 0, 0, 0, 0, 0, 0

pffrent: 32, 200081, 0, 2727, 4538, 0, 0

pffrag: 80, 0, 0, 1395, 2270, 0, 0

pffrcache: 80, 10035, 0, 0, 0, 0, 0

pffrcent: 24, 50022, 0, 0, 0, 0, 0

pfstatescrub: 40, 0, 0, 0, 0, 0, 0

pfiaddrpl: 120, 0, 0, 0, 0, 0, 0

pfospfen: 112, 0, 710, 775, 12070, 0, 0

pfosfp: 40, 0, 420, 1764, 7140, 0, 0

 

Изменено пользователем agnitumus

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

sysctl.conf

loader.conf

тоже в студию

 

пинги - либо буфера либо перегруз по CPU

ИМХО

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Гипертрединг отключать пробовали?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

sysctl net.isr

sysctl net.link

sysctl hw.ix

sysctl dev.ix

Изменено пользователем uxcr

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

sysctl net.isr

sysctl net.link

sysctl hw.ix

sysctl dev.ix

 

 

sysctl net.isr

 

net.isr.dispatch: deferred

net.isr.direct_force: 0

net.isr.direct: 0

net.isr.maxthreads: 12

net.isr.bindthreads: 0

net.isr.maxqlimit: 512000

net.isr.defaultqlimit: 4096

net.isr.maxprot: 16

net.isr.numthreads: 12

 

 

sysctl net.link

 

net.link.generic.system.ifcount: 3804

net.link.ether.inet.max_age: 1200

net.link.ether.inet.maxtries: 5

net.link.ether.inet.useloopback: 1

net.link.ether.inet.proxyall: 0

net.link.ether.inet.wait: 20

net.link.ether.inet.maxhold: 1

net.link.ether.inet.log_arp_wrong_iface: 0

net.link.ether.inet.log_arp_movements: 0

net.link.ether.inet.log_arp_permanent_modify: 0

net.link.ether.inet.allow_multicast: 0

net.link.ether.ipfw: 0

net.link.vlan.soft_pad: 0

net.link.gif.max_nesting: 1

net.link.gif.parallel_tunnels: 0

net.link.tun.devfs_cloning: 1

net.link.ifqmaxlen: 24240

net.link.log_link_state_change: 1

 

 

sysctl hw.ix

 

hw.ix.enable_aim: 1

hw.ix.max_interrupt_rate: 31250

hw.ix.rx_process_limit: 256

hw.ix.tx_process_limit: 256

hw.ix.enable_msix: 1

hw.ix.num_queues: 8

hw.ix.txd: 2048

hw.ix.rxd: 2048

 

 

sysctl dev.ix

 

dev.ix.1.mac_stats.tx_frames_1024_1522: 12473859835

dev.ix.1.mac_stats.tx_frames_512_1023: 308283718

dev.ix.1.mac_stats.tx_frames_256_511: 297279764

dev.ix.1.mac_stats.tx_frames_128_255: 639609101

dev.ix.1.mac_stats.tx_frames_65_127: 994665720

dev.ix.1.mac_stats.tx_frames_64: 182046

dev.ix.1.mac_stats.management_pkts_txd: 0

dev.ix.1.mac_stats.mcast_pkts_txd: 0

dev.ix.1.mac_stats.bcast_pkts_txd: 62536

dev.ix.1.mac_stats.good_pkts_txd: 14713880184

dev.ix.1.mac_stats.total_pkts_txd: 14713880184

dev.ix.1.mac_stats.good_octets_txd: 19178203278164

dev.ix.1.mac_stats.checksum_errs: 9767634090

dev.ix.1.mac_stats.management_pkts_drpd: 0

dev.ix.1.mac_stats.management_pkts_rcvd: 0

dev.ix.1.mac_stats.recv_jabberd: 0

dev.ix.1.mac_stats.recv_oversized: 0

dev.ix.1.mac_stats.recv_fragmented: 0

dev.ix.1.mac_stats.recv_undersized: 0

dev.ix.1.mac_stats.rx_frames_1024_1522: 449505480

dev.ix.1.mac_stats.rx_frames_512_1023: 156829508

dev.ix.1.mac_stats.rx_frames_256_511: 164586604

dev.ix.1.mac_stats.rx_frames_128_255: 1940342051

dev.ix.1.mac_stats.rx_frames_65_127: 7059768369

dev.ix.1.mac_stats.rx_frames_64: 236458

dev.ix.1.mac_stats.bcast_pkts_rcvd: 681165

dev.ix.1.mac_stats.mcast_pkts_rcvd: 3212

dev.ix.1.mac_stats.good_pkts_rcvd: 9771268470

dev.ix.1.mac_stats.total_pkts_rcvd: 9771375825

dev.ix.1.mac_stats.good_octets_rcvd: 1863601390925

dev.ix.1.mac_stats.total_octets_rcvd: 1863627109062

dev.ix.1.mac_stats.xoff_recvd: 0

dev.ix.1.mac_stats.xoff_txd: 0

dev.ix.1.mac_stats.xon_recvd: 0

dev.ix.1.mac_stats.xon_txd: 0

dev.ix.1.mac_stats.rec_len_errs: 0

dev.ix.1.mac_stats.remote_faults: 0

dev.ix.1.mac_stats.local_faults: 7

dev.ix.1.mac_stats.short_discards: 0

dev.ix.1.mac_stats.byte_errs: 0

dev.ix.1.mac_stats.ill_errs: 0

dev.ix.1.mac_stats.crc_errs: 0

dev.ix.1.queue7.lro_flushed: 0

dev.ix.1.queue7.lro_queued: 0

dev.ix.1.queue7.rx_copies: 1024445549

dev.ix.1.queue7.rx_bytes: 235953559404

dev.ix.1.queue7.rx_packets: 1174187922

dev.ix.1.queue7.rxd_tail: 1916

dev.ix.1.queue7.rxd_head: 1917

dev.ix.1.queue7.tx_packets: 2022446148

dev.ix.1.queue7.no_desc_avail: 0

dev.ix.1.queue7.no_tx_dma_setup: 0

dev.ix.1.queue7.tso_tx: 0

dev.ix.1.queue7.txd_tail: 1410

dev.ix.1.queue7.txd_head: 1410

dev.ix.1.queue7.irqs: 1009514646

dev.ix.1.queue7.interrupt_rate: 5434

dev.ix.1.queue6.lro_flushed: 0

dev.ix.1.queue6.lro_queued: 0

dev.ix.1.queue6.rx_copies: 1077098208

dev.ix.1.queue6.rx_bytes: 217212921824

dev.ix.1.queue6.rx_packets: 1198541912

dev.ix.1.queue6.rxd_tail: 1090

dev.ix.1.queue6.rxd_head: 1091

dev.ix.1.queue6.tx_packets: 2037406872

dev.ix.1.queue6.no_desc_avail: 0

dev.ix.1.queue6.no_tx_dma_setup: 0

dev.ix.1.queue6.tso_tx: 0

dev.ix.1.queue6.txd_tail: 1379

dev.ix.1.queue6.txd_head: 1379

dev.ix.1.queue6.irqs: 1008395595

dev.ix.1.queue6.interrupt_rate: 500000

dev.ix.1.queue5.lro_flushed: 0

dev.ix.1.queue5.lro_queued: 0

dev.ix.1.queue5.rx_copies: 1167528573

dev.ix.1.queue5.rx_bytes: 218893281755

dev.ix.1.queue5.rx_packets: 1285416661

dev.ix.1.queue5.rxd_tail: 1729

dev.ix.1.queue5.rxd_head: 1731

dev.ix.1.queue5.tx_packets: 2002950206

dev.ix.1.queue5.no_desc_avail: 0

dev.ix.1.queue5.no_tx_dma_setup: 0

dev.ix.1.queue5.tso_tx: 0

dev.ix.1.queue5.txd_tail: 2043

dev.ix.1.queue5.txd_head: 2043

dev.ix.1.queue5.irqs: 1033518517

dev.ix.1.queue5.interrupt_rate: 5263

dev.ix.1.queue4.lro_flushed: 0

dev.ix.1.queue4.lro_queued: 0

dev.ix.1.queue4.rx_copies: 1212637630

dev.ix.1.queue4.rx_bytes: 240627524913

dev.ix.1.queue4.rx_packets: 1343530592

dev.ix.1.queue4.rxd_tail: 1603

dev.ix.1.queue4.rxd_head: 1605

dev.ix.1.queue4.tx_packets: 2027485156

dev.ix.1.queue4.no_desc_avail: 0

dev.ix.1.queue4.no_tx_dma_setup: 0

dev.ix.1.queue4.tso_tx: 0

dev.ix.1.queue4.txd_tail: 1372

dev.ix.1.queue4.txd_head: 1372

dev.ix.1.queue4.irqs: 1050138669

dev.ix.1.queue4.interrupt_rate: 5263

dev.ix.1.queue3.lro_flushed: 0

dev.ix.1.queue3.lro_queued: 0

dev.ix.1.queue3.rx_copies: 1286161856

dev.ix.1.queue3.rx_bytes: 256635281807

dev.ix.1.queue3.rx_packets: 1433529756

dev.ix.1.queue3.rxd_tail: 1414

dev.ix.1.queue3.rxd_head: 1415

dev.ix.1.queue3.tx_packets: 1658019765

dev.ix.1.queue3.no_desc_avail: 0

dev.ix.1.queue3.no_tx_dma_setup: 0

dev.ix.1.queue3.tso_tx: 0

dev.ix.1.queue3.txd_tail: 1568

dev.ix.1.queue3.txd_head: 1568

dev.ix.1.queue3.irqs: 1072397249

dev.ix.1.queue3.interrupt_rate: 500000

dev.ix.1.queue2.lro_flushed: 0

dev.ix.1.queue2.lro_queued: 0

dev.ix.1.queue2.rx_copies: 1000181989

dev.ix.1.queue2.rx_bytes: 209416326456

dev.ix.1.queue2.rx_packets: 1122132849

dev.ix.1.queue2.rxd_tail: 858

dev.ix.1.queue2.rxd_head: 859

dev.ix.1.queue2.tx_packets: 1676077684

dev.ix.1.queue2.no_desc_avail: 0

dev.ix.1.queue2.no_tx_dma_setup: 0

dev.ix.1.queue2.tso_tx: 0

dev.ix.1.queue2.txd_tail: 824

dev.ix.1.queue2.txd_head: 824

dev.ix.1.queue2.irqs: 985438366

dev.ix.1.queue2.interrupt_rate: 5263

dev.ix.1.queue1.lro_flushed: 0

dev.ix.1.queue1.lro_queued: 0

dev.ix.1.queue1.rx_copies: 955517678

dev.ix.1.queue1.rx_bytes: 192271507849

dev.ix.1.queue1.rx_packets: 1059347096

dev.ix.1.queue1.rxd_tail: 643

dev.ix.1.queue1.rxd_head: 645

dev.ix.1.queue1.tx_packets: 1642772812

dev.ix.1.queue1.no_desc_avail: 0

dev.ix.1.queue1.no_tx_dma_setup: 0

dev.ix.1.queue1.tso_tx: 0

dev.ix.1.queue1.txd_tail: 93

dev.ix.1.queue1.txd_head: 93

dev.ix.1.queue1.irqs: 946247443

dev.ix.1.queue1.interrupt_rate: 5263

dev.ix.1.queue0.lro_flushed: 0

dev.ix.1.queue0.lro_queued: 0

dev.ix.1.queue0.rx_copies: 1026926709

dev.ix.1.queue0.rx_bytes: 214424973571

dev.ix.1.queue0.rx_packets: 1154605623

dev.ix.1.queue0.rxd_tail: 549

dev.ix.1.queue0.rxd_head: 550

dev.ix.1.queue0.tx_packets: 1646760213

dev.ix.1.queue0.no_desc_avail: 0

dev.ix.1.queue0.no_tx_dma_setup: 0

dev.ix.1.queue0.tso_tx: 0

dev.ix.1.queue0.txd_tail: 1277

dev.ix.1.queue0.txd_head: 1277

dev.ix.1.queue0.irqs: 972912316

dev.ix.1.queue0.interrupt_rate: 500000

dev.ix.1.link_irq: 320

dev.ix.1.watchdog_events: 0

dev.ix.1.mbuf_defrag_failed: 0

dev.ix.1.dropped: 0

dev.ix.1.advertise_speed: 0

dev.ix.1.enable_aim: 1

dev.ix.1.fc: 0

dev.ix.1.%parent: pci7

dev.ix.1.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000

dev.ix.1.%location: slot=0 function=1 handle=\_SB_.PCI0.PT1A.SLT1

dev.ix.1.%driver: ix

dev.ix.1.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15

dev.ix.0.mac_stats.tx_frames_1024_1522: 442131810

dev.ix.0.mac_stats.tx_frames_512_1023: 148566083

dev.ix.0.mac_stats.tx_frames_256_511: 141852302

dev.ix.0.mac_stats.tx_frames_128_255: 299199963

dev.ix.0.mac_stats.tx_frames_65_127: 6182024993

dev.ix.0.mac_stats.tx_frames_64: 2521336526

dev.ix.0.mac_stats.management_pkts_txd: 0

dev.ix.0.mac_stats.mcast_pkts_txd: 27428

dev.ix.0.mac_stats.bcast_pkts_txd: 162729

dev.ix.0.mac_stats.good_pkts_txd: 9735111677

dev.ix.0.mac_stats.total_pkts_txd: 9735111677

dev.ix.0.mac_stats.good_octets_txd: 1491964662545

dev.ix.0.mac_stats.checksum_errs: 13670065

dev.ix.0.mac_stats.management_pkts_drpd: 0

dev.ix.0.mac_stats.management_pkts_rcvd: 0

dev.ix.0.mac_stats.recv_jabberd: 0

dev.ix.0.mac_stats.recv_oversized: 0

dev.ix.0.mac_stats.recv_fragmented: 0

dev.ix.0.mac_stats.recv_undersized: 0

dev.ix.0.mac_stats.rx_frames_1024_1522: 12595556479

dev.ix.0.mac_stats.rx_frames_512_1023: 300066538

dev.ix.0.mac_stats.rx_frames_256_511: 251711561

dev.ix.0.mac_stats.rx_frames_128_255: 366949189

dev.ix.0.mac_stats.rx_frames_65_127: 1038614658

dev.ix.0.mac_stats.rx_frames_64: 259342893

dev.ix.0.mac_stats.bcast_pkts_rcvd: 505045

dev.ix.0.mac_stats.mcast_pkts_rcvd: 50608

dev.ix.0.mac_stats.good_pkts_rcvd: 14812135578

dev.ix.0.mac_stats.total_pkts_rcvd: 14812272569

dev.ix.0.mac_stats.good_octets_rcvd: 18757764026281

dev.ix.0.mac_stats.total_octets_rcvd: 18757768826945

dev.ix.0.mac_stats.xoff_recvd: 0

dev.ix.0.mac_stats.xoff_txd: 0

dev.ix.0.mac_stats.xon_recvd: 0

dev.ix.0.mac_stats.xon_txd: 0

dev.ix.0.mac_stats.rec_len_errs: 0

dev.ix.0.mac_stats.remote_faults: 0

dev.ix.0.mac_stats.local_faults: 9

dev.ix.0.mac_stats.short_discards: 0

dev.ix.0.mac_stats.byte_errs: 0

dev.ix.0.mac_stats.ill_errs: 0

dev.ix.0.mac_stats.crc_errs: 0

dev.ix.0.queue7.lro_flushed: 0

dev.ix.0.queue7.lro_queued: 0

dev.ix.0.queue7.rx_copies: 188769037

dev.ix.0.queue7.rx_bytes: 2289534092672

dev.ix.0.queue7.rx_packets: 1832922772

dev.ix.0.queue7.rxd_tail: 1683

dev.ix.0.queue7.rxd_head: 1684

dev.ix.0.queue7.tx_packets: 1174269679

dev.ix.0.queue7.no_desc_avail: 0

dev.ix.0.queue7.no_tx_dma_setup: 0

dev.ix.0.queue7.tso_tx: 0

dev.ix.0.queue7.txd_tail: 1254

dev.ix.0.queue7.txd_head: 1254

dev.ix.0.queue7.irqs: 1477775005

dev.ix.0.queue7.interrupt_rate: 100000

dev.ix.0.queue6.lro_flushed: 0

dev.ix.0.queue6.lro_queued: 0

dev.ix.0.queue6.rx_copies: 183298034

dev.ix.0.queue6.rx_bytes: 2318200911448

dev.ix.0.queue6.rx_packets: 1838716133

dev.ix.0.queue6.rxd_tail: 1251

dev.ix.0.queue6.rxd_head: 1252

dev.ix.0.queue6.tx_packets: 1206479885

dev.ix.0.queue6.no_desc_avail: 0

dev.ix.0.queue6.no_tx_dma_setup: 0

dev.ix.0.queue6.tso_tx: 0

dev.ix.0.queue6.txd_tail: 734

dev.ix.0.queue6.txd_head: 734

dev.ix.0.queue6.irqs: 1514787680

dev.ix.0.queue6.interrupt_rate: 500000

dev.ix.0.queue5.lro_flushed: 0

dev.ix.0.queue5.lro_queued: 0

dev.ix.0.queue5.rx_copies: 188942027

dev.ix.0.queue5.rx_bytes: 2356938163018

dev.ix.0.queue5.rx_packets: 1879172126

dev.ix.0.queue5.rxd_tail: 1051

dev.ix.0.queue5.rxd_head: 1052

dev.ix.0.queue5.tx_packets: 1290664812

dev.ix.0.queue5.no_desc_avail: 0

dev.ix.0.queue5.no_tx_dma_setup: 0

dev.ix.0.queue5.tso_tx: 0

dev.ix.0.queue5.txd_tail: 1977

dev.ix.0.queue5.txd_head: 1977

dev.ix.0.queue5.irqs: 1564478667

dev.ix.0.queue5.interrupt_rate: 125000

dev.ix.0.queue4.lro_flushed: 0

dev.ix.0.queue4.lro_queued: 0

dev.ix.0.queue4.rx_copies: 182804591

dev.ix.0.queue4.rx_bytes: 2319893741160

dev.ix.0.queue4.rx_packets: 1840058562

dev.ix.0.queue4.rxd_tail: 192

dev.ix.0.queue4.rxd_head: 193

dev.ix.0.queue4.tx_packets: 1342598038

dev.ix.0.queue4.no_desc_avail: 0

dev.ix.0.queue4.no_tx_dma_setup: 0

dev.ix.0.queue4.tso_tx: 0

dev.ix.0.queue4.txd_tail: 967

dev.ix.0.queue4.txd_head: 967

dev.ix.0.queue4.irqs: 1569158296

dev.ix.0.queue4.interrupt_rate: 500000

dev.ix.0.queue3.lro_flushed: 0

dev.ix.0.queue3.lro_queued: 0

dev.ix.0.queue3.rx_copies: 185706062

dev.ix.0.queue3.rx_bytes: 2321607977727

dev.ix.0.queue3.rx_packets: 1843880674

dev.ix.0.queue3.rxd_tail: 735

dev.ix.0.queue3.rxd_head: 736

dev.ix.0.queue3.tx_packets: 1411316736

dev.ix.0.queue3.no_desc_avail: 0

dev.ix.0.queue3.no_tx_dma_setup: 0

dev.ix.0.queue3.tso_tx: 0

dev.ix.0.queue3.txd_tail: 254

dev.ix.0.queue3.txd_head: 256

dev.ix.0.queue3.irqs: 1569318710

dev.ix.0.queue3.interrupt_rate: 100000

dev.ix.0.queue2.lro_flushed: 0

dev.ix.0.queue2.lro_queued: 0

dev.ix.0.queue2.rx_copies: 184514753

dev.ix.0.queue2.rx_bytes: 2347062920038

dev.ix.0.queue2.rx_packets: 1858859097

dev.ix.0.queue2.rxd_tail: 88

dev.ix.0.queue2.rxd_head: 89

dev.ix.0.queue2.tx_packets: 1121197042

dev.ix.0.queue2.no_desc_avail: 0

dev.ix.0.queue2.no_tx_dma_setup: 0

dev.ix.0.queue2.tso_tx: 0

dev.ix.0.queue2.txd_tail: 1909

dev.ix.0.queue2.txd_head: 1909

dev.ix.0.queue2.irqs: 1498039322

dev.ix.0.queue2.interrupt_rate: 83333

dev.ix.0.queue1.lro_flushed: 0

dev.ix.0.queue1.lro_queued: 0

dev.ix.0.queue1.rx_copies: 187393476

dev.ix.0.queue1.rx_bytes: 2326596164921

dev.ix.0.queue1.rx_packets: 1850966652

dev.ix.0.queue1.rxd_tail: 634

dev.ix.0.queue1.rxd_head: 635

dev.ix.0.queue1.tx_packets: 1055628454

dev.ix.0.queue1.no_desc_avail: 0

dev.ix.0.queue1.no_tx_dma_setup: 0

dev.ix.0.queue1.tso_tx: 0

dev.ix.0.queue1.txd_tail: 1683

dev.ix.0.queue1.txd_head: 1683

dev.ix.0.queue1.irqs: 1463495041

dev.ix.0.queue1.interrupt_rate: 100000

dev.ix.0.queue0.lro_flushed: 0

dev.ix.0.queue0.lro_queued: 0

dev.ix.0.queue0.rx_copies: 182515793

dev.ix.0.queue0.rx_bytes: 2359338826932

dev.ix.0.queue0.rx_packets: 1867596285

dev.ix.0.queue0.rxd_tail: 505

dev.ix.0.queue0.rxd_head: 509

dev.ix.0.queue0.tx_packets: 1132980809

dev.ix.0.queue0.no_desc_avail: 0

dev.ix.0.queue0.no_tx_dma_setup: 0

dev.ix.0.queue0.tso_tx: 0

dev.ix.0.queue0.txd_tail: 1285

dev.ix.0.queue0.txd_head: 1285

dev.ix.0.queue0.irqs: 1579992727

dev.ix.0.queue0.interrupt_rate: 100000

dev.ix.0.link_irq: 2

dev.ix.0.watchdog_events: 0

dev.ix.0.mbuf_defrag_failed: 0

dev.ix.0.dropped: 0

dev.ix.0.advertise_speed: 0

dev.ix.0.enable_aim: 1

dev.ix.0.fc: 0

dev.ix.0.%parent: pci7

dev.ix.0.%pnpinfo: vendor=0x8086 device=0x10fb subvendor=0x8086 subdevice=0x7a12 class=0x020000

dev.ix.0.%location: slot=0 function=0 handle=\_SB_.PCI0.PT1A.SLT0

dev.ix.0.%driver: ix

dev.ix.0.%desc: Intel® PRO/10GbE PCI-Express Network Driver, Version - 2.5.15

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А смысл на это смотреть, когда у него проц в полку загружен!

Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было.

 

Я не знаток ipfw, но правила

${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17

${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i}

как то стрёмно выглядят.

 

А вот этот блок:

${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any.

${FwCMD} add setfib 1 ip from any to 10.0.0.0/20..

${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any

${FwCMD} add setfib 1 ip from any to 10.0.16.0/22.

${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any

${FwCMD} add setfib 1 ip from any to 10.0.20.0/24.

тут по идее только to any должно хватить, хотя я не уверен.

Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А смысл на это смотреть, когда у него проц в полку загружен!

Тут надо с гипертредингом играться, и по максимуму облегчать фаервол - чтобы правил как можно меньше было.

 

Я не знаток ipfw, но правила

${FwCMD} add deny icmp from any to any in icmptype 5,9,13,14,15,16,17

${FwCMD} add deny ip from any to 0.0.0.0/8 in via ${LanOut_i}

как то стрёмно выглядят.

 

А вот этот блок:

${FwCMD} add setfib 1 ip from 10.0.0.0/20 to any.

${FwCMD} add setfib 1 ip from any to 10.0.0.0/20..

${FwCMD} add setfib 1 ip from 10.0.16.0/22 to any

${FwCMD} add setfib 1 ip from any to 10.0.16.0/22.

${FwCMD} add setfib 1 ip from 10.0.20.0/24 to any

${FwCMD} add setfib 1 ip from any to 10.0.20.0/24.

тут по идее только to any должно хватить, хотя я не уверен.

Те если там этот fib сводится только к тому, чтобы выставить next-hop (дефолтный шлюз) другой для этих подсетей то нахер эти правила выкинуть, и заставить явно фаер пересылать пакеты на нужный шлюз.

 

Т.Е думаете процессор в полке или уверенны ?

Нагружает думаю ng car/bpf а вот почему при нагрузке пинг нормальный, без нагрузки (до 1гигабита) идеальный, при средней нагрузке Ужасный ?

---

Я конечно с гипертредингом еще раз попробую, но машина долго не протянет =)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ой ребята ! Нашел я прикол ...

И не только я страдаю !!!

ДУмаю стоит подымать разработчиков МПД

 

Дело обстоит так:

 

Подымается пинг на определённого клиента, при это на сервере процессор в полке или нет без разници. В этот же момент, сетевая подситема в норме (Выдfет еще 2G на speedtest/iperf).

Лечение: дропаем соединение, после поднятия имеем чистый пинг.

 

Какие будут коментарии ?

 

 

ADD +20 min:

Проверил опытным путем, какой параметр плохой итак:

1 передаем опускание шейпера клиенту через COA - НЕГАТИВ

2 возвращаем шейпер клиенту через COA - НЕГАТИВ

4 отключаем нетфлоу через консоль - НЕГАТИВ

---при отключенном нетфлоу

5 передаем опускание шейпера клиенту через COA - НЕГАТИВ

6 возвращаем шейпер клиенту через COA - ПОЛОЖИТЕЛЬНО

7 возвращаем шейпер клиенту через COA + Нетфлоу - ПОЛОЖИТЕЛЬНО

 

Итог:

что-то не то в механизме нетфлоу

 

 

P.S: без нетфлоу не пробовал, так как он нужен !

 

 

Багрепорт: https://sourceforge.net/p/mpd/bugs/58/

Изменено пользователем agnitumus

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Нетфлов в мпд рекомендуют сразу отключить, так как с ним замечены проблемы (как раз такие как у Вас). Собирать нетфлов другими средствами (ngctl).

 

Можно было и по-русски написать, разработчик, русскоговорящий же :)

Изменено пользователем polmax

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл

я с ним много гемора поимел

симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного

в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль

ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя

снимайте нетфлоу чем-то другим

например на исходящем интерфейсе или на натилке обычно нетфлоу собирают

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

вот кстати да, всегда спрашиваю включен ли нетфлоу, а тут забыл

я с ним много гемора поимел

симпотмы такие, что машинка у меня была довольно слабая но и 250-300 тунелей это немного

в определенный момент система уходила в ступор, она как бы в кору не падала, но висла даже консоль

ребуты не помогали вообще, она жила примерно 30 секунд и снова уходила в себя

снимайте нетфлоу чем-то другим

например на исходящем интерфейсе или на натилке обычно нетфлоу собирают

 

Все спасибо ! Проблема была в нетфлоу !

проблемы пвдения quagga буду решать сам !

P.S: Трафик пишет через ng_nat

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Точнее проблема в тюнинге нетграфа и соответственно нетфлоу.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Точнее проблема в тюнинге нетграфа и соответственно нетфлоу.

Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Точнее проблема в тюнинге нетграфа и соответственно нетфлоу.

Ну если уж соовсем уточнить, то MPD делает под каждый интерфейс правило ng_netflow ! Вот оно всё и глючит ! Делаем одно правило и всё =)

 

Ага, поэтому лучше включать в нужных местах netflow:

       set iface enable netflow-in
       set iface enable netflow-out
       set netflow peer IP1 port1
       set netflow self IP2 port2

 

А по правильному - зеркалить с входящего порта маршрутизатора и выборочно абонентские вланы.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

проблемы пвдения quagga буду решать сам !

Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

проблемы пвдения quagga буду решать сам !

Квагга не любит большого обновления таблиц маршрутизации, у нас при падении-подьёме бгп-сессии комп тупил нещадно. А падение-подъем бгп-сессии - это может быть следствием 100%цпу, на несколько минут. Естественно это при нескольких фв, многоядрёный комп с кваггой впадал в кому ненадолго. Возможно дело в слабых сетёвках было, вынесли кваггу, купили брокаду - ненарадуемся на бордере :)

 

Очень голословное утверждение.

Не указано:


     
  • версия quagga
  • версия OS
  • объем ОЗУ
  • данные с мониторинга - pps, Mbps канала
  • наличия OSPF
  • причины столь частого флаппинга BGP сессий

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.