Перейти к содержимому
Калькуляторы

Кондор

Пользователи
  • Публикации

    3
  • Зарегистрирован

  • Посещение

О Кондор

  • Звание
    Абитуриент
    Абитуриент
  1. uname -a FreeBSD nat-users.oblnet.ru 10.3-RELEASE-p14 FreeBSD 10.3-RELEASE-p14 #4: Thu Dec 8 14:47:04 MSK 2016 root@nat-users.oblnet.ru:/usr/obj/usr/src/sys/NAT-USERS amd64 top -b -n 40 last pid: 785; load averages: 0.08, 0.16, 0.08 up 0+00:03:16 12:17:17 29 processes: 1 running, 28 sleeping Mem: 22M Active, 19M Inact, 225M Wired, 18M Buf, 3621M Free Swap: 4096M Total, 4096M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 587 root 1 20 0 27864K 3692K select 3 0:00 0.00% zebra 635 root 1 20 0 21896K 13804K select 2 0:00 0.00% ntpd 593 root 1 20 0 32444K 4080K select 3 0:00 0.00% ospfd 441 root 1 20 0 90612K 10148K kqread 3 0:00 0.00% syslog-ng 761 root 1 20 0 25956K 4088K pause 3 0:00 0.00% csh 601 root 1 20 0 66816K 10228K select 0 0:00 0.00% snmpd 578 zabbix 1 20 0 32268K 4816K nanslp 0 0:00 0.00% zabbix_agentd 758 root 1 20 0 86580K 7564K select 2 0:00 0.00% sshd 582 zabbix 1 20 0 32268K 4648K nanslp 0 0:00 0.00% zabbix_agentd 580 zabbix 1 4 0 32268K 4752K select 0 0:00 0.00% zabbix_agentd 579 zabbix 1 20 0 32268K 4748K accept 0 0:00 0.00% zabbix_agentd 581 zabbix 1 20 0 32268K 4748K select 3 0:00 0.00% zabbix_agentd 596 root 1 20 0 27636K 2912K select 1 0:00 0.00% watchquagga 606 uucp 1 20 0 16704K 2304K nanslp 3 0:00 0.00% upsmon 731 root 1 52 0 14520K 2084K ttyin 3 0:00 0.00% getty 733 root 1 52 0 14520K 2084K ttyin 2 0:00 0.00% getty 729 root 1 52 0 14520K 2084K ttyin 3 0:00 0.00% getty 785 root 1 20 0 21948K 2776K CPU1 1 0:00 0.00% top 735 root 1 52 0 14520K 2084K ttyin 1 0:00 0.00% getty 734 root 1 52 0 14520K 2084K ttyin 1 0:00 0.00% getty 732 root 1 52 0 14520K 2084K ttyin 0 0:00 0.00% getty 730 root 1 52 0 14520K 2084K ttyin 0 0:00 0.00% getty 682 root 1 20 0 16624K 2344K nanslp 3 0:00 0.00% cron 736 root 1 52 0 14520K 2084K ttyin 2 0:00 0.00% getty 575 zabbix 1 52 0 32268K 4536K wait 1 0:00 0.00% zabbix_agentd 678 root 1 20 0 61312K 7100K select 0 0:00 0.00% sshd 365 root 1 20 0 13628K 4932K select 2 0:00 0.00% devd 605 root 1 52 0 16704K 2296K piperd 2 0:00 0.00% upsmon 440 root 1 42 0 64968K 8012K wait 2 0:00 0.00% syslog-ng pfctl -si Status: Enabled for 0 days 00:04:09 Debug: Urgent Interface Stats for igb0 IPv4 IPv6 Bytes In 6371135402 0 Bytes Out 822089194 0 Packets In Passed 5268960 0 Blocked 29869 0 Packets Out Passed 2835654 0 Blocked 0 0 State Table Total Rate current entries 120795 searches 16279213 65378.4/s inserts 464596 1865.8/s removals 343790 1380.7/s Counters match 524775 2107.5/s bad-offset 0 0.0/s fragment 0 0.0/s short 215 0.9/s normalize 4 0.0/s memory 0 0.0/s bad-timestamp 0 0.0/s congestion 0 0.0/s ip-option 0 0.0/s proto-cksum 0 0.0/s state-mismatch 292 1.2/s state-insert 0 0.0/s state-limit 0 0.0/s src-limit 0 0.0/s synproxy 0 0.0/s pfctl -st tcp.first 120s tcp.opening 30s tcp.established 86400s tcp.closing 900s tcp.finwait 45s tcp.closed 90s tcp.tsdiff 30s udp.first 60s udp.single 30s udp.multiple 60s icmp.first 20s icmp.error 10s other.first 60s other.single 30s other.multiple 60s frag 30s interval 10s adaptive.start 0 states adaptive.end 0 states src.track 0s pfctl -sm states hard limit 40000000 src-nodes hard limit 40000000 frags hard limit 10000000 table-entries hard limit 200000 netstat -m 44393/1657/46050 mbufs in use (current/cache/total) 44391/395/44786/2028160 mbuf clusters in use (current/cache/total/max) 44391/390 mbuf+clusters out of packet secondary zone in use (current/cache) 0/3/3/124404 4k (page size) jumbo clusters in use (current/cache/total/max) 0/0/0/36860 9k jumbo clusters in use (current/cache/total/max) 0/0/0/20734 16k jumbo clusters in use (current/cache/total/max) 99880K/1216K/101096K bytes allocated to network (current/cache/total) 0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters) 0/0/0 requests for mbufs delayed (mbufs/clusters/mbuf+clusters) 0/0/0 requests for jumbo clusters delayed (4k/9k/16k) 0/0/0 requests for jumbo clusters denied (4k/9k/16k) 0 requests for sfbufs denied 0 requests for sfbufs delayed 0 requests for I/O initiated by sendfile netstat -Q Configuration: Setting Current Limit Thread count 1 1 Default queue limit 256 10240 Dispatch policy direct n/a Threads bound to CPUs disabled n/a Protocols: Name Proto QLimit Policy Dispatch Flags ip 1 256 flow default --- igmp 2 256 source default --- rtsock 3 256 source default --- arp 7 256 source default --- ether 9 256 source direct --- Workstreams: WSID CPU Name Len WMark Disp'd HDisp'd QDrops Queued Handled 0 0 ip 0 0 4136633 0 0 0 4136633 0 0 igmp 0 0 5 0 0 0 5 0 0 rtsock 0 6 0 0 0 15458 15458 0 0 arp 0 0 214 0 0 0 214 0 0 ether 0 0 4136847 0 0 0 4136847 vmstat -i interrupt total rate irq1: atkbd0 8 0 cpu0:timer 486264 1073 irq264: igb0:que 0 2259187 4987 irq265: igb0:que 1 2300677 5078 irq266: igb0:que 2 2234774 4933 irq267: igb0:que 3 2290778 5056 irq268: igb0:link 2 0 irq269: igb1:que 0 2203001 4863 irq270: igb1:que 1 2221467 4903 irq271: igb1:que 2 2181897 4816 irq272: igb1:que 3 2229655 4921 irq273: igb1:link 2 0 irq274: ahci0 1783 3 cpu1:timer 486720 1074 cpu2:timer 487342 1075 cpu3:timer 487081 1075 Total 19870638 43864 vmstat -m Type InUse MemUse HighUse Requests Size(s) kdtrace 173 35K - 990 64,256 kenv 104 12K - 112 16,32,64,128,8192 kqueue 5 4K - 23 256,512,2048 proc-args 28 2K - 2385 16,32,64,128 hhook 2 1K - 2 256 ithread 203 42K - 203 32,128,256 KTRACE 100 13K - 100 128 linker 69 5K - 71 16,32,64,512 lockf 20 3K - 40 64,128 loginclass 3 1K - 14 64 devbuf 16835 35329K - 16888 16,32,64,128,256,512,1024,2048,4096,8192,32768,65536 temp 39 2K - 2252 16,32,64,128,256,512,1024,2048,4096,8192,16384 module 173 22K - 173 128 mtx_pool 2 16K - 2 8192 pmchooks 1 1K - 1 128 pgrp 24 3K - 60 128 session 23 3K - 27 128 proc 2 32K - 2 16384 subproc 137 230K - 946 512,4096 cred 54 9K - 4102 64,256 plimit 15 4K - 22 256 uidinfo 5 5K - 44 128,4096 pfs_nodes 21 6K - 21 256 GEOM 49 9K - 700 16,32,64,128,256,512,1024,2048,8192,16384 sysctl 0 0K - 2512 16,32,64 sysctloid 4401 221K - 4484 16,32,64,128 sysctltmp 0 0K - 1186 16,32,64,128,256,2048 acpica 15513 1540K - 135009 16,32,64,128,256,512,1024,2048,4096 tidhash 1 32K - 1 32768 callout 5 2184K - 5 umtx 270 34K - 270 128 p1003.1b 1 1K - 1 16 SWAP 2 549K - 2 64 bus 701 80K - 6127 16,32,64,128,256,1024 bus-sc 73 112K - 1717 16,32,128,256,512,1024,2048,4096,8192,16384 CAM XPT 20 2K - 134 16,32,64,128,256,512,1024,2048,65536 devstat 6 13K - 6 32,4096 eventhandler 102 9K - 102 64,128 CAM DEV 8 16K - 18 2048 pci_link 16 2K - 16 64,128 kobj 99 396K - 240 4096 acpi_perf 4 2K - 4 512 Per-cpu 1 1K - 1 32 acpipwr 5 1K - 5 64 acpitask 1 16K - 1 16384 rman 290 33K - 747 16,32,128 sbuf 1 1K - 2361 16,32,64,128,256,512,1024,2048,4096,8192 acpisem 119 15K - 119 128 CAM CCB 0 0K - 2026 2048 taskqueue 31 5K - 31 16,32,256 Unitno 14 1K - 438 32,64 vmem 3 134K - 3 2048,4096 ioctlops 0 0K - 1615 256,512,1024,2048,4096 select 14 2K - 14 128 iov 0 0K - 25613 16,32,64,128,256,512 msg 4 30K - 4 2048,4096,8192,16384 sem 4 106K - 4 2048,4096 shm 7 44K - 31 2048,32768 tty 18 18K - 34 1024,2048 pts 1 1K - 1 256 mbuf_tag 0 0K - 15458 32 shmfd 1 8K - 1 8192 soname 12 1K - 12487 16,32,128 pcb 25 663K - 34 16,32,128,1024,2048,8192 vfscache 1 2048K - 1 vfs_hash 1 1024K - 1 vnodes 1 1K - 1 256 raid_data 0 0K - 90 32,128,256 mount 16 1K - 86 16,32,64,128,256 entropy 1027 65K - 1029 32,64,4096 vnodemarker 0 0K - 40 512 BPF 4 1K - 4 128 acpidev 127 8K - 127 64 ifnet 5 9K - 5 128,2048 ifaddr 28 9K - 28 32,512,4096 ether_multi 17 1K - 20 16,64 clone 3 1K - 3 128 arpcom 2 1K - 2 16 lltable 19 6K - 23 256,512 CAM path 7 1K - 57 32 CAM periph 3 1K - 13 16,32,64,256 CAM queue 14 5K - 46 16,32,512 CAM dev queue 6 1K - 6 64 routetbl 39 7K - 487 32,128,256,512 igmp 4 1K - 4 256 in_mfilter 3 3K - 3 1024 in_multi 4 1K - 4 256 ip_moptions 6 1K - 6 64,256 CAM SIM 6 2K - 6 256 sctp_a_it 0 0K - 3 16 sctp_vrf 1 1K - 1 64 sctp_ifa 3 1K - 3 128 sctp_ifn 3 1K - 3 128 sctp_iter 0 0K - 3 256 hostcache 1 32K - 1 32768 syncache 1 64K - 1 65536 pf_temp 0 0K - 9 128 pf_hash 3 2880K - 3 pf_ifnet 8 4K - 51 256,2048 pf_rule 72 47K - 72 128,1024 pf_osfp 1130 115K - 2260 64,128 pf_table 1 2K - 2 2048 rpc 1 8K - 1 8192 audit_evclass 187 6K - 231 32 pagedep 2 129K - 19 256 inodedep 2 1025K - 88 512 bmsafemap 1 8K - 43 256,8192 newblk 2 2049K - 33 256 freefrag 0 0K - 2 128 freeblks 0 0K - 30 128 freefile 0 0K - 40 64 diradd 1 1K - 41 128 mkdir 0 0K - 12 128 dirrem 0 0K - 44 128 newdirblk 0 0K - 6 64 freework 1 1K - 31 32,128 jaddref 0 0K - 53 128 jremref 0 0K - 56 128 jnewblk 0 0K - 32 128 jfreefrag 0 0K - 2 128 jseg 1 1K - 13 128 jsegdep 2 1K - 143 64 sbdep 0 0K - 7 64 savedino 0 0K - 31 256 jblocks 2 1K - 2 128,256 softdep 1 1K - 1 512 ufs_dirhash 33 7K - 33 16,32,64,512 ufs_mount 3 21K - 3 512,4096,16384 vm_pgdata 2 513K - 2 128 UMAHash 2 2K - 3 512,1024 acpiintr 1 1K - 1 64 kbdmux 6 22K - 6 16,512,1024,2048,16384 LED 20 2K - 20 16,128 memdesc 1 4K - 1 4096 atkbddev 1 1K - 1 64 DEVFS3 94 24K - 113 256 DEVFS1 76 38K - 85 512 DEVFS_RULE 55 26K - 55 64,512 DEVFS 12 1K - 13 16,128 apmdev 1 1K - 1 128 madt_table 0 0K - 1 4096 isadev 8 1K - 8 128 io_apic 1 8K - 1 8192 MCA 13 2K - 13 32,64,128 cdev 4 1K - 4 256 msi 19 3K - 19 128 nexusdev 3 1K - 3 16 filedesc 48 100K - 857 2048,4096 sigio 1 1K - 1 64 На сервере 8 ГБ памяти. Данные снимались после перезагрузки, которая помогает от этой проблемы (так получилось)... Может, 11 версию поставить?
  2. Доброго времени суток. Проблема такая... С некоторого времени на сервере NAT (FreeBSD 10.3, PF) появилась проблема, что количество mbufs взлетает почти вертикально, достигает 1.5М, после чего сетевая активность отрубается почти полностью. Как сие побороть? Пробовал уже почти все настройки....
  3. Доброго времени суток. Придя работать в одну питерскую интернет-контору обнаружил это чудо современной техники. Объяснить, почему оный западный монстр используется, мне никто толком не может. Все аргументы - данный биллинг очень хорош для телефонии по сравнению с UTM (который тоже стоит, но от него поставлена задача отказаться). Буду признателен, если кто-нибудь ответит на следующие вопросы: 1. Реально, в чём такое преимущество данного биллинга перед другими? (Тем же UTM) 2. Есть ли к нему документация на русском? (в сети пока не нашёл) 3. Если ли ссылочка на какие-нибудь авторитетные сравнения данного биллинга, скажем так, не в пользу последнего, чтобы убедить генерального с диром по развитию оставить UTM в покое для хомячков и баланса, личного кабинета и проч, а эту Порту - только для телефонии (синхронизацию орагнизовать можно, уже проверено).