xeb Опубликовано 20 октября, 2014 · Жалоба в логах тьма тьмущая и не найти уже того места... по дате/время Я удалял папку ./build, и заново запускал cmake. проверил у себя - собираетсяс какими параметрами cmake ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mr.Scamp Опубликовано 20 октября, 2014 · Жалоба cd build && cmake -DKDIR=/usr/src/linux-headers-3.2.0-4-amd64 -DRADIUS=TRUE -DNETSNMP=FALSE -DSHAPER=TRUE -DLOG_PGSQL=FALSE -DLUA=TRUE -DBUILD_IPOE_DRIVER=TRUE -D CMAKE_INSTALL_PREFIX=/usr/ .. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 20 октября, 2014 · Жалоба не знаю, у меня нормально собирается Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
adeep Опубликовано 20 октября, 2014 · Жалоба в логах тьма тьмущая и не найти уже того места... по дате/время [2014-10-18 22:18:43]: info: recv [PPPoE PADI f8:d1:11:4a:e2:c7 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000ad0>] [2014-10-18 22:18:43]: info: send [PPPoE PADO a0:36:9f:03:ee:ee => f8:d1:11:4a:e2:c7 sid=0000 <AC-Name pppoe3> <Service-Name > <AC-Cookie 263b798405321eef63ce5560b929612ebff92d0b13224fd3> <Host-Uniq 00000ad0>] [2014-10-18 22:18:43]: info: ipoe54: send [DHCPv4 relay Discover xid=2f9aa567 giaddr=10.200.0.7 chaddr=bc:ae:c5:a7:86:2f <Message-Type Discover> <Client-ID 01bcaec5a7862f> <Vendor-Class 756468637020302e392e38> <Request-List Subnet,Router ,DNS,Host-Name,Domain-Name,Broadcast,Route,44,249> <Relay-Agent {Agent-Circuit-ID vlan29} {Agent-Remote-ID accel-pppd}>] [2014-10-18 22:18:43]: info: ipoe60: ipoe: relay timed out [2014-10-18 22:18:43]: info: ipoe60: ipoe: session finished [2014-10-18 22:18:43]: info: vlan16: recv [DHCPv4 Discover xid=b6726679 chaddr=44:6d:57:30:a9:cf <Message-Type Discover> <Client-ID 01446d5730a9cf> <Host-Name .....-TOSH> <Vendor-Class 4d53465420352e30> <Request-List Subnet,Domain-Name,R outer,DNS,44,46,47,31,Route,Classless-Route,249,Vendor-Specific>] [2014-10-18 22:18:43]: info: ipoe23: recv [DHCPv4 Discover xid=753c4e8e chaddr=ac:f1:df:cf:14:83 <Message-Type Discover> <Client-ID 01acf1dfcf1483> <Vendor-Class 64736c666f72756d2e6f7267> <Request-List Subnet,Router,DNS,Host-Name,Domain- Name,17,Broadcast,66,Route,Classless-Route,249,Vendor-Specific>] [2014-10-18 22:18:43]: info: vlan30: recv [DHCPv4 Discover xid=e6c6d43e chaddr=64:66:b3:3e:a9:87 <Message-Type Discover> <Max-Message-Size 1024> <Request-List Subnet,Router,Vendor-Specific,44,46,47,DNS,Route,Classless-Route,249> <Host-Na me WR720N> <Vendor-Class 4d534654203938005f> <Client-ID 016466b33ea987>] дальше перезапуск. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 20 октября, 2014 · Жалоба adeep, кое-что переделал, пробуй Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 20 октября, 2014 · Жалоба Господа, а подскажите-ка, как правильно готовить RADIUS. При ~1100 ipoe сессий иногда наблюдаю RADIUS-шторм, отчего он перестаёт обрабатывать запросы. Ну тут понятно - при малейшем затыке создается очередь, начинаются discard-ы и т.д., accel-pppd после неответа на accounting режет сессии, отчего получаем ещё большее кол-во запросов, и так далее по наклонной. Поставил req-limit=10 - стало проще, RADIUS-у полегчало, но вот accel-pppd стал падать. Релизный 1.8.0. Кусочек конфига: [radius] dictionary=/etc/accel-ppp.radius/dictionary nas-identifier=nas1 nas-ip-address=1.2.3.4 gw-ip-address=4.3.2.1 server=1.2.3.4,123456,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 dae-server=1.2.3.4:3799,123456 verbose=0 timeout=10 RADIUS - это FreeRADIUS 3.0.4, rlm_python с минимумом кода и бекендом на MySQL. На меньших нагрузках эта же конфигурация отлично работает и не пыхтит. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 20 октября, 2014 · Жалоба если радиус не справляется, то только ограничивать с помощью req-limit чтобы не рубило сессии если нет ответа на аккаунтинг и не создавало доп. шторм: acct-timeout=0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 20 октября, 2014 · Жалоба xeb, А о падении релизного 1.8.0 с req-limit известно? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 20 октября, 2014 · Жалоба Abram У меня релизный 1.8.0 стоит, до 2к сессий ежедневно. Стоит req-limit=200, нет ни радиус-штормов, ни каких-либо падений. IMHO надо тюнить радиус и его базу, начни с num_sql_socks = 50. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 20 октября, 2014 (изменено) · Жалоба А о падении релизного 1.8.0 с req-limit известно? У меня 8к сессий , версия 1.8.0 и один радиус, пока не замечал проблем Freeradius 2 server=172.29.0.39,xxxxxx,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 Изменено 20 октября, 2014 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mr.Scamp Опубликовано 20 октября, 2014 · Жалоба Наблюдал странное поведение акселя после рестарта браса, 100% загрузка все ядер его процессом, в логи ничего не пишется, к радиусу запросы не поступают. Пока что найден воркэраунд в виде запуска акселя при опущенных интерфейсах к клиентам, и постепенным их поднятием. В настройках радиуса req-limit=25,fail-time=30. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jamaikaoleg Опубликовано 21 октября, 2014 · Жалоба Добрый день. Подскажите плиз в таком вопрос используею accel-ppp 1.8 (для работы в качестве pptp и pppoe) сервера. Почемуто соединерия разрываются постояно через 1,20 минуты (в логах показывает что радиус сервер какбы не отвечает - вроде не идет аккаунтинг). хотя до радиус сервера он доходит.(радиус сервер - lANBILLING). accel-ppp [modules] log_file #log_syslog #log_tcp #log_pgsql pptp #l2tp pppoe #ipoe auth_mschap_v2 auth_mschap_v1 auth_chap_md5 #auth_pap radius #ippool sigchld pppd_compat shaper #chap-secrets #net-snmp #logwtmp #connlimit #ipv6_nd #ipv6_dhcp #ipv6pool [core] log-error=/var/log/accel-ppp/core.log thread-count=4 [common] single-se ssion=replace sid-case=upper sid-source=seq [ppp] verbose=3 min-mtu=1280 mtu=1400 mru=1400 ccp=0 #check-ip=0 mppe=deny pv4=require ipv6=deny ipv6-intf-id=0:0:0:1 ipv6-peer-intf-id=0:0:0:2 ipv6-accept-peer-intf-id=1 lcp-echo-interval=20 lcp-echo-failure=3 #lcp-echo-timeout=120 #unit-cache=1000 [auth] #any-login=0 #noauth=0 [pptp] verbose=5 echo-interval=30 [pppoe] verbose=5 #ac-name=proton-bras service-name=proton-bras #pado-delay=0 #pado-delay=0,100:100,200:200,-1:500 #ifname-in-sid=called-sid tr101=1 #padi-limit=0 #ip-pool=pppoe #interface=eth1,padi-limit=1000 interface=enp4s0 pv4=require ipv6=deny ipv6-intf-id=0:0:0:1 ipv6-peer-intf-id=0:0:0:2 ipv6-accept-peer-intf-id=1 lcp-echo-interval=20 lcp-echo-failure=3 #lcp-echo-timeout=120 #unit-cache=1000 [auth] #any-login=0 #noauth=0 [pptp] verbose=5 echo-interval=30 [pppoe] verbose=5 #ac-name=proton-bras service-name=proton-bras #pado-delay=0 #pado-delay=0,100:100,200:200,-1:500 #ifname-in-sid=called-sid tr101=1 #padi-limit=0 #ip-pool=pppoe #interface=eth1,padi-limit=1000 interface=enp4s0 [l2tp] #verbose=1 #dictionary=/usr/local/share/accel-ppp/l2tp/dictionary #hello-interval=60 #timeout=60 #rtimeout=1 #rtimeout-cap=16 #retransmit=5 #recv-window=16 #host-name=accel-ppp #dir300_quirk=0 #secret= #dataseq=allow #reorder-timeout=0 #ip-pool=l2tp #[ipoe] #verbose=1 #username=ifname #password=username #lease-time=600 #max-lease-time=3600 #unit-cache=1000 #l4-redirect-table=4 #l4-redirect-ipset=l4 #l4-redirect-on-reject=300 #shared=0 #ifcfg=1 #mode=L2 #start=dhcpv4 #proxy-arp=0 #nat=0 #proto=100 #relay=10.10.10.10 #attr-dhcp-client-ip=DHCP-Client-IP-Address #attr-dhcp-router-ip=DHCP-Router-IP-Address #attr-dhcp-mask=DHCP-Mask #attr-l4-redirect=L4-Redirect #local-net=192.168.0.0/16 #lua-file=/etc/accel-ppp.lua #offer-delay=0,100:100,200:200,-1:1000 #vlan-mon=eth0,10-200 #vlan-timeout=60 #vlan-name=%I.%N #ip-pool=ipoe #interface=eth0 [dns] dns1=80.72.237.42 dns2=8.8.8.8 [wins] #wins1=172.16.0.1 #wins2=172.16.1.1 [radius] dictionary=/usr/share/accel-ppp/radius/dictionary nas-identifier=accel-ppp0 nas-ip-address=192.168.100.3 gw-ip-address=192.168.100.3 #auth-server=192.168.100.3:1812,testing123 (obsolete) #acct-server=192.168.100.3:1813,testing123 (obsolete) #server=127.0.0.1,testing123 (obsolete) server=192.168.100.3,cisco,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 dae-server=192.168.100.3:3799,cisco verbose=5 #timeout=3 max-try=3 #acct-timeout=120 #acct-delay-time=0 acct-on=0 #interim-verbose=0 #timeout=5 #max-try=3 #acct-timeout=0 [client-ip-range] 0.0.0.0/0 [ip-pool] #gw-ip-address=192.168.0.1 #vendor=Cisco #attr=Cisco-AVPair #attr=Framed-Pool ##192.168.0.2-255 #192.168.1.1-255,name=pool1 #192.168.2.1-255,name=pool2 #192.168.3.1-255,name=pool3 #192.168.4.0/24 [log] log-file=/var/log/accel-ppp/accel-ppp.log log-emerg=/var/log/accel-ppp/emerg.log log-fail-file=/var/log/accel-ppp/auth-fail.log #log-debug=/dev/stdout #syslog=accel-pppd,daemon #log-tcp=127.0.0.1:3000 copy=1 #color=1 #per-user-dir=per_user #per-session-dir=per_session #per-session=1 level=5 [log-pgsql] conninfo=user=log log-table=log [pppd-compat] #ip-pre-up=/etc/ppp/ip-pre-up #ip-up=/etc/ppp/ip-up #ip-down=/etc/ppp/ip-down #ip-change=/etc/ppp/ip-change #radattr-prefix=/var/run/radattr #verbose=5 [chap-secrets] gw-ip-address=192.168.100.1 #chap-secrets=/etc/ppp/chap-secrets #encrypted=0 #username-hash=md5 [shaper] attr-down=PPPD-Downstream-Speed-Limit attr-up=PPPD-Upstream-Speed-Limi #attr=Filter-Id #down-burst-factor=0.1 #up-burst-factor=1.0 #latency=50 #mpu=0 #mtu=0 #r2q=10 #quantum=1500 #cburst=1534 #ifb=ifb0 #up-limiter=police #down-limiter=tbf up-limiter=htb down-limiter=htb #leaf-qdisc=sfq perturb 10 #rate-multiplier=1 verbose=5 level=5 [cli] telnet=127.0.0.1:2000 tcp=127.0.0.1:2001 password=accelserver [snmp] master=0 agent-name=accel-ppp #[connlimit] #limit=10/min #burst=3 #timeout=60 [ipv6-pool] fc00:0:1::/48,64 delegate=fc00:1::/36,48 [ipv6-dns] #fc00:1::1 #fc00:1::2 #fc00:1::3 #dnssl=suffix1.local.net #dnssl=suffix2.local.net. [ipv6-dhcp] #verbose=1 #pref-lifetime=604800 #valid-lifetime=2592000 #route-via-gw=1 логи /var/log/accel-ppp/accel-ppp.log [2014-10-21 09:51:25]: info: pptp: new connection from 169.254.100.161 [2014-10-21 09:51:25]: info: : recv [PPTP Start-Ctrl-Conn-Request <Version 1> <Framing 1> <Bearer 1> <Max-Chan 0>] [2014-10-21 09:51:25]: info: : send [PPTP Start-Ctrl-Conn-Reply <Version 1> <Result 1> <Error 0> <Framing 3> <Bearer 3> <Max-Chan 1>] [2014-10-21 09:51:25]: info: : recv [PPTP Outgoing-Call-Request <Call-ID 4000> <Call-Serial ec95> <Min-BPS 300> <Max-BPS 100000000> <Bearer 3> <Framing 3> <Window-Size 64> <Del ay 0>] [2014-10-21 09:51:25]: info: : send [PPTP Outgoing-Call-Reply <Call-ID 60> <Peer-Call-ID 4000> <Result 1> <Error 0> <Cause 0> <Speed 100000000> <Window-Size 64> <Delay 0> <Chan nel 0>] [2014-10-21 09:51:25]: info: ppp0: connect: ppp0 <--> pptp(169.254.100.161) [2014-10-21 09:51:25]: debug: ppp0: lcp_layer_init [2014-10-21 09:51:25]: debug: ppp0: auth_layer_init [2014-10-21 09:51:25]: debug: ppp0: ccp_layer_init [2014-10-21 09:51:25]: debug: ppp0: ipcp_layer_init [2014-10-21 09:51:25]: debug: ppp0: ipv6cp_layer_init [2014-10-21 09:51:25]: debug: ppp0: ppp established [2014-10-21 09:51:25]: debug: ppp0: lcp_layer_start [2014-10-21 09:51:25]: info: ppp0: send [LCP ConfReq id=1 <auth MSCHAP-v2> <mru 1400> <magic 6b8b4567>] [2014-10-21 09:51:25]: info: ppp0: recv [PPTP Set-Link-Info] [2014-10-21 09:51:25]: info: ppp0: recv [LCP ConfReq id=0 <mru 1400> <magic 67147786> <pcomp> <accomp> < d 3 6 >] [2014-10-21 09:51:25]: info: ppp0: send [LCP ConfRej id=0 <pcomp> <accomp> < d 3 6 >] [2014-10-21 09:51:25]: info: ppp0: recv [LCP ConfReq id=1 <mru 1400> <magic 67147786>] [2014-10-21 09:51:25]: info: ppp0: send [LCP ConfAck id=1 ] [2014-10-21 09:51:28]: debug: ppp0: fsm timeout [2014-10-21 09:51:28]: info: ppp0: send [LCP ConfReq id=1 <auth MSCHAP-v2> <mru 1400> <magic 6b8b4567>] [2014-10-21 09:51:28]: info: ppp0: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <mru 1400> <magic 6b8b4567>] [2014-10-21 09:51:28]: debug: ppp0: lcp_layer_started [2014-10-21 09:51:28]: debug: ppp0: auth_layer_start [2014-10-21 09:51:28]: info: ppp0: send [MSCHAP-v2 Challenge id=1 <efba44b63e745ae43547241795fea63>] [2014-10-21 09:51:28]: info: ppp0: recv [PPTP Set-Link-Info] [2014-10-21 09:51:28]: info: ppp0: recv [LCP Ident id=2 <MSRASV5.10>] [2014-10-21 09:51:28]: info: ppp0: recv [LCP Ident id=3 <MSRAS-0-89CFF7FAD8854DC>] [2014-10-21 09:51:28]: info: ppp0: recv [MSCHAP-v2 Response id=1 <c58be1cecb64ee6e4b65cb2f5eb77b6>, <4e74f37cf2d644c76e49c124114c5146be5ecb33f068bac>, F=0, name=kick] [2014-10-21 09:51:28]: info: ppp0: send [RADIUS(1) Access-Request id=1 <User-Name "kick"> <NAS-Identifier "accel-ppp0"> <NAS-IP-Address 192.168.100.3> <NAS-Port 0> <NAS-Port-Ty pe Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "169.254.100.161"> <Called-Station-Id "169.254.100.111"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >] [2014-10-21 09:51:28]: info: ppp0: recv [RADIUS(1) Access-Accept id=1 <Session-Timeout 86400> <Service-Type Framed-User> <Framed-Protocol PPP> <Framed-IP-Address 83.69.86.253> <Framed-IP-Netmask 255.255.255.255> <Class ><Microsoft MS-CHAP2-Success ><Microsoft MS-MPPE-Encryption-Policy 1><Microsoft MS-MPPE-Encryption-Type 6><Microsoft MS-MPPE-Send-Key ><Microsoft MS-MPPE-Recv-Key > <Acct-Interim-Interval 60> <PPPD-Upstream-Speed-Limit 1024> <PPPD-Downstream-Speed-Limit 1024>] [2014-10-21 09:51:28]: info: ppp0: send [MSCHAP-v2 Success id=1 "S=C1D3267A6BBE8221AA1F025A0DDBEF61541EBF0A M=Authentication succeeded"] [2014-10-21 09:51:28]: debug: ppp0: auth_layer_started [2014-10-21 09:51:28]: debug: ppp0: ccp_layer_start [2014-10-21 09:51:28]: debug: ppp0: ipcp_layer_start [2014-10-21 09:51:28]: info: ppp0: send [iPCP ConfReq id=1 <addr 192.168.100.3>] [2014-10-21 09:51:28]: debug: ppp0: ipv6cp_layer_start [2014-10-21 09:51:28]: info: ppp0: kick: authentication succeeded [2014-10-21 09:51:28]: warn: ppp0: CCP: discarding packet [2014-10-21 09:51:28]: info: ppp0: send [LCP ProtoRej id=3 <80fd>] [2014-10-21 09:51:28]: info: ppp0: recv [iPCP ConfReq id=5 <addr 0.0.0.0> <dns1 0.0.0.0> <wins1 0.0.0.0> <dns2 0.0.0.0> <wins2 0.0.0.0>] [2014-10-21 09:51:28]: info: ppp0: send [iPCP ConfNak id=5 <addr 83.69.86.253> <dns1 80.72.237.42> <dns2 8.8.8.8>] [2014-10-21 09:51:28]: info: ppp0: recv [iPCP ConfAck id=1 <addr 192.168.100.3>] [2014-10-21 09:51:28]: info: ppp0: recv [iPCP ConfReq id=6 <addr 83.69.86.253> <dns1 80.72.237.42> <wins1 0.0.0.0> <dns2 8.8.8.8> <wins2 0.0.0.0>] [2014-10-21 09:51:28]: info: ppp0: send [iPCP ConfAck id=6] [2014-10-21 09:51:28]: debug: ppp0: ipcp_layer_started [2014-10-21 09:51:28]: info: ppp0: send [RADIUS(1) Accounting-Request id=1 <User-Name "kick"> <NAS-Identifier "accel-ppp0"> <NAS-IP-Address 192.168.100.3> <NAS-Port 0> <NAS-Por t-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "169.254.100.161"> <Called-Station-Id "169.254.100.111"> <Class > <Acct-Status-Type Start> < Acct-Authentic RADIUS> <Acct-Session-Id "FAFF746CEC9BA065"> <Acct-Session-Time 0> <Acct-Input-Octets 0> <Acct-Output-Octets 0> <Acct-Input-Packets 0> <Acct-Output-Packets 0> <Ac ct-Input-Gigawords 0> <Acct-Output-Gigawords 0> <Framed-IP-Address 83.69.86.253>] [2014-10-21 09:51:28]: info: ppp0: recv [RADIUS(1) Accounting-Response id=1] [2014-10-21 09:51:28]: debug: ppp0: pptp: ppp started [2014-10-21 09:51:48]: debug: ppp0: send [LCP EchoReq id=3 <magic 6b8b4567>] [2014-10-21 09:51:48]: debug: ppp0: recv [LCP EchoRep id=3 <magic 67147786>] [2014-10-21 09:51:55]: debug: ppp0: send [PPTP Echo-Request <Identifier 327b23c6>] [2014-10-21 09:51:55]: debug: ppp0: recv [PPTP Echo-Reply <Identifier 327b23c6>] [2014-10-21 09:52:08]: debug: ppp0: send [LCP EchoReq id=4 <magic 6b8b4567>] [2014-10-21 09:52:08]: debug: ppp0: recv [LCP EchoRep id=4 <magic 67147786>] [2014-10-21 09:52:25]: debug: ppp0: send [PPTP Echo-Request <Identifier 643c9869>] [2014-10-21 09:52:25]: debug: ppp0: recv [PPTP Echo-Reply <Identifier 643c9869>] [2014-10-21 09:52:28]: debug: ppp0: send [LCP EchoReq id=5 <magic 6b8b4567>] [2014-10-21 09:52:28]: debug: ppp0: recv [LCP EchoRep id=5 <magic 67147786>] [2014-10-21 09:52:35]: warn: ppp0: radius: server(1) not responding [2014-10-21 09:52:35]: warn: radius: server(1) not responding [2014-10-21 09:52:35]: warn: ppp0: radius:acct: no servers available, terminating session... [2014-10-21 09:52:35]: debug: ppp0: terminate [2014-10-21 09:52:35]: info: ppp0: send [RADIUS(1) Accounting-Request id=2 <User-Name "kick"> <NAS-Identifier "accel-ppp0"> <NAS-IP-Address 192.168.100.3> <NAS-Port 0> <NAS-Por t-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "169.254.100.161"> <Called-Station-Id "169.254.100.111"> <Class > <Acct-Status-Type Stop> <A cct-Authentic RADIUS> <Acct-Session-Id "FAFF746CEC9BA065"> <Acct-Session-Time 70> <Acct-Input-Octets 11963> <Acct-Output-Octets 5886> <Acct-Input-Packets 162> <Acct-Output-Packe ts 100> <Acct-Input-Gigawords 0> <Acct-Output-Gigawords 0> <Framed-IP-Address 83.69.86.253> <Acct-Terminate-Cause NAS-Error>] [2014-10-21 09:52:38]: info: ppp0: send [RADIUS(1) Accounting-Request id=2 <User-Name "kick"> <NAS-Identifier "accel-ppp0"> <NAS-IP-Address 192.168.100.3> <NAS-Port 0> <NAS-Por t-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "169.254.100.161"> <Called-Station-Id "169.254.100.111"> <Class > <Acct-Status-Type Stop> <A cct-Authentic RADIUS> <Acct-Session-Id "FAFF746CEC9BA065"> <Acct-Session-Time 70> <Acct-Input-Octets 11963> <Acct-Output-Octets 5886> <Acct-Input-Packets 162> <Acct-Output-Packe ts 100> <Acct-Input-Gigawords 0> <Acct-Output-Gigawords 0> <Framed-IP-Address 83.69.86.253> <Acct-Terminate-Cause NAS-Error>] [2014-10-21 09:52:41]: info: ppp0: send [RADIUS(1) Accounting-Request id=2 <User-Name "kick"> <NAS-Identifier "accel-ppp0"> <NAS-IP-Address 192.168.100.3> <NAS-Port 0> <NAS-Por t-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "169.254.100.161"> <Called-Station-Id "169.254.100.111"> <Class > <Acct-Status-Type Stop> <A cct-Authentic RADIUS> <Acct-Session-Id "FAFF746CEC9BA065"> <Acct-Session-Time 70> <Acct-Input-Octets 11963> <Acct-Output-Octets 5886> <Acct-Input-Packets 162> <Acct-Output-Packe ts 100> <Acct-Input-Gigawords 0> <Acct-Output-Gigawords 0> <Framed-IP-Address 83.69.86.253> <Acct-Terminate-Cause NAS-Error>] [2014-10-21 09:52:44]: warn: ppp0: radius: server(1) not responding [2014-10-21 09:52:44]: warn: radius: server(1) not responding [2014-10-21 09:52:44]: warn: ppp0: radius:acct_stop: no servers available [2014-10-21 09:52:44]: debug: libnetlink: RTNETLINK answers: No such file or directory [2014-10-21 09:52:44]: debug: ppp0: lcp_layer_finish [2014-10-21 09:52:44]: info: ppp0: send [LCP TermReq id=7] [2014-10-21 09:52:44]: debug: ppp0: auth_layer_finish [2014-10-21 09:52:44]: debug: ppp0: auth_layer_finished [2014-10-21 09:52:44]: debug: ppp0: ccp_layer_finish [2014-10-21 09:52:44]: debug: ppp0: ccp_layer_finished [2014-10-21 09:52:44]: debug: ppp0: ipcp_layer_finish /var/log/accel-ppp/auth-fail.log Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 21 октября, 2014 · Жалоба Сдейлайте дамп трафик по аккаунтинг-порту и посмотрите отвечает радиус-сервер на аккаунтинг-реквесты или нет Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 21 октября, 2014 · Жалоба IMHO надо тюнить радиус и его базу, начни с num_sql_socks = 50. Там не rlm_sql, там rlm_python. Кстати, в свежих радиусах num_sql_socks нету, там теперь как-то пул делается. Стоит start_servers = 5, max_servers = 32. Наблюдал странное поведение акселя после рестарта браса, 100% загрузка все ядер его процессом, в логи ничего не пишется, к радиусу запросы не поступают. Пока что найден воркэраунд в виде запуска акселя при опущенных интерфейсах к клиентам, и постепенным их поднятием. В настройках радиуса req-limit=25,fail-time=30. Наблюдал такое же при старте сразу с большой нагрузкой. Нормально стартует после req-limit=0. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mr.Scamp Опубликовано 21 октября, 2014 · Жалоба Наблюдал странное поведение акселя после рестарта браса, 100% загрузка все ядер его процессом, в логи ничего не пишется, к радиусу запросы не поступают. Пока что найден воркэраунд в виде запуска акселя при опущенных интерфейсах к клиентам, и постепенным их поднятием. В настройках радиуса req-limit=25,fail-time=30. Наблюдал такое же при старте сразу с большой нагрузкой. Нормально стартует после req-limit=0. После поднятия req-limit стартанул под нагрузкой, спасибо! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 21 октября, 2014 · Жалоба После поднятия req-limit стартанул под нагрузкой, спасибо! Пожалуйста. Только теперь у вас новая проблема - такая же, как у меня. :-D Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 21 октября, 2014 · Жалоба IMHO надо тюнить радиус и его базу, начни с num_sql_socks = 50. Там не rlm_sql, там rlm_python. Кстати, в свежих радиусах num_sql_socks нету, там теперь как-то пул делается. Тогда тупят ваши питон-скрипты в радиусе, что вдвойне обидно)) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 21 октября, 2014 · Жалоба Тогда тупят ваши питон-скрипты в радиусе, что вдвойне обидно)) Обидно, конечно. Мои питон-скрипты самые питонистые и скриптовые. Там и тупить-то особо нечему - 3-4 запроса в БД на авторизацию. Самое интересное, что CPU не нагружен ни на BRAS-е (он же сам себе FreeRADIUS), ни на тазике с БД. Проблем собственно с БД в момент проблемы тоже не наблюдается - веб-морда биллинга исправно шуршит. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 21 октября, 2014 (изменено) · Жалоба Обидно, конечно. Мои питон-скрипты самые питонистые и скриптовые. Там и тупить-то особо нечему - 3-4 запроса в БД на авторизацию. Самое интересное, что CPU не нагружен ни на BRAS-е (он же сам себе FreeRADIUS), ни на тазике с БД. Проблем собственно с БД в момент проблемы тоже не наблюдается - веб-морда биллинга исправно шуршит. Ну хоть у кого то это всплыло. Похожая ситуация. Только RADIUS сервер тут не причем. Остальные клиенты нормально с ним работают при высокой нагрузке. Проблема где то в accel-ppp и использовании библиотеке radius клиент. Воспроизвести на тестовых железяках не получается. Изменено 21 октября, 2014 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 21 октября, 2014 · Жалоба Во, ещё новость из разряда "здравствуй, новый год" - у меня, оказывается, база в MyISAM, а я и не знал. :-/ Перетащу в InnoDB и узнаю - поможет ли. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 21 октября, 2014 · Жалоба Наблюдал странное поведение акселя после рестарта браса, 100% загрузка все ядер его процессом, в логи ничего не пишется, к радиусу запросы не поступают. Пока что найден воркэраунд в виде запуска акселя при опущенных интерфейсах к клиентам, и постепенным их поднятием. В настройках радиуса req-limit=25,fail-time=30. в конфиге радиус один ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 21 октября, 2014 · Жалоба Наблюдал странное поведение акселя после рестарта браса, 100% загрузка все ядер его процессом, в логи ничего не пишется, к радиусу запросы не поступают. Пока что найден воркэраунд в виде запуска акселя при опущенных интерфейсах к клиентам, и постепенным их поднятием. В настройках радиуса req-limit=25,fail-time=30. в конфиге радиус один ? Отвечу я, т.к. сталкивался с таким буквально вчера. Да, один. У меня это вылезло на 1.8.0 релизном. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
cREoz Опубликовано 21 октября, 2014 · Жалоба Несколько дней назад в логах появилось сообщение о incorrect AC-Cookie: [2014-10-21 12:12:47]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1301 [2014-10-21 12:12:52]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:13:08]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1205 [2014-10-21 12:13:09]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1207 [2014-10-21 12:13:10]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1203 [2014-10-21 12:13:17]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1115 [2014-10-21 12:13:21]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1111 [2014-10-21 12:13:32]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:13:37]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:13:47]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:13:48]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1301 [2014-10-21 12:14:07]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:14:08]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1205 [2014-10-21 12:14:09]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1207 [2014-10-21 12:14:10]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1203 [2014-10-21 12:14:17]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1115 [2014-10-21 12:14:33]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1111 [2014-10-21 12:14:47]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:14:50]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1301 [2014-10-21 12:14:52]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:15:02]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:15:08]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1205 вот пара мест лога уровня 4 с incorrect AC-Cookie: [2014-10-21 12:26:35]: info: send [PPPoE PADT 00:18:fe:2e:b9:7c => c0:4a:00:85:54:75 sid=7800 <AC-Name oz-ural4320> <Service-Name >] [2014-10-21 12:26:35]: info: recv [PPPoE PADI b0:b2:dc:a9:10:c1 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 670f0000>] [2014-10-21 12:26:35]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => b0:b2:dc:a9:10:c1 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 1d86bb0a1d3c718c7ece06b0e64f65530b909f28e09e0907> <Host-Uniq 670f0000>] [2014-10-21 12:26:36]: info: recv [PPPoE PADI f8:1a:67:e0:62:6d => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000fd2> <Vendor-Specific de9>] [2014-10-21 12:26:36]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => f8:1a:67:e0:62:6d sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 772ee06e0a15f11c2fecb22cc204550433fb4ad1d0eaa2f8> <Host-Uniq 00000fd2>] [2014-10-21 12:26:36]: info: recv [PPPoE PADI 00:1e:8c:b6:e7:43 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 0000071d>] [2014-10-21 12:26:36]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 00:1e:8c:b6:e7:43 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 9ef36ec9d986d3495fc08ea0f8bb8aa57f32086a2f3639a2> <Host-Uniq 0000071d>] [2014-10-21 12:26:36]: info: recv [PPPoE PADI cc:b2:55:9c:a8:a5 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq e1020000>] [2014-10-21 12:26:36]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => cc:b2:55:9c:a8:a5 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 9bda152f9eeefb373350d43b7135d12108af1eaa634d1915> <Host-Uniq e1020000>] [2014-10-21 12:26:37]: info: recv [PPPoE PADI f8:1a:67:ec:ec:9b => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000250>] [2014-10-21 12:26:37]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => f8:1a:67:ec:ec:9b sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 357f9bbe6c0565d31b64f0d8948192bb05fe8b3d2cfea71d> <Host-Uniq 00000250>] [2014-10-21 12:26:37]: info: recv [PPPoE PADI 2c:ab:25:8d:18:c8 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 0000008b>] [2014-10-21 12:26:37]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 2c:ab:25:8d:18:c8 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 8f446d2048fc8f0e1e122393cd04e0f5103ad6d0194f5a60> <Host-Uniq 0000008b>] [2014-10-21 12:26:37]: info: recv [PPPoE PADR d8:50:e6:5e:41:ec => 00:18:fe:2e:b9:7c sid=0000 <Service-Name > <Host-Uniq 41010000> <AC-Cookie ac0046ca506f6caa64f9152b7fd095565a0f8a93ea88ee10>] [2014-10-21 12:26:37]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:26:37]: info: recv [PPPoE PADI c0:4a:00:b1:20:7b => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000394>] [2014-10-21 12:26:37]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => c0:4a:00:b1:20:7b sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie c58560a985903639fa2cf69db72c3e489c92c990ce983b54> <Host-Uniq 00000394>] [2014-10-21 12:26:37]: info: recv [PPPoE PADI c0:4a:00:9c:32:cf => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000229>] [2014-10-21 12:26:37]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => c0:4a:00:9c:32:cf sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 606a585073f777d2c08b2e1ce4b0bf532f48b34073f2e39d> <Host-Uniq 00000229>] [2014-10-21 12:26:37]: info: recv [PPPoE PADI 28:28:5d:7a:ee:df => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 45680000>] [2014-10-21 12:26:37]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 28:28:5d:7a:ee:df sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 18ed065432bb869926b29c4b0745360fc1b8ac45305eef53> <Host-Uniq 45680000>] -- [2014-10-21 12:27:15]: info: recv [PPPoE PADI e8:94:f6:d1:86:e1 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000211>] [2014-10-21 12:27:15]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => e8:94:f6:d1:86:e1 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie af69c5643924cb09774ad0991ae1c32b150786f7995b7bf2> <Host-Uniq 00000211>] [2014-10-21 12:27:16]: info: recv [PPPoE PADI c0:4a:00:b1:20:7b => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 000003b0>] [2014-10-21 12:27:16]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => c0:4a:00:b1:20:7b sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie c58560a985903639fa2cf69db72c3e4896303a6931a2b7f1> <Host-Uniq 000003b0>] [2014-10-21 12:27:16]: info: recv [PPPoE PADI c0:4a:00:9c:32:cf => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 00000245>] [2014-10-21 12:27:16]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => c0:4a:00:9c:32:cf sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 606a585073f777d2c08b2e1ce4b0bf5316fa4ab69ef81796> <Host-Uniq 00000245>] [2014-10-21 12:27:16]: info: recv [PPPoE PADI 84:c9:b2:a6:de:89 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 0d030000>] [2014-10-21 12:27:16]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 84:c9:b2:a6:de:89 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 732ed5c7536f0439bf64af2dbb29e16c6a0df8468b92668f> <Host-Uniq 0d030000>] [2014-10-21 12:27:16]: info: recv [PPPoE PADI 28:28:5d:6c:3f:47 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 0e310000>] [2014-10-21 12:27:16]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 28:28:5d:6c:3f:47 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 45b1ce5cf9b26d415d35915f95fbd7a00945f829e3e6f614> <Host-Uniq 0e310000>] [2014-10-21 12:27:17]: info: recv [PPPoE PADI cc:b2:55:9c:a8:a5 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq e1020000>] [2014-10-21 12:27:17]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => cc:b2:55:9c:a8:a5 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 9bda152f9eeefb373350d43b7135d1219a11dc4f19dc8af1> <Host-Uniq e1020000>] [2014-10-21 12:27:17]: info: recv [PPPoE PADR d8:50:e6:5e:41:ec => 00:18:fe:2e:b9:7c sid=0000 <Service-Name > <Host-Uniq 41010000> <AC-Cookie ac0046ca506f6caa64f9152b7fd095565a0f8a93ea88ee10>] [2014-10-21 12:27:17]: warn: pppoe: discard PADR packet (incorrect AC-Cookie) [2014-10-21 12:27:17]: warn: pppoe: discarding overlimit PADI packets on interface bond1.1203 [2014-10-21 12:27:17]: info: recv [PPPoE PADI 00:17:31:2a:0a:44 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Vendor-Specific de9>] [2014-10-21 12:27:17]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 00:17:31:2a:0a:44 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 913b483ba90a7423ce3547b541709afe363e2d2ad08f9d0c>] [2014-10-21 12:27:17]: info: cli: tcp: new connection from 127.0.0.1 [2014-10-21 12:27:17]: info: recv [PPPoE PADI f8:1a:67:c3:a1:29 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq 000006af> <Vendor-Specific de9>] [2014-10-21 12:27:17]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => f8:1a:67:c3:a1:29 sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie 997aca437bfc0f4775178614791297e28e3bab2952430c89> <Host-Uniq 000006af>] [2014-10-21 12:27:17]: info: cli: tcp: new connection from 127.0.0.1 [2014-10-21 12:27:18]: info: recv [PPPoE PADI 28:10:7b:f2:21:7f => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name > <Host-Uniq e5020000>] [2014-10-21 12:27:18]: info: send [PPPoE PADO 00:18:fe:2e:b9:7c => 28:10:7b:f2:21:7f sid=0000 <AC-Name oz-ural4320> <Service-Name > <AC-Cookie faa649629b95196abe36b8d276a7a5185e220ea725717826> <Host-Uniq e5020000>] Что делать с discarding overlimit PADI packets? До какого значения можно увеличить padi-limit? Сейчас ограничение 1000 на каждом интерфейсе. Откуда появились incorrect AC-Cookie? и можно сделать? [cli] verbose=0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 21 октября, 2014 · Жалоба вот пара мест лога уровня 4 с incorrect AC-Cookie: сделай grep d8:50:e6:5e:41:ec по логу Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 21 октября, 2014 · Жалоба Да, один. У меня это вылезло на 1.8.0 релизном. так у тебя падает или цпу уходит в 100% ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...