Перейти к содержимому
Калькуляторы

metallic

Пользователи
  • Публикации

    39
  • Зарегистрирован

  • Посещение

О metallic

  • Звание
    Абитуриент
    Абитуриент
  1. Руками прибил прерывания к ядрам, сейчас вот так это выглядит: CPU0 CPU1 CPU2 CPU3 CPU4 CPU5 CPU6 CPU7 CPU8 CPU9 CPU10 CPU11 106: 204 335045318 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth3-q0 107: 29 0 18707647 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth3-q1 108: 17 0 0 18344933 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth3-q2 109: 3 0 0 0 22535725 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth3-q3 110: 197 0 0 0 0 0 0 310453611 0 0 0 0 IR-PCI-MSI-edge eth4-q0 111: 22 0 0 0 0 0 0 0 18586813 0 0 0 IR-PCI-MSI-edge eth4-q1 112: 16 0 0 0 0 0 0 0 0 18253597 0 0 IR-PCI-MSI-edge eth4-q2 113: 5 0 0 0 0 0 0 0 0 0 22389317 0 IR-PCI-MSI-edge eth4-q3 Centos 6.5, драйвер сетевухи 4.6.148.0, опции загрузки драйвера: options be2net rss_on_mc=1 num_rings=12 Гипертрединг выключил, вот скрипт раскидывания прерывания(запускается при старте системы): # cat /usr/local/startup/interrupts #!/bin/bash echo 2 > /proc/irq/106/smp_affinity echo 4 > /proc/irq/107/smp_affinity echo 8 > /proc/irq/108/smp_affinity echo 10 > /proc/irq/109/smp_affinity echo 80 > /proc/irq/110/smp_affinity echo 100 > /proc/irq/111/smp_affinity echo 200 > /proc/irq/112/smp_affinity echo 400 > /proc/irq/113/smp_affinity
  2. Поставил на дебиане 7 последний драйвер(взял сорцы из src.rpm редхата, скомпилил и руками подменил модуль ядра, потом обновил initramfs), в опциях модуля добавил вот что # cat /etc/modprobe.d/be2net.conf options be2net num_vfs=8 rss_on_mc=1 num_rings=12 после перезагрузки увидел, что появилось по 4 очереди на каждом порту(раньше одна была и со старым драйвером эти опции никакого эффекта не давали), вообще за кол-во очередей вроде как отвечает опция rss_on_mc=1, она появилась в новой версии драйвера: # modinfo be2net filename: /lib/modules/3.2.0-4-amd64/kernel/drivers/net/ethernet/emulex/benet/be2net.ko supported: external license: GPL author: Emulex Corporation description: Emulex OneConnect 10Gbps NIC Driver 4.6.148.0 version: 4.6.148.0 srcversion: 28D1C7E9833F004A081C39E alias: pci:v000010DFd0000E228sv*sd*bc*sc*i* alias: pci:v000010DFd0000E220sv*sd*bc*sc*i* alias: pci:v000019A2d00000710sv*sd*bc*sc*i* alias: pci:v000019A2d00000700sv*sd*bc*sc*i* alias: pci:v000019A2d00000221sv*sd*bc*sc*i* alias: pci:v000019A2d00000211sv*sd*bc*sc*i* depends: vermagic: 3.2.0-4-amd64 SMP mod_unload modversions parm: rss_on_mc:Enable RSS in multi-channel functions with the capability. Disabled by default. (ushort) parm: tx_prio:Create priority based TX queues. Disabled by default (uint) parm: num_vfs:Number of PCI VFs to initialize (uint) parm: rx_frag_size:Size of receive fragment buffer - 2048 (default), 4096 or 8192 (ushort) parm: gro:Enable or Disable GRO. Enabled by default (uint) parm: emi_canceller:Enable or Disable EMI Canceller. Disabled by default (uint) parm: num_rings:Number of TX and RSS queues to create - 8 (default), 12 (Max) (uint) В документации вот что пишут Попробовал вручную пораскидал прерывания по разным ядрам - помогло, скорость отдачи увеличилась до 1100Мб/сек На этом и остановится, сделать загрузочный скрипт, который будет при старте раскидывать прерывания? Осталась одна не ясность, зачем еще есть всякие /sys/class/net/eth1/queues/rx-0/rps_cpus ? Находил рецепты в интернете про echo ffffff > /sys/class/net/eth1/queues/rx-0/rps_cpus Пробовал, тоже лучше становилось, все процы начинали грузиться почти по полной, но первый все равно больше всех жрал, скорость где-то была около 900Мб/сек Или это так называемые софтварные прерывания? Получается если редактировать /proc/irq/_irq_num_/smp_affinity скорость возрастает даже чуть выше, но нагрузка на процы гораздо меньше, чем в случае с редактированием /sys/class/net/eth1/queues/rx-0/rps_cpus И еще один вопрос, есть ли смысл в моей задаче в гипертрединге, зачем пилить ядра пополам? все равно я могу раскинуть прерывания только на 8 ядер(4 потока у двух портов)?
  3. Да я вот что-то не могу найти сорцы драйвера на сайте http://www-legacy.emulex.com/downloads/emulex.html Есть готовые модули для дебиана 6, для убунты 12.04, для 7-го дебиана вот нет. Зато для редхата есть src.rpm, сейчас вот на тестовый сервер накатываю центос 6.5, это x3650 M3 с такой же сетевухой, только не встроенная, а pci, буду там пробовать из src.rpm собирать
  4. Смотрю на дебиане 7 root@ffr2:~# ethtool -i eth1 driver: be2net version: 4.2.220u firmware-version: 4.1.442.0 bus-info: 0000:0c:00.0 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: no supports-priv-flags: no Теперь понятно, что у меня be2net версии 4.2.220u Смотрим что он умеет root@ffr2:~# modinfo be2net filename: /lib/modules/3.2.0-4-amd64/kernel/drivers/net/ethernet/emulex/benet/be2net.ko license: GPL author: ServerEngines Corporation description: ServerEngines BladeEngine 10Gbps NIC Driver 4.2.220u version: 4.2.220u srcversion: 37BCB0144B22E0B05771D68 alias: pci:v000010DFd00000720sv*sd*bc*sc*i* alias: pci:v000010DFd0000E228sv*sd*bc*sc*i* alias: pci:v000010DFd0000E220sv*sd*bc*sc*i* alias: pci:v000019A2d00000710sv*sd*bc*sc*i* alias: pci:v000019A2d00000700sv*sd*bc*sc*i* alias: pci:v000019A2d00000221sv*sd*bc*sc*i* alias: pci:v000019A2d00000211sv*sd*bc*sc*i* depends: intree: Y vermagic: 3.2.0-4-amd64 SMP mod_unload modversions parm: num_vfs:Number of PCI VFs to initialize (uint) parm: rx_frag_size:Size of a fragment that holds rcvd data. (ushort) вот с редхата: # modinfo be2net filename: /lib/modules/2.6.32-431.1.2.el6.x86_64/kernel/drivers/net/benet/be2net.ko license: GPL author: Emulex Corporation description: Emulex OneConnect 10Gbps NIC Driver 4.6.62.0r version: 4.6.62.0r srcversion: 8DB7FB78A4381C3AFCF23D3 alias: pci:v000010DFd00000728sv*sd*bc*sc*i* alias: pci:v000010DFd00000720sv*sd*bc*sc*i* alias: pci:v000010DFd0000E228sv*sd*bc*sc*i* alias: pci:v000010DFd0000E220sv*sd*bc*sc*i* alias: pci:v000019A2d00000710sv*sd*bc*sc*i* alias: pci:v000019A2d00000700sv*sd*bc*sc*i* alias: pci:v000019A2d00000221sv*sd*bc*sc*i* alias: pci:v000019A2d00000211sv*sd*bc*sc*i* depends: vermagic: 2.6.32-431.1.2.el6.x86_64 SMP mod_unload modversions parm: num_vfs:Number of PCI VFs to initialize (uint) parm: multi_rxq:Obsolete and used only for compatibility (bool) parm: rx_frag_size:Size of a fragment that holds rcvd data. (ushort) что дальше?
  5. Т.е. есть у меня 4 очереди(вижу в /proc/interrupts), надо через /proc/irq/*/smp_affinity разрешить одной очереди обрабатываться на одном ядре, второй на втором и т.д., правильно? Слышал про него и есть в репозитории, только пока не пробовал, его просто ставишь и запускаешь и все делает сам? Так надо вначале узнать, что за модуль у меня? Я не знаю какой модуль за эту сетевуху отвечает. Не понял, что имелось ввиду? Поставить драйвера для MSI-edge нужно? Или то, что у меня сетевуха в MSI режиме работает, а нужен MSI-X ?
  6. Вот точно какая карта http://www.redbooks.ibm.com/abstracts/tips0844.html у меня embended вариант Вот тут http://www.emulex.com/artifacts/db7cf490-7c5a-4a7c-862b-4a0a1344d4c2/elx_ds_all_oc_vfaiii_systemx_ibm.pdf значится Architecture · Dual-channel, 10Gb/s Ethernet Link speed · PCIe Express 2.0 (x8, 5GT/s), MSI-X support · Integrated data buffer and code space memory
  7. Сетевуха вот такая Emulex Dual Port 10GbE SFP+ Embedded VFA III for IBM System x(сетевуха типа встроенной, ставилась как отдельный модуль на материнку, двухпортовая) Я не ставил драйвера, какие были в ядре - те и подошли А как узнать, какой модуль у моей сетевухи и какие у него есть параметры? Как проверить? П.С. выяснилась интересная вещь: # ls -1 /sys/class/net/eth1/queues/ rx-0 rx-1 rx-2 rx-3 rx-4 tx-0 # cat /proc/interrupts | grep eth1 118: 2140748214 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-q0 119: 152319516 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-q1 120: 1018353379 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0IR-PCI-MSI-edge eth1-q2 121: 72500850 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0IR-PCI-MSI-edge eth1-q3 у точно такой же сетевухи, на точно таком же сервере(оба сервера из одного заказа), но ОС не дебиан, а Red Hat Enterprise Linux Server release 6.5 (Santiago), как видим, уже четыре очереди, а не одна. Получается у редхата в ядро встроен какой-то более новый драйвер или он загружается с другими параметрами? Также, не смотря на 4 очереди, как видите, все прерывания обрабатываются на 0-ом ядре
  8. Имеется файловый сервер под управлением Debian 7 (samba), в задачи которого входит переодически раздавать один и тот же набор данных нескольким сотням клиентов(обычно 50-100Гб). Т.е. в час Х 300-400 клиентов(с 1Гбит линками) начинают хором тянуть одни и те же данные с сервера. Сервер аппаратно из себя представляет IBM x3650 M4, с двумя 6-ти ядерными процами на борту, итого с гипертредингом получается 24 ядра. Оперативной памяти 200Гб(для кеширования). Две сетевые платы(одна двухпортовая) по 10Гбит(Emulex OneConnect 10Gbps NIC), объединенные в bond-интерфейс, т.е. общая пропускная способность дожна быть около 20Гбит. Столкнулся с проблемой, что у меня грузится один процессор на 100% При этом на отдачу идет всего около 430мб/с дисковая подсистема не загружена вообще, все отдается из кеша в оперативке http://s3.hostingkartinok.com/uploads/images/2014/01/b17105032ff8a956e144a54eb51e0c79.png Из этого стало понятно, что дело в прерываниях http://s3.hostingkartinok.com/uploads/images/2014/01/c2e97a5d9482303ec311d1cedcdfbed3.png У сетевух по одной очереди на вход и выход # ls -1 /sys/class/net/eth1/queues/ rx-0 tx-0 Все прерывания обрабатываются на нулевом ядре: # cat /proc/interrupts | grep eth 130: 3374800647 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-q0 131: 3059637112 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth2-q0 Как в данном случае добиться производительности в 20Гбит? И откуда у bond-интерфейсов больше, чем одна очередь? # ls -1 /sys/class/net/bond0/queues/ rx-0 rx-1 rx-10 rx-11 rx-12 rx-13 rx-14 rx-15 rx-2 rx-3 rx-4 rx-5 rx-6 rx-7 rx-8 rx-9 tx-0 tx-1 tx-10 tx-11 tx-12 tx-13 tx-14 tx-15 tx-2 tx-3 tx-4 tx-5 tx-6 tx-7 tx-8 tx-9
  9. Так ширину канала freeradius определяет, он отдает атрибут, после переподключения клиента, скорость изменяется
  10. Спасибо, заработало. Остался один вопрос по радиусу, может кто знает: У меня пользователь test входит в группу users_unlim, этой группе заданы атрибуты(radgroupreply) PPPD-Downstream-Speed-Limit := 5000 PPPD-Upstream-Speed-Limit := 2000 и при этом пользователю test персонально(в таблицк radreply) заданы атрибуиты PPPD-Downstream-Speed-Limit := 512 PPPD-Upstream-Speed-Limit := 512 Почему юзер получает атрибуты группы, а не персональные? Если удалить атрибуты группы, юзер тогда получает персональные атрибуты.
  11. больше всего в таких случаях интересует лог коннекта с level=5 Вот: [2012-11-16 12:00:57]: debug: ppp52: lcp_layer_started [2012-11-16 12:00:57]: debug: ppp52: auth_layer_start [2012-11-16 12:00:57]: info: ppp52: send [MSCHAP-v2 Challenge id=1 <d61284cfbfd45d86bb6de1df04ffa9a>] [2012-11-16 12:00:57]: info: ppp52: recv [LCP Ident id=2 <MSRASV5.10>] [2012-11-16 12:00:57]: info: ppp52: recv [LCP Ident id=3 <MSRAS-0-WINXPEN>] [2012-11-16 12:00:57]: info: ppp52: recv [MSCHAP-v2 Response id=1 <f6fae4c188d5bdf65a3969b4d94d0a8>, <168b2e2accf9a9e6e4e0462a1e687612fb438dca85e38dde>, F=0, name="test"] [2012-11-16 12:00:58]: warn: ppp52: radius:packet: unknown attribute received (0,231) [2012-11-16 12:00:58]: warn: ppp52: radius:packet: unknown attribute received (0,230) [2012-11-16 12:00:58]: info: ppp52: send [MSCHAP-v2 Success id=1 "S=B5EBB64504F188C4CE8CAEB18CBDE04B03B86182 M=Authentication succeeded"] [2012-11-16 12:00:58]: debug: ppp52: auth_layer_started [2012-11-16 12:00:58]: debug: ppp52: ccp_layer_start [2012-11-16 12:00:58]: debug: ppp52: ipcp_layer_start [2012-11-16 12:00:58]: info: ppp52: send [iPCP ConfReq id=1 <addr 172.20.0.1>] [2012-11-16 12:00:58]: debug: ppp52: ipv6cp_layer_start [2012-11-16 12:00:58]: info: ppp52: test: authentication succeeded [2012-11-16 12:00:58]: info: ppp52: recv [CCP ConfReq id=4 <mppe -H -M -S -L -D +C>] [2012-11-16 12:00:58]: info: ppp52: send [CCP ConfReq id=1 <mppe -H -M -S -L -D -C>] [2012-11-16 12:00:58]: info: ppp52: send [CCP ConfNak id=4 <mppe -H -M -S -L -D -C>] [2012-11-16 12:00:58]: info: ppp52: recv [iPCP ConfReq id=5 <addr 0.0.0.0> <dns1 0.0.0.0> < 82 6 0 0 0 0 > <dns2 0.0.0.0> < 84 6 0 0 0 0 >] [2012-11-16 12:00:58]: info: ppp52: send [iPCP ConfRej id=5 < 82 6 0 0 0 0 > < 84 6 0 0 0 0 >] [2012-11-16 12:00:58]: info: ppp52: recv [iPCP ConfAck id=1 <addr 172.20.0.1>] [2012-11-16 12:00:58]: info: ppp52: recv [CCP ConfAck id=1 <mppe -H -M -S -L -D -C>] [2012-11-16 12:00:58]: info: ppp52: recv [CCP ConfReq id=6 <mppe -H -M -S -L -D -C>] [2012-11-16 12:00:58]: info: ppp52: send [CCP ConfAck id=6] [2012-11-16 12:00:58]: debug: ppp52: ccp_layer_started [2012-11-16 12:00:58]: info: ppp52: recv [iPCP ConfReq id=7 <addr 0.0.0.0> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:00:58]: info: ppp52: send [iPCP ConfNak id=7 <addr 172.22.0.14>] [2012-11-16 12:00:58]: info: ppp52: recv [iPCP ConfReq id=8 <addr 172.22.0.14> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:00:58]: info: ppp52: send [iPCP ConfAck id=8] [2012-11-16 12:00:58]: debug: ppp52: ipcp_layer_started [2012-11-16 12:00:58]: debug: ppp52: pppoe: ppp started [2012-11-16 12:00:58]: info: ppp52: pppd_compat: ip-up started (pid 12978) [2012-11-16 12:00:58]: info: ppp52: pppd_compat: ip-up finished (0) [2012-11-16 12:00:58]: info: pptp: new connection from 10.0.16.138 [2012-11-16 12:00:58]: info: : recv [PPTP Start-Ctrl-Conn-Request <Version 1> <Framing 1> <Bearer 1> <Max-Chan 0>] [2012-11-16 12:00:58]: info: : send [PPTP Start-Ctrl-Conn-Reply <Version 1> <Result 1> <Error 0> <Framing 3> <Bearer 3> <Max-Chan 1>] [2012-11-16 12:00:58]: info: : recv [PPTP Outgoing-Call-Request <Call-ID 0> <Call-Serial c3cc> <Min-BPS 300> <Max-BPS 100000000> <Bearer 3> <Framing 3> <Window-Size 64> <Delay 0>] [2012-11-16 12:00:58]: info: : send [PPTP Outgoing-Call-Reply <Call-ID 1ab> <Peer-Call-ID 0> <Result 1> <Error 0> <Cause 0> <Speed 100000000> <Window-Size 64> <Delay 0> <Channel 0>] [2012-11-16 12:00:58]: info: ppp53: connect: ppp53 <--> pptp(10.0.16.138) [2012-11-16 12:00:58]: debug: ppp53: lcp_layer_init [2012-11-16 12:00:58]: debug: ppp53: auth_layer_init [2012-11-16 12:00:58]: debug: ppp53: ccp_layer_init [2012-11-16 12:00:58]: debug: ppp53: ipcp_layer_init [2012-11-16 12:00:58]: debug: ppp53: ipv6cp_layer_init [2012-11-16 12:00:58]: debug: ppp53: ppp established [2012-11-16 12:00:58]: debug: ppp53: lcp_layer_start [2012-11-16 12:00:58]: info: ppp53: send [LCP ConfReq id=1 <auth MSCHAP-v2> <mru 1400> <magic 70c6a529>] [2012-11-16 12:00:58]: info: ppp53: recv [PPTP Set-Link-Info] [2012-11-16 12:00:58]: info: ppp53: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <mru 1400> <magic 70c6a529>] [2012-11-16 12:00:59]: info: ppp51: recv [LCP ConfReq id=1 <mru 1400> <magic 694d10e3> <pcomp> <accomp> < d 3 6 >] [2012-11-16 12:00:59]: info: ppp51: send [LCP ConfRej id=1 <pcomp> <accomp> < d 3 6 >] [2012-11-16 12:00:59]: info: ppp51: recv [LCP ConfReq id=2 <mru 1400> <magic 694d10e3>] [2012-11-16 12:00:59]: info: ppp51: send [LCP ConfAck id=2 ] [2012-11-16 12:01:00]: debug: ppp51: fsm timeout [2012-11-16 12:01:00]: info: ppp51: send [LCP ConfReq id=1 <auth MSCHAP-v2> <mru 1400> <magic 75c6c33a>] [2012-11-16 12:01:00]: info: ppp51: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <mru 1400> <magic 75c6c33a>] [2012-11-16 12:01:00]: debug: ppp51: lcp_layer_started [2012-11-16 12:01:00]: debug: ppp51: lcp_layer_started [2012-11-16 12:01:00]: debug: ppp51: auth_layer_start [2012-11-16 12:01:00]: info: ppp51: send [MSCHAP-v2 Challenge id=1 <727bc0beb76e2fbb72cc6e34c5949c7a>] [2012-11-16 12:01:00]: info: ppp51: recv [LCP Ident id=3 <MSRASV5.20>] [2012-11-16 12:01:00]: info: ppp51: recv [LCP Ident id=4 <MSRAS-0-SOLARNI>] [2012-11-16 12:01:00]: info: ppp51: recv [LCP Ident id=5 <..e ̿^_cK..&-.u..>] [2012-11-16 12:01:00]: info: ppp51: recv [PPTP Set-Link-Info] [2012-11-16 12:01:00]: info: ppp51: recv [MSCHAP-v2 Response id=1 <f58a77cd238680ed922ebb1865937011>, <3d62d58b97df8182a5b2731d4bb6a9e69928f71d18905f42>, F=0, name="Solarni"] [2012-11-16 12:01:00]: warn: ppp51: radius:packet: unknown attribute received (0,230) [2012-11-16 12:01:00]: warn: ppp51: radius:packet: unknown attribute received (0,231) [2012-11-16 12:01:00]: info: ppp51: send [MSCHAP-v2 Success id=1 "S=9F2D0DAE044AA21E07A5671C7F328EC86146BE38 M=Authentication succeeded"] [2012-11-16 12:01:00]: debug: ppp51: auth_layer_started [2012-11-16 12:01:00]: debug: ppp51: ccp_layer_start [2012-11-16 12:01:00]: debug: ppp51: ipcp_layer_start [2012-11-16 12:01:00]: info: ppp51: send [iPCP ConfReq id=1 <addr 172.20.0.1>] [2012-11-16 12:01:00]: debug: ppp51: ipv6cp_layer_start [2012-11-16 12:01:00]: info: ppp51: Solarni: authentication succeeded [2012-11-16 12:01:00]: info: ppp51: recv [CCP ConfReq id=6 <mppe +H -M +S -L -D -C> (mppe enabled)] [2012-11-16 12:01:00]: info: ppp51: send [CCP ConfReq id=1 <mppe +H -M +S -L -D -C>] [2012-11-16 12:01:00]: info: ppp51: send [CCP ConfAck id=6] [2012-11-16 12:01:00]: info: ppp51: recv [iPCP ConfReq id=7 <addr 0.0.0.0> <dns1 0.0.0.0> < 82 6 0 0 0 0 > <dns2 0.0.0.0> < 84 6 0 0 0 0 >] [2012-11-16 12:01:00]: info: ppp51: send [iPCP ConfRej id=7 < 82 6 0 0 0 0 > < 84 6 0 0 0 0 >] [2012-11-16 12:01:00]: info: ppp51: recv [iPCP ConfAck id=1 <addr 172.20.0.1>] [2012-11-16 12:01:00]: info: ppp51: recv [CCP ConfAck id=1 <mppe +H -M +S -L -D -C>] [2012-11-16 12:01:00]: debug: ppp51: ccp_layer_started [2012-11-16 12:01:00]: info: ppp51: recv [iPCP ConfReq id=8 <addr 0.0.0.0> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:01:00]: info: ppp51: send [iPCP ConfNak id=8 <addr 172.21.0.29>] [2012-11-16 12:01:00]: info: ppp51: recv [iPCP ConfReq id=9 <addr 172.21.0.29> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:01:00]: info: ppp51: send [iPCP ConfAck id=9] [2012-11-16 12:01:00]: debug: ppp51: ipcp_layer_started [2012-11-16 12:01:00]: debug: ppp51: pptp: ppp started [2012-11-16 12:01:00]: info: ppp51: pppd_compat: ip-up started (pid 13112) [2012-11-16 12:01:00]: info: ppp53: recv [LCP ConfReq id=1 <mru 1400> <magic 16ff2766> <pcomp> <accomp> < d 3 6 >] [2012-11-16 12:01:00]: info: ppp53: send [LCP ConfRej id=1 <pcomp> <accomp> < d 3 6 >] [2012-11-16 12:01:00]: info: ppp53: recv [LCP ConfReq id=2 <mru 1400> <magic 16ff2766>] [2012-11-16 12:01:00]: info: ppp53: send [LCP ConfAck id=2 ] [2012-11-16 12:01:00]: debug: ppp53: lcp_layer_started [2012-11-16 12:01:00]: debug: ppp53: auth_layer_start [2012-11-16 12:01:00]: info: ppp53: send [MSCHAP-v2 Challenge id=1 <8d67ee3e2d591ca08fd86f492280696>] [2012-11-16 12:01:00]: info: ppp53: recv [PPTP Set-Link-Info] [2012-11-16 12:01:00]: info: ppp53: recv [LCP Ident id=3 <MSRASV5.10>] [2012-11-16 12:01:00]: info: ppp53: recv [LCP Ident id=4 <MSRAS-0-HELEN>] [2012-11-16 12:01:00]: info: ppp53: recv [MSCHAP-v2 Response id=1 <cb93f619719425b6c5ba5e4a861057>, <bb788ae23e8b6760901f4faeaadbd3a364239f643afe9b91>, F=0, name="helen"] [2012-11-16 12:01:00]: info: ppp51: pppd_compat: ip-up finished (0) [2012-11-16 12:01:01]: warn: ppp53: radius:packet: unknown attribute received (0,230) [2012-11-16 12:01:01]: warn: ppp53: radius:packet: unknown attribute received (0,231) [2012-11-16 12:01:01]: info: ppp53: send [MSCHAP-v2 Success id=1 "S=D00EC444BA3C8292F2CCDA77704A2BE88323078D M=Authentication succeeded"] [2012-11-16 12:01:01]: debug: ppp53: auth_layer_started [2012-11-16 12:01:01]: debug: ppp53: ccp_layer_start [2012-11-16 12:01:01]: debug: ppp53: ipcp_layer_start [2012-11-16 12:01:01]: info: ppp53: send [iPCP ConfReq id=1 <addr 172.20.0.1>] [2012-11-16 12:01:01]: debug: ppp53: ipv6cp_layer_start [2012-11-16 12:01:01]: info: ppp53: helen: authentication succeeded [2012-11-16 12:01:01]: info: ppp53: recv [CCP ConfReq id=5 <mppe +H +M +S +L -D +C>] [2012-11-16 12:01:01]: info: ppp53: send [CCP ConfReq id=1 <mppe +H -M +S -L -D -C>] [2012-11-16 12:01:01]: info: ppp53: send [CCP ConfNak id=5 <mppe +H -M +S -L -D -C>] [2012-11-16 12:01:01]: info: ppp53: recv [iPCP ConfReq id=6 <addr 0.0.0.0> <dns1 0.0.0.0> < 82 6 0 0 0 0 > <dns2 0.0.0.0> < 84 6 0 0 0 0 >] [2012-11-16 12:01:01]: info: ppp53: send [iPCP ConfRej id=6 < 82 6 0 0 0 0 > < 84 6 0 0 0 0 >] [2012-11-16 12:01:01]: info: ppp53: recv [iPCP ConfAck id=1 <addr 172.20.0.1>] [2012-11-16 12:01:01]: info: ppp53: recv [CCP ConfAck id=1 <mppe +H -M +S -L -D -C>] [2012-11-16 12:01:01]: info: ppp53: recv [CCP ConfReq id=7 <mppe +H -M +S -L -D -C> (mppe enabled)] [2012-11-16 12:01:01]: info: ppp53: send [CCP ConfAck id=7] [2012-11-16 12:01:01]: debug: ppp53: ccp_layer_started [2012-11-16 12:01:01]: info: ppp53: recv [iPCP ConfReq id=8 <addr 0.0.0.0> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:01:01]: info: ppp53: send [iPCP ConfNak id=8 <addr 172.21.0.30>] [2012-11-16 12:01:01]: info: ppp53: recv [iPCP ConfReq id=9 <addr 172.21.0.30> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2012-11-16 12:01:01]: info: ppp53: send [iPCP ConfAck id=9] [2012-11-16 12:01:01]: debug: ppp53: ipcp_layer_started [2012-11-16 12:01:01]: debug: ppp53: pptp: ppp started [2012-11-16 12:01:01]: info: ppp53: pppd_compat: ip-up started (pid 13136) [2012-11-16 12:01:01]: info: ppp53: pppd_compat: ip-up finished (0) [2012-11-16 12:01:01]: debug: ppp29: recv [PPTP Echo-Request <Identifier 4>] [2012-11-16 12:01:01]: debug: ppp29: send [PPTP Echo-Reply <Identifier 4>] Сам увидел сейчас: [2012-11-16 12:00:58]: warn: ppp52: radius:packet: unknown attribute received (0,231) [2012-11-16 12:00:58]: warn: ppp52: radius:packet: unknown attribute received (0,230) Что не так, почему атрибут не известный? Или не достаточно в конфиге номер атрибута указать, надо в словарь еще добавлять?
  12. И как проверить, собрался ли он с поддержкой шейпера?
  13. должнок сожалению, ответа ровно столько сколько приложено информации... Ок, какая информация нужна? Собран accel вот так: cmake -DBUILD_DRIVER=FALSE -DCMAKE_INSTALL_PREFIX=/usr/local/accel-ppp -DCMAKE_BUILD_TYPE=Release -DLOG_PGSQL=FALSE -DSHAPER=TRUE -DRADIUS=TRUE /tmp/accel-ppp-1.7.2 Полный конфиг: [modules] log_file pptp l2tp pppoe auth_mschap_v2 auth_mschap_v1 auth_chap_md5 auth_pap radius ippool sigchld pppd_compat shaper [core] log-error=/var/log/accel-ppp/core.log thread-count=4 [ppp] verbose=3 min-mtu=1280 mtu=1400 mru=1400 single-session=replace check-ip=1 ipv4=require ipv6=deny ipv6-intf-id=0:0:0:1 ipv6-peer-intf-id=0:0:0:2 ipv6-accept-peer-intf-id=1 lcp-echo-interval=60 lcp-echo-failure=2 lcp-echo-timeout=5 [pptp] verbose=1 [pppoe] interface=eth0.1 interface=eth0.103 verbose=1 [l2tp] bind=xxxxxxxxxxx secret=string verbose=1 [radius] nas-identifier=accel-ppp nas-ip-address=127.0.0.1 gw-ip-address=10.10.10.1 server=127.0.0.1,xxxxxxxxx,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 dae-server=127.0.0.1:3799,xxxxxxxx verbose=0 timeout=2 max-try=1 acct-interim-interval=60 [client-ip-range] xxxxxxxx/x [ip-pool] gw-ip-address=172.20.0.1 attr=Framed-Pool 172.20.0.2-254,ippool_god_mode 172.20.1.1-254,ippool_admin_default 172.21.0.1-172.21.254.254,ippool_users_default 172.22.0.1-172.22.254.254,ippool_users_unlim 172.23.0.1-172.23.254.254,ippool_users_allports [log] log-file=/var/log/accel-ppp/accel-ppp.log log-emerg=/var/log/accel-ppp/emerg.log log-fail-file=/var/log/accel-ppp/auth-fail.log copy=1 level=8 [pppd-compat] ip-up=/etc/ppp/ip-up ip-down=/etc/ppp/ip-down ip-change=/etc/ppp/ip-change radattr-prefix=/var/run/radattr verbose=1 [shaper] attr-down=231 attr-up=230 down-burst-factor=0.1 up-burst-factor=1.0 latency=50 mpu=0 r2q=10 quantum=1500 cburst=1534 ifb=ifb0 up-limiter=htb down-limiter=htb leaf-qdisc=sfq perturb 10 verbose=8 [cli] telnet=127.0.0.1:2000 tcp=127.0.0.1:2001 [connlimit] limit=30/min burst=3 timeout=60
  14. Не работает шейпер, accel последний (1.7.2), собран с поддержкой шейпера. В радиус атрибуты добавлены: # cat /etc/freeradius/dictionary $INCLUDE /usr/share/freeradius/dictionary ATTRIBUTE PPPD-Upstream-Speed-Limit 230 integer ATTRIBUTE PPPD-Downstream-Speed-Limit 231 integer Он их, вроде, видит и отдает: # radtest test testtest 127.0.0.1 0 superSecret Sending Access-Request of id 81 to 127.0.0.1 port 1812 User-Name = "test" User-Password = "testtest" NAS-IP-Address = xxxxxxxxx NAS-Port = 0 rad_recv: Access-Accept packet from host 127.0.0.1 port 1812, id=81, length=64 PPPD-Downstream-Speed-Limit = 5000 PPPD-Upstream-Speed-Limit = 2000 Framed-IP-Netmask = 255.255.255.255 Framed-Protocol = PPP Framed-Pool = "ippool_users_unlim" В самом accel шейпер тоже настроен: [shaper] verbose=8 attr-up=230 attr-down=231 down-burst-factor=0.1 up-burst-factor=1.0 latency=50 mpu=0 r2q=10 quantum=1500 cburst=1534 ifb=ifb0 Но все равно, скорость в обе стороны у клиента более 20Мбит, что не так? В логах про шейпер ни слова, там вообще должно что-то быть?
  15. Почему может не работать шейпер? В какую сторону копать, что вообще смотреть?