roysbike Опубликовано 19 июня, 2014 · Жалоба roysbike http://lists.freeradius.org/pipermail/freeradius-users/2008-January/024806.html - не то? Спасибо, помогли! Оно самое, выпилил атрибуте Framed-IP-Address. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nik247 Опубликовано 20 июня, 2014 (изменено) · Жалоба xeb Обновился до коммита 30397cca6a4472f3087d1071ecc43438e39f705f. В списке show sessions висят сессии с state finish. Так и должно быть? При этом на сервере расплодились zombie-процессы: #ps aux | grep Z root 11241 0.0 0.0 0 0 ? Z 11:12 0:00 [ip-up] <defunct> root 11272 0.0 0.0 0 0 ? Z 11:12 0:00 [ip-up] <defunct> #pstree -p -s 11241 init(1)───accel-pppd(3069)───ip-up(11241) #ps aux | grep Z | wc -l 231 Сам столкнулся с подобной проблемой "зомби ip-up/ip-down" на последних сборках. Вы что-то нашли? По моим тестам вчера с разными моими сборками выяснил, что проблема вылезла где-то так: 0b3e64e4b056cf6b17c4bdc45100c11bcc116e8d - 2014-05-15 11:12:41 - бага еще нету c317ff519717c5c9f0513b85bb7d10ba084c74e9 - 2014-05-20 08:18:43 - баг есть с этой и до последней версии с git. Как только появляется первый "зомби", то дальше уже как снежный ком начинается.... Изменено 20 июня, 2014 пользователем nik247 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
911 Опубликовано 20 июня, 2014 · Жалоба Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool. а как биллинг узнает, какой ип выдал accel? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nik247 Опубликовано 20 июня, 2014 (изменено) · Жалоба Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool. а как биллинг узнает, какой ип выдал accel? А ему в Accounting придет: Framed-IP-Address=10.102.5.48 Я вообще всю динамику через пулы на accel делаю. В биллинге только белые статические, если нужно. Изменено 20 июня, 2014 пользователем nik247 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
h1vs2 Опубликовано 20 июня, 2014 · Жалоба VENDOR Microsoft 311 ATTRIBUTE MS-Primary-DNS-Server 28 ipaddr ATTRIBUTE MS-Secondary-DNS-Server 29 ipaddr Подскажите, что-то надо дополнительно сделать, чтобы оно работало ? Если в конфиге установлены днс руками - берет из конфига, если нет - вообще не выдает днс. Вот лог : 2014-06-20 16:32:03]: info: eth2.1500.3001: recv [RADIUS(1) Access-Accept id=1 <DHCP-Router-IP-Address:241 192.168.14.250> <Framed-IP-Address:8 192.168.14.61> <DHCP-Mask:242 255.255.255.0> <Filter-Id:11 "50000/50000"> <Acct-Interim-Interval:85 60><Microsoft:28 MS-Primary-DNS-Server 172.16.5.2><Microsoft:29 MS-Secondary-DNS-Server 172.16.5.1>] Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 20 июня, 2014 (изменено) · Жалоба Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool. а как биллинг узнает, какой ип выдал accel? Auth-Type := Accept и в acct прилетает IP P.S. увидел , что уже ответили Изменено 20 июня, 2014 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 23 июня, 2014 (изменено) · Жалоба VENDOR Microsoft 311 ATTRIBUTE MS-Primary-DNS-Server 28 ipaddr ATTRIBUTE MS-Secondary-DNS-Server 29 ipaddr Подскажите, что-то надо дополнительно сделать, чтобы оно работало ? Если в конфиге установлены днс руками - берет из конфига, если нет - вообще не выдает днс. Вот лог : 2014-06-20 16:32:03]: info: eth2.1500.3001: recv [RADIUS(1) Access-Accept id=1 <DHCP-Router-IP-Address:241 192.168.14.250> <Framed-IP-Address:8 192.168.14.61> <DHCP-Mask:242 255.255.255.0> <Filter-Id:11 "50000/50000"> <Acct-Interim-Interval:85 60><Microsoft:28 MS-Primary-DNS-Server 172.16.5.2><Microsoft:29 MS-Secondary-DNS-Server 172.16.5.1>] Информации в мануале не нашёл, может как то так /etc/accel-pppd.conf [dns] dns1=MS-Primary-DNS-Server dns2=MS-Secondary-DNS-Server PS/ проверил, как то странно заработало, точнее не заработало. [2014-06-23 10:44:05]: info: eth1: recv [DHCPv4 Request xid=1686f3e1 ciaddr=192.168.39.95 chaddr=c8:3a:35:d8:f3:42 <Message-Type Request> <Client-ID 01c83a35d8f342> <Host-Name 18bfa0c4b5694e9> <Option-81 0000003138626661306334623536393465392e> <Vendor-Class 4d53465420352e30> <Request-List Subnet,Domain-Name,Router,DNS,44,46,47,31,Route,249,Vendor-Specific> <Vendor-Specific dc0100>] [2014-06-23 10:44:05]: info: eth1: send [DHCPv4 Ack xid=1686f3e1 ciaddr=192.168.39.95 yiaddr=192.168.39.95 chaddr=c8:3a:35:d8:f3:42 <Message-Type Ack> <Server-ID 192.168.39.254> <Lease-Time 30> <Router 192.168.39.254> <Subnet 255.255.255.0> <DNS 255.255.255.255,255.255.255.255>] Выдаёт 255.255.255.255,255.255.255.255, радиусом передаю 8.8.8.8 и 8.8.4.4. Изменено 23 июня, 2014 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
atarget Опубликовано 23 июня, 2014 (изменено) · Жалоба Вылез неприятный баг в ipoe Обновил версию на коммит d5776039b12c3c1016b3bb6ccede69bacf23ae1e - получил два краша за день. Логов нету вообще - как будто асель взял и завершился сам. Что самое интересное - падает он на двух серверах сразу, при том, что на одном из них сессий нет вообще. На коммите ec41e172a9da0de7cf5c28027928c698d0d1ebf8 все работало стабильно. Режим работы L2+dvcpv4+opt82 Еще один момент - может кому полезно будет. У нас GePon сеть и на голове BDCOM P3310B есть крайне не приятная особенность - снуппинг отрабатывает корректно только с первым пакетом, в остальных опт82 просто не вставляется и ассель естественно решеат, что сменили порт (там в файле accel-pppd/ctrl/ipoe/ipoe.c есть эта проверка - я тупо закоментил =) ) /* if (pack->relay_agent && !opt82_match) { log_ppp_info2("port change detected\n"); if (pack->msg_type == DHCPREQUEST) dhcpv4_send_nak(dhcpv4, pack); triton_context_call(ses->ctrl.ctx, (triton_event_func)__ipoe_session_terminate, &ses->ses); return; }*/ Изменено 23 июня, 2014 пользователем atarget Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 23 июня, 2014 · Жалоба dmesg. там скорее всего segfault, включайте запись корок, пересобирайте в дебаге, ждите падения, смотрите что скажет gdb и отправляйте разработчику Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DMiTRONiK Опубликовано 24 июня, 2014 · Жалоба Начали разбираться с акселем, столкнулись с проблемой балансировки сетевых карт. В сервер стоят карты на чипе Intel 82576 На картах настроено по умолчанию 8 очередей на вход и 8 на выход. Если на карте eth6 которая смотрит на верх в сторону бордера все красиво ethtool -S eth6 | grep pack rx_packets: 710787 tx_packets: 273748 tx_queue_0_packets: 1894 tx_queue_1_packets: 2 tx_queue_2_packets: 38 tx_queue_3_packets: 271769 tx_queue_4_packets: 23 tx_queue_5_packets: 15 tx_queue_6_packets: 7 tx_queue_7_packets: 0 rx_queue_0_packets: 23334 rx_queue_1_packets: 164886 rx_queue_2_packets: 32003 rx_queue_3_packets: 22989 rx_queue_4_packets: 220295 rx_queue_5_packets: 25014 rx_queue_6_packets: 72344 rx_queue_7_packets: 149922 То на карте eth2 в сторону пользователей все грустно и трафик идет в одну очередь. ethtool -S eth2 | grep pack rx_packets: 26853 tx_packets: 21591 tx_queue_0_packets: 0 tx_queue_1_packets: 0 tx_queue_2_packets: 0 tx_queue_3_packets: 0 tx_queue_4_packets: 0 tx_queue_5_packets: 18258 tx_queue_6_packets: 3333 tx_queue_7_packets: 0 rx_queue_0_packets: 26853 rx_queue_1_packets: 0 rx_queue_2_packets: 0 rx_queue_3_packets: 0 rx_queue_4_packets: 0 rx_queue_5_packets: 0 rx_queue_6_packets: 0 rx_queue_7_packets: 0 Accel настроен в режиме ip-unnumbered с QinQ, адрес навешен на lo, s-vlan подымается при старте системы, c-vlan разворачивается по приходу пакета от пользователя. Часть конфига [ipoe] verbose=1 username=ifname lease-time=1800 max-lease-time=1800 attr-dhcp-client-ip=Framed-IP-Address attr-dhcp-router-ip=DHCP-Router-IP-Address attr-dhcp-mask=DHCP-Mask #attr-l4-redirect=L4-Redirect shared=0 proxy-arp=0 proto=100 ifcfg=0 mode=L2 gw-ip-address=1хх.1уу.200.1/21 start=dhcpv4 vlan-timeout=60 vlan-name=%I.%N ippool=dhcp-subs vlan-mon=re:eth2\.3[0-9][0-9][0-9],101-750 interface=re:eth2\.3[0-9][0-9][0-9].[1-7][0-9][0-9] Скажите у всех такая картина или надо что-то делать? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 24 июня, 2014 (изменено) · Жалоба rx_packets: 26853 tx_packets: 21591 tx_queue_0_packets: 0 tx_queue_1_packets: 0 tx_queue_2_packets: 0 tx_queue_3_packets: 0 tx_queue_4_packets: 0 tx_queue_5_packets: 18258 tx_queue_6_packets: 3333 tx_queue_7_packets: 0 rx_queue_0_packets: 26853 rx_queue_1_packets: 0 rx_queue_2_packets: 0 rx_queue_3_packets: 0 rx_queue_4_packets: 0 rx_queue_5_packets: 0 rx_queue_6_packets: 0 rx_queue_7_packets: 0 Мы делаем бондинг и на циске баланс по src mac. На тех же 82576. И такой картины не встречал. Может это именно из за QinQ,думаю что с этим связано. Вот как на tg3 97: 4 0 661334180 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge eno3-0 98: 4 0 0 3723360137 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge eno3-1 99: 4 0 0 0 3450006883 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge eno3-2 100: 4 0 0 0 0 3495931365 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge eno3-3 101: 4 0 0 0 0 0 3443633639 0 0 0 0 0 0 0 0 0 PCI-MSI-edge eno3-4 102: 4 0 0 0 0 0 0 660350681 0 0 0 0 0 0 0 0 PCI-MSI-edge eno4-0 103: 4 0 0 0 0 0 0 0 3719245830 0 0 0 0 0 0 0 PCI-MSI-edge eno4-1 104: 4 0 0 0 0 0 0 0 0 3426087961 0 0 0 0 0 0 PCI-MSI-edge eno4-2 105: 4 0 0 0 0 0 0 0 0 0 3496566350 0 0 0 0 0 PCI-MSI-edge eno4-3 106: 4 0 0 0 0 0 0 0 0 0 0 3478172548 0 0 0 0 PCI-MSI-edge eno4-4 Жду 10g карточку. А вот статистика без использования QinQ NAS ~ # ethtool -S eth1 | grep pack rx_packets: 151217980109 tx_packets: 148824209916 tx_queue_0_packets: 9177052 tx_queue_1_packets: 148796774772 tx_queue_2_packets: 9187061 tx_queue_3_packets: 9071034 rx_queue_0_packets: 36439305484 rx_queue_1_packets: 37379645396 rx_queue_2_packets: 38522997233 rx_queue_3_packets: 38876017300 NAS ~ # ethtool -S eth0 | grep pack rx_packets: 147263687734 tx_packets: 148824820178 tx_queue_0_packets: 9174037 tx_queue_1_packets: 148797390200 tx_queue_2_packets: 9183730 tx_queue_3_packets: 9072193 rx_queue_0_packets: 37416425869 rx_queue_1_packets: 35704161648 rx_queue_2_packets: 39702010188 rx_queue_3_packets: 34441073574 Изменено 24 июня, 2014 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 24 июня, 2014 · Жалоба На броадкомах(bnx2) у нас нормально очереди работают с qinq. У интеля вероятно чудеса из-за qinq, та же ситуация что и с pppoe. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DMiTRONiK Опубликовано 24 июня, 2014 · Жалоба У интеля вероятно чудеса из-за qinq, та же ситуация что и с pppoe. Похоже на то, интересно как остальные работают. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
purecopper Опубликовано 24 июня, 2014 · Жалоба DMiTRONiK Используем 82576 - проблемы нет. rx_packets: 154101761413 tx_packets: 171018345935 tx_queue_0_packets: 18345 tx_queue_1_packets: 170515159938 tx_queue_2_packets: 104 tx_queue_3_packets: 2835 tx_queue_4_packets: 17948 tx_queue_5_packets: 2002768 tx_queue_6_packets: 1957 tx_queue_7_packets: 501142039 rx_queue_0_packets: 152279719913 rx_queue_1_packets: 121751423 rx_queue_2_packets: 146339102 rx_queue_3_packets: 125527301 rx_queue_4_packets: 99218429 rx_queue_5_packets: 100465722 rx_queue_6_packets: 1096985048 rx_queue_7_packets: 131419071 ИМХО, проблема точно не в accel-ppp. Может проблема в драйвере? Попробуйте обновить отсюда: http://sourceforge.net/projects/e1000/files/igb%20stable/ Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 24 июня, 2014 (изменено) · Жалоба DMiTRONiK Используем 82576 - проблемы нет. rx_packets: 154101761413 tx_packets: 171018345935 tx_queue_0_packets: 18345 tx_queue_1_packets: 170515159938 tx_queue_2_packets: 104 tx_queue_3_packets: 2835 tx_queue_4_packets: 17948 tx_queue_5_packets: 2002768 tx_queue_6_packets: 1957 tx_queue_7_packets: 501142039 rx_queue_0_packets: 152279719913 rx_queue_1_packets: 121751423 rx_queue_2_packets: 146339102 rx_queue_3_packets: 125527301 rx_queue_4_packets: 99218429 rx_queue_5_packets: 100465722 rx_queue_6_packets: 1096985048 rx_queue_7_packets: 131419071 ИМХО, проблема точно не в accel-ppp. Может проблема в драйвере? Попробуйте обновить отсюда: http://sourceforge.net/projects/e1000/files/igb%20stable/ Ну вы хоть сами свои данные просмотрите. Работает только 0 очередь, на остальных на порядок-два меньше трафика - очереди не работают. Естественно accel не при чем, виноват кривой драйвер интела. Изменено 24 июня, 2014 пользователем kayot Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 24 июня, 2014 · Жалоба Dimka88 ваш вопрос вообще никакого отношения к accel не имеет. всё что касается форвардинга, аппаратных очередей и т.п. - в тему linux softrouter Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
purecopper Опубликовано 24 июня, 2014 (изменено) · Жалоба kayot Упс, да, не доглядел :( Upd igb 5.2.5 так же не помогает. Изменено 24 июня, 2014 пользователем purecopper Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 24 июня, 2014 · Жалоба RPS задействовать только... О, вопрос автору: а можно ли управление RPS прикрутить к акселю? Или проще не заморачиваться а скриптами рулить? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DMiTRONiK Опубликовано 24 июня, 2014 · Жалоба Возник другой вопрос. accel-ppp version 1.8.0. Схема ip-unnumbered с QinQ При наращивании абонентов, сильно начала расти загрузка. Вывод perf top 78.19% [ipoe] [k] 0x00000000000008c9 2.52% [kernel] [k] cpu_startup_entry 1.00% [igb] [k] igb_poll 0.57% [kernel] [k] _raw_spin_lock_irqsave Такая картина при 400 абонентах онлайн с суммарным трафиком в 100 Мб Вот еще вывод топа %Cpu0 : 0,0 us, 0,0 sy, 0,0 ni, 92,7 id, 0,0 wa, 0,0 hi, 7,3 si, 0,0 st %Cpu1 : 0,0 us, 0,0 sy, 0,0 ni, 99,0 id, 0,0 wa, 0,0 hi, 1,0 si, 0,0 st %Cpu2 : 0,0 us, 0,0 sy, 0,0 ni, 88,5 id, 0,0 wa, 0,0 hi, 11,5 si, 0,0 st %Cpu3 : 0,0 us, 0,0 sy, 0,0 ni, 98,1 id, 0,0 wa, 0,0 hi, 1,9 si, 0,0 st %Cpu4 : 0,0 us, 0,0 sy, 0,0 ni, 68,4 id, 0,0 wa, 0,0 hi, 31,6 si, 0,0 st %Cpu5 : 0,3 us, 0,3 sy, 0,0 ni, 98,7 id, 0,0 wa, 0,0 hi, 0,7 si, 0,0 st %Cpu6 : 0,0 us, 0,4 sy, 0,0 ni, 94,8 id, 0,0 wa, 0,0 hi, 4,8 si, 0,0 st %Cpu7 : 0,0 us, 0,0 sy, 0,0 ni, 93,5 id, 0,0 wa, 0,0 hi, 6,5 si, 0,0 st KiB Mem: 16463148 total, 508932 used, 15954216 free, 38276 buffers Кто-то сталкивался с подобным? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 25 июня, 2014 (изменено) · Жалоба Dimka88 ваш вопрос вообще никакого отношения к accel не имеет. всё что касается форвардинга, аппаратных очередей и т.п. - в тему linux softrouter Я то тут причём? У меня все работает, вы наверное невнимательно прочитали. Я никаких вопрос по IRQ не задавал, а как факт привёл свои статистики. Изменено 25 июня, 2014 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 25 июня, 2014 (изменено) · Жалоба Господа, помогите вспомнить, где-то тут это было. После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено? А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер. Изменено 25 июня, 2014 пользователем Abram Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 25 июня, 2014 · Жалоба DMiTRONiK Соберите с дебагом как минимум модуль ядра, для информативности... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
911 Опубликовано 25 июня, 2014 · Жалоба Господа, помогите вспомнить, где-то тут это было. После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено? А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер. а зачем pppd_compat? народ, а чего http://sourceforge.net/apps/trac/accel-ppp/wiki/IPoE_ru не открывается? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 25 июня, 2014 · Жалоба Господа, помогите вспомнить, где-то тут это было. После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено? А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер. а зачем pppd_compat? Хитрый шейпер, в котором не режутся и приоритезируются некоторые подсети. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
cREoz Опубликовано 27 июня, 2014 (изменено) · Жалоба Здравствуйте, подскажите, пожалуйста, искал тут, но не нашел. Хочу использовать accel-ppp в качестве PPPoE терминатора вместе с зоопарком роутеров Cisco. Поставил accel-ppp-1.8.0_wheezy_amd64.deb с sf.net, все настроил по ману и примерам из темы. Столкнулся с несколькими проблемами: в биллинг (на RADIUS сервер) не прилетает атрибут NAS-Port-Id так же отсутствует Cisco-AVPair (client-mac-address) список DNS серверов из биллинга приходит в таком формате Cisco-AVPair="ip:dns-servers=172.16.0.1 172.18.0.1" и до клиента не доходит. Какие есть варианты назначения DNS из биллинга? при подключении клиента в логах появляется сообщение warn: ppp0: radius: MS-MPPE-Recv-Key: incorrect attribute length (16) warn: ppp0: radius: MS-MPPE-Send-Key: incorrect attribute length (16) Кто виноват? Это можно игнорировать? Изменено 27 июня, 2014 пользователем cREoz Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...