nsa2006 Опубликовано 22 декабря, 2015 · Жалоба Было одно сильное изменение с 1.9 на 1.10 - детали здесь: Спасибо, получилось! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
_longhorn_ Опубликовано 22 декабря, 2015 · Жалоба Но кто мне объяснит смысл переписывания memset(sk_pppox(po) + 1, 0, sizeof(struct pppox_sock) - sizeof(struct sock)); ??? скорее - просто подстраховка, чтобы при race condition (когда воркер инициализирует соединение, прервав на средине дисконект) не потерлись нужные поля... Доброго здоровья! Как с новыми патчами, падает ли?) И у меня падает... Пробовал на одном 4.1.13 с патчем, на другом 4.1.15, там патч уже частично включен. Оба жили долго и счастливо и умерли в один день :) Откатился на 3.14.58 на обоих покаместь... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nsa2006 Опубликовано 22 декабря, 2015 (изменено) · Жалоба А кто что скажет по этой теме? https://accel-ppp.org/forum/viewtopic.php?f=10&t=545 Что то обновление до 1.10 не решило проблему поедания soft-irq, на аналогичных брасах терминирующих PPPoE такой нагрузки не наблюдаю. Изменено 22 декабря, 2015 пользователем nsa2006 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
hsvt Опубликовано 22 декабря, 2015 · Жалоба https://accel-ppp.org/forum/viewtopic.php?f=10&t=545&sid=f263106d29f76a81a50ebd3a5eacb8db&start=10#p1875 так еще оказывается из-за unit-cache accel не сможет рестартиться и перезагружаться, что сейчас уже и заметно на 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0. Хотя тут советовали как раз ставить в 1000 или 2000 unit-cache. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 22 декабря, 2015 · Жалоба А кто что скажет по этой теме? https://accel-ppp.org/forum/viewtopic.php?f=10&t=545 Что то обновление до 1.10 не решило проблему поедания soft-irq, на аналогичных брасах терминирующих PPPoE такой нагрузки не наблюдаю. Я решил проблему апгрейдом сервера :) А так да, есть где-то узкое место в accel + IPoE. PPPoE сервера на том же железе у меня потребляют в 2-3 раза меньше ресурсов. Возможно dhcp relay так ресурсы кушает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 30 декабря, 2015 (изменено) · Жалоба Здравствуйте. Появился еще вопрос - почему может грузиться только одно ядро? Прерывания раскинуты по ядрам. Изменено 30 декабря, 2015 пользователем myth Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
_longhorn_ Опубликовано 30 декабря, 2015 · Жалоба Здравствуйте. Появился еще вопрос - почему может грузиться только одно ядро? Прерывания раскинуты по ядрам. У вас PPPoE или IPoE? Если IPoE то используете ли QinQ? В данном случае это очень важно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 30 декабря, 2015 (изменено) · Жалоба Здравствуйте. Появился еще вопрос - почему может грузиться только одно ядро? Прерывания раскинуты по ядрам. У вас PPPoE или IPoE? Если IPoE то используете ли QinQ? В данном случае это очень важно. PPPoE. Потоков в конфиге 4 Изменено 30 декабря, 2015 пользователем myth Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
_longhorn_ Опубликовано 30 декабря, 2015 (изменено) · Жалоба Здравствуйте. Появился еще вопрос - почему может грузиться только одно ядро? Прерывания раскинуты по ядрам. У вас PPPoE или IPoE? Если IPoE то используете ли QinQ? В данном случае это очень важно. PPPoE. Потоков в конфиге 4 Тогда включайте RPS и RFS, должно помочь. Какая сетевая карта используется? Изменено 30 декабря, 2015 пользователем _longhorn_ Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 30 декабря, 2015 (изменено) · Жалоба Интел с 4 совмещенными очередями. И сразу извиняюсь за дурацкий вопрос - а ссылочку можно? Беглое чтение гугла показало, что да - это то, что нужно. _longhorn_, спасибо, разобрался, все заработало как нужно Изменено 30 декабря, 2015 пользователем myth Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
_longhorn_ Опубликовано 30 декабря, 2015 · Жалоба Интел с 4 совмещенными очередями Создайте количество очередей равное количеству ядер одного CPU. Например, Вы используете 4-х ядерный CPU, значит и количество векторов прерываний создайте 4. Привяжите каждый вектор вручную к каждому ядру и попробуйте включить RPS, затем можете попробовать добавить RFS, должно помочь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 31 декабря, 2015 · Жалоба _longhorn_, спасибо еще раз. Вчера лимита не хватило. Все заработало. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 7 января, 2016 (изменено) · Жалоба Всем привет! Возник вопрос относительно auth avg query time(5m/1m): 1007/1000 ms Биллинг - Abills. Движок базы - InnoDB. Нормально ли это? Прикладываю график с самописного плагина для мунина, дергающего "show stat". Провал вниз - с выдернутым линком из сетевухи Изменено 7 января, 2016 пользователем myth Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 7 января, 2016 · Жалоба похоже что норма. у меня тоже около 1 сек. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 7 января, 2016 · Жалоба Это что ж там за база и запросы у абиллса такие кривожуткие? У меня 1/0 ms показывает, на весьма нагруженном сервере. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 7 января, 2016 · Жалоба хз не заморачивался профайлингом, работает - и ладно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
banec Опубликовано 7 января, 2016 · Жалоба Вопрос как избежать падения сервиса когда радиус не доступен? А то если сервер с радиусом перезагрузить accel-pptp падает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 8 января, 2016 · Жалоба Вопрос как избежать падения сервиса когда радиус не доступен? А то если сервер с радиусом перезагрузить accel-pptp падает. странно, у меня не падали. настройте coredump, сделайте трейсы... или вы имеете ввиду что пользователи с брасов осыпаются? так укажите acct-timeout=0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
banec Опубликовано 10 января, 2016 · Жалоба судя по мониту то сервис был жив, а сессии сбросились. acct-timeout стояло 120 - поставил 0 хотя может стоит поставить просто по больше время. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 11 января, 2016 (изменено) · Жалоба Недавно появилась проблема - accel начинает активно потреблять cache. Мегабайт по 10 в 5 минут. С чем это может быть связано? Предположительно после arp флуда в сети Изменено 11 января, 2016 пользователем myth Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
banec Опубликовано 11 января, 2016 · Жалоба а по kill -HUP пид - конфиг аккел перечитывает? чтоб не рестартовать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 11 января, 2016 · Жалоба banec А смысл? reload в консоли конфиг перечитывает без рестарта. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 11 января, 2016 · Жалоба Недавно появилась проблема - accel начинает активно потреблять cache. Мегабайт по 10 в 5 минут. С чем это может быть связано? Предположительно после arp флуда в сети точно accel-ppp виноват? т.к. cache - это кеш прочитанных файлов. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 11 января, 2016 · Жалоба Вроде как больше нечему - на этом сервере ничего кроме него и munin-node не стоит... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nuclearcat Опубликовано 11 января, 2016 · Жалоба munin-node возможно пробегает по списку интерфейсов? к примеру может быть какой-то race condition или знатный баг как у net-snmp, что ppp интерфейсы увеличивают ifindex с каждым новым интерфейсом, а в net-snmp память о старых не высвобождалась... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...