Перейти к содержимому
Калькуляторы

Unifi на Ubuntu под ESXi У кого есть опыт работы?

Здравствуйте, есть ли у кого опыт внедрения? Интересует ресурсоемкость платформы Unifi (RAM, CPU ..). Планирую поднять на Ubuntu под ESXi, удобно - можно доп сервисов для сети навешать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Висит виртуалка дома на пять точек : kvm, 256 оперативки, одно виртуальное ядро (проц i5-2500). В общем-то оно ничего почти не потребляет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Поднимали под debian на atom и 2гб оперативки. Крутили с десяток точек и более 200 клиентов. Контроллер + роутинг.

 

Сначала использовали esxi и внутри гостевой системы приземлялись meoip туннели, но когда попробовали передать qinq, то обломались. Переехали на kvm+proxmox. Теперь все отлично...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Есть такой зверек. Больше сотни точек л3 коннектед через нат. Выделили ему два ядра и гига 4 памяти. В среднем кушает гигабайт памяти и по загрузке проца процентов на 30-40. Из проблем сталкивались только с местом на винте - мало выделили первоначально и монга за пару-тройку лет забила жалкие 8гбайт винта. Пришлось добавлять. Ах да. Среднее дневное количество клиентов на точках под пол тысячи

Изменено пользователем t1bur1an

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Спасибо большое за информацию!

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да какая разница, на чем? UniFi все равно под ява-машиной работает.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да какая разница, на чем? ...

 

Не согласен. Когда внедрение беспроводного доступа требует установки оборудования с полноценной ОС (называйте как хотите, суть в не "железном" решении), удобнее крутить на той, где можно поднять доп сервисы для той-же сети (мониторинг, rsyslog, tftp/ftp и прочее).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Столкнулся с проблемой, когда после указания в скрипте запуска -Xmx512M процесс все равно запускается с параметром -Xmx1024M и со временем вываливается. Нашел по этому поводу ветку на форуме ubnt. Увеличил RAM с 512 до 1024 Мб.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте, есть ли у кого опыт внедрения? Интересует ресурсоемкость платформы Unifi (RAM, CPU ..). Планирую поднять на Ubuntu под ESXi, удобно - можно доп сервисов для сети навешать.
сразу придумайте способ чистить говно в mongodb. а то лично у меня она разжирела до 16 гигов. :D озу тоже жрать любит: гига полтора-два легко сожрет и не подавится. хотя зависит наверно от холичества точек и аргументов запуска жавы.

ну и как сказал Иван Ванко в ЖЧ2: "твой софт - говно". это относится к убнт в полной мере, а к унифай контроллеру на 292%. но вроде работает.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Повысил RAM на VDS до 2Г, все равно сжирает. Отключил Guest Control - стало нормально, работает, не виснет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У нас вот такая сетка крутится на вот такой виртуалке. Проблем нет, живет в виртуалке с 20 гб диска, 512 мб памяти и одном ядре Xeon E5506.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У нас вот такая сетка крутится на вот такой виртуалке. Проблем нет, живет в виртуалке с 20 гб диска, 512 мб памяти и одном ядре Xeon E5506.

Какое максимальное количество юзеров было?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Штук 400 одновременно. Правда там все терминируется на L3-свитче, там же DHCP relay. Нат на отдельном тазике. На виртуалке только управление точками и DHCP, куда релеятся запросы. Сейчас вот что в топе

Вот что говорит слатистика в контроллере:

http://prntscr.com/3301rk

http://prntscr.com/330221

Изменено пользователем megahertz0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В подопечной гостинице такой же вариант, но последние пару дней начались проблемы. С явой. Жрет проц на 100 и гиг памяти. Управление недоступно. Лечится только килом явы и перезапуском унифи, или полным ребутом)

Лог с ошибками:

[2014-03-18 05:11:06,287] <devmgr-timer> WARN devmgr - [state] dev[MAC] CONNECTED->HEARTBEAT_MISSED, state_expire=0
[2014-03-18 05:11:32,029] <http-8080-9> ERROR Http11Protocol - Error reading request, ignored
[2014-03-18 05:16:36,298] <http-8080-16> ERROR Http11Protocol - Error reading request, ignored
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:16:28,142] <http-8080-19> ERROR Http11Protocol - Error reading request, ignored
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:15:47,733] <ContainerBackgroundProcessor[standardEngine[Catalina]]> ERROR ContainerBase - Exception invoking periodic operation:
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:15:43,690] <http-8080-Acceptor-0> ERROR JIoEndpoint - Error allocating socket processor
java.lang.OutOfMemoryError: Java heap space

 

За последние пару дней заметил "стабильность" - отваливается в 2-3 часа ночи. В зарубежном коммьюнити данная проблема тоже появилось недавно, но решения нету.

 

Нагрузка нулевая - 8 точек и до 2 десятков клиентов.

Изменено пользователем DeLL

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В подопечной гостинице такой же вариант, но последние пару дней начались проблемы. С явой. Жрет проц на 100 и гиг памяти. Управление недоступно. Лечится только килом явы и перезапуском унифи, или полным ребутом)

Лог с ошибками:

[2014-03-18 05:11:06,287] <devmgr-timer> WARN devmgr - [state] dev[MAC] CONNECTED->HEARTBEAT_MISSED, state_expire=0
[2014-03-18 05:11:32,029] <http-8080-9> ERROR Http11Protocol - Error reading request, ignored
[2014-03-18 05:16:36,298] <http-8080-16> ERROR Http11Protocol - Error reading request, ignored
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:16:28,142] <http-8080-19> ERROR Http11Protocol - Error reading request, ignored
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:15:47,733] <ContainerBackgroundProcessor[standardEngine[Catalina]]> ERROR ContainerBase - Exception invoking periodic operation:
java.lang.OutOfMemoryError: Java heap space
[2014-03-18 05:15:43,690] <http-8080-Acceptor-0> ERROR JIoEndpoint - Error allocating socket processor
java.lang.OutOfMemoryError: Java heap space

 

За последние пару дней заметил "стабильность" - отваливается в 2-3 часа ночи. В зарубежном коммьюнити данная проблема тоже появилось недавно, но решения нету.

 

Нагрузка нулевая - 8 точек и до 2 десятков клиентов.

У нас есть ультрахардкор внедрение на 200+ точек. Контроллер + НАТ крутятся на Xeon E3-1240 V2 и 8 Гб памяти. Ява сжирает максимум 6% памяти, монгодб - 25-30%, проц на скриншоте. Аптайм - 3 месяца, до этого был полгода. Перезагрузили по причине обновления ядра. Трафик до 200 мбит, до 2200 уникальных клиентов в сутки. Контроллер 2.4.6-1884, дебиан 7.

 

У вас скорее все всего стоит слишком маленький java heap size, либо на хосте маловато памяти.

Изменено пользователем megahertz0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Памяти 2 гига, до критического никогда не доходило. До этого аптайм был месяцами (релиз 2,4,6 был в октябре) и все отлично работало, да и нагрузка бывало побольше была, а тут раз в сутки вылетает....

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Попробуйте экспортировать конфиг и переустановить заново контроллер, aprirude purge и все такое.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Решил пойти другим путем. Начал восстанавливать последние события в изменениях настроек контроллера. В промежутке времени от 2 недель до 2 месяцев назад я изменял таймер авторизации гостей. Сначала с 8 часов до 24, потом до 7 дней. При этом проблема с нехваткой памяти у явы проявилась не сразу.

Изменил таймер опять на 8 часов. В течении следующих двух суток контроллер опять упал 2 раза примерно в тоже время, что и раньше падал. На третьи сутки он остался жив и пока еще живет)

Значит где-то проблема с утечкой памяти у контроллера или у явы.

Сеть снова работает, я доволен)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А нам помогло ubuntu server 12.04 на 13.10 сменить.

Память в куче заканчивалась через 20 минут после старта.

 

Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А нам помогло ubuntu server 12.04 на 13.10 сменить.

Память в куче заканчивалась через 20 минут после старта.

 

Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно.

В All clients если поставить год показывает всех кто подключался?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А нам помогло ubuntu server 12.04 на 13.10 сменить.

Память в куче заканчивалась через 20 минут после старта.

 

Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно.

 

Как решаете вопрос с распуханием mongodb? Чистка вручную?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно.

Как решаете вопрос с распуханием mongodb? Чистка вручную?

 

prune1.js:

dryrun=false;

use ace;
collectionNames = db.getCollectionNames();
for (i=0; i<collectionNames.length; i++) {
name = collectionNames[i];
query = null;
if (name.indexOf('alarm')==0 || name.indexOf('event')==0) {
 query = {time: {$lt:new Date().getTime()-4*86400*1000}};
}
if (name.indexOf('stat.hourly')==0) {
 query = {time: {$lt:new Date().getTime()-2*86400*1000}};
}
if (name.indexOf('stat')==0) {
 query = {time: {$lt:new Date().getTime()-35*86400*1000}};
}
if (name.indexOf('session')==0) {
 query = {assoc_time: {$lt:new Date().getTime()/1000-30*86400}};
}
if (name.indexOf('user')==0) {
 query = {last_seen: {$lt:new Date().getTime()/1000-30*86400}};
}

if (query) {
 count = db.getCollection(name).find(query).count();
 print((dryrun ? "[dryrun] " : "") + "pruning " + count + " entries from " + name + "... ");
 if (!dryrun)
   db.getCollection(name).remove(query);
}
}

if (!dryrun) db.repairDatabase();

 

mongo --port=27117 < /root/prune1.js

Раз в сутки по крону.

Изменено пользователем Дегтярев Илья

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

mongo --port=27117 < /root/prune1.js

Раз в сутки по крону.

Известный костыль от UBNT... Вроде в v3 сделали автоматическую очистку?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.