a-zazell Опубликовано 14 января, 2014 · Жалоба Здравствуйте, есть ли у кого опыт внедрения? Интересует ресурсоемкость платформы Unifi (RAM, CPU ..). Планирую поднять на Ubuntu под ESXi, удобно - можно доп сервисов для сети навешать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sexst Опубликовано 14 января, 2014 · Жалоба Висит виртуалка дома на пять точек : kvm, 256 оперативки, одно виртуальное ядро (проц i5-2500). В общем-то оно ничего почти не потребляет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zhenya` Опубликовано 14 января, 2014 · Жалоба debian лучше.. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sexst Опубликовано 14 января, 2014 · Жалоба Те же яйца. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dmvy Опубликовано 14 января, 2014 · Жалоба Поднимали под debian на atom и 2гб оперативки. Крутили с десяток точек и более 200 клиентов. Контроллер + роутинг. Сначала использовали esxi и внутри гостевой системы приземлялись meoip туннели, но когда попробовали передать qinq, то обломались. Переехали на kvm+proxmox. Теперь все отлично... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t1bur1an Опубликовано 15 января, 2014 (изменено) · Жалоба Есть такой зверек. Больше сотни точек л3 коннектед через нат. Выделили ему два ядра и гига 4 памяти. В среднем кушает гигабайт памяти и по загрузке проца процентов на 30-40. Из проблем сталкивались только с местом на винте - мало выделили первоначально и монга за пару-тройку лет забила жалкие 8гбайт винта. Пришлось добавлять. Ах да. Среднее дневное количество клиентов на точках под пол тысячи Изменено 15 января, 2014 пользователем t1bur1an Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
a-zazell Опубликовано 15 января, 2014 · Жалоба Спасибо большое за информацию! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alibek Опубликовано 15 января, 2014 · Жалоба Да какая разница, на чем? UniFi все равно под ява-машиной работает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
a-zazell Опубликовано 15 января, 2014 · Жалоба Да какая разница, на чем? ... Не согласен. Когда внедрение беспроводного доступа требует установки оборудования с полноценной ОС (называйте как хотите, суть в не "железном" решении), удобнее крутить на той, где можно поднять доп сервисы для той-же сети (мониторинг, rsyslog, tftp/ftp и прочее). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
a-zazell Опубликовано 19 марта, 2014 · Жалоба Столкнулся с проблемой, когда после указания в скрипте запуска -Xmx512M процесс все равно запускается с параметром -Xmx1024M и со временем вываливается. Нашел по этому поводу ветку на форуме ubnt. Увеличил RAM с 512 до 1024 Мб. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pfexec Опубликовано 19 марта, 2014 · Жалоба Здравствуйте, есть ли у кого опыт внедрения? Интересует ресурсоемкость платформы Unifi (RAM, CPU ..). Планирую поднять на Ubuntu под ESXi, удобно - можно доп сервисов для сети навешать.сразу придумайте способ чистить говно в mongodb. а то лично у меня она разжирела до 16 гигов. :D озу тоже жрать любит: гига полтора-два легко сожрет и не подавится. хотя зависит наверно от холичества точек и аргументов запуска жавы.ну и как сказал Иван Ванко в ЖЧ2: "твой софт - говно". это относится к убнт в полной мере, а к унифай контроллеру на 292%. но вроде работает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
a-zazell Опубликовано 21 марта, 2014 · Жалоба Повысил RAM на VDS до 2Г, все равно сжирает. Отключил Guest Control - стало нормально, работает, не виснет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 21 марта, 2014 · Жалоба У нас вот такая сетка крутится на вот такой виртуалке. Проблем нет, живет в виртуалке с 20 гб диска, 512 мб памяти и одном ядре Xeon E5506. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SSD Опубликовано 21 марта, 2014 · Жалоба У нас вот такая сетка крутится на вот такой виртуалке. Проблем нет, живет в виртуалке с 20 гб диска, 512 мб памяти и одном ядре Xeon E5506. Какое максимальное количество юзеров было? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 22 марта, 2014 (изменено) · Жалоба Штук 400 одновременно. Правда там все терминируется на L3-свитче, там же DHCP relay. Нат на отдельном тазике. На виртуалке только управление точками и DHCP, куда релеятся запросы. Сейчас вот что в топе Вот что говорит слатистика в контроллере: http://prntscr.com/3301rk http://prntscr.com/330221 Изменено 22 марта, 2014 пользователем megahertz0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DeLL Опубликовано 22 марта, 2014 (изменено) · Жалоба В подопечной гостинице такой же вариант, но последние пару дней начались проблемы. С явой. Жрет проц на 100 и гиг памяти. Управление недоступно. Лечится только килом явы и перезапуском унифи, или полным ребутом) Лог с ошибками: [2014-03-18 05:11:06,287] <devmgr-timer> WARN devmgr - [state] dev[MAC] CONNECTED->HEARTBEAT_MISSED, state_expire=0 [2014-03-18 05:11:32,029] <http-8080-9> ERROR Http11Protocol - Error reading request, ignored [2014-03-18 05:16:36,298] <http-8080-16> ERROR Http11Protocol - Error reading request, ignored java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:16:28,142] <http-8080-19> ERROR Http11Protocol - Error reading request, ignored java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:15:47,733] <ContainerBackgroundProcessor[standardEngine[Catalina]]> ERROR ContainerBase - Exception invoking periodic operation: java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:15:43,690] <http-8080-Acceptor-0> ERROR JIoEndpoint - Error allocating socket processor java.lang.OutOfMemoryError: Java heap space За последние пару дней заметил "стабильность" - отваливается в 2-3 часа ночи. В зарубежном коммьюнити данная проблема тоже появилось недавно, но решения нету. Нагрузка нулевая - 8 точек и до 2 десятков клиентов. Изменено 22 марта, 2014 пользователем DeLL Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 22 марта, 2014 (изменено) · Жалоба В подопечной гостинице такой же вариант, но последние пару дней начались проблемы. С явой. Жрет проц на 100 и гиг памяти. Управление недоступно. Лечится только килом явы и перезапуском унифи, или полным ребутом) Лог с ошибками: [2014-03-18 05:11:06,287] <devmgr-timer> WARN devmgr - [state] dev[MAC] CONNECTED->HEARTBEAT_MISSED, state_expire=0 [2014-03-18 05:11:32,029] <http-8080-9> ERROR Http11Protocol - Error reading request, ignored [2014-03-18 05:16:36,298] <http-8080-16> ERROR Http11Protocol - Error reading request, ignored java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:16:28,142] <http-8080-19> ERROR Http11Protocol - Error reading request, ignored java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:15:47,733] <ContainerBackgroundProcessor[standardEngine[Catalina]]> ERROR ContainerBase - Exception invoking periodic operation: java.lang.OutOfMemoryError: Java heap space [2014-03-18 05:15:43,690] <http-8080-Acceptor-0> ERROR JIoEndpoint - Error allocating socket processor java.lang.OutOfMemoryError: Java heap space За последние пару дней заметил "стабильность" - отваливается в 2-3 часа ночи. В зарубежном коммьюнити данная проблема тоже появилось недавно, но решения нету. Нагрузка нулевая - 8 точек и до 2 десятков клиентов. У нас есть ультрахардкор внедрение на 200+ точек. Контроллер + НАТ крутятся на Xeon E3-1240 V2 и 8 Гб памяти. Ява сжирает максимум 6% памяти, монгодб - 25-30%, проц на скриншоте. Аптайм - 3 месяца, до этого был полгода. Перезагрузили по причине обновления ядра. Трафик до 200 мбит, до 2200 уникальных клиентов в сутки. Контроллер 2.4.6-1884, дебиан 7. У вас скорее все всего стоит слишком маленький java heap size, либо на хосте маловато памяти. Изменено 22 марта, 2014 пользователем megahertz0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DeLL Опубликовано 22 марта, 2014 · Жалоба Памяти 2 гига, до критического никогда не доходило. До этого аптайм был месяцами (релиз 2,4,6 был в октябре) и все отлично работало, да и нагрузка бывало побольше была, а тут раз в сутки вылетает.... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 22 марта, 2014 · Жалоба Попробуйте экспортировать конфиг и переустановить заново контроллер, aprirude purge и все такое. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DeLL Опубликовано 25 марта, 2014 · Жалоба Решил пойти другим путем. Начал восстанавливать последние события в изменениях настроек контроллера. В промежутке времени от 2 недель до 2 месяцев назад я изменял таймер авторизации гостей. Сначала с 8 часов до 24, потом до 7 дней. При этом проблема с нехваткой памяти у явы проявилась не сразу. Изменил таймер опять на 8 часов. В течении следующих двух суток контроллер опять упал 2 раза примерно в тоже время, что и раньше падал. На третьи сутки он остался жив и пока еще живет) Значит где-то проблема с утечкой памяти у контроллера или у явы. Сеть снова работает, я доволен) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Дегтярев Илья Опубликовано 25 марта, 2014 · Жалоба А нам помогло ubuntu server 12.04 на 13.10 сменить. Память в куче заканчивалась через 20 минут после старта. Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SSD Опубликовано 26 марта, 2014 · Жалоба А нам помогло ubuntu server 12.04 на 13.10 сменить. Память в куче заканчивалась через 20 минут после старта. Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно. В All clients если поставить год показывает всех кто подключался? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 26 марта, 2014 · Жалоба А нам помогло ubuntu server 12.04 на 13.10 сменить. Память в куче заканчивалась через 20 минут после старта. Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно. Как решаете вопрос с распуханием mongodb? Чистка вручную? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Дегтярев Илья Опубликовано 26 марта, 2014 (изменено) · Жалоба Сеть из 280 точек, 2,5k пользователей в среднем в день, до 1200 онлаин одновременно. Как решаете вопрос с распуханием mongodb? Чистка вручную? prune1.js: dryrun=false; use ace; collectionNames = db.getCollectionNames(); for (i=0; i<collectionNames.length; i++) { name = collectionNames[i]; query = null; if (name.indexOf('alarm')==0 || name.indexOf('event')==0) { query = {time: {$lt:new Date().getTime()-4*86400*1000}}; } if (name.indexOf('stat.hourly')==0) { query = {time: {$lt:new Date().getTime()-2*86400*1000}}; } if (name.indexOf('stat')==0) { query = {time: {$lt:new Date().getTime()-35*86400*1000}}; } if (name.indexOf('session')==0) { query = {assoc_time: {$lt:new Date().getTime()/1000-30*86400}}; } if (name.indexOf('user')==0) { query = {last_seen: {$lt:new Date().getTime()/1000-30*86400}}; } if (query) { count = db.getCollection(name).find(query).count(); print((dryrun ? "[dryrun] " : "") + "pruning " + count + " entries from " + name + "... "); if (!dryrun) db.getCollection(name).remove(query); } } if (!dryrun) db.repairDatabase(); mongo --port=27117 < /root/prune1.js Раз в сутки по крону. Изменено 26 марта, 2014 пользователем Дегтярев Илья Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
megahertz0 Опубликовано 26 марта, 2014 · Жалоба mongo --port=27117 < /root/prune1.js Раз в сутки по крону. Известный костыль от UBNT... Вроде в v3 сделали автоматическую очистку? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...