Robot_NagNews Posted August 21, 2017 · Report post Материал: Рынок б/у оборудования в России в отличие от США и Европы еще только начинает складываться, однако и здесь уже появились свои серьезные игроки, которые могут предоставить необходимое качество и гарантии. Мы можем с уверенностью сказать, что НАГ со своим более чем двенадцатилетним опытом работы может обеспечить все необходимые гарантии и обеспечить надежность и бесперебойную работу оборудования. Полный текст Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
jffulcrum Posted August 21, 2017 · Report post > Как легко заметить, процессор X5650 выигрывает. А серверы на его базе обойдутся заметно дешевле. Господи, ребята, ну вы смотрите, КАК он выигрывает. PCMark 8 Home 3.0 ? OpenCL бенчмарк Compbench? Майнинг биткойнов? Да, именно этим будет заниматься сервер в телекоме. А лимит 256Гб памяти на процессор у X5650 не смущает? И в 2,5 раза большее эл/потребление в простое? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nphs Posted August 21, 2017 · Report post хлам Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 21, 2017 · Report post Сервера - не самое главное в телекомбизнесе :) Ну и бушный на вырост - не куплю. Хотя если сравнивать совершенно новые и одноразовые, с десятилетними - десятилетние сначала выигрывают, а затем - запчастей нету :( Где я найду дешево sas или scsi диск для сервера ? Сами сервера древние у меня отторжения не вызывают, я сторонник ибм (они почти вечны в тепличных условиях у меня), но диски таки дохнут. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 22, 2017 · Report post но диски таки дохнут. Есть такая беда. Поэтому я раскинул мозгами (в переносном смысле) и поставил везде и всюду SSD SATA + побольше RAM. Серверная платформа Dell C6100. Что это такое, сколько стоит в стоке и сколько на НАГе, думаю, каждый сможет сам найти. Комментарии тут без надобности. SSD оптимизированы под минимум записи - отключены всякие там журналирования, /var/log /var/run /tmp перенесены в tmpfs. В итоге на SSD пишется только SQL и иногда апгрейды софта. В такой конфигурации планирую срок службы без замены лет 10. За этот срок производительность железа скакнет достаточно, чтобы не жалко было полностью сменить всю серверную платформу на очередную "новую" б/у. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
jffulcrum Posted August 22, 2017 · Report post Где я найду дешево sas или scsi диск для сервера ? Любимая IBM продаст любой диск охотно, но цены... 300Gb SAS диск за USD1500, например. К счастью, спасают отечественные конторы вроде raidshop.ru и server-part.ru . Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 23, 2017 · Report post За этот срок производительность железа скакнет достаточно, чтобы не жалко было полностью сменить всю серверную платформу на очередную "новую" б/у. У меня есть наблюдения, что сата-диски служат не более 3х лет. Сасы от брендов - ну лет 10, но их ёмкость никуда не годится. К роли серверов в телекоме. Главная - непосредственно биллинг (очень щекотоливо), вторичные - всякие псевдоаналитиков-извращенцев, третичны - лвс провайдеров с бухгалтерией. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 24, 2017 · Report post У меня есть наблюдения, что сата-диски служат не более 3х лет. Сасы от брендов - ну лет 10, но их ёмкость никуда не годится. HDD умирает-то вовсе не от того, что у него там интерфейс сата а не сас или брэнд не торт. Он умирает от того, что от вращающихся дисков отделяются частички покрытия, засирается головка и начинает царапать поверхность. Далее процесс развивается лавинообразно. То есть корень всех проблем - наличие механики. У дорогих брендов просто механика вылизана получше, вот и живут чутка подольше в итоге, но природа рано или поздно все равно свое берет. У SSD нет механики, поэтому оно не умирает, не зависимо ни от интерфейса, ни от брэнда. Там другая проблема - ограниченность циклов записи. Если эту проблему порешать, то SSD живет в разы дольше HDD. И работает пошустрее, и буферов в RAM требует поменьше. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nuclearcat Posted August 24, 2017 · Report post nemo_lynx, у SSD свои проблемы. Например вы в курсе, если ваш SSD работал в холодной серверной, а потом вы сняли с него питание, и сервер находился в теплом месте (30 градусов, скажем, летом), то при включении через пару месяцев вы можете не обнаружить своих данных? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
s2n Posted August 24, 2017 · Report post НАГ со своим более чем двенадцатилетним опытом работы может обеспечить все необходимые гарантии и обеспечить надежность и бесперебойную работу оборудования При всем уважении к компании НАГ и ее более чем двенадцатилетнему опыту - настоятельно не рекомендую брать там б/у из чего-то штучно-дорогого. Максимум - коммутаторы доступа и т.п. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Умник Posted August 24, 2017 · Report post у SSD свои проблемы Дьявол в деталях. http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nuclearcat Posted August 24, 2017 · Report post Там в статье успокоительная пилюля для домашнего применения. Мы здесь говорим о промышленном применении, а не в компе у юзера, где как раз все факторы актуальны - тяжелые условия эксплуатации, охлаждение работающих систем, и возможность высокой температуры хранения на нерабочих системах. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 24, 2017 · Report post Там в статье успокоительная пилюля для домашнего применения. Мы здесь говорим о промышленном применении, а не в компе у юзера, где как раз все факторы актуальны - тяжелые условия эксплуатации, охлаждение работающих систем, и возможность высокой температуры хранения на нерабочих системах. Ага. А еще, если его окунуть в азотную кислоту, то он скорее всего тоже накроется. Так что давайте будем еще и этого бояться. Согласитесь, ведь у Вас есть ненулевая вероятность того, что в серверной будет стоять ведро с азотной кислотой, мимо которого криворукий сисадмин будет проносить оборудование. Вай, боюс боюс!!! Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 24, 2017 · Report post У SSD нет механики, поэтому оно не умирает, не зависимо ни от интерфейса, ни от брэнда. Там другая проблема - ограниченность циклов записи. Если эту проблему порешать, то SSD живет в разы дольше HDD. И работает пошустрее, и буферов в RAM требует поменьше. Ну и что мне для биллинга поставить ? Или для хранилища нетфлоу? Нормальная ОС сама может ничего не писать никуда, соотв ссд ей особо и не помешает, хотя если учесть скорость загрузки ОС на брендовом сервере(ибм долго-долго себя тестируют и инициализируют всякие рейды) - производительность ссд не очень поможет. Если учесть что перезагрузка возникает только в случае серьезной аварии по электро, раз в пару лет. Пока обхожусь всякими рейдами для биллинга, ну и кучей сата для всяких флоу и логов. Про дохлый hdd - у меня FreeBSD 3 недели жила с умершим диском, естественно логов не могла писать, только в консоли и увидел, не получив от неё писем дэйли. Хотя всё работало. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 24, 2017 · Report post При всем уважении к компании НАГ и ее более чем двенадцатилетнему опыту - настоятельно не рекомендую брать там б/у из чего-то штучно-дорогого. Максимум - коммутаторы доступа и т.п. Отчего так ? Работаем с нагом давно, с бу коммутаторами тоже, и с их родными железяками. Были и у них провалы с железом, но решается очень быстро. Сервера конечно берем не бу, а новые, возможно и в составе бандлов нага - скат например. А сервера выгоднее брать прямо у брэнда, там акции бывают, когда склад забит неюзанным но древноватым железом. ИБМ и ХП это делают. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nuclearcat Posted August 24, 2017 · Report post Ага. А еще, если его окунуть в азотную кислоту, то он скорее всего тоже накроется. Так что давайте будем еще и этого бояться. Согласитесь, ведь у Вас есть ненулевая вероятность того, что в серверной будет стоять ведро с азотной кислотой, мимо которого криворукий сисадмин будет проносить оборудование. Вай, боюс боюс!!! Я вам говорю о реальных условиях, а вы какую-то херню несете. 233 Media_Wearout_Indicator 0x0032 014 014 000 Old_age Always - 0 14% ресурса осталось, именно тот самый случай, SSD снимут и положат на полку 194 Temperature_Celsius 0x0022 025 049 000 Old_age Always - 25 (0 22 0 0 0) Температура достаточно низкая, учитывая что это нагруженный сервер. А на улице в тени +31, в неохлаждаемых помещениях в городе 40C. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 24, 2017 · Report post Ну так обслуживающий железяку инженегр голову имеет не только чтобы туда кушать и шапку надевать. Ну а кто сэкономил на правильных инженеграх - сам себе буратин. Пусть заодно боится еще и ведра с азотной кислотой, или меняет раз в 2 года HDD. П.С. у меня за 2 (два) года эксплуатации Media_Wearout_Indicator показывает 93% - это к слову о сроке эксплуатации SSD. И температуру в сервере я за это время не менял и менять как-то не собираюсь - это уже к слову о вероятности выхода SSD из строя. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 24, 2017 · Report post Ну и что мне для биллинга поставить ? Или для хранилища нетфлоу? Нормальная ОС сама может ничего не писать никуда, соотв ссд ей особо и не помешает, хотя если учесть скорость загрузки ОС на брендовом сервере(ибм долго-долго себя тестируют и инициализируют всякие рейды) - производительность ссд не очень поможет. Если учесть что перезагрузка возникает только в случае серьезной аварии по электро, раз в пару лет. Пока обхожусь всякими рейдами для биллинга, ну и кучей сата для всяких флоу и логов. Про дохлый hdd - у меня FreeBSD 3 недели жила с умершим диском, естественно логов не могла писать, только в консоли и увидел, не получив от неё писем дэйли. Хотя всё работало. У меня тоже когда-то биллинг был на рэйде, 2 диска в зеркале работали. Когда один диск навернулся, рэйд не знаю как тупо отзеркалил битую базу с погибшего диска на здоровый. С тех пор я на рэйды больше деньги не трачу. Подумал, подумал, и придумал - все должно быть в жопу просто, а значит - надежно, и одновременно в жопу дешево. И чтобы восстановить можно было без проблем максимум за час. В итоге сейчас работают 4 сервера. На всех одна и таже версия ОС с одинаковым набором софта. Просто на каждом сервере запущено из всего набора только необходимое (биллинг, DNS, DHCP, RADIUS и прочая херотень).Базы биллинга (и другая критичная инфа) просто раз в сутки бэкапятся со своего родного сервера на соседний. Аналогично, с соседнего сервера его БД и критичная инфа бэкапятся раз в сутки на сервер биллинга. У более-менее среднего ISP в любом случае всегда работает несколько серверов - нагрузку приходится распределять, разносить сервисы и т.п. Поэтому почему бы не хранить бэкапы отдельно от оригинала тупо на соседнем серваке? В случае краша бэкап всегда под рукой, развернуть его можно на любом из сервером, просто стартанув нужный софт и скормив ему нужный бэкап. А инфу за текущие сутки (про деньги, например) можно точно восстановить по доп.логам, либо просто всем простить если это не критично (статистику соединений, например). Так что вполне себе можно жить и без рэйда на обычных SATA SSD - скорости и емкости хватает за уши. П.С, и кстати, фловы хранить нет никакого смысла после сдачи СОРМ-3. Ибо оно там хранится в более чем подробном виде. И в подписанном протоколе с Товарищами Офицерами указано, что по всем вопросам о трафике всех вопрошающих направлять к ним. И это логично. Зачем еще хранить после этого свои фловы? Дублировтаь СОРМы, в которые миллионы вбуханы? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 24, 2017 · Report post П.С, и кстати, фловы хранить нет никакого смысла после сдачи СОРМ-3. Ибо оно там хранится в более чем подробном виде. И в подписанном протоколе с Товарищами Офицерами указано, что по всем вопросам о трафике всех вопрошающих направлять к ним. И это логично. Зачем еще хранить после этого свои фловы? Дублировтаь СОРМы, в которые миллионы вбуханы? Про бакапы - так и работает. Про флоу, у нас есть до сих пор помегабайтники, которые иногда хотят детализацию. А иногда приходит дикое письмо от кашников например. А сорм3шники с коллегами не делятся, и даже с прокуратурой и фскн. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nuclearcat Posted August 24, 2017 · Report post Ну так обслуживающий железяку инженегр голову имеет не только чтобы туда кушать и шапку надевать. Ну а кто сэкономил на правильных инженеграх - сам себе буратин. Пусть заодно боится еще и ведра с азотной кислотой, или меняет раз в 2 года HDD. П.С. у меня за 2 (два) года эксплуатации Media_Wearout_Indicator показывает 93% - это к слову о сроке эксплуатации SSD. И температуру в сервере я за это время не менял и менять как-то не собираюсь - это уже к слову о вероятности выхода SSD из строя. 93% значит лишь то, что у вас SSD толком не используется. У меня вышеуказанные цифры на SSD который работает в качестве кеша. Если его открутить - в принципе ничего страшного не произойдет, только отзывчивость упадет и некоторая аналитика будет генерироваться только скопом - ночью. А учитывать все факторы надо, в т.ч. температуру в сервере. Если у вас полтора сервера в стойке и вообще это все не из вашего кармана, и у вас зарплата - то в принципе наплевать, да, причем на многое. Когда у вас несколько контор, которым вы осуществляете полную поддержку, ваша цифра "вот бюджет - и в него надо сделать надежное решение", и потом за счет бюджета (или при просчете - свой собственный) в т.ч. гарантийную замену в определенный срок и любая сэкономленная копеечка ложится вам в карман, сразу учишься считать и учитывать все факторы. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nuclearcat Posted August 24, 2017 · Report post Поэтому почему бы не хранить бэкапы отдельно от оригинала тупо на соседнем серваке? В случае краша бэкап всегда под рукой, развернуть его можно на любом из сервером, просто стартанув нужный софт и скормив ему нужный бэкап. А инфу за текущие сутки (про деньги, например) можно точно восстановить по доп.логам, либо просто всем простить если это не критично (статистику соединений, например). Так что вполне себе можно жить и без рэйда на обычных SATA SSD - скорости и емкости хватает за уши. У бекапа есть стоимость операционного хранения. Если держать всё "на горячую" каждые лишние 100 ватт - это лишние ~300 евро в Германии в год только на электричество, а если посчитать полностью - надо под это рассчитывать операционные расходы и капиталовложения на кондиционирование, на системы бесперебойного питания и т.п. В вышеописанном вами случае наверное лучше держать малопотребляющий NAS с софтрейдом, чем постоянно включенный сервер. Если биллинг не на горячем подхвате (а у вас раз в сутки бекап - однозначно не на горячем), то достаточно ему проводить самопроверку и апдейт данных раз в неделю или месяц, а более оперативные данные скидывать на NAS. Хотя конечно не все факторы известны, чтоб сказать точно. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 25, 2017 · Report post Хотя конечно не все факторы известны, чтоб сказать точно. Главный фактор - бесперебойность для клиентов, для меня конечно. И мне в общем всё равно, сколько это будет стоить для конторы в финансовых потерях. Я закладываюсь на всё возможное, в т.ч. самая главная траблема - внеплановая потеря питания на несколько часов. И хер с биллингом, починим-посчитаем-прослезимся. Пусть пока клиенты бесплатно работают. Но коммутаторы узла сети просто должны питаться всегда, ну и бордер конечно. Так что и ибп и складской резерв железа - уже олл инклюзив. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
nemo_lynx Posted August 26, 2017 · Report post Коллеги, тут вообще-то про "сэконд хэнд" трындеж предполагается. А вы все демагогию и софистику философию развели... Вот ИБП я бы сэкондовое не стал брать. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
YuryD Posted August 26, 2017 · Report post Вот ИБП я бы сэкондовое не стал брать. Легко, древние ИБП имеют дикие ресурсы. Естесвтенно акб менять и калибровать. Неоднократно брал и на авито, АПС 1-2-3 квт, вполне адекватны. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
jffulcrum Posted August 28, 2017 · Report post Цитата Легко, древние ИБП имеют дикие ресурсы Это пока в первый раз не столкнешься с залипающими реле. Питание пропало, а релюшку источенную заклинило - привет. Релюхи поменять - еще найди такие же, да и это уже полной переборкой пахнет. Тут же вздутые кондеры находятся, а то и расслоение платы... Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...