ilia_2s Опубликовано 4 января, 2009 · Жалоба В стойке 45 юнитов (то есть до 45 серверов).Ну это-то как раз понятно :) Про контракт не понял.Ну, зараз обычно сколько покупают одним куском? en mass, так сказать:) 800 Стоек это нормально, особенно если смотреть на перспективы. Главное не сколько стоек, а какие условия и поддержка. Примеры интересуют?Нормально для чего? Слов "нормально" - оно вообще странное. Вот я для своего возраста чувствую себя нормально. Но хорошо ли я себя при этом чувствую? Примеры - интересуют очень! Хотя я думаю что нет смысла арендовать больше 1\2 стойки, т.к. свою стойку проще разместить и обслуживать самому, тут уже встанет вопрос об аренде каналов.Спорно, очень спорно! А три своих стойки? А двадцать? Вы считаете, что площадки нужны лишь тем, кому некуда приткнуть пару серверов? Так как раз пару серверов можно просто бросить под стол :) Площадки нужны тем, кто не хочет просто кинуть под стол пару серверов. Пример такой, если у вас 2-3 стойки это с товарищем пивка попить и договориться о размещении, включая поддержку, о как! А вот 20-30 - 800 это как раз нормально, то есть свое строить - под вопросом ну и товарищ врятли согласиться. Если счет идет на сотни и тысячи, то это уже скорее свой дата-центрик, ну скажем так 800 стоек но все мои, мой персонал, мои договоры это уже много. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zoro Опубликовано 4 января, 2009 · Жалоба В стойке 45 юнитов (то есть до 45 серверов). Про контракт не понял. Это как до 100 мегабит у провайдера, коммутатор то хоть 1 должен быть на стойку, розеточные блоки. При желании можно конечно и на тыльной стороне все это разместить, но что-то я сомневаюсь в удобстве обслуживания таких стоек. Короче одними серверами стойку забить можно, но делать так не стоит. 800 Стоек это нормально, особенно если смотреть на перспективы. Главное не сколько стоек, а какие условия и поддержка. Примеры интересуют? Про контракт я понял, что Прохожий спрашивает сколько максимум юнитов запросил арендатор. Хотя я думаю что нет смысла арендовать больше 1\2 стойки, т.к. свою стойку проще разместить и обслуживать самому, тут уже встанет вопрос об аренде каналов. Ну вообще-то розеточные блоки лучше размещать сзади, "жопа"сервера-- розетк/а(и), да и коммутатор возможно не нужен, но патчпанели все равно нужны, плюс IP-KVM 2-3 вершка, 45 вершков не полностью будут забиты даже если все располагать на задней стороне. Насчет аренды полностью своей стойки и шкафа я думаю мало перспективно, так как кому будет нужна такая услуга им действительно легче найти свои собственные прямые каналы, это даже в нашей глубинке становится видно, аренда 1-2х вершка в стойке- ОК, 4-вершка начинают просить скидку, 1/2 стойки уже наглеют в плане скидок, 1 стойка - уже притянули 2 канала от разных провайдера и разместили все оборудование у себя в своём "датацентре". Так что я думаю если и требуется шкаф, то только там, где есть Прямые выходы на крупные магистральные операторы. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Дятел Опубликовано 4 января, 2009 · Жалоба Аренда это аренда, а услуга это услуга. Я, например, не пропущу договор, в котором аренда будет названа услугой. Ибо это разные главы ГК. Как там в бухгалтерии? "Оплата товаров и услуг". Под товары не попадает, значит - услуга ))) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Прохожий Опубликовано 4 января, 2009 · Жалоба Пример такой, если у вас 2-3 стойки это с товарищем пивка попить и договориться о размещении, включая поддержку, о как!Ага, правда поддержка будет жидкая - как пиво. Товарищ товарищем, но девять квадратов и десять киловатт - это уже за гранью попить пивка. Если счет идет на сотни и тысячи, то это уже скорее свой дата-центрик, ну скажем так 800 стоек но все мои, мой персонал, мои договоры это уже много.Тут в первую очередь вопрос эффективности. То есть формулируется так: может ли такая технологическая площадка быть в разы более эффективна экономически, чем эксплуатация собственного датацентра на 200-300 стоек? Насчет аренды полностью своей стойки и шкафа я думаю мало перспективно, так как кому будет нужна такая услуга им действительно легче найти свои собственные прямые каналы, это даже в нашей глубинке становится видно, аренда 1-2х вершка в стойке- ОК, 4-вершка начинают просить скидку, 1/2 стойки уже наглеют в плане скидок, 1 стойка - уже притянули 2 канала от разных провайдера и разместили все оборудование у себя в своём "датацентре".Вам ехать быстро, дешево или безопасно? Вопрос критичности системы в чистом виде. Если нужна высокая надежность - то обеспечение ее в рамках одной стойки будет в удельном выражении дороже на порядок. А если пофигу - да ставьте вы себе эти стойки в гипрочных выгородках и недублированным кондиционером из магазина Эльдорадо... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zoro Опубликовано 4 января, 2009 · Жалоба Насчет аренды полностью своей стойки и шкафа я думаю мало перспективно, так как кому будет нужна такая услуга им действительно легче найти свои собственные прямые каналы, это даже в нашей глубинке становится видно, аренда 1-2х вершка в стойке- ОК, 4-вершка начинают просить скидку, 1/2 стойки уже наглеют в плане скидок, 1 стойка - уже притянули 2 канала от разных провайдера и разместили все оборудование у себя в своём "датацентре".Вам ехать быстро, дешево или безопасно? Вопрос критичности системы в чистом виде. Если нужна высокая надежность - то обеспечение ее в рамках одной стойки будет в удельном выражении дороже на порядок. А если пофигу - да ставьте вы себе эти стойки в гипрочных выгородках и недублированным кондиционером из магазина Эльдорадо... к сожалению это не комне :( это клиентам надо говорить, но с чем столкнулся то и имеем... даже имеем пример того что клиент поставил шкаф в кладовке, поставил два кондиционера, поставил ОПС, по телефону идет резервный канал ADSL от ЮТК, там-же и ОПС, телефон для связи... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
woddy Опубликовано 4 января, 2009 · Жалоба а это уже задачи маркетингового отдела ;) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlexBT Опубликовано 5 января, 2009 · Жалоба Тут в первую очередь вопрос эффективности. То есть формулируется так: может ли такая технологическая площадка быть в разы более эффективна экономически, чем эксплуатация собственного датацентра на 200-300 стоек?Вопрос конечно интересный.А попробуем совместно посчитать? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lip Опубликовано 5 января, 2009 · Жалоба Тут в первую очередь вопрос эффективности. То есть формулируется так: может ли такая технологическая площадка быть в разы более эффективна экономически, чем эксплуатация собственного датацентра на 200-300 стоек?Вопрос конечно интересный.А попробуем совместно посчитать? Алекс! Посчитать можно, но это будет не то что некорректный расчет, а просто абстрактный. На АЗЛК простаивающая и боеспособная подстанция на 20 МВт. В другом районе Москвы обеспечить питание для дата-центра очень и очень проблематично. В расчет положишь цену элетричества для того района где строишься, а в результате получишь еще и охрененные капзатры (хорошо еще если только их). :(( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Sonne Опубликовано 5 января, 2009 · Жалоба Каие 45 юнитов под завязку? Теплоотвод хорошей стойки - 10 Квт. 20 Квт это уже за гранью высоких технологий и очень дорого. Типовой сервер сегодня с кучей ксеонов - 500 Вт. Вот и получучаем что 20 юнитов серверов это максимум сегодня, а за 40 юнитов серверов заплатишь дороже чем 2x20. На М9 вобще больше 5 квт выбить - усраться. Исходя из различных требований к энергетике должно быть четкое разделение на телехаусы и датацентры. Если делать это в одном месте, то хотя бы разделять на уровне залов. Если на АЗЛК простаивает подстанция, то быть ему ЦОДом и не париться. Вот только продавать пора не место в стойке и юниты, а место + киловатты. Это хоть немного начнет технический прогресс в нужную сторону ориентирорвать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lip Опубликовано 5 января, 2009 · Жалоба Вот только продавать пора не место в стойке и юниты, а место + киловатты. Это хоть немного начнет технический прогресс в нужную сторону ориентирорвать. Если ты про место для размещения своих стоек, то полностью согласен. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlexBT Опубликовано 5 января, 2009 · Жалоба Алекс! Посчитать можно, но это будет не то что некорректный расчет, а просто абстрактный. На АЗЛК простаивающая и боеспособная подстанция на 20 МВт. В другом районе Москвы обеспечить питание для дата-центра очень и очень проблематично. В расчет положишь цену элетричества для того района где строишься, а в результате получишь еще и охрененные капзатры (хорошо еще если только их). :((Простаивающая электроподстанция - это плюс по срокам на сокращение или минус от капзатрат на монтаж своей подстанции.Но за ТУ на подключение к электросетям заплатить всяко придется за каждый киловат, даже по незагруженной подстанции. Подсчитать все же неплохо было, даже если цифры по регионам пойдут в разбег. Понятно, что будут разные цены за квадрат площади (строительство, покупка или аренда в разных регионах), по разному выйдут ТУ и затраты на подключение по электричеству, по разному будет стоить киловатт электроэнергии при эксплуатации, разный уровень зарплат обслуживающего персонала. Интересно посмотреть на линейность или нелинейность затрат по ДЦ на 1000 и на 200 стоек. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlexBT Опубликовано 5 января, 2009 · Жалоба Исходя из различных требований к энергетике должно быть четкое разделение на телехаусы и датацентры. Если делать это в одном месте, то хотя бы разделять на уровне залов. Если на АЗЛК простаивает подстанция, то быть ему ЦОДом и не париться.Какие тербования имеются ввиду - по бесперебойности электропитания?А разве ЦОД не должен обеспечивать резервированием? Вот только продавать пора не место в стойке и юниты, а место + киловатты. Это хоть немного начнет технический прогресс в нужную сторону ориентирорвать.У нас уже давно отдельно юниты и отдельно киловатты. Правда киловатты по двойной - тройной цене против цены энергетиков.Встретить договор с ценой на только юниты сложнее, ибо цена юнита становится очень большой. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
romka Опубликовано 5 января, 2009 · Жалоба господа, конкретнее. а то что то слишком мутно получается, безопасность, климат, киловатты. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
firefly Опубликовано 6 января, 2009 (изменено) · Жалоба ТС, а можно немного конкретики? Что мне нужно: 1. Одна моя стойка. Есть будет около 3кВт. Нужно 2 линии с разных инверторов. Либо 2кВт/220 + 48В. 2. К стойке притянуть стекло с магистралами (можно разными волокнами, можно вланами в одном, пофик). 10Mbit в каждого (минимум двое). 3. IP и AS у меня свои. 4. Траф считать не надо никак. Заложить в абонентку, если траф как-то учитывается. 5. Заскладировать коробку с запасными винтами/железками (1 куб. метр). 6. По звонку достать из коробки винт и заменить в хранилище дохлый на живой (хотсвоп). 7. Пускать афрожелезячника раз в месяц производить ТО/сдувать пылинки. 8. Не обесточивать через день задержки оплаты, а давать хотя бы месяц форы. Всякое бывает. На всякий случай. А так платить будем на год вперед. 9. Дать возможность прикрутить IP-видеокамеру, смотрящую в лицо нашей стойки. Питаться камера будет по PoE. Хотелось бы услышать цену за месяц/год. Хотя бы примерную. Изменено 6 января, 2009 пользователем firefly Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vIv Опубликовано 6 января, 2009 · Жалоба 9. Дать возможность прикрутить IP-видеокамеру, смотрящую в лицо нашей стойки. Питаться камера будет по PoE. Я как обычно о своём: насколько критична именно камера? KVM + iLO недостаточно? Чем недостаточно? Что ещё хочется? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
firefly Опубликовано 6 января, 2009 · Жалоба Это психологический фактор. Один раз попробовав трудно отказаться. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Прохожий Опубликовано 19 января, 2009 · Жалоба 7. Пускать афрожелезячника раз в месяц производить ТО/сдувать пылинки.Это-то зачем? Если в датацентре на железо ложиться пыль - такой датацентр надо снести. А что еще регламентно нужно делать РУКАМИ в современных серверах? Анальный термометр вставлять для контроля? 5. Заскладировать коробку с запасными винтами/железками (1 куб. метр).6. По звонку достать из коробки винт и заменить в хранилище дохлый на живой (хотсвоп). Гыгы... Пора менять вендора? Стойка 800х800 - это около 1,44 куба. Если Вам не нее надо куб запчастей... Тогда я даже не знаю :) Любопытно, как часто Вам приходится менять винты? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
m.egorov Опубликовано 19 января, 2009 · Жалоба 7. Пускать афрожелезячника раз в месяц производить ТО/сдувать пылинки.Это-то зачем? Если в датацентре на железо ложиться пыль - такой датацентр надо снести. А что еще регламентно нужно делать РУКАМИ в современных серверах? Анальный термометр вставлять для контроля? Даже если чистота идеальная, фильтры всё равно лучше проверять/чистить хотя бы раз в 3 месяца. Если там есть бывают люди, пыль всегда появится. А руками можно ленточку в стримере менять Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Прохожий Опубликовано 19 января, 2009 · Жалоба Даже если чистота идеальная, фильтры всё равно лучше проверять/чистить хотя бы раз в 3 месяца. Если там есть бывают люди, пыль всегда появится.Да ну, елы, что за заморочки... В куда хуже приспособленных помещениях сервера стоят годами беспроблемно... Вы хочите мне сказать, что каждые 3 месяца будете вытаскивать (или минимум выдвигать на рельсах) сервак из стойки и вскрывать его? Есть же старый, проверенный принцип: работает - не мешай! А руками можно ленточку в стримере менятьМожно. А еще гланды автогеном здорово через анус удалять. Если у Вас достаточно большой проект - его на одну ленточку не забекапишь. Будет библиотека, однака. Которая, по уму, может стоять не совсем там, где сервер. А если проект небольшой - его проще забекапить по сети в ЧНмН. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
firefly Опубликовано 20 января, 2009 · Жалоба Во доколебались то :) Ладно, изменим условия. "Маааленькую коробочку" и пускать изредка, по необходимости. ТС, уже можно с кем-нибудь пообщаться на эту тему? Дайте контакты, пожалуйста. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ЯНимагу Опубликовано 20 января, 2009 · Жалоба Да, интересует - было ли открытие? м.б. можно еще успеть на фуршет с презентацией? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
интересующийся Опубликовано 23 января, 2009 · Жалоба +1 .5 лет один такой стоял и не падал.. я когда его разбирал, плакал, чихал, обматывался паутиной, и плакал :) Даже если чистота идеальная, фильтры всё равно лучше проверять/чистить хотя бы раз в 3 месяца. Если там есть бывают люди, пыль всегда появится.Да ну, елы, что за заморочки... В куда хуже приспособленных помещениях сервера стоят годами беспроблемно... Вы хочите мне сказать, что каждые 3 месяца будете вытаскивать (или минимум выдвигать на рельсах) сервак из стойки и вскрывать его? Есть же старый, проверенный принцип: работает - не мешай! А руками можно ленточку в стримере менятьМожно. А еще гланды автогеном здорово через анус удалять. Если у Вас достаточно большой проект - его на одну ленточку не забекапишь. Будет библиотека, однака. Которая, по уму, может стоять не совсем там, где сервер. А если проект небольшой - его проще забекапить по сети в ЧНмН. +1 .5 лет один такой стоял и не падал.. я когда его разбирал, плакал, чихал, обматывался паутиной, и плакал :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
serge-telenet Опубликовано 17 апреля, 2009 · Жалоба Новые ДЦ в Москве (запущены в 2009 году) 1) ЦОД Медовый ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Медовый пер.,5 – 2) ЦОД Мажоров-I ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Мажоров пер.,14 – 3) ЦОД Мажоров-II ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Мажоров пер.,14 – 4) ЦОД Прогресс ООО «ОКБ Прогресс» www.okbprogress.ru support@okbprogress.ru +7 (495) 725-41-34 Талалихина, д. 41 Разрешите представиться, меня зовут Алексей, тут я новенький :) Может кому будет интересно - в январе 2009 года мы запускаем первую очередь довольно большого дата центра. Дата центр делает компания Хостеров. Проект задумывается как еще одна м9, но при этом с определенным прицелом на хостинг медиа ресурсов. Поподробнее о дата центре - http://test.hosterov.ru/ Еще подробнее - http://www.comnews.ru/index.cfm?id=41782 Буду рад ответить на Ваши вопросы тут или мейлом - rubakov [sobaka] hosterov.ru ps. Не сочтите за рекламу, еще есть стойки, если кому надо :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
serge-telenet Опубликовано 5 мая, 2009 · Жалоба Новые ДЦ в Москве (запущены в 2009 году) 1) ЦОД Медовый ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Медовый пер.,5 – 2) ЦОД Мажоров-I ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Мажоров пер.,14 – 3) ЦОД Мажоров-II ООО «Теленэт» www.telefonet.ru helpdesk@telefonet.ru +7 (495) 777-23-33 Мажоров пер.,14 – 4) ЦОД Прогресс ООО «ОКБ Прогресс» www.okbprogress.ru support@okbprogress.ru +7 (495) 725-41-34 Талалихина, д. 41 Разрешите представиться, меня зовут Алексей, тут я новенький :) Может кому будет интересно - в январе 2009 года мы запускаем первую очередь довольно большого дата центра. Дата центр делает компания Хостеров. Проект задумывается как еще одна м9, но при этом с определенным прицелом на хостинг медиа ресурсов. Поподробнее о дата центре - http://test.hosterov.ru/ Еще подробнее - http://www.comnews.ru/index.cfm?id=41782 Буду рад ответить на Ваши вопросы тут или мейлом - rubakov [sobaka] hosterov.ru ps. Не сочтите за рекламу, еще есть стойки, если кому надо :) Так вроде бы территорию АЗЛК продали под застроку? Не получится так, что клиентам в срочном порядке нужно будет бежать? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Cosmonaut Опубликовано 19 августа, 2009 · Жалоба Жив ли сей проект? На сайте никаких изменений в клиентах за более чем полгода и вот еще комментарий конкурентов http://koloban.habrahabr.ru/blog/66336/#comment_1901619 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...