Jump to content

Recommended Posts

Posted

В Альтернативной ветке попалась ссылочка на Интересное устройство.

 

 

А именно - трехслотовое шасси на 15 Сериал-АТА винтов с двумя иСкази интерфейсами.

 

Сразу в голове возникла следующая схемка...

 

Такое устройство ставится в стойку в центре сети (со временем даже не одно, хотя и у этого запас по прочности очень даже не слабый).

 

Пиковая пропускная у этого монстрика 200 МБпс. Подозреваю, что честных МБпс, что есть очень даже гут.

 

При классической звездообразной архитектуре имеем (в рассчитываем мной случае) где-то 15 вынесенных отдельно Л3-коммутаторов. А что если к каждому такому коммутатору прицепить такую себе машинку, поднять на ней самбу, ДХЦП и прочие там прелести, дать много памяти, вставить две гигабитные сетевые и раздавать через нее данные каждому району.

 

Одно но - для работы с оным монстриком понадобится в клиентском компе хитрая штуковина под название Скази-инициатор. В аппаратном исполнении это чудо стоит около 600 у.е. и минимизирует нагрузку на процессор, беря на себя упаковку Скази в ТСП-стек. У особо продвинутого (и, к сожалению, отсутствующего на нашем рынке производителя) Alacritech есть еще и разгрузка по ТСП, что совсем гут. Но несколько дороговато. Во всяком случае - для начала.

 

Есть еще и программные инициаторы - от Микрософт и под *никс. Что если на начальном этапе воспользоваться ими?

 

Что имеем в результате.

 

Плюсы централизованного хранилища информации описывать не надо. Это и горячая замена винтов, дублирование блоков питания, разбивка и переразбивка на лету, организация винтов каким угодно образом, рейды любого уровня.

 

Защита от аппаратных сбоев обеспечивается на должном уровне. Рассматриваемое же мной решение позволяет избежать и множества программных проблем. Ферма файловых серверов (построенная по всем правилам) - не самый удачный вариант в плане утилизации дискового пространства. Вылет (по любой причине) из строя одного из серверов не дает возможность получить к нему доступ ВСЕЙ сети. Так же мы отключаем от файловго сервера только один район. Имхо, производительность 15 программных инициаторов будет гораздо выше производительности двух аппаратных, так что канал можно будет утилизировать полностью.

 

Ваши соображения?

Posted

ИМХО, бред какой-то...

Какую задачу решает эта конструкция? Превратить отдельно стоящий в стойке FTP-сервер в разрозненную структуру, снизив общую надежность решения? Или просто красиво угробить два десятка килобаксов?

Posted

Дешевле поставить винт на отдельный шлюз. На самом деле делается еще проще :). Берется оптика и тянется из физического центра до места массовой установки техники(серверной) и там ставятся все роутеры шлюзы и все остальное :).

Posted

Ладно, попробуем по другому.

 

Мне нравится эта штука в качестве хранилища данных. Резервирование, переконфигурирование и так далее. Думаю, от 4 до 8 терабайт на ней разместить можно. И $8 000 - $10 000 за подобное решение - невысокая цена. Думаю, тут споров не будет?

 

Теперь задача - раздать это все добро пользователям. Оно имеет два гигабитных выхода, выдающих иСкази.

 

Можно подключить один-два сервера в центре, воткнуть в них HBA-адаптеры и гигабитные карточки, которые, в свою очередь войдут в Циску. Это классическое решение.

 

А если мне, к примеру, надо поднять несколько десятков сетевых групп, работающих с одним этим массивом данных? Или, к примеру, сдавать хранилища в аренду? САН тем и ценен, что я могу подключить к нему не один десяток серверов. Потом при желании я смогу добавить такую штуку и даже не одну. И мне не придется менять инфраструктуру.

Posted

Мда... Меня не так поняли.

 

Ладно, мысль надо привести в порядок и оформить. Но, почему-то, в качестве файлопомойки мне такое решение нравится гораздо больше классических файловых серверов. Преимуществ много.

Posted

И что же это за преимущества? За половину цены этой железки можно собрать отличный файл-сервер такого же формата на столько же дисков, с RAID'ом, возможностью горячей замены и пр. Единственное преимущество - возможность рассказывать пользователям, "какая у нас навороченная файлопомойка"...

Posted

Правильно мыслит автор. Это путь через который проходит любой массовый оператор с контентом внутрисетевым. Решается только немного проще. Не надо и-скази брать. Берется с обычной сказей на 320 на две бошки. И ставиться два контроллера на каких нить дуалксеонах. А дальше НФС и звездой до серваков.

Posted

И все же смысл непонятен. Может быть, многоуважаемые гуру растолкуют преимущества такой файлопомойки над обычным ftp-сервером?

Posted
растолкуют преимущества такой файлопомойки над обычным ftp-сервером?

 

сказано же:

Но, почему-то, в качестве файлопомойки мне такое решение нравится гораздо больше классических файловых серверов.  

русским по белому: "почему-то". а что, не аргумент? :D

Posted
решение нравится гораздо больше

Вот он, основной аргумент :) Главное, чтобы душа радовалась...

Posted

Смейтесь, смейтесь :)

 

Так вот...

 

Преимущества централизованного хранилища данных.

 

1. Из чего состоит оная штука? Корпус-шасси, 15 коробочек под винты, 2 БП, 2 модуля охлаждения, контроллер. БП и модули охлаждения меняются на лету. Состояние всех компонентов мониторится. Вероятность выхода из строя всего этого добра сведена к минимуму.

 

2. В случае использования винтов на 300 Гб мы имеем 4.5 Тб дискового пространства. Решение масштабируемое - таких штук можно поставить в стойку столько угодно.

 

Чем же приглянулось именно решение на иСкази? В этом случае мое хранилище данных становится полностью независимым от сервера. Мы можем наращивать массив по мере необходимости, добавлять серверы, при этом переконфигурирование всей этой системы значительно облегчается, а сама она всегда доступна.

 

Есть ли у кого-нибудь опыт эксплуатации подобного? Особенно интересуте именно иСкази?

Posted

А чем это лучше писюка с 24мя IDE винтами ? Корпус-шасси, 24 коробочки под винты 4БП, 12 модулей охлаждения, два-три контроллера, два-три гигабита. Вероятность выхода из строя всего этого добра сведена к минимуму. :-)

В случае использования винтов на 300Гб мы имеем 7.2 Тб дискового пространства :-)

( если забыть про RAID5 )

Решение масштабируемо, таких штук можно поставить в стойку сколько угодно. Даже две.

Значительно лучше чем SAN на FC и iSCSI :)

Posted

Количество активных компонентов значительно увеличивается. 4 БП - это круто, конечно, но это в 4 раза большая вероятность отказа. Плюс еще есть процессор, мать, память, сетевая - каждый из этих компонентов может отказать. И сколько будет стоить этот монстрик? И насколько удобно будет с ним работать?

 

В моем случае централизованно хранятся данные, зато управление ими полностью децентрализуется. От выделенного файлсервера на район до выделенного файлсервера на предприятие. При этом реально все данные лежат в одном месте и у меня никогда не возникает проблемы с нехваткой дискового пространства. Даже если у меня заканчивается один SAN - я беру еще один и еще один, пока не надоест :)

Posted

Все это, конечно, хорошо... Только складывается впечатление, что автор темы не удосужился уточнить цену этого "корпуса с коробочками". За такие деньги лучше собрать из надежных компонентов два сервера - один рабочий, один в резерв :) Шасси можно поставить http://www.powerman.ru/shablon.php?corp_r/r-3100 или http://www.supermicro.com/products/chassis...SC933T-R760.cfm - те же возможности горячей замены HDD, БП и вентиляторов. Все остальное (процессор-платы) может отказать так же, как и контроллеры SAN'а, если не ставить барахло. Итого за меньшие деньги получаем законченное решение, а не один массив HDD, к которому еще сервера нужны.

Другое дело, если бы эта железка стоила раз в пять подешевле... тогда - да, согласен. Только не для файлопомойки.

Posted
Количество активных компонентов значительно увеличивается. 4 БП - это круто, конечно, но это в 4 раза большая вероятность отказа. Плюс еще есть процессор, мать, память, сетевая - каждый из этих компонентов может отказать. И сколько будет стоить этот монстрик? И насколько удобно будет с ним работать?

 

4БП как раз для резерва. :-) Монстрик на 7.2Т будет стоить - 5600$.

Posted
4БП как раз для резерва. :-) Монстрик на 7.2Т будет стоить - 5600$.

 

А вы такие сервачки то вообще собирали? Или так.... посчитали на досуге? И как же быть с нагрузками на проц?

 

Решения САН и НАС как раз и призваны разделить нагрузку обрабоки и хранения данных. ТОПОЛОГИЧЕСКИ И ФИЗИЧЕСКИ. За счет быструх каналов ПД.

Posted

Мы про FC SAN говорим ? Или про GE SAN ? :-) Цены озвучьте пыжалста.

 

У меня сейчас базовая модель - 12 IDE хардов по 250GB в двух RAID5. Дешево и сердито.

Принципиальных сложностей - воткнуть еще контроллер и 12 хардов на него я не вижу... :-)

Posted
Решения САН и НАС как раз и призваны разделить нагрузку обрабоки и хранения данных. ТОПОЛОГИЧЕСКИ И ФИЗИЧЕСКИ. За счет быструх каналов ПД.

С этим вроде никто и не спорит. Только кому это нужно? Для сдачи в аренду дискового пространства - вполне подходит, если обработка осуществляется на оборудовании клиента. А при выполнении обработки на операторском оборудовании - все же не видно смысла переплачивать двойную, а то и тройную цену за схожие надежность и производительность.

И как вы собираетесь выносы подключать? Гонять iSCSI по отдельным волокнам, параллельно с действующим ethernet'ом?

Posted
А при выполнении обработки на операторском оборудовании - все же не видно смысла переплачивать двойную, а то и тройную цену за схожие надежность и производительность.

 

А нагруженный вебсервер вы себе не представляете? И то что при постановке выносов надежность увеличивается кратно колическтву выносов?

Posted
А нагруженный вебсервер вы себе не представляете? И то что при постановке выносов надежность увеличивается кратно колическтву выносов?

 

Мы про файлопомойку говорим ? Или про нагруженный вебсервер ? :-)

Или может про ОПСОСовский биллинг ? :-) Банковский опердень ?

Вы уж определитесь сначала. Особенно с количеством

одновременных коннектов при пиковой нагрузке. :-)

 

PS: Чем больше в RAID'е шпинделей - тем толще партизаны. :-)

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...
На сайте используются файлы cookie и сервисы аналитики для корректной работы форума и улучшения качества обслуживания. Продолжая использовать сайт, вы соглашаетесь с использованием файлов cookie и с Политикой конфиденциальности.