Перейти к содержимому
Калькуляторы

выбор оборудования для ядра виртуализации в стойку в ДЦ

так. давайте может стек в сторону отбросим.

мне нужно, чтобы у меня работала моя схема из первого порта.

нужно:

1) чтобы было аггрегирование интерфейсов на гипервизорах, подключенных к разным свитчам, для отказоустойчивости. поверх аггрегированного интерфейса будут VLAN'ы с WAN\LAN трафиком. и отдельно SAN трафик без аггрегирования, через MPIO. Помимо гипервизоров, есть еще сервера БД, их нужно подключить так же, как гипервизоры с LAN\WAN трафиком. Нужно, чтобы при выходе из строя одного из свитчей\линков до серверов, все сервисы работали пусть и с деградацией скорости.

2) нужны нормальные буферы, чтобы не было дропов при бурсте ISCSI трафа, а так же трафа при заливке бекапов на бекап сервак.

 

хотелось бы рассмотреть 2 ценовых диападона: до 150 и до 300. БУ тоже рассматриваю.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

JC691A, 1gb packet buffer

Только б/у под ваш бюджет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Для начала - кто у вас гипервизором и что он именно требует для подобной схемы? Вот всфере в таком конфиге LAG не нужен совсем, от слова никак.

 

 

И это... вы хотите SAN на iSCSI? На гигабите?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Для начала - кто у вас гипервизором и что он именно требует для подобной схемы? Вот всфере в таком конфиге LAG не нужен совсем, от слова никак.

 

hyper-v

 

не исключаю, что я в корне неправильно подошел к решению вопроса хай авайлабилити :(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

С настолько хорошими буферами и 1G линками вы на ISCSI будете дичайшие тормоза виртуалок ловить пока весь буфер в дырку всосется. Это решать нужно с другой стороны - QoS, грамотные WRED профайлы, цепляние дисковых полок на более толстые линки. Пусть дропает, но контролируемо и то что не жалко.

Вообще современные ДЦ это тупо TRILL/вланы + stp и тоооооооолстые линки. Без выпендрежа.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

хранилище Starwind 2 ноды, диски SSD

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

SAN надо делать либо на FC (и совсем отдельно от LAN), либо FCoE, либо iSCSI - притом эти два подразумевают 10G-инфраструктуру

 

а строить хранение на гигабитном iSCSI - это либо немного странная лаба, либо у вас сильно странные бизнес-задачи.

 

если серверов мало и есть деньги на СХД - то можно еще и на SAS посмотреть.

 

 

с hyper-v последними незнаком, как минимум надо читать. Вопрос в том, как именно HV разруливает трафик виртуалок по интерфейсам - полагаясь на логику работы агрегированного канала или сам? вмварь такой конфиг делает без LAG - просто сама раскидывает трафик машин по разным линкам, маки машин засвечивая на нужных линках (ну на деле там больше вариантов, но это как пример). И вообще тогда можно и без стека обойтись.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

у нас 6 гипервизоров, поэтому sas не подходит.

на данный момент есть возможность сделать только 1G, в перспективе хотелось бы 10G

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

простите, но эти хотелки так, как вы хотите - нереализуемы.

 

у вас есть нагрузка на шесть гиперов, но нет денег на SAN для этих гиперов? ну так оно не будет работать и все. Шесть хостов будут гонять на процах команду хальт.

 

Может лучше три хоста, но больше денег в инфраcтруктуру?

 

 

Параметры нагрузки-то вам известны или вы проектируете сферическую стойку в вакууме?

 

 

PS: мы тут кучку железа продаем как раз из-под типовой задачи... если интересно - в личку.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

бюджет 600тр на 2 железки (с аксессуарами, если требуется).

напомню, что я не делаю ДЦ, а у меня стойка в ДЦ :) и мне нужна отказоустойчивость МОИХ сервисов, а не сервисов ДЦ))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

я тоже делал отказоустойчивость исключительно своих сервисов )))

 

 

я же закидывал инфу по свитчам в личку. по 10G которые. На остаток бюджета - заапгрейдить имеющиеся хосты. По сетевой части и возможно по дисковой. Ибо что у вас там за дисковые - известно только вам...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

По любому ставь микротик >_<

Интересно, прилетит ли сюда сааб. у него походу ачивка- каждый день влезть в 10 постов в темах где ищется слово микротик, l3 и маршрутизатор))))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сколько не прикидывал орган к носу, выбор пал на FC san. iscsi и подобное никак в голове не укладывается, кроме может для скидывания архивов, да и то, стоимость схд не сопоставима со стоимостью дисков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

первична архитектура )))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А на экстримах с MLAG в 600к не уложиться?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А на экстримах с MLAG в 600к не уложиться?

с нынешним курсом только если убитое б/у искать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

MLAG

 

зачем? )

 

Желание ТС наверно : "1) чтобы было аггрегирование интерфейсов на гипервизорах, подключенных к разным свитчам, для отказоустойчивости. поверх аггрегированного интерфейса будут VLAN'ы с WAN\LAN трафиком. и отдельно SAN трафик без аггрегирования, через MPIO. Помимо гипервизоров, есть еще сервера БД, их нужно подключить так же, как гипервизоры с LAN\WAN трафиком. Нужно, чтобы при выходе из строя одного из свитчей\линков до серверов, все сервисы работали пусть и с деградацией скорости."

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Желание ТС наверно

 

)))))

 

ошибочные желания ТС )))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

MLAG

 

зачем? )

 

Желание ТС наверно : "1) чтобы было аггрегирование интерфейсов на гипервизорах, подключенных к разным свитчам, для отказоустойчивости. поверх аггрегированного интерфейса будут VLAN'ы с WAN\LAN трафиком. и отдельно SAN трафик без аггрегирования, через MPIO. Помимо гипервизоров, есть еще сервера БД, их нужно подключить так же, как гипервизоры с LAN\WAN трафиком. Нужно, чтобы при выходе из строя одного из свитчей\линков до серверов, все сервисы работали пусть и с деградацией скорости."

 

Да, под критерии хотелок от ТС.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

требования поменялись :)

в итоге выбор остался между

1) Dell n3048

2) Huawei CE5810-48T4S-EI

 

Никто не юзал вышеуказанные железки?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Бессмысленная трата вкладывать сумасшедние деньги в заранее ущербную инфраструктуру с 1G ИМХО.

 

Если что, последние гипер-в тоже умеют раскидывать виртуальные машины по портам без всякой агрегации со стороны свича.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.