Перейти к содержимому
Калькуляторы

Посоветуйте как организовать отказоустойчивую сеть

Встала задача организовать отказоустойчивый доступ к серверам. Текущая схема сети:

 5bcf158ee2ea9_.thumb.jpg.16c8182a58a5f6f1c435918c9ee2facf.jpg

 

Изучая материал по данной теме нарисовалась следующая схема построения сети:
5bcf1afa8f849_HA.thumb.jpg.603cf6c88f89f887e1f961d9bc57b8b3.jpg

 

1. Для подключения серверов используется 2-а сетевых интерфейса с агрегацией каналов. Используем стэк из 2-ух коммутаторов уровня доступа и настраивается агрегация портов. Один порт одного коммутатора агрегатируется с портом другого коммутатора.

2. На маршрутизатора настраиваются vlan интерфейсы и поднимается виртуальный ip адрес.
3. На шлюзовых маршрутизаторах, обеспечивающие подключение к интернет провайдерам (isp 1 и isp 2) настраивается виртуальный ip

 

Собственно сами вопросы:

1. Является ли данная схема действующей для отказоустойчивости сети ?

2. Какие можно еще использовать технологии для решения вопроса по отказоустойчивости на уровнях доступа, агрегации, маршрутизации сети ?

3. Есть ли примеры решений по отказоустойчивости сети от крупных ЦОД (yandex, facebook) ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А где резервный ЦОД, а где резервные сервера?

А вдруг ляжет весь ваш стек коммутаторов, где резерв стека?

 

По схеме Вы все положили в одну корзину, при этом считаете, что у Вас яиц в избытке.

 

Исходя из постановки вопросов, а делали ли Вы оценку стоимости овчинки?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Цель сделать отказоустойчивость текущей сети по схеме N+1 

резервные сервера сделаны на vmware vMotion + ceph

 

Я думал что при отключении одного коммутатора в стеке, всю его функцию принимает второй коммутатор. Одновременная сметь 2-ух коммутаторов в данную схему не закладывается.

 

Цитата

По схеме Вы все положили в одну корзину, при этом считаете, что у Вас яиц в избытке.

Цель сделать N+1, прошу указать где не хватает избыточности.
 

Цитата

Исходя из постановки вопросов, а делали ли Вы оценку стоимости овчинки?

Оценку пока не делали, т.к. окончательной схемы резервирования нет.
 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

9 hours ago, CarTerr said:

Встала задача организовать отказоустойчивый доступ к серверам. Текущая схема сети:

 5bcf158ee2ea9_.thumb.jpg.16c8182a58a5f6f1c435918c9ee2facf.jpg

 

Изучая материал по данной теме нарисовалась следующая схема построения сети:
5bcf1afa8f849_HA.thumb.jpg.603cf6c88f89f887e1f961d9bc57b8b3.jpg

 

1. Для подключения серверов используется 2-а сетевых интерфейса с агрегацией каналов. Используем стэк из 2-ух коммутаторов уровня доступа и настраивается агрегация портов. Один порт одного коммутатора агрегатируется с портом другого коммутатора.

2. На маршрутизатора настраиваются vlan интерфейсы и поднимается виртуальный ip адрес.
3. На шлюзовых маршрутизаторах, обеспечивающие подключение к интернет провайдерам (isp 1 и isp 2) настраивается виртуальный ip

 

Собственно сами вопросы:

1. Является ли данная схема действующей для отказоустойчивости сети ?

2. Какие можно еще использовать технологии для решения вопроса по отказоустойчивости на уровнях доступа, агрегации, маршрутизации сети ?

3. Есть ли примеры решений по отказоустойчивости сети от крупных ЦОД (yandex, facebook) ?

 

Facebook, серьёзно ? У них l3 до серверов идёт , с вмваре так не получиться 

 

стэк - единая точка отказа. 

у вмваре/циско и тп полно white papers как это делать

 

Что такое виртуальный IP на два провайдера ? 

 

Evpn/vxlan с anycast default gw если надо scale out. 

 

Если scale up , то пара switch’s с поддержкой mlag и портченел в сторону серверов , от свитчей l3 в ядро, ospf в качестве igp, Internet border с l3 связностью и PI subnets в оба провайдера , получать от isp default и инжектировать его в igp 

Все 

 

для  сторадж лучше отдельну сетку . Порты 10г и выше , если 40г осилите по деньгам то два порта на сервер хватит ( может и две десятки хватит 

 

 

 

если надо лоад балансеры, фаерволы, малтитенанси, несколько data centers - -придётся пойти на курсы либо нанять кого то :) 

 

Можно все на двух свитчах нагородить  если денег нет , но лучше так не делать 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 территориально разнесённые площадки, на каждой по набору серверов, растянутый на 2 площадки vmware HA кластер (можно с FT) + 2 СХД с с чем-нибудь аля VPLEX Metro cluster на каждой.

Своя AS с блоком PI , 2 канала и бордер на каждой площадке, ну и дальше VXLAN  или вообще по бэстпрактикс от любого уважаемого вендора. 

...ну а вообще лучше обратиться к крупному интегратору, там есть дизайнеры сетей, ЦОДов, систем хранения, и т.д. и т.п...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

5 hours ago, guеst said:

2 территориально разнесённые площадки, на каждой по набору серверов, растянутый на 2 площадки vmware HA кластер (можно с FT) + 2 СХД с с чем-нибудь аля VPLEX Metro cluster на каждой.

Своя AS с блоком PI , 2 канала и бордер на каждой площадке, ну и дальше VXLAN  или вообще по бэстпрактикс от любого уважаемого вендора. 

...ну а вообще лучше обратиться к крупному интегратору, там есть дизайнеры сетей, ЦОДов, систем хранения, и т.д. и т.п...

Растянутые кластера - это прекрасно :) . У вас все ещё впереди 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3 часа назад, guеst сказал:

нет, именно это уже позади. Работает.

Сколько?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 24.10.2018 в 15:18, CarTerr сказал:

EvgeniySerb, спасибо буду разбираться

 

какой у Вас парк серверов? на чем живут vmware vMotion + ceph ? и сколько вообще хостов? и планируется?

и каков бюджет на LAN + SAN  уровня DC?

 

В 24.10.2018 в 01:40, EvgeniySerb сказал:

для  сторадж лучше отдельну сетку . Порты 10г и выше , если 40г осилите по деньгам то два порта на сервер хватит ( может и две десятки хватит

 

нафига сторадж гонять по сети? если уж делать красиво то однозначно самостоятельный SAN.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

4 hours ago, fork said:

 

какой у Вас парк серверов? на чем живут vmware vMotion + ceph ? и сколько вообще хостов? и планируется?

и каков бюджет на LAN + SAN  уровня DC?

 

 

нафига сторадж гонять по сети? если уж делать красиво то однозначно самостоятельный SAN.

Про бюджеты это к ТС

 

Отдельная сеть под storage -  маст хэв,  я себе б классический san fc делал бы . Сейчас модно лепить горбатого из Ethernet сетей и дисков , поэтому я не предлагал FC, а тактически обобщил «выделенная сеть» :) 

 

 

Изменено пользователем EvgeniySerb

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 29.10.2018 в 04:47, EvgeniySerb сказал:

Отдельная сеть под storage -  маст хэв,  я себе б классический san fc делал бы . Сейчас модно лепить горбатого из Ethernet сетей и дисков , поэтому я не предлагал FC, а тактически обобщил «выделенная сеть» :) 

 

ну если строить DC по всем каноном, то самостоятельный SAN СХД подразумевается, со своими волокнами, Brocade, etc...

FCoE не то что бы плох/хорош, проблема скорей возникает организационная, т.к. в большинстве своем SAN и LAN админы это разные люди.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

15 hours ago, fork said:

 

ну если строить DC по всем каноном, то самостоятельный SAN СХД подразумевается, со своими волокнами, Brocade, etc...

FCoE не то что бы плох/хорош, проблема скорей возникает организационная, т.к. в большинстве своем SAN и LAN админы это разные люди.

 

 

Network engineer не должно составлять труда to manage fcoe. Чисто San админы уходят в историю , или двигаются выше по стэку 

 

стабильности fc (fcoe в какой то мере тоже ) можно только позавидовать 

 

к iscsi и nfs много вопросов 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

7 часов назад, EvgeniySerb сказал:

Network engineer не должно составлять труда to manage fcoe. Чисто San админы уходят в историю , или двигаются выше по стэку 

 

стабильности fc (fcoe в какой то мере тоже ) можно только позавидовать 

 

к iscsi и nfs много вопросов 

SAN admin и СХД admin это в большинстве случаев одни и те же люди,  или кто по вашему админит СХД?

fcoe это на доступе, массивы все равно по fc san включены.

Как раз стыки fcое  и fc san становятся камнем преткновения разных подразделений и зон ответственности когда сыпятся ошибки типа lost access to volume

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.