Перейти к содержимому
Калькуляторы

Сеть 10 GbE коммутаторы

можно и в одно кольцо, но вопрос в длине кольца, там есть рекомендации...

боюсь что не получится соединять кольца между собой, хотя, я в stp не очень. Насчет eltex спросите в НАГ. Врать не будут)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тогда остается вариант, два рядом стоящих eltex соединенные twinax и к одному из них идет оптика, так?

Или два рядом стоящих eltex между собой не соединены и в итоге два кольца, два сегмента сети, так?

Первый мне бы больше подошел.

 

Замучил я вас вопросами!

Огромнейшее спасибо за помощь, редко таких хороших людей встретишь!

Спасибо, спасибо, спасибо!

Изменено пользователем tgt

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ну тема полезная)

Два кольца позволят больше трафа прогнать, но будут дороже, вот и все)

Хотя, ИМХО 10 ку вы при всем напряге рабочим трафиком не положите, если только не делать HPC на компьютерах кольца)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Последний вопрос.

Если два кольца, то в центре стоит eltex и на него завести эти два кольца можно, так заработает?

Или как эти кольца соединить? А то получатся разные сети.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

заводите на один - должно работать. Почитайте про STP, RSTP, я в этом не большой специалист.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Уж лучше длинк, там ERPS есть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

чем его stp не устроит в корпоративной сети?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Нужно чтобы к пользователям шло 1Gb. Загрузить есть чем: backup систем online, установка программ и систем и т.д.

У вас сервера сдохнут намного быстрее, загрузить агрегацию на 4х1Гбит/с при топологии звезда для вас малореально.

 

Поэтому не выдумывайте и ставьте пару 48 портовых медных L3 кошек C3750X-48T-S в стёк на агрегацию/ядро, настроите Cross Stack LACP и будете жить спокойно и счастливо. Понадобиться 10Г для подключения серверов - добавите 3750Е в стёк или воткнёте 10Г модули и любой 10Г коммутатор.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

чем его stp не устроит в корпоративной сети?

RRPP/ERPS/EAPS, и как их там еще называют, сделаны специально для кольца и работают лучше чем хSTP, меньше время недоступности при failover, больше доступная полоса.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Нужно чтобы к пользователям шло 1Gb. Загрузить есть чем: backup систем online, установка программ и систем и т.д.

У вас сервера сдохнут намного быстрее, загрузить агрегацию на 4х1Гбит/с при топологии звезда для вас малореально.

 

Поэтому не выдумывайте и ставьте пару 48 портовых медных L3 кошек C3750X-48T-S в стёк на агрегацию/ядро, настроите Cross Stack LACP и будете жить спокойно и счастливо. Понадобиться 10Г для подключения серверов - добавите 3750Е в стёк или воткнёте 10Г модули и любой 10Г коммутатор.

Прекрасный совет, но в озвученный бюджет не влезет.

За озвученный бюджет можно сделать только решение на LowEnd оборудовании, с соответствующей надежностью.

И RSTP будет в простой топологии будет более чем достаточно и работает почти на любом железе.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я тут написал про длинки, проигнорировали :) Ставку сделали на темную лошадку :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Shiva, нет не игнорировали :)

На этажи DGS-3420-52T лезет в бюджет, т.к. 48 портов.

А вот DXS-3600-32S как я понимаю новинка, нашел примерную цену в 330 тыс. руб., но он один нужен будет, поэтому можно попробовать пропихнуть...

 

qwertzy, SergeiK, Cisco C3750X-48T-S стоит 200 тыс., если их на этажи пихать ни какого бюджета не хватит...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3750X В рекомендовали в ядро.

на доступ надо 2960S-48TD-L если хотите от циски 10г.

если это дорого, тогда не понятно что у вас за оборудование будет обрабатывать весь этот трафик.

С какого именно из soho устройств вы будете читать/писать со скоростью 1гигабайт в секунду... ?

Изменено пользователем t92

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

t92, все равно дорого получается + ещё нужен 10Gb коммутатор.

SCMDP 2012 ежедневные копии hdd, при этом пользователь работает по сети и видеоконференции внутри сети. Возможно видеонаблюдение.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

t92, все равно дорого получается + ещё нужен 10Gb коммутатор.

SCMDP 2012 ежедневные копии hdd, при этом пользователь работает по сети и видеоконференции внутри сети. Возможно видеонаблюдение.

бэкап делается всего раз в сутки. ничего страшного, если оно будет длиться не 10 минут, а 15. при том не все в одну минуту делают бэкап. и существует такая фитча, как приоритезация. так что видеоконференция не пострадает.

 

то место, куда льются резервные копии сможет сохрантяь более 100 мегабайт в секунду?

 

присоединяюсь к коллегам: вам не надо 10Г. аггрегация гигабитных линков даст нужную скорость, а lacp даст резервирование.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чтобы сделать 1Gb на пользователя, нужно менять этажные и центральный коммутаторы.

Если как вы предлагаете то денег нужно не меньше, чем если делать 10 Gb, так что тогда экономить?

Даже SATA2 с 7200 rpm может писать на скорости 100 мб/сек. Я уже не говорю про SATA3, 10000 rpm и 15000 rpm

 

1. Звезда

Cisco 2960S-48TD-L ~130 тыс. руб. их нужно по 2 на этаж на разные стороны(!)(14 шт.) - 1820 тыс. руб.

Cisco C3750X-48T-S ~200 тыс. руб. он нужен один в центр. (1 шт.) - 200 тыс. руб.

Итого: 2020 тыс. руб.

 

Плюс в том что тянуть ничего не надо, т.к. сеть уже есть.

В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 1 Gb.

 

2. Звезда

D-Link DGS-3420-52T ~ 80 тыс. руб. на этажи 14 шт. ~ 1120 тыс. руб.

D-Link DGS-3420-52T ~ 80 тыс. руб. в центр 1 шт. ~ 80 тыс. руб.

D-Link DXS-3600-32S ~ 330 тыс. руб. в центр 1 шт. ~ 330 тыс. руб.

SFP+ 24 шт. ~ 3700 руб. на центральный ~ 90 тыс. руб.

SFP+ 14 шт. ~ 3700 руб. на этажные по 1 шт. ~ 52 тыс. руб.

Итого: 1672 тыс. руб.

 

Нужно к каждому этажному тянуть оптику от центра. Возможно поэтапное внедрение.

В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 10 Gb.

 

3. Кольцо

D-Link DGS-3420-52T ~ 80 тыс. руб. на этажи 14 шт. ~ 1120 тыс. руб.

D-Link DGS-3420-52T ~ 80 тыс. руб. в центр 1 шт. ~ 80 тыс. руб.

D-Link DXS-3600-32S ~ 330 тыс. руб. в центр 1 шт. ~ 330 тыс. руб.

SFP+ 2 шт. ~ 3700 руб. на центральный ~ 7 тыс. руб.

SFP+ 14 шт. ~ 3700 руб. на этажные по 1 шт. ~ 52 тыс. руб.

Итого: 1589 тыс. руб.

 

Нужно тянуть оптику от центрального к этажному, от этажного к другому этажному и так пока все не будут соединены в кольцо, последний в центральный.

В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 10 Gb.

В случае выхода из строя коммутатора, хоть одного кабеля, вся сеть ляжет.

 

Можно ещё кольцо на Eltex сделать.

Можно сделать двойное кольцо, lacp, агрегацию, но это будет увеличивать бюджет.

Тут главное то что коммутаторы на этажах стоят в разных местах, по разным сторонам этажа.

Изменено пользователем tgt

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

tgt, не правильно поставлена задача. Никто не против помочь рассказать какие свичи можно купить или уже применяют, но Вы не получите тот эффект на что рассчитываете.

У вас просто будет сеть с элементами 10Г которые в пиках будут проседать до 1г на свич и ниже, вместо того чтоб как Вы думаете разгоняться.

 

И вообще на такое кол-во пользователей надо заказать проект сети. стоить будет копейки, но за то что вы получите осознание закупки снизится цена железа, уменьшаться риски.

 

Ну и между свичами должна быть оптика однозначно :)

Изменено пользователем t92

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

вообще, у каждого вендора есть рекомендуемые топологии и оборудование для реализации. Проще было бы обратиться к этой информацией... А тема себя исчерпала... Главный итог - тс перестал бояться оптики.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я пытался объяснить ТС что сеть передачи данных в данном случае не является узким местом и если его задача провести обмен данных между узлами порождающими информацию (источники бэкапа и пр) и устройствами получающими и передающими (сервера хранения, ленточки, устройства распространения софта) то надо оценивать их технические возможности и представлять их публике (нам) для сведения. Иначе все решения не будут попадать в зону оптимальных.

 

Насчет "даже SATA 7200оборотов пишет 100мб в сек" надо от этих иллюзий быстро быстро освобождаться. Как для сетей передачи данных с большим кол-во хостов узким местом является кол-во пакетов в секунду, а не формальная скорость канала, так и для винчей в системах хранения данных это IOPS, а не их показатели скорости обмена на страничках производителей.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Отстаньте от ТС, он вырастет, поймет всё. Я тоже раньше 10Г бредил... До сих пор на LACP жил... 10Г только вот в том году понадобилось и то, из-за волокон...

Резервирование сделать можно ещё соединив этажные коммутаторы между собой. Хотя бы гигабитом. Получиться 7 колец. Можно соединить соседние этажи и так далее, веселья полные штаны...

 

З.Ы. Я уже давно перестал считать чужие деньги и другим советую. Обычно потом приходят и просят сделать как надо или что бы работало, в зависимости от того, сколько денег осталось...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Насчет "даже SATA 7200оборотов пишет 100мб в сек" надо от этих иллюзий быстро быстро освобождаться. Как для сетей передачи данных с большим кол-во хостов узким местом является кол-во пакетов в секунду, а не формальная скорость канала, так и для винчей в системах хранения данных это IOPS, а не их показатели скорости обмена на страничках производителей.

 

Это, кстати, очень верно... Могу сказать что средняя скорость непоследовательного доступа значительно ниже чем заявленные XXX МБ/сек. Для начала можете поюзать bonnie+ для тестирования. В общем, чтобы СХД нагрузить 10Gbit/1GB это должен быть raid10 где-то из 40-60 SATA дисков (для случайного доступа). В реальности, у вас бэкап компа будет со скоростью 10-20MB/sec максимум идти.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.