dignity Опубликовано 22 марта, 2012 · Жалоба можно и в одно кольцо, но вопрос в длине кольца, там есть рекомендации... боюсь что не получится соединять кольца между собой, хотя, я в stp не очень. Насчет eltex спросите в НАГ. Врать не будут) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tgt Опубликовано 22 марта, 2012 (изменено) · Жалоба Тогда остается вариант, два рядом стоящих eltex соединенные twinax и к одному из них идет оптика, так? Или два рядом стоящих eltex между собой не соединены и в итоге два кольца, два сегмента сети, так? Первый мне бы больше подошел. Замучил я вас вопросами! Огромнейшее спасибо за помощь, редко таких хороших людей встретишь! Спасибо, спасибо, спасибо! Изменено 22 марта, 2012 пользователем tgt Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 22 марта, 2012 · Жалоба ну тема полезная) Два кольца позволят больше трафа прогнать, но будут дороже, вот и все) Хотя, ИМХО 10 ку вы при всем напряге рабочим трафиком не положите, если только не делать HPC на компьютерах кольца) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tgt Опубликовано 22 марта, 2012 · Жалоба Последний вопрос. Если два кольца, то в центре стоит eltex и на него завести эти два кольца можно, так заработает? Или как эти кольца соединить? А то получатся разные сети. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 22 марта, 2012 · Жалоба заводите на один - должно работать. Почитайте про STP, RSTP, я в этом не большой специалист. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Shiva Опубликовано 22 марта, 2012 · Жалоба Уж лучше длинк, там ERPS есть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 22 марта, 2012 · Жалоба чем его stp не устроит в корпоративной сети? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
qwertzy Опубликовано 22 марта, 2012 · Жалоба Нужно чтобы к пользователям шло 1Gb. Загрузить есть чем: backup систем online, установка программ и систем и т.д. У вас сервера сдохнут намного быстрее, загрузить агрегацию на 4х1Гбит/с при топологии звезда для вас малореально. Поэтому не выдумывайте и ставьте пару 48 портовых медных L3 кошек C3750X-48T-S в стёк на агрегацию/ядро, настроите Cross Stack LACP и будете жить спокойно и счастливо. Понадобиться 10Г для подключения серверов - добавите 3750Е в стёк или воткнёте 10Г модули и любой 10Г коммутатор. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
qwertzy Опубликовано 22 марта, 2012 · Жалоба чем его stp не устроит в корпоративной сети? RRPP/ERPS/EAPS, и как их там еще называют, сделаны специально для кольца и работают лучше чем хSTP, меньше время недоступности при failover, больше доступная полоса. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SergeiK Опубликовано 22 марта, 2012 · Жалоба Нужно чтобы к пользователям шло 1Gb. Загрузить есть чем: backup систем online, установка программ и систем и т.д. У вас сервера сдохнут намного быстрее, загрузить агрегацию на 4х1Гбит/с при топологии звезда для вас малореально. Поэтому не выдумывайте и ставьте пару 48 портовых медных L3 кошек C3750X-48T-S в стёк на агрегацию/ядро, настроите Cross Stack LACP и будете жить спокойно и счастливо. Понадобиться 10Г для подключения серверов - добавите 3750Е в стёк или воткнёте 10Г модули и любой 10Г коммутатор. Прекрасный совет, но в озвученный бюджет не влезет. За озвученный бюджет можно сделать только решение на LowEnd оборудовании, с соответствующей надежностью. И RSTP будет в простой топологии будет более чем достаточно и работает почти на любом железе. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Shiva Опубликовано 22 марта, 2012 · Жалоба Я тут написал про длинки, проигнорировали :) Ставку сделали на темную лошадку :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tgt Опубликовано 22 марта, 2012 · Жалоба Shiva, нет не игнорировали :) На этажи DGS-3420-52T лезет в бюджет, т.к. 48 портов. А вот DXS-3600-32S как я понимаю новинка, нашел примерную цену в 330 тыс. руб., но он один нужен будет, поэтому можно попробовать пропихнуть... qwertzy, SergeiK, Cisco C3750X-48T-S стоит 200 тыс., если их на этажи пихать ни какого бюджета не хватит... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t92 Опубликовано 22 марта, 2012 (изменено) · Жалоба 3750X В рекомендовали в ядро. на доступ надо 2960S-48TD-L если хотите от циски 10г. если это дорого, тогда не понятно что у вас за оборудование будет обрабатывать весь этот трафик. С какого именно из soho устройств вы будете читать/писать со скоростью 1гигабайт в секунду... ? Изменено 22 марта, 2012 пользователем t92 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tgt Опубликовано 22 марта, 2012 · Жалоба t92, все равно дорого получается + ещё нужен 10Gb коммутатор. SCMDP 2012 ежедневные копии hdd, при этом пользователь работает по сети и видеоконференции внутри сети. Возможно видеонаблюдение. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dmvy Опубликовано 22 марта, 2012 · Жалоба t92, все равно дорого получается + ещё нужен 10Gb коммутатор. SCMDP 2012 ежедневные копии hdd, при этом пользователь работает по сети и видеоконференции внутри сети. Возможно видеонаблюдение. бэкап делается всего раз в сутки. ничего страшного, если оно будет длиться не 10 минут, а 15. при том не все в одну минуту делают бэкап. и существует такая фитча, как приоритезация. так что видеоконференция не пострадает. то место, куда льются резервные копии сможет сохрантяь более 100 мегабайт в секунду? присоединяюсь к коллегам: вам не надо 10Г. аггрегация гигабитных линков даст нужную скорость, а lacp даст резервирование. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tgt Опубликовано 23 марта, 2012 (изменено) · Жалоба Чтобы сделать 1Gb на пользователя, нужно менять этажные и центральный коммутаторы. Если как вы предлагаете то денег нужно не меньше, чем если делать 10 Gb, так что тогда экономить? Даже SATA2 с 7200 rpm может писать на скорости 100 мб/сек. Я уже не говорю про SATA3, 10000 rpm и 15000 rpm 1. Звезда Cisco 2960S-48TD-L ~130 тыс. руб. их нужно по 2 на этаж на разные стороны(!)(14 шт.) - 1820 тыс. руб. Cisco C3750X-48T-S ~200 тыс. руб. он нужен один в центр. (1 шт.) - 200 тыс. руб. Итого: 2020 тыс. руб. Плюс в том что тянуть ничего не надо, т.к. сеть уже есть. В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 1 Gb. 2. Звезда D-Link DGS-3420-52T ~ 80 тыс. руб. на этажи 14 шт. ~ 1120 тыс. руб. D-Link DGS-3420-52T ~ 80 тыс. руб. в центр 1 шт. ~ 80 тыс. руб. D-Link DXS-3600-32S ~ 330 тыс. руб. в центр 1 шт. ~ 330 тыс. руб. SFP+ 24 шт. ~ 3700 руб. на центральный ~ 90 тыс. руб. SFP+ 14 шт. ~ 3700 руб. на этажные по 1 шт. ~ 52 тыс. руб. Итого: 1672 тыс. руб. Нужно к каждому этажному тянуть оптику от центра. Возможно поэтапное внедрение. В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 10 Gb. 3. Кольцо D-Link DGS-3420-52T ~ 80 тыс. руб. на этажи 14 шт. ~ 1120 тыс. руб. D-Link DGS-3420-52T ~ 80 тыс. руб. в центр 1 шт. ~ 80 тыс. руб. D-Link DXS-3600-32S ~ 330 тыс. руб. в центр 1 шт. ~ 330 тыс. руб. SFP+ 2 шт. ~ 3700 руб. на центральный ~ 7 тыс. руб. SFP+ 14 шт. ~ 3700 руб. на этажные по 1 шт. ~ 52 тыс. руб. Итого: 1589 тыс. руб. Нужно тянуть оптику от центрального к этажному, от этажного к другому этажному и так пока все не будут соединены в кольцо, последний в центральный. В итоге получится у пользователя 1 GB, все коммутаторы соединены между собой 10 Gb. В случае выхода из строя коммутатора, хоть одного кабеля, вся сеть ляжет. Можно ещё кольцо на Eltex сделать. Можно сделать двойное кольцо, lacp, агрегацию, но это будет увеличивать бюджет. Тут главное то что коммутаторы на этажах стоят в разных местах, по разным сторонам этажа. Изменено 23 марта, 2012 пользователем tgt Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t92 Опубликовано 23 марта, 2012 (изменено) · Жалоба tgt, не правильно поставлена задача. Никто не против помочь рассказать какие свичи можно купить или уже применяют, но Вы не получите тот эффект на что рассчитываете. У вас просто будет сеть с элементами 10Г которые в пиках будут проседать до 1г на свич и ниже, вместо того чтоб как Вы думаете разгоняться. И вообще на такое кол-во пользователей надо заказать проект сети. стоить будет копейки, но за то что вы получите осознание закупки снизится цена железа, уменьшаться риски. Ну и между свичами должна быть оптика однозначно :) Изменено 23 марта, 2012 пользователем t92 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 23 марта, 2012 · Жалоба вообще, у каждого вендора есть рекомендуемые топологии и оборудование для реализации. Проще было бы обратиться к этой информацией... А тема себя исчерпала... Главный итог - тс перестал бояться оптики. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t92 Опубликовано 23 марта, 2012 · Жалоба Я пытался объяснить ТС что сеть передачи данных в данном случае не является узким местом и если его задача провести обмен данных между узлами порождающими информацию (источники бэкапа и пр) и устройствами получающими и передающими (сервера хранения, ленточки, устройства распространения софта) то надо оценивать их технические возможности и представлять их публике (нам) для сведения. Иначе все решения не будут попадать в зону оптимальных. Насчет "даже SATA 7200оборотов пишет 100мб в сек" надо от этих иллюзий быстро быстро освобождаться. Как для сетей передачи данных с большим кол-во хостов узким местом является кол-во пакетов в секунду, а не формальная скорость канала, так и для винчей в системах хранения данных это IOPS, а не их показатели скорости обмена на страничках производителей. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Shiva Опубликовано 23 марта, 2012 · Жалоба Отстаньте от ТС, он вырастет, поймет всё. Я тоже раньше 10Г бредил... До сих пор на LACP жил... 10Г только вот в том году понадобилось и то, из-за волокон... Резервирование сделать можно ещё соединив этажные коммутаторы между собой. Хотя бы гигабитом. Получиться 7 колец. Можно соединить соседние этажи и так далее, веселья полные штаны... З.Ы. Я уже давно перестал считать чужие деньги и другим советую. Обычно потом приходят и просят сделать как надо или что бы работало, в зависимости от того, сколько денег осталось... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 24 марта, 2012 · Жалоба Насчет "даже SATA 7200оборотов пишет 100мб в сек" надо от этих иллюзий быстро быстро освобождаться. Как для сетей передачи данных с большим кол-во хостов узким местом является кол-во пакетов в секунду, а не формальная скорость канала, так и для винчей в системах хранения данных это IOPS, а не их показатели скорости обмена на страничках производителей. Это, кстати, очень верно... Могу сказать что средняя скорость непоследовательного доступа значительно ниже чем заявленные XXX МБ/сек. Для начала можете поюзать bonnie+ для тестирования. В общем, чтобы СХД нагрузить 10Gbit/1GB это должен быть raid10 где-то из 40-60 SATA дисков (для случайного доступа). В реальности, у вас бэкап компа будет со скоростью 10-20MB/sec максимум идти. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...