Alex/AT Опубликовано 25 февраля, 2012 (изменено) · Жалоба OpenVZ ни разу не замена полноценной виртуализации. Как уже говорил - если нужно изолировать пускай даже однотипные окружения на уровне отказа - не вариант, любая ядерная проблема благополучно роняет всю площадку целиком. Ну и не всё в OpenVZ можно поднять, с ядерными модулями и вообще поддержкой dev'ов там большие проблемы. Еще сетевая изоляция в контейнерах OpenVZ... представляет из себя вообще один большой костыль. Изменено 25 февраля, 2012 пользователем Alex/AT Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
adnull Опубликовано 25 февраля, 2012 · Жалоба Это да. От какой задачи плясать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 25 февраля, 2012 (изменено) · Жалоба Ну да. Специфика :) Изменено 25 февраля, 2012 пользователем Alex/AT Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
taf_321 Опубликовано 26 февраля, 2012 · Жалоба На qemu надо наворачивать virtio драйверы, чтобы все хорошо работало. С Виндой проблемы по производительности. А что такого сложного с Virtio? В линухах оно из коробки есть, в виндах тоже трудностей не больше, чем с каким-нибудь нестандартным контроллером. Опять же, если ожидается клепание виндовых виртуалок пачками, то кастомную инсталляшку, в паянными virtio сделатьь не такая большая проблема. Деградацию производительности у винды в виртуалке я только в одном случае видел - когда в контейнер была перенесена древняя уже не первый раз разваливавшаяся система с аппаратного сервера. У одного из наших клиентов винда в виртуалке обслуживает кассовые аппараты всей сети магазинов по городу + 1С со всеми торговыми наворотами. Тамошний админ говорит, что никто не заметил перемены при миграции. А уж как любит 1С шелестеть IO (хоть файловая версия, хоть SQL) рассказывать никому не надо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ThreeDHead Опубликовано 27 февраля, 2012 · Жалоба Используем паравиртуализацию Citrix XenServer. По началу, после удачных испытаний, планировали виртуализировать все сервера, но вовремя остановились. Виртуализировали большинство серверов, остались только высоконагруженные сетевые системы. Один минус - отказ (перегрузка) СХД требует выключения всех VM. Т.е. апгрейд СХД - кратковременная остановка всех виртуализированных сервисов. Ну или строить отказоустойчивую СХД, но это в два раза дороже. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
shicoy Опубликовано 27 февраля, 2012 · Жалоба У нас тоже была идея собрать кластер HA сделать на нем vm под различные сетевые сервисы (radius, dns, dhcp и т.д.) но все уперлось в отсутствие доступных решений специалистов. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vladimirslk Опубликовано 27 февраля, 2012 (изменено) · Жалоба два сервера одни с виртуализацией поддержкой цпу KVM, другой с openvz. плюс в openvz как раз расшаренные ресурсы, не жёстко выставленные как в КVM, те более рационально можно использовать.. на KVM повесить барахло которое не дружит с openvz/не может жить в контейнере(хитро***"ные дистры вроде routeros и вроде zeroshell со своими тараканами.. и на маленький офис помоему должно хватить.. вообще есть весчь proxmox дистр там ядро собрано с поддержкой и KVM и openvz, народ очень хвалит.. но сам себе не рискнул ставить - затащил всё в опенвз было желание захерачать pppoe аксессы в контейнеры и все ящики запихать в один хороший proliant. с proxmox этот фокус самое интересное должен прокатить, но пока толи желания, толи лишних денег на эксперементы нет если бы админ предложил виртуализацию на шиндовс решении, наверное выкинул бы его сразу из окна офиса )))) без обид по поводу сетевой изоляции опенвз - разве большой трабл vlan-ами? не делал, но уверен развестись должно на ура Изменено 27 февраля, 2012 пользователем vladimirslk Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
X-RaY™ Опубликовано 28 февраля, 2012 · Жалоба Ох вопросов теперь больше чем ответов, из того что понял, биллинг оставляем на отдельном железе, а всякие радиусы и днс, с хостингом(несколько сайтов) и прочими фтп засовываем в виртуалки. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
catalist Опубликовано 28 февраля, 2012 · Жалоба Ещё систему мониторинга наверное можно в виртуализировать. И ферму терминальных серверов. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 28 февраля, 2012 · Жалоба Ох вопросов теперь больше чем ответов, из того что понял, биллинг оставляем на отдельном железе, а всякие радиусы и днс, с хостингом(несколько сайтов) и прочими фтп засовываем в виртуалки. Смотря что такое у вас биллинг. Если у вас анлимы, нет нетфлоу-коллекторов и обсчёта аккаунтинга и прочих жрущих ресурсы процессы, то нет причин не выносить его на виртуалки. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ilya Evseev Опубликовано 28 февраля, 2012 · Жалоба из того что понял, биллинг оставляем на отдельном железе Лучше в openvz. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vladimirslk Опубликовано 28 февраля, 2012 (изменено) · Жалоба Ещё систему мониторинга наверное можно в виртуализировать. И ферму терминальных серверов. конечно.. у меня в контейнере всё вертится. то что юзает одно ядро(или проще если есть имиджи систем для openvz) - то и может висеть в контейнерах.. и ферму тоже можно кидаешь сетевую карту с 2-4мя выходами, делаешь veth0 на eth0 и veth1 на eth1, один WAN второй LAN и поехали )) на veth1 можно несколько контейнеров с pppoe серверами повесить - которые будут светиться как разные сервера с разными ипами.. ну а дальше полёт фантазии Изменено 28 февраля, 2012 пользователем vladimirslk Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 28 февраля, 2012 · Жалоба vladimirslk Объясните мне в чём смысл запихивать НЕСКОЛЬКО виртуальных pppoe-серверов на одну хост-машину? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t0ly Опубликовано 28 февраля, 2012 · Жалоба vladimirslk Объясните мне в чём смысл запихивать НЕСКОЛЬКО виртуальных pppoe-серверов на одну хост-машину? 1 dev-testing? 2 new pppoe server-test? 3 HA? вообще изврат конечно =) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 29 февраля, 2012 · Жалоба t0ly 3. HA - это про "поколение админов", которые бэкапят диск Ц на диск Д, находящиеся на одном винте? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lagman Опубликовано 29 февраля, 2012 · Жалоба на veth1 можно несколько контейнеров с pppoe серверами повесить - которые будут светиться как разные сервера с разными ипами.. ну а дальше полёт фантазии Айпи адреса у серверов pppoe бывают только в фантазиях линукс-админов :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 29 февраля, 2012 · Жалоба lagman Т.е. Вы считаете, что у pppoe-сервера обычно нет собственного IP в сторону клиентских подключений? А как же P-t-P? # ifconfig ppp0ppp0 Link encap:Point-to-Point Protocol inet addr:x.x.x.x P-t-P:y.y.y.y Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1492 Metric:1 RX packets:234857948 errors:0 dropped:0 overruns:0 frame:0 TX packets:211972138 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:3 RX bytes:3526451077 (3.2 GiB) TX bytes:796149276 (759.2 MiB) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lagman Опубликовано 29 февраля, 2012 · Жалоба lagman Т.е. Вы считаете, что у pppoe-сервера обычно нет собственного IP в сторону клиентских подключений? А как же P-t-P? # ifconfig ppp0ppp0 Link encap:Point-to-Point Protocol inet addr:x.x.x.x P-t-P:y.y.y.y Mask:255.255.255.255 UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1492 Metric:1 RX packets:234857948 errors:0 dropped:0 overruns:0 frame:0 TX packets:211972138 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:3 RX bytes:3526451077 (3.2 GiB) TX bytes:796149276 (759.2 MiB) У туннеля адрес может быть, у сервера адреса нет ;) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 29 февраля, 2012 · Жалоба lagman Все поняли о чём речь. Или Вы всегда так себя ведёте, когда вас спрашивают "скажи ip адреса сервера", отвечаете "у сервера не может быть адреса, я могу лишь сказать ip адрес интерфейса XXX". Таких людей называют занудами или проще мозго***** Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lagman Опубликовано 29 февраля, 2012 · Жалоба lagman Все поняли о чём речь. Или Вы всегда так себя ведёте, когда вас спрашивают "скажи ip адреса сервера", отвечаете "у сервера не может быть адреса, я могу лишь сказать ip адрес интерфейса XXX". Таких людей называют занудами или проще мозго***** Сами придумали, сами обиделись. Ну-ну ;) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vladimirslk Опубликовано 29 февраля, 2012 (изменено) · Жалоба на veth1 можно несколько контейнеров с pppoe серверами повесить - которые будут светиться как разные сервера с разными ипами.. ну а дальше полёт фантазии Айпи адреса у серверов pppoe бывают только в фантазиях линукс-админов :) ой извените зап"зделся )))) выкручусь и скажу с IP адресами на WANе )) понятно что тсп/ип на клиентских машинах можно вообще оффать и всё работает на то он и ppp over ethernet.. но я про картину в целом Изменено 29 февраля, 2012 пользователем vladimirslk Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
X-RaY™ Опубликовано 22 марта, 2012 · Жалоба А подскажите по платформе(холивар прямо=) Я на интеле уже лет 8, а AMD opteron которые 6200 типа 16 ядер пишут , в 2х процессорной конфигурации получается 32 ядра? Или это маркетинг и они 8 ядер+HT ? Вопрос в том, что лучше для задач этих, платформа ни интел или амд, при бюджете в районе 3.5 тыс уе за систему. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 22 марта, 2012 · Жалоба Реальные 16 ядер, но в модуле 2 ядра делят между собой один FPU и один декодер команд. Т.е. что-то среднее между полностью виртуальным HT ядром и 2 полноценными ядрами. Если будут целочисленные вычисления преимущественно - оно особо не заметно. Для интенсивных вычислений с плавающей запятой - да, фактически HT получается. Ну и в целом по производительности пара ядер бульдозера сопоставима с одним ядром интела с HT (где-то - быстрее, где-то - медленнее). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sirmax Опубликовано 23 марта, 2012 · Жалоба какая тема, а я пропустил. по поводу АМД - там работает (вроде бы) nested виртуализация (что удобно для тестов!) На интел насколько я знаю - нет. Кстати, миграция на КВМ - у кого получилось? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 23 марта, 2012 (изменено) · Жалоба Реальные 16 ядер, но в модуле 2 ядра делят между собой один FPU и один декодер команд. Т.е. что-то среднее между полностью виртуальным HT ядром и 2 полноценными ядрами. Если будут целочисленные вычисления преимущественно - оно особо не заметно. Для интенсивных вычислений с плавающей запятой - да, фактически HT получается. Для брасов, роутеров, и иже с ними - будет самое оно, ибо FP почти нет даже в алгоритмах шейпинга ныне. А также для вебсерверов, и вообще всего, что не требует тяжелых математических вычислений. Изменено 23 марта, 2012 пользователем Alex/AT Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...