Jump to content
Калькуляторы

контейнерезация на VM-Ware

Вопрос к знатокам!

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?

 

Если есть, что-то подобное, хотелось бы услышать отзывы. 

 

Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит.

Share this post


Link to post
Share on other sites

Странный вопрос.

LXC это виртуализация окружения, VMware это виртуализация железа.

У них между собой ничего общего.

Да и в принципе, как себе представляется некий абстрактный NAT, оторванный от железа и ОС?

Share this post


Link to post
Share on other sites

номальный вопрос.

подождем остальных, кто в теме.

Share this post


Link to post
Share on other sites

Наверное, вам подойдет VMware Admiral.
Это не чистые контейнеры, а докеры ( deploying and managing container based applications ).

Share this post


Link to post
Share on other sites
3 часа назад, RN3DCX сказал:

Вопрос к знатокам!

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?

 

Если есть, что-то подобное, хотелось бы услышать отзывы. 

 

Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит.

Конечно есть!

https://www.vmware.com/products/vsphere/projectpacific.html

Share this post


Link to post
Share on other sites
2 часа назад, vlad11 сказал:

И к какому году они выдадут бету? И к какому году это можно будет юзать?

Project Pacific сейчас находится в статусе технологического превью, будет доступно в следующих релизах vSphere, по инсайдам, следующий релиз vSphere 7 должен состояться в 2020 году.

Share this post


Link to post
Share on other sites
11 часов назад, RN3DCX сказал:

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?



Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит. 

а контейнеры-то нафига? смысл с них для голого ната??? не говоря уже о том, что зафорвардить прозрачно трафик через контейнер - тот еще квест из серии "вырвать гланды через анус".

 

основная задача контейнера - изоляция юзерспейс софта друг от друга и от хост системы. и не более того.

 

4 часа назад, FATHER_FBI сказал:

Project Pacific сейчас находится в статусе технологического превью, будет доступно в следующих релизах vSphere, по инсайдам, следующий релиз vSphere 7 должен состояться в 2020 году. 

еще одна обертка вокруг кубернетов? не думаю что ТСу оно сколь-либо поможет.

Share this post


Link to post
Share on other sites
9 часов назад, NiTr0 сказал:

а контейнеры-то нафига?

В первом посте указано, что нужно, что-то подобное LXC. На Proxmax подобная задача решается через создание контейнера LXC.

Задача выделить под NAT процент реальных мощностей сервера, чтоб ОС, драйвера и т.п. общались на прямую с железом минуя виртуальную среду.

 

Share this post


Link to post
Share on other sites
1 минуту назад, RN3DCX сказал:

Задача выделить под NAT процент реальных мощностей сервера, чтоб ОС, драйвера и т.п. общались на прямую с железом минуя виртуальную среду.

 

а зачем это в контейнер-то заворачивать? чем это лучше по сравнению с натом на самом хосте-то будет???

Share this post


Link to post
Share on other sites
1 минуту назад, NiTr0 сказал:

чем это лучше по сравнению с натом на самом хосте-то будет

Ну вот от этой мысли я не в восторге. Т.к. присутствует виртуальная прослойка а значит будут задержки, чего NAT очень не любит...

Вот и вопрос общественности есть ли варианты реализации текущей задачи на VM-ware?

Share this post


Link to post
Share on other sites
14 часов назад, RN3DCX сказал:

Вот и вопрос общественности есть ли варианты реализации текущей задачи на VM-ware?

а почему тогда в vmware уперлись, если нужен нормальный линукс на хосте а не хренпоймичто проприетарно-огороженное??? proxmox к примеру не проще?

Share this post


Link to post
Share on other sites
8 часов назад, NiTr0 сказал:

proxmox к примеру не проще?

Я писал уже выше, что можно и на proxmox'е это дело через LXC контейнер реализовать. Что позволяет решить задачу с NAT и прямым доступом к железу, без задержек.

 

8 часов назад, NiTr0 сказал:

а почему тогда в vmware уперлись

Но вот захотелось побаловаться на vmware.

 

 

Только пока не ясен момент, есть ли у WM-ware возможность дать доступ к железу на прямую?

Share this post


Link to post
Share on other sites
32 минуты назад, RN3DCX сказал:

Я писал уже выше, что можно и на proxmox'е это дело через LXC контейнер реализовать.

а контейнер зачем???

 

33 минуты назад, RN3DCX сказал:

Только пока не ясен момент, есть ли у WM-ware возможность дать доступ к железу на прямую?

а вы уверены что у той vmware что у вас крутится под капотом именно линукс??? я - нет (там вполне моет быть огрызок какой-то openbsd к примеру, чья задача - веб-мордаху отрисовать да виртуалки запустить, либо вообще что-то свое самописное, либо какая RTOS). а значит и разговор о контейнерах лишен всякого смысла.

Share this post


Link to post
Share on other sites
4 минуты назад, NiTr0 сказал:

а контейнер зачем???

А как тогда по вашему на proxmax предоставляется возможность прямого доступа к железу?

 

5 минут назад, NiTr0 сказал:

а значит и разговор о контейнерах лишен всякого смысла

Да по фиг как это на WM-ware реализовано, лишь бы была техническая возможность.

Share this post


Link to post
Share on other sites
1 час назад, RN3DCX сказал:

есть ли у WM-ware возможность дать доступ к железу на прямую

Смотря что вы под этим подразумеваете

У vmware есть passthrough, который дает возможность прокидывать в ВМ реально железо и сетевой адаптер vmxnet3, прерывания с которого идут на прямую в сетевую карту

1 час назад, NiTr0 сказал:

а вы уверены что у той vmware что у вас крутится под капотом именно линукс??? я - нет (там вполне моет быть огрызок какой-то openbsd к примеру, чья задача - веб-мордаху отрисовать да виртуалки запустить, либо вообще что-то свое самописное, либо какая RTOS). а значит и разговор о контейнерах лишен всякого смысла.

https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/ESXi_architecture.pdf

Share this post


Link to post
Share on other sites
1 час назад, FATHER_FBI сказал:

прокидывать в ВМ реально железо

Bingo! Вот именно это мне и надо.

Вопрос: а процессор, т.е. физическое ядро можно прокинуть в ВМ?

 

Share this post


Link to post
Share on other sites
16 минут назад, RN3DCX сказал:

а процессор, т.е. физическое ядро можно прокинуть в ВМ?

Нет. В свойствах машины CPU - это количество виртуальных CPU внутри, а приоритет CPU - насколько хост будет склонен выдавать ресурсы этой машине.

 

16 минут назад, RN3DCX сказал:

Вот именно это мне и надо

Для этого у вас должна система (CPU - мать - BIOS) поддерживать VT-D и SR-IOV. Все это должно быть включено.

Share this post


Link to post
Share on other sites
3 часа назад, RN3DCX сказал:

А как тогда по вашему на proxmax предоставляется возможность прямого доступа к железу?

учите матчасть что ли...

 

proxmox - не более чем гуй-оболочка. крутящаяся на обычном дебиане.

 

3 часа назад, RN3DCX сказал:

Да по фиг как это на WM-ware реализовано, лишь бы была техническая возможность.

ну и как вы собираетесь делать линукс контейнер на какой-нить QNX???

 

а пока ваша хотелка звучит как "хочу испечь пирожки в действующем самогонном аппарате, мне пофиг как оно там реализовано лишь бы была техническая возможность"...

 

 

Share this post


Link to post
Share on other sites

@NiTr0  перечитал всё ваши посты и понял, что либо вы читать не умеете, либо не в теме от слова вообще...

 

 

1 час назад, jffulcrum сказал:

Для этого у вас должна система (CPU - мать - BIOS) поддерживать VT-D и SR-IOV. Все это должно быть включено.

Мать X9DRW-iF.

VT-D - включено, а вот SR-IOV чё то такого не припоминаю.

 

1 час назад, jffulcrum сказал:

насколько хост будет склонен выдавать ресурсы этой машине.

Т.е. управлять этим процессом нельзя?

Share this post


Link to post
Share on other sites
1 час назад, jffulcrum сказал:

SR-IOV

по data sheet'у  у X9DRW-iF нет SR-IOV.

 

усё приплыли?

Share this post


Link to post
Share on other sites

Есть у нее SR-IOV, просто нет возможности отключить его. В Hyper-V такая работает у меня с SR-IOV.

 

Но - такое использование налагает целый ряд рестикций на машину:

 

- никаких Live миграций, снапшотов, саспендов и т.п.

- невозможно изменить состав оборудования ВМ после старта (за исключением SCSI дисков)

Share this post


Link to post
Share on other sites
2 часа назад, jffulcrum сказал:

а приоритет CPU - насколько хост будет склонен выдавать ресурсы этой машине

управлять этим процессом можно? т.е. зарезервировать vcpu под конкретную виртуальную машину?

 

Share this post


Link to post
Share on other sites

@RN3DCX Самый простой метод - не давать в ВМ больше ядер, чем есть физически. Тогда все будет работать как задумано. Как только начинается оверпровизионинг - начинают работать приоритеты. Система достаточно сложная, чтобы объяснить на словах, RTFM, а в случае кластера - еще сложнее, т.к. есть пулы, объединяющие ресурсы больше чем одного хоста.  

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this