Перейти к содержимому
Калькуляторы

контейнерезация на VM-Ware

Вопрос к знатокам!

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?

 

Если есть, что-то подобное, хотелось бы услышать отзывы. 

 

Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Странный вопрос.

LXC это виртуализация окружения, VMware это виртуализация железа.

У них между собой ничего общего.

Да и в принципе, как себе представляется некий абстрактный NAT, оторванный от железа и ОС?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Наверное, вам подойдет VMware Admiral.
Это не чистые контейнеры, а докеры ( deploying and managing container based applications ).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3 часа назад, RN3DCX сказал:

Вопрос к знатокам!

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?

 

Если есть, что-то подобное, хотелось бы услышать отзывы. 

 

Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит.

Конечно есть!

https://www.vmware.com/products/vsphere/projectpacific.html

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

21 минуту назад, FATHER_FBI сказал:

И к какому году они выдадут бету? И к какому году это можно будет юзать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 часа назад, vlad11 сказал:

И к какому году они выдадут бету? И к какому году это можно будет юзать?

Project Pacific сейчас находится в статусе технологического превью, будет доступно в следующих релизах vSphere, по инсайдам, следующий релиз vSphere 7 должен состояться в 2020 году.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

11 часов назад, RN3DCX сказал:

А есть ли в 2019-ом на VM-ware контейнерезация, аля LXC ?



Собственно хочу NAT запилить, но выделять под это дело целый сервер - жаба аркадьевна душит. 

а контейнеры-то нафига? смысл с них для голого ната??? не говоря уже о том, что зафорвардить прозрачно трафик через контейнер - тот еще квест из серии "вырвать гланды через анус".

 

основная задача контейнера - изоляция юзерспейс софта друг от друга и от хост системы. и не более того.

 

4 часа назад, FATHER_FBI сказал:

Project Pacific сейчас находится в статусе технологического превью, будет доступно в следующих релизах vSphere, по инсайдам, следующий релиз vSphere 7 должен состояться в 2020 году. 

еще одна обертка вокруг кубернетов? не думаю что ТСу оно сколь-либо поможет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

9 часов назад, NiTr0 сказал:

а контейнеры-то нафига?

В первом посте указано, что нужно, что-то подобное LXC. На Proxmax подобная задача решается через создание контейнера LXC.

Задача выделить под NAT процент реальных мощностей сервера, чтоб ОС, драйвера и т.п. общались на прямую с железом минуя виртуальную среду.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 минуту назад, RN3DCX сказал:

Задача выделить под NAT процент реальных мощностей сервера, чтоб ОС, драйвера и т.п. общались на прямую с железом минуя виртуальную среду.

 

а зачем это в контейнер-то заворачивать? чем это лучше по сравнению с натом на самом хосте-то будет???

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 минуту назад, NiTr0 сказал:

чем это лучше по сравнению с натом на самом хосте-то будет

Ну вот от этой мысли я не в восторге. Т.к. присутствует виртуальная прослойка а значит будут задержки, чего NAT очень не любит...

Вот и вопрос общественности есть ли варианты реализации текущей задачи на VM-ware?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а чем линукс на виртуалке с неймспейсами не угодил?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

14 часов назад, RN3DCX сказал:

Вот и вопрос общественности есть ли варианты реализации текущей задачи на VM-ware?

а почему тогда в vmware уперлись, если нужен нормальный линукс на хосте а не хренпоймичто проприетарно-огороженное??? proxmox к примеру не проще?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

8 часов назад, NiTr0 сказал:

proxmox к примеру не проще?

Я писал уже выше, что можно и на proxmox'е это дело через LXC контейнер реализовать. Что позволяет решить задачу с NAT и прямым доступом к железу, без задержек.

 

8 часов назад, NiTr0 сказал:

а почему тогда в vmware уперлись

Но вот захотелось побаловаться на vmware.

 

 

Только пока не ясен момент, есть ли у WM-ware возможность дать доступ к железу на прямую?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

32 минуты назад, RN3DCX сказал:

Я писал уже выше, что можно и на proxmox'е это дело через LXC контейнер реализовать.

а контейнер зачем???

 

33 минуты назад, RN3DCX сказал:

Только пока не ясен момент, есть ли у WM-ware возможность дать доступ к железу на прямую?

а вы уверены что у той vmware что у вас крутится под капотом именно линукс??? я - нет (там вполне моет быть огрызок какой-то openbsd к примеру, чья задача - веб-мордаху отрисовать да виртуалки запустить, либо вообще что-то свое самописное, либо какая RTOS). а значит и разговор о контейнерах лишен всякого смысла.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

4 минуты назад, NiTr0 сказал:

а контейнер зачем???

А как тогда по вашему на proxmax предоставляется возможность прямого доступа к железу?

 

5 минут назад, NiTr0 сказал:

а значит и разговор о контейнерах лишен всякого смысла

Да по фиг как это на WM-ware реализовано, лишь бы была техническая возможность.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, RN3DCX сказал:

есть ли у WM-ware возможность дать доступ к железу на прямую

Смотря что вы под этим подразумеваете

У vmware есть passthrough, который дает возможность прокидывать в ВМ реально железо и сетевой адаптер vmxnet3, прерывания с которого идут на прямую в сетевую карту

1 час назад, NiTr0 сказал:

а вы уверены что у той vmware что у вас крутится под капотом именно линукс??? я - нет (там вполне моет быть огрызок какой-то openbsd к примеру, чья задача - веб-мордаху отрисовать да виртуалки запустить, либо вообще что-то свое самописное, либо какая RTOS). а значит и разговор о контейнерах лишен всякого смысла.

https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/ESXi_architecture.pdf

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, FATHER_FBI сказал:

прокидывать в ВМ реально железо

Bingo! Вот именно это мне и надо.

Вопрос: а процессор, т.е. физическое ядро можно прокинуть в ВМ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

16 минут назад, RN3DCX сказал:

а процессор, т.е. физическое ядро можно прокинуть в ВМ?

Нет. В свойствах машины CPU - это количество виртуальных CPU внутри, а приоритет CPU - насколько хост будет склонен выдавать ресурсы этой машине.

 

16 минут назад, RN3DCX сказал:

Вот именно это мне и надо

Для этого у вас должна система (CPU - мать - BIOS) поддерживать VT-D и SR-IOV. Все это должно быть включено.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3 часа назад, RN3DCX сказал:

А как тогда по вашему на proxmax предоставляется возможность прямого доступа к железу?

учите матчасть что ли...

 

proxmox - не более чем гуй-оболочка. крутящаяся на обычном дебиане.

 

3 часа назад, RN3DCX сказал:

Да по фиг как это на WM-ware реализовано, лишь бы была техническая возможность.

ну и как вы собираетесь делать линукс контейнер на какой-нить QNX???

 

а пока ваша хотелка звучит как "хочу испечь пирожки в действующем самогонном аппарате, мне пофиг как оно там реализовано лишь бы была техническая возможность"...

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@NiTr0  перечитал всё ваши посты и понял, что либо вы читать не умеете, либо не в теме от слова вообще...

 

 

1 час назад, jffulcrum сказал:

Для этого у вас должна система (CPU - мать - BIOS) поддерживать VT-D и SR-IOV. Все это должно быть включено.

Мать X9DRW-iF.

VT-D - включено, а вот SR-IOV чё то такого не припоминаю.

 

1 час назад, jffulcrum сказал:

насколько хост будет склонен выдавать ресурсы этой машине.

Т.е. управлять этим процессом нельзя?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, jffulcrum сказал:

SR-IOV

по data sheet'у  у X9DRW-iF нет SR-IOV.

 

усё приплыли?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Есть у нее SR-IOV, просто нет возможности отключить его. В Hyper-V такая работает у меня с SR-IOV.

 

Но - такое использование налагает целый ряд рестикций на машину:

 

- никаких Live миграций, снапшотов, саспендов и т.п.

- невозможно изменить состав оборудования ВМ после старта (за исключением SCSI дисков)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 часа назад, jffulcrum сказал:

а приоритет CPU - насколько хост будет склонен выдавать ресурсы этой машине

управлять этим процессом можно? т.е. зарезервировать vcpu под конкретную виртуальную машину?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@RN3DCX Самый простой метод - не давать в ВМ больше ядер, чем есть физически. Тогда все будет работать как задумано. Как только начинается оверпровизионинг - начинают работать приоритеты. Система достаточно сложная, чтобы объяснить на словах, RTFM, а в случае кластера - еще сложнее, т.к. есть пулы, объединяющие ресурсы больше чем одного хоста.  

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.