Перейти к содержимому
Калькуляторы

nuclearcat, под отключением tuple я верно понимаю, что это механизм анализа пакета по его полям в заголовке (src/dst ip и т.п.)? Если да, для каких целей? Если шейпинг, разве linux не нужно знать dst/src ip и прочие данные?

Каким образом отключаете?

Для целей NAT его отключение не нужно, правильно я понимаю?

У меня валило в лог сообщениями об ATR, к сожалению не сохранил, там похоже адаптивный механизм для сортирования по потокам и он переполнялся.

IMHO, для роутеров эта карта на данный момент похуже X520. Но надо еще поколупаться

 

Я сейчас в X710 попытался выключить tuple, использовал тазик для шейпинга (два vlan, bridge) - и все, приехали, перестало пропускать траффик с "чужими" маками.

Похоже надо катать багрепорт

 

слушай скажи плз сколько там прерываний в карте на порт?

Равно количеству ядер. У меня:

186: 0 0 0 0 0 0 0 325976552 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge i40e-eth3-TxRx-31

 

P.S. Мне пришлось разбрасывание по прерываниям отключить.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Подскажи, на что может быть способен для целей nat данный старичек, вернее пара старичков: Intel Xeon X5460 Harpertown (3166MHz, LGA771, L2 12288Kb, 1333MHz)

На CoreDuo E8500 здесь больше гига прогоняли, лет 5 назад, думаю эта штука не хуже должна быть.

Это больше гадание/прикидки.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ето же как и у Q6600. Один из личших процессоров интела.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Но пока склоняюсь также к 2690v3 - 12 ядер, базовая частота 2600ГГц, но у них же есть TurboBoost, и у этой модели частота турбобуста 3500ГГц. Т.е. если всегда будет соответствующая нагрузка, то ядра и будут работать на этой частоте.

Это всё фантазии далёкие от реальности.

У проца есть TDP, в который он обязан вписываться иначе кристалл разрушится. Когда 11 ядер в IDLE спят (или какие там ещё энергосбережения, C-State), то у проца образуется излишек возможностей отвода тепла и он может одно ядро разогнать.

Я даже не уверен что буст будет работать на двух ядрах одновременно, лучше заранее читать документацию на этот счёт.

 

Кроме того, 12 ядер - это числогрызка, типа под вычисления. Хз как там архитектурно устроено взаимодействие и какие пинальти он может получить когда потокам потребуется взаимодействовать. Те может статься что какой нибудь простой проц на 4 ядра его обойдёт за счёт более простой архитектуры.

Как раз этот пост - фантазии.

У интела на каждую модель с поддержкой turbo burst четко оговариваются частоты на которых камень будет работать при данном числе активных ядер.

Для 2690v3 - при 12 активных ядрах дополнительный множитель 5, при 2ух ядрах - 9. Т.е. максимальная частота камня при небольшой нагрузке будет 3.5Ггц, при полной - 3.1Ггц и никак иначе.

Турбо может отключаться разве что при перегреве(читай плохом охлаждении).

 

Очень удобный каталог на педивикии сделали, есть все камни с полными данными https://en.wikipedia.org/wiki/List_of_Intel_Xeon_microprocessors

 

Начиная с sandy bridge intel специально новую архитектуру запилил, для оптимизации внутренних соединений и возможности бесконечного наращивания числа блоков CPU. Все ядра имеют общий L3 кэш огромного объема, фактически никаких узких мест внутри CPU нет вообще.

Изменено пользователем kayot

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если поможет, у нас такая статистика по разным процам:

 

 

cpu: 2 * E5-2670 0 @ 2.60GHz (8-ядерные)

Трафик в пиках: 3.71 / 1.39 gbps (in/out) ; 304 / 402 kpps

cpu в пиках: ~25-27%

 

2 * X5660 @ 2.80GHz ( 6-ядерные )

Трафик в пиках: 5.82 / 1.87 gpbs ; 447 / 601 kpps ( in/out )

cpu в пиках: под 60%

( сейчас старичка разгрузили, под 2 гига гоняет с 10% cpu )

 

2 * E5-2680 v2 @ 2.80GHz (по 10 ядер)

Трафик в пиках: 3.04/1.06 gbps; 240/320 kpps

cpu: ~10-15% в пиках

 

2 * E5-2680 v2 @ 2.80GHz (по 10 ядер)

трафик: 4.4/1.3 gbps ; 900 / 380 kpps ( тут, где 900, навреное, заббикс зарегистрировал какой-то всплеск/ддос, лень копать график и искать :) )

cpu: 15-20%

 

 

На всех - X520-DA2

Задачи - nat, роутинг, немножко Linux ISG (практически не влияет на постоянную загрузку CPU)

 

При возможности x520-da2 создать дохрена очередей, а линуха - отлично параллелить нат, таки гораздо выгоднее получить дополнительно 2-4 ядра, чем 200-400 mhz на ядро

 

------

Надо сказать, что при достижении 50-60% нагрузки на проц, мы стараемся сразу же разгрузить машину, перекинув часть трафика на другую. Есть опасения, что дальше нагрузка может вырасти сильно нелинейно и резко, но мы пока так не вляпывались :)

 

Это у вас все на какой ОС крутится?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Но пока склоняюсь также к 2690v3 - 12 ядер, базовая частота 2600ГГц, но у них же есть TurboBoost, и у этой модели частота турбобуста 3500ГГц. Т.е. если всегда будет соответствующая нагрузка, то ядра и будут работать на этой частоте.

Это всё фантазии далёкие от реальности.

У проца есть TDP, в который он обязан вписываться иначе кристалл разрушится. Когда 11 ядер в IDLE спят (или какие там ещё энергосбережения, C-State), то у проца образуется излишек возможностей отвода тепла и он может одно ядро разогнать.

Я даже не уверен что буст будет работать на двух ядрах одновременно, лучше заранее читать документацию на этот счёт.

 

Кроме того, 12 ядер - это числогрызка, типа под вычисления. Хз как там архитектурно устроено взаимодействие и какие пинальти он может получить когда потокам потребуется взаимодействовать. Те может статься что какой нибудь простой проц на 4 ядра его обойдёт за счёт более простой архитектуры.

Как раз этот пост - фантазии.

У интела на каждую модель с поддержкой turbo burst четко оговариваются частоты на которых камень будет работать при данном числе активных ядер.

Для 2690v3 - при 12 активных ядрах дополнительный множитель 5, при 2ух ядрах - 9. Т.е. максимальная частота камня при небольшой нагрузке будет 3.5Ггц, при полной - 3.1Ггц и никак иначе.

Турбо может отключаться разве что при перегреве(читай плохом охлаждении).

 

Очень удобный каталог на педивикии сделали, есть все камни с полными данными https://en.wikipedia.org/wiki/List_of_Intel_Xeon_microprocessors

 

Начиная с sandy bridge intel специально новую архитектуру запилил, для оптимизации внутренних соединений и возможности бесконечного наращивания числа блоков CPU. Все ядра имеют общий L3 кэш огромного объема, фактически никаких узких мест внутри CPU нет вообще.

kayot, спасибо за столь полезную инфу. Всегда листал даташиты и подобной информации не обнаруживал.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Везде 2600, но мы и до 100% загрузки не доводим

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В cpuinfo текущую частоту не видно, нужно i7z собрать и посмотреть в онлайне.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Это у вас все на какой ОС крутится?

генту

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Продолжу свой топик.

Собрал сервер SuperMicro 6018R-WTR , приехали на тест от Intel 2 CPU E5-2643v3, память Samsung 4*16GB, по 2 планки на каждый CPU. Решил начать тест с FreeBSD. Установил 10.2-Stable, обновил дрова с сайта + обновил прошивку сетевой карты XL710:

dev.ixl.0.fw_version: f4.33 a1.2 n04.42 e8000191d
dev.ixl.0.current_speed: 10G
dev.ixl.0.advertise_speed: 0
dev.ixl.0.fc: 0
dev.ixl.0.%parent: pci129
dev.ixl.0.%pnpinfo: vendor=0x8086 device=0x1572 subvendor=0x8086 subdevice=0x0002 class=0x020000
dev.ixl.0.%location: slot=0 function=0 handle=\_SB_.PCI1.QR3A.H000
dev.ixl.0.%driver: ixl
dev.ixl.0.%desc: Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0

HyperThreading решил пока не выключать. Завернул часть трафика на NATилку:

# netstat -I ixl0 -w1 -h
           input           ixl0           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     187K     0     0        89M       242K     0       258M     0
     194K     0     0        88M       254K     0       276M     0
     193K     0     0        97M       249K     0       272M     0
     198K     0     0        92M       252K     0       272M     0
     188K     0     0        95M       237K     0       252M     0
     200K     0     0        95M       256K     0       277M     0

NAT на ipfw (libalias). Создал 255 инстансов, и разделил серые сети по /27 , чтобы распределить по инстансам.

# ipfw show
01500  922762059 1045496189330 nat tablearg ip from any to table(10) in recv ixl1
01600  660511156  274514772807 nat tablearg ip from table(11) to not table(69) out xmit ixl1
01700      42029       3015527 allow ip from table(111) to me dst-port 22,161,514
01800      44711      19336863 allow ip from me 22,161,514 to table(111)
01900        118          6131 deny ip from any to me dst-port 22,161,514
65535 1568417691 1303333872298 allow ip from any to any

Настройки sysctl и loader.conf:

# cat /boot/loader.conf 
kern.ipc.nmbclusters=524288
kern.ipc.nmbjumbop=524288
kern.ipc.somaxconn=65536
kern.ipc.maxsockets=409600
kern.maxfiles=512000
kern.maxfilesperproc=460800

hw.igb.lro=0
hw.ixl.ringsz=4096
hw.ixl.lro=0
hw.ixl.rxd=4096
hw.ixl.txd=4096
hw.ixl.rx_process_limit=4096
hw.ixl.tx_process_limit=4096
hw.intr_storm_threshold=0

net.link.ifqmaxlen=10240
net.isr.defaultqlimit=8192
net.isr.bindthreads=1
net.graph.maxalloc=65535
net.graph.maxdata=65535

# cat /etc/sysctl.conf 
hw.intr_storm_threshold=0
net.inet.ip.forwarding=1
net.inet.ip.fastforwarding=1

kern.ipc.nmbclusters=524288
kern.ipc.nmbjumbop=524288
kern.maxfiles=512000
kern.maxfilesperproc=460800

net.inet.ip.fw.one_pass=1
net.inet.icmp.drop_redirect=1
net.inet.ip.redirect=0

net.graph.recvspace=35000
net.graph.maxdgram=35000

kern.ipc.maxsockbuf=83886080
net.inet.ip.intr_queue_maxlen=10240

net.link.ether.inet.max_age=280
net.inet.tcp.blackhole=2          # drop any TCP packets to closed ports
net.inet.tcp.delayed_ack=0        # no need to delay ACK's
net.inet.tcp.drop_synfin=1        # drop TCP packets which have SYN and FIN set
net.inet.tcp.nolocaltimewait=1    # do not create TIME_WAIT state for localhost
net.inet.udp.blackhole=1          # drop any UDP packets to closed ports

Возникла странность, сетевая создала 24 очереди (прерываний) по кол-ву "ядер", но на деле используются только 16 из них:

irq284: ixl0:q0                 30617842        458
irq285: ixl0:q1                 60311881        902
irq286: ixl0:q2                 62017744        928
irq287: ixl0:q3                 64203042        961
irq288: ixl0:q4                 64641192        967
irq289: ixl0:q5                 63767954        954
irq290: ixl0:q6                 64306308        962
irq291: ixl0:q7                 59781737        894
irq292: ixl0:q8                 36886075        552
irq293: ixl0:q9                 33086015        495
irq294: ixl0:q10                34238790        512
irq295: ixl0:q11                34396514        514
irq296: ixl0:q12                36711555        549
irq297: ixl0:q13                35726036        534
irq298: ixl0:q14                34671789        518
irq299: ixl0:q15                34489509        516
irq300: ixl0:q16                13985190        209
irq301: ixl0:q17                    4798          0
irq302: ixl0:q18                    3931          0
irq303: ixl0:q19                    5310          0
irq304: ixl0:q20                    4458          0
irq305: ixl0:q21                    5064          0
irq306: ixl0:q22                    4939          0
irq307: ixl0:q23                    5522          0
irq309: ixl1:q0                 29774832        445
irq310: ixl1:q1                 68717936       1028
irq311: ixl1:q2                 71460042       1069
irq312: ixl1:q3                 66400119        993
irq313: ixl1:q4                 66562531        996
irq314: ixl1:q5                 67306669       1007
irq315: ixl1:q6                 66724145        998
irq316: ixl1:q7                 68564226       1026
irq317: ixl1:q8                 41138987        615
irq318: ixl1:q9                 43323322        648
irq319: ixl1:q10                41728108        624
irq320: ixl1:q11                45098030        675
irq321: ixl1:q12                38483231        576
irq322: ixl1:q13                38933315        582
irq323: ixl1:q14                39376606        589
irq324: ixl1:q15                37453635        560
irq325: ixl1:q16                14691831        219
irq326: ixl1:q17                      68          0
irq327: ixl1:q18                      60          0
irq328: ixl1:q19                     184          0
irq329: ixl1:q20                      77          0
irq330: ixl1:q21                      74          0
irq331: ixl1:q22                      70          0
irq332: ixl1:q23                      72          0

top -aSCHP

last pid:  3618;  load averages:  5.51,  4.92,  4.67                                                                                                                                                                      up 0+18:28:42  12:08:47
386 processes: 30 running, 210 sleeping, 146 waiting
CPU 0:   0.0% user,  0.0% nice,  0.0% system, 37.3% interrupt, 62.7% idle
CPU 1:   0.0% user,  0.0% nice,  0.0% system, 34.9% interrupt, 65.1% idle
CPU 2:   0.0% user,  0.0% nice,  0.0% system, 34.1% interrupt, 65.9% idle
CPU 3:   0.0% user,  0.0% nice,  0.0% system, 36.1% interrupt, 63.9% idle
CPU 4:   0.0% user,  0.0% nice,  0.0% system, 32.2% interrupt, 67.8% idle
CPU 5:   0.0% user,  0.0% nice,  0.0% system, 34.5% interrupt, 65.5% idle
CPU 6:   0.0% user,  0.0% nice,  0.0% system, 40.4% interrupt, 59.6% idle
CPU 7:   0.0% user,  0.0% nice,  0.0% system, 32.2% interrupt, 67.8% idle
CPU 8:   0.0% user,  0.0% nice,  0.0% system, 16.1% interrupt, 83.9% idle
CPU 9:   0.0% user,  0.0% nice,  0.0% system, 12.9% interrupt, 87.1% idle
CPU 10:  0.0% user,  0.0% nice,  0.0% system, 17.6% interrupt, 82.4% idle
CPU 11:  0.0% user,  0.0% nice,  0.0% system, 14.9% interrupt, 85.1% idle
CPU 12:  0.0% user,  0.0% nice,  0.4% system, 20.0% interrupt, 79.6% idle
CPU 13:  0.0% user,  0.0% nice,  0.4% system, 18.4% interrupt, 81.2% idle
CPU 14:  0.0% user,  0.0% nice,  0.0% system, 16.5% interrupt, 83.5% idle
CPU 15:  0.0% user,  0.0% nice,  1.6% system, 12.9% interrupt, 85.5% idle
CPU 16:  0.0% user,  0.0% nice,  0.8% system,  0.4% interrupt, 98.8% idle
CPU 17:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
CPU 18:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
CPU 19:  0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 20:  0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 21:  0.0% user,  0.0% nice,  1.2% system,  0.0% interrupt, 98.8% idle
CPU 22:  0.0% user,  0.0% nice,  0.4% system,  0.0% interrupt, 99.6% idle
CPU 23:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
Mem: 5732K Active, 41M Inact, 1468M Wired, 3356K Cache, 545M Buf, 61G Free
Swap: 3598M Total, 3598M Free

Разбираюсь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Парни есть новости по X710, собираюсь покупать новый тазик под NAT, думаю по прежнему брать 520 карту или уже можно X710

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вероятно 16 очередей - предел сетевухи, аппаратный.

Я бы начал с чтения документации к ней на эту тему.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вероятно 16 очередей - предел сетевухи, аппаратный.

Я бы начал с чтения документации к ней на эту тему.

Тоже так подумал, но eric из intel сообщает, что дрова поддерживают до 64 очередей. А аппаратная часть, на сколько я вычитал из даташита, поддерживает гораааздо больше 64-х.

Жду реакции от intel.

Столкнулся еще с другой странностью. Использую 2 интерфейса на карточке, из них в один идет трафик от/к серым сетям (ixl0), второй используется как внешний (ixl1), т.е. в него при(у)летают уже заNATченные пакеты. В плане маршрутизации сделал дефолт статиком на ixl1 через quagga-zebra:

default            2.2.2.2     UG1        ixl1

А на ixl0 поднял ospf и получил маршруты на внутренние сети. Поскольку ixl0 в отдельном влане и все маршруты имеют одинаковый next-hop, решил убрать динамику и сделать также статику (оптимизировать, так оптимизировать!), таблица маршрутизации сократилась до 8 маршрутов.

Добавил маршрут в зебре:

172.16.0.0/12      1.1.1.1      UG1        ixl0

Сделал это изменение вчера в ЧНН, тут же пошла деградация, дропы, pps упал и в top видно как irq от ixl стали кушать по 100%. Не стал мучить абонентов, вернул ospf. Сегодня с утра вернул статику, убрал ospf. Сначала деградации не было. Но около 13 часов началась опять эта же проблема. Началось это на следующих показателях: на каждой ixl было 265kpps/193kpps , трафика 2,39G/684M

Есть идеи, чем не понравилась оптимизация таблицы маршрутизации? Или может дело вообще не в ней.

 

P.S. Пока не решится проблема с очередями сетевой карты, в loader.conf сделал по 12 очередей на интерфейс, от ixl0 прибил к 0-11 ядрам, от ixl1 к 12-23 ядрам.

Изменено пользователем John_obn

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Может ещё мать что то не тянет, MSI-X не включено...

Дальше уже дрова с ядром ковырять.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

MSI-X включено конечно же:

hw.ixl.enable_msix: 1
ixl0: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfb000000-0xfb7fffff,0xfb818000-0xfb81ffff irq 64 at device 0.0 on pci129
ixl0: Using MSIX interrupts with 13 vectors
ixl0: f4.33 a1.2 n04.42 e8000191d
ixl0: Using defaults for TSO: 65518/35/2048
ixl0: Ethernet address: 68:05:ca:30:24:f0
ixl0: PCI Express Bus: Speed 8.0GT/s Width x8
ixl1: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfa800000-0xfaffffff,0xfb810000-0xfb817fff irq 64 at device 0.1 on pci129
ixl1: Using MSIX interrupts with 13 vectors
ixl1: f4.33 a1.2 n04.42 e8000191d
ixl1: Using defaults for TSO: 65518/35/2048
ixl1: Ethernet address: 68:05:ca:30:24:f1
ixl1: PCI Express Bus: Speed 8.0GT/s Width x8
ixl2: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfa000000-0xfa7fffff,0xfb808000-0xfb80ffff irq 64 at device 0.2 on pci129
ixl2: Using MSIX interrupts with 13 vectors
ixl2: f4.33 a1.2 n04.42 e8000191d
ixl2: Using defaults for TSO: 65518/35/2048
ixl2: Ethernet address: 68:05:ca:30:24:f2
ixl2: PCI Express Bus: Speed 8.0GT/s Width x8
ixl3: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xf9800000-0xf9ffffff,0xfb800000-0xfb807fff irq 64 at device 0.3 on pci129
ixl3: Using MSIX interrupts with 13 vectors
ixl3: f4.33 a1.2 n04.42 e8000191d
ixl3: Using defaults for TSO: 65518/35/2048
ixl3: Ethernet address: 68:05:ca:30:24:f3
ixl3: PCI Express Bus: Speed 8.0GT/s Width x8

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Промежуточные результаты после 2 суток теста 2*E5-2643v3:

1 сутки = ЧНН - HT enabled, кол-во очередей от сетевух = по 24 (кол-во ядер), из которых использовалось только 16 (ограничение/глюк драйвера 1.4.0 с intel).

518 kpps / 397 kpps - 4,67 Gbps / 1,6 Gbps - загрузка каждого из 16 ядер около 65% (от двух сетевух). Суммарно 1080% cpu load и соответственно 1320% idle.

2 сутки = ЧНН - HT enabled, кол-во очередей от сетевух = по 12, от ixl0 прибиты к CPU 0-11, от ixl1 прибиты к CPU 12-23.

практически те же самые kpps и Gbps, загрузка каждого ядра от ixl0 (у нее больше трафика TX) 35%, загрузка каждого ядра от ixl1 (у нее больше RX трафика) по 48-50%. Суммарная загрузка CPU почему то увеличилась: 1250%.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не удачно прибил, наверное - промахи кеша.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Последние 2 дня тестил pf с Hyper Threading и без него. Во-первых, pf очень порадовал своей SMPшностью, потому что последний раз, когда им пользовался, он еще не дружил с SMP.

Оба вечера были со следующими параметрами: 495 kpps / 355 kpps , 4.63 Gbps / 1.18 Gbps.

HT enabled: суммарная загрузка (возьмем 100% за полную загрузку) 33%, использовались ядра 0-15 (т.к.) дрова пока не умеют использовать больше, загрузка каждого 45%.

HT disabled (суммарно 12 реальных ядер, каждая сетевая использовала 12 очередей): суммарная загрузка 59%, каждое ядро загружено на ~40%.

Понимаю, что скорее всего HT дает + к latency. Также следует заметить что сетевая создает меньше очередей без HT.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Какой таз лучше справится с нагрузкой NAT/шейпер?

 

1) 2 х E5645 @ 2.40GHz 6 ядер каждый + 16Gb Ram + 82599 сетевка

2) 1 x E3-1230v2 @ 3.3 GHz + 16Gb Ram

 

Теор. трафик 4G/2G down/up

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если NAT + Shaper то ни какой:)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если NAT + Shaper то ни какой:)

 

а обоснование каково?

 

Есть Core i5 750 который еще сандибридж на 2.67GHz просасывает 1/0.4 при 18-20% на ядро в пиках от 1.5к хомяков

Есть E3-1220 V2 @ 3.10GHz примерно тот же трафик лопатит на 2-5% CPU

 

Есть желание поставить 1 + 1 на резерв), объединив несколько НАТилок

Изменено пользователем micol

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

всегда было интересно наблюдать за людьми, пытающимися оспорить смысл существования коммерческих производителей.

 

до определенных рамок всё можно сделать. а потом почему то справляются только специализированные разработки: чем бы они не были, софтом или железом.

 

вангую: когда Вы создадите такую же ОС (как например у А10) с shared memory и symetric-muliprocessor - вряд ли будете раздавать её бесплатно. всё остальное - демагогия в пользу бедных.

 

есть определенные цифры, которые можно достичь на одном и том же железе (немного утрирую) - но с разным софтом. и вот что-то, пока преимущества собранного на колене не наблюдается.

 

повторю идею - если производительность, самосборного решения устраивает - можно хоть на базе чайника собирать. в остальных случаях - добро пожаловать в жестокий мир денег и промышленных решений.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

повторю идею - если производительность, самосборного решения устраивает - можно хоть на базе чайника собирать. в остальных случаях - добро пожаловать в жестокий мир денег и промышленных решений.

 

Да никто не спорит что решение за 100500 денег в коробке будет сильное и производительное...

Я лишь хочу узнать под свои микрозадачи что лучше в качестве CPU под определенный трафик...

 

Пока склоняюсь к E3-1230v2, он мне кажется уделает двухпроцессорную систему на базе E5645

 

Если кто-то поднимал на этом НАТ и шейпер хотелось бы услышать за и против...

 

Голословно "не пойдет" не принимаю)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Приветствую всех.

Выбираю железо в машину под NAT на скоростях до 10G. Глядя на специализированные железки под NAT (эконат, А10), тяжело их назвать специализированными, т.к. железо используется то же, отличия только в софте, который, уверен, основан также на linux/freebsd. В несколько отдаленных планах есть установка Juniper MX104 + MS-MPC , но вынести NAT на отдельную железку возникла на ближайшее время.

 

Для протокола - А10 это и есть СПЕЦИАЛИЗИРОВАНОЕ устройство для NAT. Работает под управлением своей собственной ОС, которое имеет такое же отношение к Linux как скажем IOS или JunOS.

Чтобы быть эффективным НАТ, нужно в первую очередь иметь эффективное ПО, потому как большая часть операций происходит на уровне L4-L7, а не на L2-L3, которые можно зашить в специализирование чипы. На том же самом железе, А10 даст раз в 5 большую производительность, чем вы сможете получить на линухе. Даже виртуальная машина под управлением А10 покажет больше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

очередной рекламщик?

по делу - фортигейт отличные натилки

нат забирает очень много ресурсов, шейп так подавно - вместо они сожрут вообще всё что им можно дать, поэтому когда есть нагрузка больше двух гигов обычно разделяют задачи, одно под нат - второе шейпит

поэтому тут скорее 2 + 2 получится

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.