nuclearcat Опубликовано 27 июля, 2015 · Жалоба nuclearcat, под отключением tuple я верно понимаю, что это механизм анализа пакета по его полям в заголовке (src/dst ip и т.п.)? Если да, для каких целей? Если шейпинг, разве linux не нужно знать dst/src ip и прочие данные? Каким образом отключаете? Для целей NAT его отключение не нужно, правильно я понимаю? У меня валило в лог сообщениями об ATR, к сожалению не сохранил, там похоже адаптивный механизм для сортирования по потокам и он переполнялся. IMHO, для роутеров эта карта на данный момент похуже X520. Но надо еще поколупаться Я сейчас в X710 попытался выключить tuple, использовал тазик для шейпинга (два vlan, bridge) - и все, приехали, перестало пропускать траффик с "чужими" маками. Похоже надо катать багрепорт слушай скажи плз сколько там прерываний в карте на порт? Равно количеству ядер. У меня: 186: 0 0 0 0 0 0 0 325976552 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 PCI-MSI-edge i40e-eth3-TxRx-31 P.S. Мне пришлось разбрасывание по прерываниям отключить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 28 июля, 2015 · Жалоба Подскажи, на что может быть способен для целей nat данный старичек, вернее пара старичков: Intel Xeon X5460 Harpertown (3166MHz, LGA771, L2 12288Kb, 1333MHz) На CoreDuo E8500 здесь больше гига прогоняли, лет 5 назад, думаю эта штука не хуже должна быть. Это больше гадание/прикидки. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
h3ll1 Опубликовано 28 июля, 2015 · Жалоба Ето же как и у Q6600. Один из личших процессоров интела. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 28 июля, 2015 (изменено) · Жалоба Но пока склоняюсь также к 2690v3 - 12 ядер, базовая частота 2600ГГц, но у них же есть TurboBoost, и у этой модели частота турбобуста 3500ГГц. Т.е. если всегда будет соответствующая нагрузка, то ядра и будут работать на этой частоте. Это всё фантазии далёкие от реальности. У проца есть TDP, в который он обязан вписываться иначе кристалл разрушится. Когда 11 ядер в IDLE спят (или какие там ещё энергосбережения, C-State), то у проца образуется излишек возможностей отвода тепла и он может одно ядро разогнать. Я даже не уверен что буст будет работать на двух ядрах одновременно, лучше заранее читать документацию на этот счёт. Кроме того, 12 ядер - это числогрызка, типа под вычисления. Хз как там архитектурно устроено взаимодействие и какие пинальти он может получить когда потокам потребуется взаимодействовать. Те может статься что какой нибудь простой проц на 4 ядра его обойдёт за счёт более простой архитектуры. Как раз этот пост - фантазии. У интела на каждую модель с поддержкой turbo burst четко оговариваются частоты на которых камень будет работать при данном числе активных ядер. Для 2690v3 - при 12 активных ядрах дополнительный множитель 5, при 2ух ядрах - 9. Т.е. максимальная частота камня при небольшой нагрузке будет 3.5Ггц, при полной - 3.1Ггц и никак иначе. Турбо может отключаться разве что при перегреве(читай плохом охлаждении). Очень удобный каталог на педивикии сделали, есть все камни с полными данными https://en.wikipedia.org/wiki/List_of_Intel_Xeon_microprocessors Начиная с sandy bridge intel специально новую архитектуру запилил, для оптимизации внутренних соединений и возможности бесконечного наращивания числа блоков CPU. Все ядра имеют общий L3 кэш огромного объема, фактически никаких узких мест внутри CPU нет вообще. Изменено 28 июля, 2015 пользователем kayot Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DoMeN1line Опубликовано 28 июля, 2015 · Жалоба Если поможет, у нас такая статистика по разным процам: cpu: 2 * E5-2670 0 @ 2.60GHz (8-ядерные) Трафик в пиках: 3.71 / 1.39 gbps (in/out) ; 304 / 402 kpps cpu в пиках: ~25-27% 2 * X5660 @ 2.80GHz ( 6-ядерные ) Трафик в пиках: 5.82 / 1.87 gpbs ; 447 / 601 kpps ( in/out ) cpu в пиках: под 60% ( сейчас старичка разгрузили, под 2 гига гоняет с 10% cpu ) 2 * E5-2680 v2 @ 2.80GHz (по 10 ядер) Трафик в пиках: 3.04/1.06 gbps; 240/320 kpps cpu: ~10-15% в пиках 2 * E5-2680 v2 @ 2.80GHz (по 10 ядер) трафик: 4.4/1.3 gbps ; 900 / 380 kpps ( тут, где 900, навреное, заббикс зарегистрировал какой-то всплеск/ддос, лень копать график и искать :) ) cpu: 15-20% На всех - X520-DA2 Задачи - nat, роутинг, немножко Linux ISG (практически не влияет на постоянную загрузку CPU) При возможности x520-da2 создать дохрена очередей, а линуха - отлично параллелить нат, таки гораздо выгоднее получить дополнительно 2-4 ядра, чем 200-400 mhz на ядро ------ Надо сказать, что при достижении 50-60% нагрузки на проц, мы стараемся сразу же разгрузить машину, перекинув часть трафика на другую. Есть опасения, что дальше нагрузка может вырасти сильно нелинейно и резко, но мы пока так не вляпывались :) Это у вас все на какой ОС крутится? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 30 июля, 2015 · Жалоба Но пока склоняюсь также к 2690v3 - 12 ядер, базовая частота 2600ГГц, но у них же есть TurboBoost, и у этой модели частота турбобуста 3500ГГц. Т.е. если всегда будет соответствующая нагрузка, то ядра и будут работать на этой частоте. Это всё фантазии далёкие от реальности. У проца есть TDP, в который он обязан вписываться иначе кристалл разрушится. Когда 11 ядер в IDLE спят (или какие там ещё энергосбережения, C-State), то у проца образуется излишек возможностей отвода тепла и он может одно ядро разогнать. Я даже не уверен что буст будет работать на двух ядрах одновременно, лучше заранее читать документацию на этот счёт. Кроме того, 12 ядер - это числогрызка, типа под вычисления. Хз как там архитектурно устроено взаимодействие и какие пинальти он может получить когда потокам потребуется взаимодействовать. Те может статься что какой нибудь простой проц на 4 ядра его обойдёт за счёт более простой архитектуры. Как раз этот пост - фантазии. У интела на каждую модель с поддержкой turbo burst четко оговариваются частоты на которых камень будет работать при данном числе активных ядер. Для 2690v3 - при 12 активных ядрах дополнительный множитель 5, при 2ух ядрах - 9. Т.е. максимальная частота камня при небольшой нагрузке будет 3.5Ггц, при полной - 3.1Ггц и никак иначе. Турбо может отключаться разве что при перегреве(читай плохом охлаждении). Очень удобный каталог на педивикии сделали, есть все камни с полными данными https://en.wikipedia.org/wiki/List_of_Intel_Xeon_microprocessors Начиная с sandy bridge intel специально новую архитектуру запилил, для оптимизации внутренних соединений и возможности бесконечного наращивания числа блоков CPU. Все ядра имеют общий L3 кэш огромного объема, фактически никаких узких мест внутри CPU нет вообще. kayot, спасибо за столь полезную инфу. Всегда листал даташиты и подобной информации не обнаруживал. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Wingman Опубликовано 31 июля, 2015 · Жалоба Везде 2600, но мы и до 100% загрузки не доводим Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 31 июля, 2015 · Жалоба В cpuinfo текущую частоту не видно, нужно i7z собрать и посмотреть в онлайне. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Wingman Опубликовано 31 июля, 2015 · Жалоба Это у вас все на какой ОС крутится? генту Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 19 августа, 2015 · Жалоба Продолжу свой топик. Собрал сервер SuperMicro 6018R-WTR , приехали на тест от Intel 2 CPU E5-2643v3, память Samsung 4*16GB, по 2 планки на каждый CPU. Решил начать тест с FreeBSD. Установил 10.2-Stable, обновил дрова с сайта + обновил прошивку сетевой карты XL710: dev.ixl.0.fw_version: f4.33 a1.2 n04.42 e8000191d dev.ixl.0.current_speed: 10G dev.ixl.0.advertise_speed: 0 dev.ixl.0.fc: 0 dev.ixl.0.%parent: pci129 dev.ixl.0.%pnpinfo: vendor=0x8086 device=0x1572 subvendor=0x8086 subdevice=0x0002 class=0x020000 dev.ixl.0.%location: slot=0 function=0 handle=\_SB_.PCI1.QR3A.H000 dev.ixl.0.%driver: ixl dev.ixl.0.%desc: Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0 HyperThreading решил пока не выключать. Завернул часть трафика на NATилку: # netstat -I ixl0 -w1 -h input ixl0 output packets errs idrops bytes packets errs bytes colls 187K 0 0 89M 242K 0 258M 0 194K 0 0 88M 254K 0 276M 0 193K 0 0 97M 249K 0 272M 0 198K 0 0 92M 252K 0 272M 0 188K 0 0 95M 237K 0 252M 0 200K 0 0 95M 256K 0 277M 0 NAT на ipfw (libalias). Создал 255 инстансов, и разделил серые сети по /27 , чтобы распределить по инстансам. # ipfw show 01500 922762059 1045496189330 nat tablearg ip from any to table(10) in recv ixl1 01600 660511156 274514772807 nat tablearg ip from table(11) to not table(69) out xmit ixl1 01700 42029 3015527 allow ip from table(111) to me dst-port 22,161,514 01800 44711 19336863 allow ip from me 22,161,514 to table(111) 01900 118 6131 deny ip from any to me dst-port 22,161,514 65535 1568417691 1303333872298 allow ip from any to any Настройки sysctl и loader.conf: # cat /boot/loader.conf kern.ipc.nmbclusters=524288 kern.ipc.nmbjumbop=524288 kern.ipc.somaxconn=65536 kern.ipc.maxsockets=409600 kern.maxfiles=512000 kern.maxfilesperproc=460800 hw.igb.lro=0 hw.ixl.ringsz=4096 hw.ixl.lro=0 hw.ixl.rxd=4096 hw.ixl.txd=4096 hw.ixl.rx_process_limit=4096 hw.ixl.tx_process_limit=4096 hw.intr_storm_threshold=0 net.link.ifqmaxlen=10240 net.isr.defaultqlimit=8192 net.isr.bindthreads=1 net.graph.maxalloc=65535 net.graph.maxdata=65535 # cat /etc/sysctl.conf hw.intr_storm_threshold=0 net.inet.ip.forwarding=1 net.inet.ip.fastforwarding=1 kern.ipc.nmbclusters=524288 kern.ipc.nmbjumbop=524288 kern.maxfiles=512000 kern.maxfilesperproc=460800 net.inet.ip.fw.one_pass=1 net.inet.icmp.drop_redirect=1 net.inet.ip.redirect=0 net.graph.recvspace=35000 net.graph.maxdgram=35000 kern.ipc.maxsockbuf=83886080 net.inet.ip.intr_queue_maxlen=10240 net.link.ether.inet.max_age=280 net.inet.tcp.blackhole=2 # drop any TCP packets to closed ports net.inet.tcp.delayed_ack=0 # no need to delay ACK's net.inet.tcp.drop_synfin=1 # drop TCP packets which have SYN and FIN set net.inet.tcp.nolocaltimewait=1 # do not create TIME_WAIT state for localhost net.inet.udp.blackhole=1 # drop any UDP packets to closed ports Возникла странность, сетевая создала 24 очереди (прерываний) по кол-ву "ядер", но на деле используются только 16 из них: irq284: ixl0:q0 30617842 458 irq285: ixl0:q1 60311881 902 irq286: ixl0:q2 62017744 928 irq287: ixl0:q3 64203042 961 irq288: ixl0:q4 64641192 967 irq289: ixl0:q5 63767954 954 irq290: ixl0:q6 64306308 962 irq291: ixl0:q7 59781737 894 irq292: ixl0:q8 36886075 552 irq293: ixl0:q9 33086015 495 irq294: ixl0:q10 34238790 512 irq295: ixl0:q11 34396514 514 irq296: ixl0:q12 36711555 549 irq297: ixl0:q13 35726036 534 irq298: ixl0:q14 34671789 518 irq299: ixl0:q15 34489509 516 irq300: ixl0:q16 13985190 209 irq301: ixl0:q17 4798 0 irq302: ixl0:q18 3931 0 irq303: ixl0:q19 5310 0 irq304: ixl0:q20 4458 0 irq305: ixl0:q21 5064 0 irq306: ixl0:q22 4939 0 irq307: ixl0:q23 5522 0 irq309: ixl1:q0 29774832 445 irq310: ixl1:q1 68717936 1028 irq311: ixl1:q2 71460042 1069 irq312: ixl1:q3 66400119 993 irq313: ixl1:q4 66562531 996 irq314: ixl1:q5 67306669 1007 irq315: ixl1:q6 66724145 998 irq316: ixl1:q7 68564226 1026 irq317: ixl1:q8 41138987 615 irq318: ixl1:q9 43323322 648 irq319: ixl1:q10 41728108 624 irq320: ixl1:q11 45098030 675 irq321: ixl1:q12 38483231 576 irq322: ixl1:q13 38933315 582 irq323: ixl1:q14 39376606 589 irq324: ixl1:q15 37453635 560 irq325: ixl1:q16 14691831 219 irq326: ixl1:q17 68 0 irq327: ixl1:q18 60 0 irq328: ixl1:q19 184 0 irq329: ixl1:q20 77 0 irq330: ixl1:q21 74 0 irq331: ixl1:q22 70 0 irq332: ixl1:q23 72 0 top -aSCHP last pid: 3618; load averages: 5.51, 4.92, 4.67 up 0+18:28:42 12:08:47 386 processes: 30 running, 210 sleeping, 146 waiting CPU 0: 0.0% user, 0.0% nice, 0.0% system, 37.3% interrupt, 62.7% idle CPU 1: 0.0% user, 0.0% nice, 0.0% system, 34.9% interrupt, 65.1% idle CPU 2: 0.0% user, 0.0% nice, 0.0% system, 34.1% interrupt, 65.9% idle CPU 3: 0.0% user, 0.0% nice, 0.0% system, 36.1% interrupt, 63.9% idle CPU 4: 0.0% user, 0.0% nice, 0.0% system, 32.2% interrupt, 67.8% idle CPU 5: 0.0% user, 0.0% nice, 0.0% system, 34.5% interrupt, 65.5% idle CPU 6: 0.0% user, 0.0% nice, 0.0% system, 40.4% interrupt, 59.6% idle CPU 7: 0.0% user, 0.0% nice, 0.0% system, 32.2% interrupt, 67.8% idle CPU 8: 0.0% user, 0.0% nice, 0.0% system, 16.1% interrupt, 83.9% idle CPU 9: 0.0% user, 0.0% nice, 0.0% system, 12.9% interrupt, 87.1% idle CPU 10: 0.0% user, 0.0% nice, 0.0% system, 17.6% interrupt, 82.4% idle CPU 11: 0.0% user, 0.0% nice, 0.0% system, 14.9% interrupt, 85.1% idle CPU 12: 0.0% user, 0.0% nice, 0.4% system, 20.0% interrupt, 79.6% idle CPU 13: 0.0% user, 0.0% nice, 0.4% system, 18.4% interrupt, 81.2% idle CPU 14: 0.0% user, 0.0% nice, 0.0% system, 16.5% interrupt, 83.5% idle CPU 15: 0.0% user, 0.0% nice, 1.6% system, 12.9% interrupt, 85.5% idle CPU 16: 0.0% user, 0.0% nice, 0.8% system, 0.4% interrupt, 98.8% idle CPU 17: 0.0% user, 0.0% nice, 0.8% system, 0.0% interrupt, 99.2% idle CPU 18: 0.0% user, 0.0% nice, 0.8% system, 0.0% interrupt, 99.2% idle CPU 19: 0.0% user, 0.0% nice, 1.6% system, 0.0% interrupt, 98.4% idle CPU 20: 0.0% user, 0.0% nice, 1.6% system, 0.0% interrupt, 98.4% idle CPU 21: 0.0% user, 0.0% nice, 1.2% system, 0.0% interrupt, 98.8% idle CPU 22: 0.0% user, 0.0% nice, 0.4% system, 0.0% interrupt, 99.6% idle CPU 23: 0.0% user, 0.0% nice, 0.8% system, 0.0% interrupt, 99.2% idle Mem: 5732K Active, 41M Inact, 1468M Wired, 3356K Cache, 545M Buf, 61G Free Swap: 3598M Total, 3598M Free Разбираюсь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alks Опубликовано 19 августа, 2015 · Жалоба Парни есть новости по X710, собираюсь покупать новый тазик под NAT, думаю по прежнему брать 520 карту или уже можно X710 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 20 августа, 2015 · Жалоба Вероятно 16 очередей - предел сетевухи, аппаратный. Я бы начал с чтения документации к ней на эту тему. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 20 августа, 2015 (изменено) · Жалоба Вероятно 16 очередей - предел сетевухи, аппаратный. Я бы начал с чтения документации к ней на эту тему. Тоже так подумал, но eric из intel сообщает, что дрова поддерживают до 64 очередей. А аппаратная часть, на сколько я вычитал из даташита, поддерживает гораааздо больше 64-х. Жду реакции от intel. Столкнулся еще с другой странностью. Использую 2 интерфейса на карточке, из них в один идет трафик от/к серым сетям (ixl0), второй используется как внешний (ixl1), т.е. в него при(у)летают уже заNATченные пакеты. В плане маршрутизации сделал дефолт статиком на ixl1 через quagga-zebra: default 2.2.2.2 UG1 ixl1 А на ixl0 поднял ospf и получил маршруты на внутренние сети. Поскольку ixl0 в отдельном влане и все маршруты имеют одинаковый next-hop, решил убрать динамику и сделать также статику (оптимизировать, так оптимизировать!), таблица маршрутизации сократилась до 8 маршрутов. Добавил маршрут в зебре: 172.16.0.0/12 1.1.1.1 UG1 ixl0 Сделал это изменение вчера в ЧНН, тут же пошла деградация, дропы, pps упал и в top видно как irq от ixl стали кушать по 100%. Не стал мучить абонентов, вернул ospf. Сегодня с утра вернул статику, убрал ospf. Сначала деградации не было. Но около 13 часов началась опять эта же проблема. Началось это на следующих показателях: на каждой ixl было 265kpps/193kpps , трафика 2,39G/684M Есть идеи, чем не понравилась оптимизация таблицы маршрутизации? Или может дело вообще не в ней. P.S. Пока не решится проблема с очередями сетевой карты, в loader.conf сделал по 12 очередей на интерфейс, от ixl0 прибил к 0-11 ядрам, от ixl1 к 12-23 ядрам. Изменено 20 августа, 2015 пользователем John_obn Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 20 августа, 2015 · Жалоба Может ещё мать что то не тянет, MSI-X не включено... Дальше уже дрова с ядром ковырять. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 21 августа, 2015 · Жалоба MSI-X включено конечно же: hw.ixl.enable_msix: 1 ixl0: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfb000000-0xfb7fffff,0xfb818000-0xfb81ffff irq 64 at device 0.0 on pci129 ixl0: Using MSIX interrupts with 13 vectors ixl0: f4.33 a1.2 n04.42 e8000191d ixl0: Using defaults for TSO: 65518/35/2048 ixl0: Ethernet address: 68:05:ca:30:24:f0 ixl0: PCI Express Bus: Speed 8.0GT/s Width x8 ixl1: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfa800000-0xfaffffff,0xfb810000-0xfb817fff irq 64 at device 0.1 on pci129 ixl1: Using MSIX interrupts with 13 vectors ixl1: f4.33 a1.2 n04.42 e8000191d ixl1: Using defaults for TSO: 65518/35/2048 ixl1: Ethernet address: 68:05:ca:30:24:f1 ixl1: PCI Express Bus: Speed 8.0GT/s Width x8 ixl2: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xfa000000-0xfa7fffff,0xfb808000-0xfb80ffff irq 64 at device 0.2 on pci129 ixl2: Using MSIX interrupts with 13 vectors ixl2: f4.33 a1.2 n04.42 e8000191d ixl2: Using defaults for TSO: 65518/35/2048 ixl2: Ethernet address: 68:05:ca:30:24:f2 ixl2: PCI Express Bus: Speed 8.0GT/s Width x8 ixl3: <Intel(R) Ethernet Connection XL710 Driver, Version - 1.4.0> mem 0xf9800000-0xf9ffffff,0xfb800000-0xfb807fff irq 64 at device 0.3 on pci129 ixl3: Using MSIX interrupts with 13 vectors ixl3: f4.33 a1.2 n04.42 e8000191d ixl3: Using defaults for TSO: 65518/35/2048 ixl3: Ethernet address: 68:05:ca:30:24:f3 ixl3: PCI Express Bus: Speed 8.0GT/s Width x8 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 21 августа, 2015 · Жалоба Промежуточные результаты после 2 суток теста 2*E5-2643v3: 1 сутки = ЧНН - HT enabled, кол-во очередей от сетевух = по 24 (кол-во ядер), из которых использовалось только 16 (ограничение/глюк драйвера 1.4.0 с intel). 518 kpps / 397 kpps - 4,67 Gbps / 1,6 Gbps - загрузка каждого из 16 ядер около 65% (от двух сетевух). Суммарно 1080% cpu load и соответственно 1320% idle. 2 сутки = ЧНН - HT enabled, кол-во очередей от сетевух = по 12, от ixl0 прибиты к CPU 0-11, от ixl1 прибиты к CPU 12-23. практически те же самые kpps и Gbps, загрузка каждого ядра от ixl0 (у нее больше трафика TX) 35%, загрузка каждого ядра от ixl1 (у нее больше RX трафика) по 48-50%. Суммарная загрузка CPU почему то увеличилась: 1250%. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 21 августа, 2015 · Жалоба Не удачно прибил, наверное - промахи кеша. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
John_obn Опубликовано 27 августа, 2015 · Жалоба Последние 2 дня тестил pf с Hyper Threading и без него. Во-первых, pf очень порадовал своей SMPшностью, потому что последний раз, когда им пользовался, он еще не дружил с SMP. Оба вечера были со следующими параметрами: 495 kpps / 355 kpps , 4.63 Gbps / 1.18 Gbps. HT enabled: суммарная загрузка (возьмем 100% за полную загрузку) 33%, использовались ядра 0-15 (т.к.) дрова пока не умеют использовать больше, загрузка каждого 45%. HT disabled (суммарно 12 реальных ядер, каждая сетевая использовала 12 очередей): суммарная загрузка 59%, каждое ядро загружено на ~40%. Понимаю, что скорее всего HT дает + к latency. Также следует заметить что сетевая создает меньше очередей без HT. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
micol Опубликовано 2 сентября, 2015 · Жалоба Какой таз лучше справится с нагрузкой NAT/шейпер? 1) 2 х E5645 @ 2.40GHz 6 ядер каждый + 16Gb Ram + 82599 сетевка 2) 1 x E3-1230v2 @ 3.3 GHz + 16Gb Ram Теор. трафик 4G/2G down/up Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Сиськовед Опубликовано 2 сентября, 2015 · Жалоба Если NAT + Shaper то ни какой:) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
micol Опубликовано 2 сентября, 2015 (изменено) · Жалоба Если NAT + Shaper то ни какой:) а обоснование каково? Есть Core i5 750 который еще сандибридж на 2.67GHz просасывает 1/0.4 при 18-20% на ядро в пиках от 1.5к хомяков Есть E3-1220 V2 @ 3.10GHz примерно тот же трафик лопатит на 2-5% CPU Есть желание поставить 1 + 1 на резерв), объединив несколько НАТилок Изменено 2 сентября, 2015 пользователем micol Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ibk74 Опубликовано 2 сентября, 2015 · Жалоба всегда было интересно наблюдать за людьми, пытающимися оспорить смысл существования коммерческих производителей. до определенных рамок всё можно сделать. а потом почему то справляются только специализированные разработки: чем бы они не были, софтом или железом. вангую: когда Вы создадите такую же ОС (как например у А10) с shared memory и symetric-muliprocessor - вряд ли будете раздавать её бесплатно. всё остальное - демагогия в пользу бедных. есть определенные цифры, которые можно достичь на одном и том же железе (немного утрирую) - но с разным софтом. и вот что-то, пока преимущества собранного на колене не наблюдается. повторю идею - если производительность, самосборного решения устраивает - можно хоть на базе чайника собирать. в остальных случаях - добро пожаловать в жестокий мир денег и промышленных решений. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
micol Опубликовано 2 сентября, 2015 · Жалоба повторю идею - если производительность, самосборного решения устраивает - можно хоть на базе чайника собирать. в остальных случаях - добро пожаловать в жестокий мир денег и промышленных решений. Да никто не спорит что решение за 100500 денег в коробке будет сильное и производительное... Я лишь хочу узнать под свои микрозадачи что лучше в качестве CPU под определенный трафик... Пока склоняюсь к E3-1230v2, он мне кажется уделает двухпроцессорную систему на базе E5645 Если кто-то поднимал на этом НАТ и шейпер хотелось бы услышать за и против... Голословно "не пойдет" не принимаю) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ciberkot Опубликовано 2 сентября, 2015 · Жалоба Приветствую всех. Выбираю железо в машину под NAT на скоростях до 10G. Глядя на специализированные железки под NAT (эконат, А10), тяжело их назвать специализированными, т.к. железо используется то же, отличия только в софте, который, уверен, основан также на linux/freebsd. В несколько отдаленных планах есть установка Juniper MX104 + MS-MPC , но вынести NAT на отдельную железку возникла на ближайшее время. Для протокола - А10 это и есть СПЕЦИАЛИЗИРОВАНОЕ устройство для NAT. Работает под управлением своей собственной ОС, которое имеет такое же отношение к Linux как скажем IOS или JunOS. Чтобы быть эффективным НАТ, нужно в первую очередь иметь эффективное ПО, потому как большая часть операций происходит на уровне L4-L7, а не на L2-L3, которые можно зашить в специализирование чипы. На том же самом железе, А10 даст раз в 5 большую производительность, чем вы сможете получить на линухе. Даже виртуальная машина под управлением А10 покажет больше. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
GrandPr1de Опубликовано 2 сентября, 2015 · Жалоба очередной рекламщик? по делу - фортигейт отличные натилки нат забирает очень много ресурсов, шейп так подавно - вместо они сожрут вообще всё что им можно дать, поэтому когда есть нагрузка больше двух гигов обычно разделяют задачи, одно под нат - второе шейпит поэтому тут скорее 2 + 2 получится Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...