Перейти к содержимому
Калькуляторы

Железо. Собираем идеальный софтовый роутер

А с какими проблемами столкнулись при DX58SO в продакшине? Если выбирать

Quad Q9550 (12M Cache, 2.83 GHz, 1333 MHz FSB) + Intel S3210SH

и

i7 920 + DX58SO

насколько производительнее платформа на i7 показала себя в "сетевых" нуждах ? И насколько корявая и какие грабли скрывает DX58SO, как я понимаю раз в продакшене, значит преодолимые?

Спасибо.

Ну у меня i7 с htt быстрее c2q на тех же частотах раза в полтора минимум, а то и в два - думаю что результат интегрированного на чип контроллера памяти + DDR3.

 

Корявый там биос, какие-то невоспроизводимые повторно глюки. То одно делает, то другое. Если просто запустить и не трогать - работает.

Отличия от S3200 - нет VGA, нет PS/2, нет ATA. Ничего, короче, нет. ;-) И PCI всего один.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Со всем, кроме "какие-то невоспроизводимые повторно глюки." можно было бы жить ((

Спасибо за ответ, полез гуглить дальше.

Может перестать есть и купить что нить на S5520 с ксеоном купить, потом второй докупить, вот только насколько там перекос в балансе деньги\производительность , думаю что очень и очень ((

 

И еще подскажите пожалуйста, amd64 оправданный выбор для сетевых(nat, ng_car, mpd) целей? На файловых помойках, там где ZFS везде amd64.

Изменено пользователем X-RaY™

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

И еще подскажите пожалуйста, amd64 оправданный выбор для сетевых(nat, ng_car, mpd) целей? На файловых помойках, там где ZFS везде amd64.

Не знаю. У меня везде amd64. Но я не сую всё подряд в одну балалайку, nat отдельно, шейпер отдельно, mpd отдельно. Сильно облегчает диагностику.

 

 

PS: Точнее не везде, а на core2, core i7 и на athlon64...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

На новых Интелях часто сетевухи Броадком, а с поллингом на них траблы у FreeBSD. Как это обходите? Или ну его нафиг, поллинг?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

На новых Интелях часто сетевухи Броадком, а с поллингом на них траблы у FreeBSD. Как это обходите? Или ну его нафиг, поллинг?

Грм... Ну во-первых я не беру сетевухи броадком, а интелям поллинг сейчас не обязателен. Он у меня только в специфических местах остался. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А если они на мать встроены уже - доставляешь интельные вместо родных?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

насколько я помню джаб вообще говорил что везде ставит Intel PRO/1000 PT Dual, а встроенными сетевыми не пользуется

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А если они на мать встроены уже - доставляешь интельные вместо родных?

Да не покупаю я такие матери, в которых бродком. Я лучше куплю мать вообще без сетевух и вставлю интелевые.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А если они на мать встроены уже - доставляешь интельные вместо родных?
как на одном форуме сказали: "выпаять и пропить"

 

а вообще можно в бивисе отключить...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

...

Но я не сую всё подряд в одну балалайку, nat отдельно, шейпер отдельно, mpd отдельно.

...

поясни, что значит шейпер отдельно, mpd отдельно: межабоненские пакеты на одном и томже сервере с mpd ходят на полной скорости?

либо там тупо dummynet c mask dst-ip?

 

...

Сильно облегчает диагностику.

...

с этим полностью согласен.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поясни, что значит шейпер отдельно, mpd отдельно: межабоненские пакеты на одном и томже сервере с mpd ходят на полной скорости?

либо там тупо dummynet c mask dst-ip?

На полной скорости. Кроме провинившихся. То есть - шейпер там как вспомогательная функция, основной трафик в него не попадает и на нагрузку не влияет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А если они на мать встроены уже - доставляешь интельные вместо родных?
...Я лучше куплю мать вообще без сетевух и вставлю интелевые.

+1
а вообще можно в бивисе отключить...
Аналогично.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Люди знающие подскажите на S5520 82575NIC на чем сидит? не на pci-e 1 случаем?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Была у мя такая видюха...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Люди знающие подскажите на S5520 82575NIC на чем сидит? не на pci-e 1 случаем?

PE1, PE2 3.3 V x4 10 Gb/s PCI x4 PCI Express* Gen1 throughput to

Express* onboard NIC (82575EB)

5520 IOH PCI

Gen1

Express* Ports

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Пришли 2 карточки:

Intel Gigabit Ethernet ET Dual Port Server Adapter

Intel Gigabit Ethernet ET Quad Port Server Adapter

 

те, которые в 7.2 Фре - igb.

 

Кто-нибудь знает Direct Cache Access в драйвере есть?

Вообще есть положительный опыт их использования у кого-нибудь?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не надо бояться, ;) быть первым почетно!

Поделитесь результатами своих тестов плиз.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

пока нет возможности потестить на нагрузке.

DCA в дровах не нашёл.

 

с родными FreeBSD 7.2 дровами 1.4.1 выглядит так:

ps ax | grep igb  
   25  ??  WL     0:00,00 [irq256: igb0]
   26  ??  WL     0:00,00 [irq257: igb0]
   27  ??  WL     0:00,00 [irq258: igb0]
   28  ??  DL     0:00,00 [igb0 taskq]

 

с последними с сайта Интела 1.7.3 :

ps ax | grep "igb"
   25  ??  WL     0:00,00 [irq256: igb0]
   26  ??  WL     0:00,00 [irq257: igb0]
   27  ??  WL     0:00,00 [irq258: igb0]
   28  ??  WL     0:00,00 [irq259: igb0]
   29  ??  WL     0:00,00 [irq260: igb0]
   30  ??  WL     0:00,00 [irq261: igb0]
   31  ??  WL     0:00,00 [irq262: igb0]
   32  ??  WL     0:00,00 [irq263: igb0]
   33  ??  WL     0:00,00 [irq264: igb0]
   34  ??  DL     0:00,00 [igb0 taskq]

 

Интересно было бы почитать мнение Владимира wawa - вдруг он и для них драйвер сделает? :)

Изменено пользователем kapa

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

таки зачем? судя по выводу они и так паралеллятся нормально. Сколько CPU в системе?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

таки зачем? судя по выводу они и так паралеллятся нормально. Сколько CPU в системе?

кроме тредов в дровах от wawa убраны TX прерывания

 

проц - 1 - 4-ядерник Xeon E5472

Изменено пользователем kapa

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а они когда то кого то сильно напрягали? количество тредов совсем ничем не регулируется в дровах на igb? не видно кстати что из них TX что RX.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а они когда то кого то сильно напрягали?

меня пару лет назад. после исключения ненужных прерываний прекратились потери пакетов и надолго.

дрова отодвинули смену роутера на пол-года.

 

количество тредов совсем ничем не регулируется в дровах на igb? не видно кстати что из них TX что RX.

я не нашёл:

 

sysctl -a | grep 'igb.0.'
dev.igb.0.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.3
dev.igb.0.%driver: igb
dev.igb.0.%location: slot=0 function=0
dev.igb.0.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000
dev.igb.0.%parent: pci7
dev.igb.0.debug: -1
dev.igb.0.stats: -1
dev.igb.0.flow_control: 3
dev.igb.0.enable_aim: 1
dev.igb.0.low_latency: 128
dev.igb.0.ave_latency: 450
dev.igb.0.bulk_latency: 1200
dev.igb.0.rx_processing_limit: 100

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

/*

** This will autoconfigure based on the number

** of CPUs if left at 0. Only a matched pair of

** TX and RX rings are allowed.

*/

static int igb_num_queues = 0;

TUNABLE_INT("hw.igb.num_queues", &igb_num_queues);

это в коде драйвера. т.е. по идее либо сам устанавливаешь, либо оно автоконфигурится.

 

/* Figure out a reasonable auto config value */

queues = (mp_ncpus > ((msgs-1)/2)) ? (msgs-1)/2 : mp_ncpus;

 

if (igb_num_queues == 0)

igb_num_queues = queues;

/*

** Two vectors (RX/TX pair) per queue

** plus an additional for Link interrupt

*/

want = (igb_num_queues * 2) + 1;

if (msgs >= want)

msgs = want;

else {

device_printf(adapter->dev,

"MSIX Configuration Problem, "

"%d vectors configured, but %d queues wanted!\n",

msgs, want);

return (ENXIO);

}

я не очень сильно понял, но помоему это алгоритм расчета. правда я непонимаю что делает выражение. в C++ не силен)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.