jab Опубликовано 8 августа, 2009 · Жалоба А с какими проблемами столкнулись при DX58SO в продакшине? Если выбирать Quad Q9550 (12M Cache, 2.83 GHz, 1333 MHz FSB) + Intel S3210SH и i7 920 + DX58SO насколько производительнее платформа на i7 показала себя в "сетевых" нуждах ? И насколько корявая и какие грабли скрывает DX58SO, как я понимаю раз в продакшене, значит преодолимые? Спасибо. Ну у меня i7 с htt быстрее c2q на тех же частотах раза в полтора минимум, а то и в два - думаю что результат интегрированного на чип контроллера памяти + DDR3. Корявый там биос, какие-то невоспроизводимые повторно глюки. То одно делает, то другое. Если просто запустить и не трогать - работает. Отличия от S3200 - нет VGA, нет PS/2, нет ATA. Ничего, короче, нет. ;-) И PCI всего один. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
X-RaY™ Опубликовано 8 августа, 2009 (изменено) · Жалоба Со всем, кроме "какие-то невоспроизводимые повторно глюки." можно было бы жить (( Спасибо за ответ, полез гуглить дальше. Может перестать есть и купить что нить на S5520 с ксеоном купить, потом второй докупить, вот только насколько там перекос в балансе деньги\производительность , думаю что очень и очень (( И еще подскажите пожалуйста, amd64 оправданный выбор для сетевых(nat, ng_car, mpd) целей? На файловых помойках, там где ZFS везде amd64. Изменено 8 августа, 2009 пользователем X-RaY™ Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 8 августа, 2009 · Жалоба И еще подскажите пожалуйста, amd64 оправданный выбор для сетевых(nat, ng_car, mpd) целей? На файловых помойках, там где ZFS везде amd64. Не знаю. У меня везде amd64. Но я не сую всё подряд в одну балалайку, nat отдельно, шейпер отдельно, mpd отдельно. Сильно облегчает диагностику. PS: Точнее не везде, а на core2, core i7 и на athlon64... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vIv Опубликовано 8 августа, 2009 · Жалоба На новых Интелях часто сетевухи Броадком, а с поллингом на них траблы у FreeBSD. Как это обходите? Или ну его нафиг, поллинг? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 8 августа, 2009 · Жалоба На новых Интелях часто сетевухи Броадком, а с поллингом на них траблы у FreeBSD. Как это обходите? Или ну его нафиг, поллинг? Грм... Ну во-первых я не беру сетевухи броадком, а интелям поллинг сейчас не обязателен. Он у меня только в специфических местах остался. :-) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vIv Опубликовано 8 августа, 2009 · Жалоба А если они на мать встроены уже - доставляешь интельные вместо родных? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Vanger_ Опубликовано 8 августа, 2009 · Жалоба насколько я помню джаб вообще говорил что везде ставит Intel PRO/1000 PT Dual, а встроенными сетевыми не пользуется Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 9 августа, 2009 · Жалоба А если они на мать встроены уже - доставляешь интельные вместо родных? Да не покупаю я такие матери, в которых бродком. Я лучше куплю мать вообще без сетевух и вставлю интелевые. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Giga-Byte Опубликовано 10 августа, 2009 · Жалоба А если они на мать встроены уже - доставляешь интельные вместо родных?как на одном форуме сказали: "выпаять и пропить" а вообще можно в бивисе отключить... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Giga-Byte Опубликовано 10 августа, 2009 · Жалоба ...Но я не сую всё подряд в одну балалайку, nat отдельно, шейпер отдельно, mpd отдельно. ... поясни, что значит шейпер отдельно, mpd отдельно: межабоненские пакеты на одном и томже сервере с mpd ходят на полной скорости? либо там тупо dummynet c mask dst-ip? ...Сильно облегчает диагностику. ... с этим полностью согласен. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 10 августа, 2009 · Жалоба поясни, что значит шейпер отдельно, mpd отдельно: межабоненские пакеты на одном и томже сервере с mpd ходят на полной скорости? либо там тупо dummynet c mask dst-ip? На полной скорости. Кроме провинившихся. То есть - шейпер там как вспомогательная функция, основной трафик в него не попадает и на нагрузку не влияет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
No_name Опубликовано 10 августа, 2009 · Жалоба А если они на мать встроены уже - доставляешь интельные вместо родных?...Я лучше куплю мать вообще без сетевух и вставлю интелевые. +1а вообще можно в бивисе отключить...Аналогично. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
X-RaY™ Опубликовано 10 августа, 2009 · Жалоба Люди знающие подскажите на S5520 82575NIC на чем сидит? не на pci-e 1 случаем? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 11 августа, 2009 · Жалоба На VESA local bus. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Stak Опубликовано 11 августа, 2009 · Жалоба ;) ПыСы: http://ru.wikipedia.org/wiki/VESA_Local_Bus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmokerMan Опубликовано 11 августа, 2009 · Жалоба Была у мя такая видюха... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nag-f Опубликовано 11 августа, 2009 · Жалоба Люди знающие подскажите на S5520 82575NIC на чем сидит? не на pci-e 1 случаем? PE1, PE2 3.3 V x4 10 Gb/s PCI x4 PCI Express* Gen1 throughput to Express* onboard NIC (82575EB) 5520 IOH PCI Gen1 Express* Ports Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kapa Опубликовано 14 августа, 2009 · Жалоба Пришли 2 карточки: Intel Gigabit Ethernet ET Dual Port Server Adapter Intel Gigabit Ethernet ET Quad Port Server Adapter те, которые в 7.2 Фре - igb. Кто-нибудь знает Direct Cache Access в драйвере есть? Вообще есть положительный опыт их использования у кого-нибудь? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alexandr Ovcharenko Опубликовано 14 августа, 2009 · Жалоба Не надо бояться, ;) быть первым почетно! Поделитесь результатами своих тестов плиз. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kapa Опубликовано 17 августа, 2009 (изменено) · Жалоба пока нет возможности потестить на нагрузке. DCA в дровах не нашёл. с родными FreeBSD 7.2 дровами 1.4.1 выглядит так: ps ax | grep igb 25 ?? WL 0:00,00 [irq256: igb0] 26 ?? WL 0:00,00 [irq257: igb0] 27 ?? WL 0:00,00 [irq258: igb0] 28 ?? DL 0:00,00 [igb0 taskq] с последними с сайта Интела 1.7.3 : ps ax | grep "igb" 25 ?? WL 0:00,00 [irq256: igb0] 26 ?? WL 0:00,00 [irq257: igb0] 27 ?? WL 0:00,00 [irq258: igb0] 28 ?? WL 0:00,00 [irq259: igb0] 29 ?? WL 0:00,00 [irq260: igb0] 30 ?? WL 0:00,00 [irq261: igb0] 31 ?? WL 0:00,00 [irq262: igb0] 32 ?? WL 0:00,00 [irq263: igb0] 33 ?? WL 0:00,00 [irq264: igb0] 34 ?? DL 0:00,00 [igb0 taskq] Интересно было бы почитать мнение Владимира wawa - вдруг он и для них драйвер сделает? :) Изменено 17 августа, 2009 пользователем kapa Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
[GP]Villi Опубликовано 17 августа, 2009 · Жалоба таки зачем? судя по выводу они и так паралеллятся нормально. Сколько CPU в системе? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kapa Опубликовано 17 августа, 2009 (изменено) · Жалоба таки зачем? судя по выводу они и так паралеллятся нормально. Сколько CPU в системе?кроме тредов в дровах от wawa убраны TX прерывания проц - 1 - 4-ядерник Xeon E5472 Изменено 17 августа, 2009 пользователем kapa Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
[GP]Villi Опубликовано 18 августа, 2009 · Жалоба а они когда то кого то сильно напрягали? количество тредов совсем ничем не регулируется в дровах на igb? не видно кстати что из них TX что RX. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kapa Опубликовано 19 августа, 2009 · Жалоба а они когда то кого то сильно напрягали?меня пару лет назад. после исключения ненужных прерываний прекратились потери пакетов и надолго.дрова отодвинули смену роутера на пол-года. количество тредов совсем ничем не регулируется в дровах на igb? не видно кстати что из них TX что RX.я не нашёл: sysctl -a | grep 'igb.0.' dev.igb.0.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.3 dev.igb.0.%driver: igb dev.igb.0.%location: slot=0 function=0 dev.igb.0.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000 dev.igb.0.%parent: pci7 dev.igb.0.debug: -1 dev.igb.0.stats: -1 dev.igb.0.flow_control: 3 dev.igb.0.enable_aim: 1 dev.igb.0.low_latency: 128 dev.igb.0.ave_latency: 450 dev.igb.0.bulk_latency: 1200 dev.igb.0.rx_processing_limit: 100 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
[GP]Villi Опубликовано 20 августа, 2009 · Жалоба /*** This will autoconfigure based on the number ** of CPUs if left at 0. Only a matched pair of ** TX and RX rings are allowed. */ static int igb_num_queues = 0; TUNABLE_INT("hw.igb.num_queues", &igb_num_queues); это в коде драйвера. т.е. по идее либо сам устанавливаешь, либо оно автоконфигурится. /* Figure out a reasonable auto config value */ queues = (mp_ncpus > ((msgs-1)/2)) ? (msgs-1)/2 : mp_ncpus; if (igb_num_queues == 0) igb_num_queues = queues; /* ** Two vectors (RX/TX pair) per queue ** plus an additional for Link interrupt */ want = (igb_num_queues * 2) + 1; if (msgs >= want) msgs = want; else { device_printf(adapter->dev, "MSIX Configuration Problem, " "%d vectors configured, but %d queues wanted!\n", msgs, want); return (ENXIO); } я не очень сильно понял, но помоему это алгоритм расчета. правда я непонимаю что делает выражение. в C++ не силен) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...