Jump to content
Калькуляторы

Какую сетевку использовать лучше на SRV? выбор карточки от Intel

Стоят две карты с e1000, часто дропы и ошибки.

Загрузка по softirq порядка 30%

 

Вот думаю как времянку махнуть сейчас сетевку, потому что новый серв будет только в сентябре.

Если поставить вот такое:

Intel Gigabit ET Dual Port

То как в целом?

Ось CentOS

или есть что-то другое на что стоит обратить внимание? траффик порядка 150-200мегабит.

Share this post


Link to post
Share on other sites

да, где-то пол года назад, дальше не рискую лезть, как говорится меньше лез туда где шевелится.

Share this post


Link to post
Share on other sites

На линусах были какие то проблемы с дропами на е1000, которые лечились обновлением с офф сайта интела.

Share this post


Link to post
Share on other sites

траффик порядка 150-200мегабит.

В каждую из сторон?

Может, в потолк PCI шины упираетесь? У нас потолок этот наблюдался где-то на 700 мбитах в сумме по шине...

Share this post


Link to post
Share on other sites

есть что-то другое на что стоит обратить внимание? траффик порядка 150-200мегабит.

NetXtreme Dual за $80.

Заменять Интел на Интел смысла имхо не имеет, т.к. проблема с большой вероятностью может оказаться в драйвере и настройках.

Естественно, Броадком проигрывает Интелу по производительности, но до 600мбпс это некритично.

Share this post


Link to post
Share on other sites

Если поставить вот такое:

Intel Gigabit ET Dual Port

То как в целом?

А чипсет у нее какой? Для себя на данный момент ничего лучше чем двухпортовые на 82576 не нашел.

Ось CentOS

или есть что-то другое на что стоит обратить внимание? траффик порядка 150-200мегабит.

Юзаю также на CentOS, на машине NAT, фаервол. Траф ~ 600М, без проблем. В ближайшем обозримом планируется рост до 800М.

Share this post


Link to post
Share on other sites

Заменять Интел на Интел смысла имхо не имеет

Да ну? А если учесть, что у интела у гигабитных карт аж 3 ветки драйверов, и если учесть что у ТС обычные PCI карты (e1000 - для pci карт), и что порог PCI шины теоретический - чуть более 1 гбит/с, а на практике - может и в 700 мбит/с упереться (как было у нас на марвеллах 8001 на PCI обеспечиваемой ICH7)? :)

Share this post


Link to post
Share on other sites

и если учесть что у ТС обычные PCI карты (e1000 - для pci карт)

Да, это я не заметил.

Тогда EXPI 9301, она же Intel CT.

Чип 82574L, драйвер e1000e.

Share this post


Link to post
Share on other sites

В общем поставщик пригнал что было:

 

01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
       Subsystem: Intel Corporation Gigabit ET Dual Port Server Adapter
       Flags: bus master, fast devsel, latency 0, IRQ 169
       Memory at feba0000 (32-bit, non-prefetchable) [size=128K]
       Memory at fdc00000 (32-bit, non-prefetchable) [size=4M]
       I/O ports at e880 [size=32]
       Memory at febd8000 (32-bit, non-prefetchable) [size=16K]
       Expansion ROM at fd800000 [disabled] [size=4M]
       Capabilities: [40] Power Management version 3
       Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
       Capabilities: [70] MSI-X: Enable+ Count=10 Masked-
       Capabilities: [a0] Express Endpoint, MSI 00
       Kernel driver in use: igb
       Kernel modules: igb

01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
       Subsystem: Intel Corporation Gigabit ET Dual Port Server Adapter
       Flags: bus master, fast devsel, latency 0, IRQ 74
       Memory at febe0000 (32-bit, non-prefetchable) [size=128K]
       Memory at fe400000 (32-bit, non-prefetchable) [size=4M]
       I/O ports at ec00 [size=32]
       Memory at febdc000 (32-bit, non-prefetchable) [size=16K]
       Expansion ROM at fe000000 [disabled] [size=4M]
       Capabilities: [40] Power Management version 3
       Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
       Capabilities: [70] MSI-X: Enable+ Count=10 Masked-
       Capabilities: [a0] Express Endpoint, MSI 00
       Kernel driver in use: igb
       Kernel modules: igb

#

 

 

Пока к сожалению процессор на сервере DualCore но уже едет нормальный камень, будем выжимать максимум.

По тому что есть, на графиках явно уменьшились всплески трафика, стали более ровные и стабильные, экспериментировать возможности нету, но уже лучше чем было.

К стати, пропали все error и другая ерунда в ethtool

 

 

# cat /proc/interrupts
          CPU0       CPU1
 0:  211121783      76893    IO-APIC-edge  timer
 1:          3        334    IO-APIC-edge  i8042
 7:          1          1    IO-APIC-edge  parport0
 8:          0          3    IO-APIC-edge  rtc
 9:          0          0   IO-APIC-level  acpi
12:          3          1    IO-APIC-edge  i8042
50:       4199  323428506       PCI-MSI-X  eth0-rx-0
58:       4089  322122401       PCI-MSI-X  eth0-rx-1
66:      10220  532469190       PCI-MSI-X  eth0-tx-0
82:          2          1       PCI-MSI-X  eth1
90:       2703  411292317       PCI-MSI-X  eth1-rx-0
98:  402891874          0       PCI-MSI-X  eth1-rx-1
106:  364756845          0       PCI-MSI-X  eth1-tx-0
169:          0          0   IO-APIC-level  uhci_hcd:usb5
201:    1242783        317   IO-APIC-level  uhci_hcd:usb4
209:          0          2   IO-APIC-level  ehci_hcd:usb1, uhci_hcd:usb2
217:          0          0   IO-APIC-level  uhci_hcd:usb3
225:       2118    2590899   IO-APIC-level  ata_piix
233:          3          0       PCI-MSI-X  eth0
NMI:          0          0
LOC:  212923705  212923705
ERR:          0
MIS:          0
#

 

 

# ethtool -S eth1
NIC statistics:
    rx_packets: 1377039635
    tx_packets: 1722983760
    rx_bytes: 732681008440
    tx_bytes: 1971564454518
    rx_broadcast: 2189542
    tx_broadcast: 2862442
    rx_multicast: 2116831
    tx_multicast: 1263410
    multicast: 2116831
    collisions: 0
    rx_crc_errors: 0
    rx_no_buffer_count: 0
    rx_missed_errors: 0
    tx_aborted_errors: 0
    tx_carrier_errors: 0
    tx_window_errors: 0
    tx_abort_late_coll: 0
    tx_deferred_ok: 0
    tx_single_coll_ok: 0
    tx_multi_coll_ok: 0
    tx_timeout_count: 0
    rx_long_length_errors: 12
    rx_short_length_errors: 0
    rx_align_errors: 0
    tx_tcp_seg_good: 0
    tx_tcp_seg_failed: 0
    rx_flow_control_xon: 0
    rx_flow_control_xoff: 0
    tx_flow_control_xon: 0
    tx_flow_control_xoff: 0
    rx_long_byte_count: 732681008440
    tx_dma_out_of_sync: 0
    tx_smbus: 0
    rx_smbus: 0
    dropped_smbus: 0
    os2bmc_rx_by_bmc: 0
    os2bmc_tx_by_bmc: 0
    os2bmc_tx_by_host: 0
    os2bmc_rx_by_host: 0
    rx_errors: 12
    tx_errors: 0
    tx_dropped: 0
    rx_length_errors: 12
    rx_over_errors: 0
    rx_frame_errors: 0
    rx_fifo_errors: 0
    tx_fifo_errors: 0
    tx_heartbeat_errors: 0
    tx_queue_0_packets: 1722983760
    tx_queue_0_bytes: 1957590936733
    tx_queue_0_restart: 0
    rx_queue_0_packets: 710520893
    rx_queue_0_bytes: 378735389924
    rx_queue_0_drops: 0
    rx_queue_0_csum_err: 0
    rx_queue_0_alloc_failed: 0
    rx_queue_1_packets: 666518741
    rx_queue_1_bytes: 342929863864
    rx_queue_1_drops: 0
    rx_queue_1_csum_err: 0
    rx_queue_1_alloc_failed: 0
#

Edited by Megas

Share this post


Link to post
Share on other sites

Очереди по ядрам бы раскидать...

Share this post


Link to post
Share on other sites

Приедет больше ядер, первое что сделаю.

Share this post


Link to post
Share on other sites

Пока к сожалению процессор на сервере DualCore но уже едет нормальный камень, будем выжимать максимум.

Чтоб выжать максимум с этого железа вам нужно поменять ОСь. ;)

Share this post


Link to post
Share on other sites

Скорее всего и этот 2-головый камушек не одну сотню мегабит успешно без напряга пережует ;) В top загляните, может, зря камень заказывали...

 

P.S. у нас 2-головый интел Е5700 что ли молотит несколько сот мбит как пппое брас + районный роутер, с одной PRO/1000CT.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this