DemYaN Posted March 4, 2009 Posted March 4, 2009 Встречались ли у кого-нибудь проблемы при установке PCIe сетевого адаптера в PEG-слот (16x слот для графического адаптера)? Встречал много мнений "теоретических мнений" что должно работать, так и таких что работать будет, но шина переключится в режим 1x. А как дело обстоит на практике? Вставить ник Quote
m_medved Posted March 4, 2009 Posted March 4, 2009 (edited) У вас 10GE-адаптер? Если нет, то даже если переключится, то 1x вам хватит. Пробовал втыкивать, у меня работает, разве что у меня сетевка с 1x-дыркой. Edited March 4, 2009 by m_medved Вставить ник Quote
DemYaN Posted March 4, 2009 Author Posted March 4, 2009 2-x портовая EXPI9400PT работает на 4x Вставить ник Quote
m_medved Posted March 4, 2009 Posted March 4, 2009 «Пропускная способность соединения lane (одного икса то бишь) составляет 2,5 Гбит/с. [...] каждом соединении передача дуплексная» Вставить ник Quote
m_medved Posted March 4, 2009 Posted March 4, 2009 не работает, надо перепаивать что с чем? Вставить ник Quote
jab Posted March 4, 2009 Posted March 4, 2009 не работает, надо перепаиватьчто с чем? PCIe NIC 4-x с PEG-слотом. Нужно или перепаивать ножки у чипа на сетевухе, или просверлить отверстие в северном мосту на расстоянии 2мм от левого верхнего угла Вставить ник Quote
m_medved Posted March 4, 2009 Posted March 4, 2009 Когда мне захотелось воткнуть дисковый контроллер с 8x-интерфейсом, я погуглил эту задачу, и нашел описание только одного проблемного случая, когда линии в слоте были разведены в обратном порядке (предположение гласило, что девайс не согласует подключение, если первая линия не будет к нему подключена). Контроллер у меня завелся без проблем :) Когда тыкал сетевку в 16x-слот на SLI-плате, она не завелась во втором слоте — оказалось достаточно включить режим «dual video» в биосе. PCIe NIC 4-x с PEG-слотом. Нужно или перепаивать ножки у чипа на сетевухе, или просверлить отверстие в северном мосту на расстоянии 2мм от левого верхнего углакакие ножки, там же шары? :):) Вставить ник Quote
IvanI Posted March 4, 2009 Posted March 4, 2009 просверлить отверстие в северном мосту на расстоянии 2мм от левого верхнего углаВ какую сторону 2 мм?Чето даже не задумывался втыкая сетевуху и раид в видяшный слот :) Вставить ник Quote
jab Posted March 4, 2009 Posted March 4, 2009 Ну например компания Asus вообще не знала, что можно в PEG слот втыкать что-то, кроме видеокарт. :-) Поэтому на некоторых её материнках pcie сетевухи глючили. Через три месяца переписки с саппортом выпустили обновления биоса. просверлить отверстие в северном мосту на расстоянии 2мм от левого верхнего углаВ какую сторону 2 мм?Чето даже не задумывался втыкая сетевуху и раид в видяшный слот :) Вправо-вниз. Сверло взять победитовое по металлу, 1мм. Вставить ник Quote
jab Posted March 4, 2009 Posted March 4, 2009 Ну а чего, процессоры же сверлили раньше для разгона Вставить ник Quote
DemYaN Posted March 4, 2009 Author Posted March 4, 2009 (edited) жесть :) те на Asus реально завести 1x, а с 4x - нет шансов(ну кроме как сверлить/перепаивать :) )? а как у других производителей, у того же Intel? Edited March 4, 2009 by DemYaN Вставить ник Quote
jab Posted March 4, 2009 Posted March 4, 2009 у Intel все гораздо хуже... тут пол-форума забито жалобами на 3000-ную платформу Вставить ник Quote
DemYaN Posted March 4, 2009 Author Posted March 4, 2009 Сам использую S3210SHLC - не нравится, однако есть и 8x и 4x слоты. Вот хотелось сэкономить - воспользоваться PEG-слотом на desktop-платформе Вставить ник Quote
jab Posted March 4, 2009 Posted March 4, 2009 вообще интель выпускает специальный service kit, для перепайки сетевух и просверливания южных мостов, но их можно получить только в авторизованых сервис-центрах Вставить ник Quote
Nic Posted March 4, 2009 Posted March 4, 2009 жжоте товарищи. если производитель материнки стандарт на PCIe выполнил, то можно втыкать хоть черта лысого. Вставить ник Quote
DemYaN Posted March 5, 2009 Author Posted March 5, 2009 жжоте товарищи.если производитель материнки стандарт на PCIe выполнил, то можно втыкать хоть черта лысого. ключевое слово - если Вставить ник Quote
martin74 Posted March 5, 2009 Posted March 5, 2009 asus p5q. В матери стоит 3 двухпортовых сетевых. Пробовал четыре четырех портовых - все работало ровно Вставить ник Quote
DemYaN Posted March 5, 2009 Author Posted March 5, 2009 (edited) asus p5q. В матери стоит 3 двухпортовых сетевых. Пробовал четыре четырех портовых - все работало ровно В p5q 3 x PCIex1 и 2 x PCIex16, получается у вас карты работают в режиме x1 ? Но EXPI9402PT требует x4-8-16 Вот карта EXPI9402PT в x8 слоте: # lspci -s 01:00.0 01:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) # lspci -s 01:00.1 01:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) # lspci -vv -s 01:00.0 | grep LnkSta LnkSta: Speed 2.5GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt- # lspci -vv -s 01:00.1 | grep LnkSta LnkSta: Speed 2.5GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt- А вот встроенный на матери 82573L, очевидно подключен через x1: lspci -s 0f:00.0 0f:00.0 Ethernet controller: Intel Corporation 82573L Gigabit Ethernet Controller # lspci -vv -s 0f:00.0 | grep LnkSta LnkSta: Speed 2.5GT/s, Width x1, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt- Edited March 5, 2009 by DemYaN Вставить ник Quote
IvanI Posted March 5, 2009 Posted March 5, 2009 вообщето в asus p5q - 1xPCI-E 16x, 2xPCI-E 1x, 3xPCI в p5q-e, P5Q Deluxe, P5Q3 Deluxe - 3xPCI-E 16x, 2xPCI-E 1x, 2xPCI в ASUS P5Q3 - 2xPCI-E 16x, 3xPCI-E 1x, 2xPCI Вставить ник Quote
martin74 Posted March 5, 2009 Posted March 5, 2009 Base Board Information Manufacturer: ASUSTeK Computer INC. Product Name: P5Q Premium Version: Rev 1.xx 01:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) 01:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) 02:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) 02:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) 0a:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) 0a:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) На матери еще 4 встроенных сетевых, они отключены. Сейчас стоят двухпортовки, три штуки. Когда мать привезли - то ради попробовать поставили 4 4-ре портовки. Knoppix 5.1 при загрузке увидел сетевые от eth0 до eth20. eth0 - iee1394, остальное - сеть... Погоняли пинги - все сетевые работали, включались и т.п... Вставить ник Quote
DemYaN Posted March 5, 2009 Author Posted March 5, 2009 На матери еще 4 встроенных сетевых, они отключены. Сейчас стоят двухпортовки, три штуки.Когда мать привезли - то ради попробовать поставили 4 4-ре портовки. Knoppix 5.1 при загрузке увидел сетевые от eth0 до eth20. eth0 - iee1394, остальное - сеть... Погоняли пинги - все сетевые работали, включались и т.п... А можно глянуть LnkSta для этих карт? lspci -vv -s 0f:00.0 | grep LnkSta lspci -vv -s 01:00.1 | grep LnkSta .... Вставить ник Quote
martin74 Posted March 5, 2009 Posted March 5, 2009 [root@router ~]# lspci -vv -s 01:00.0 01:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controller (rev 06) Subsystem: Intel Corporation PRO/1000 PT Dual Port Server Adapter Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- Latency: 0, Cache Line Size: 32 bytes Interrupt: pin A routed to IRQ 114 Region 0: Memory at fcd80000 (32-bit, non-prefetchable) Region 1: Memory at fcd60000 (32-bit, non-prefetchable) Region 2: I/O ports at c880 Expansion ROM at fcd40000 [disabled] Capabilities: [c8] Power Management version 2 Flags: PMEClk- DSI+ D1- D2- AuxCurrent=0mA PME(D0+,D1-,D2-,D3hot+,D3cold+) Status: D0 PME-Enable- DSel=0 DScale=1 PME- Capabilities: [d0] Message Signalled Interrupts: 64bit+ Queue=0/0 Enable+ Address: 00000000fee01000 Data: 4072 Capabilities: [e0] Express Endpoint IRQ 0 Device: Supported: MaxPayload 256 bytes, PhantFunc 0, ExtTag- Device: Latency L0s <512ns, L1 <64us Device: AtnBtn- AtnInd- PwrInd- Device: Errors: Correctable- Non-Fatal- Fatal- Unsupported- Device: RlxdOrd+ ExtTag- PhantFunc- AuxPwr- NoSnoop+ Device: MaxPayload 128 bytes, MaxReadReq 512 bytes Link: Supported Speed 2.5Gb/s, Width x4, ASPM L0s, Port 0 Link: Latency L0s <4us, L1 <64us Link: ASPM Disabled RCB 64 bytes CommClk+ ExtSynch- Link: Speed 2.5Gb/s, Width x4 Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.