Convertir gráfica PCIe x16 a x1

Muy buenas gente,

Veréis, tengo un portátil HP Probook G1 que dispone de una ranura mini PCIe x1 que está ocupada por un tarjeta Wi-Fi. Estoy trabajando en el extranjero y cómo no quiero tener que cargar con una torre para jugar a juegos que requieran mucha poténcia gráfica he pensado que podría comprarme este adaptador:

http://www.ebay.com/itm/V8-0-EXP-GDC-Be ... Swvg9Xaa5i

Y quitar la tarjeta de Wi-Fi y comprarme una por USB. Aquí viene mi duda técnica:

- La tarjeta gráfica que querría meterle exterior sería una Radeon R7 260X que tengo por casa. Obviamente esta tarjeta gráfica es x16, creéis que me haría mucho cuello de botella el adaptador o directamente no llegaría a hacer cuello de botella ?

Un saludo y muchas gracias.
Tendrás cuello de bus de datos. Una gráfica en PCI-E 2.0 x8 pierde practicamente nada, en PCI-E 3.0 x8 nada pero en ambas a partir de x4 ya decae el rendimiento importantemente así que ya no hablemos de x1 y más si es PCI-E 2.0 (que en 3.0 pasaría igualemente).

No es nada recomendable.
Mi gozo en un pozo pues ... x_(

Gracias por tu respuesta.
Pues tanto como importantemente pues no. En un estudio realizado por TechPowerUp vemos que pasar en PCIE v2 de x16 a x4 se pierde ~11%, lo cual no es abrumador: aghora la cosa es ver cual es el ancho de banda que permite el slot x1 para extrapolar cual seria el rendimiento y tener una idea de cuanto porcentaje se pierde de x16 a x1

Imagen

hilo_pcie-1-1-2-0-o-3-0-estudio-de-escabilidad-de-pcie-e-impacto-en-juegos_2050604


.
TRASTARO escribió:Pues tanto como importantemente pues no.



Vale, las gráficas en PCI-E 1x van de lujo y más cuando se apoya uno en gráficos donde hasta en 4x ya se hunden así que lo mejor es animar a la gente a bajar a 1x por si va mejor.
En ese mismo estudio reconocieron que tampoco estaban seguros de la veracidad de los resultados ya que estaban emulando las distintas ranuras.

Yo tuve una 4870x2 en un pcie1.1 y funcionaba x1, uno de los cores de la grafica no funcionaba y a nada que habia ciertos tipos de carga grafica, el rendimiento caia a niveles ridiculos.

Probar una grafica con un riser de esos de x16 a x1 que os vais a reir.

http://arstech.com/install/cms-display/ste_spdtst1.html

Es con graficas viejas, pero ahi se ven perdidas de rendimiento hasta del 80 o 70% en 3D al usar una x16 en un x1

http://www.tomshardware.com/reviews/pci-express-2.0,1915-9.html

Y en este viene a pasar lo que decia antes, en algunos juegos imagino con ya mas carga grafica, empieza a notarse mucho, bajando hasta el 50% o mas, pero por lo general se pierde bastante.
Bueno, cuando estamos viendo un estudio donde se muestra l resultados empleando una tarjeta de video de gama alta, donde se requiere un alto ancho de banda y se muestra que no es tan grande la perdida sin ser significativa. Estamos hablando de una tarjeta de gama media que requerira o usara un ancho de banda algo menor con lo que el procentaje de perdida de eficiencia seria un poco menor al pasar de x16 a x4.

Malo cuando no leemos, ya que estoy diciendo que investigue cual es el ancho de banda del slot x1 para contrastando con el ancho de banda del x4 poder extrapolar una aproximacion de que porcentaje de eficiencia se tendria en ese slot x1, y asi decidir si vale la pena o no en una tarjeta de gama media.



.
TRASTARO escribió:Bueno, cuando estamos viendo un estudio donde se muestra l resultados empleando una tarjeta de video de gama alta, donde se requiere un alto ancho de banda y se muestra que no es tan grande la perdida sin ser significativa. Estamos hablando de una tarjeta de gama media que requerira o usara un ancho de banda algo menor con lo que el procentaje de perdida de eficiencia seria un poco menor al pasar de x16 a x4.

Malo cuando no leemos, ya que estoy diciendo que investigue cual es el ancho de banda del slot x1 para contrastando con el ancho de banda del x4 poder extrapolar una aproximacion de que porcentaje de eficiencia se tendria en ese slot x1, y asi decidir si vale la pena o no en una tarjeta de gama media.



Para empezar el rendimiento no es extrapolable y varía mucho entre modelos de tarjetas y no sólo marcas sin descontar que ya te ha dejado claro DFX que en ese estudio dejan claro que han emulado los puertos. Acusas a los demás de no leer pero mucho me temo que tú no te lees ni los test que aportas, sin descontar el animar a alguien a pinchar una gráfica en 1x y más en un riser.
Cuando me refiero a que se emularon los puertos me refiero a que se uso en todo momento una ranura 3.0, y se emulo la 2.0 y la 1.1, la cantidad de lineas si se capo físicamente en la tarjeta.

Y el tema es, que en las ranuras x1, cuando hay situaciones de mucha carga grafica, ese ancho de banda necesario hace que pierdas mucho mas de ese 25% que se veia en tu tabla TRASTARO, yo recuerdo cuando intente jugar al COD MW2 que tirabas a 60fps en interiores y a nada que salias a exteriores caías a 10~20fps, cosa que no pasaba cuando cambie de placa y ya podia usar el PCIE 2.0 x16.
Dfx escribió:Cuando me refiero a que se emularon los puertos me refiero a que se uso en todo momento una ranura 3.0, y se emulo la 2.0 y la 1.1, la cantidad de lineas si se capo físicamente en la tarjeta.



Claro, si emulaban la tarjeta gráfica iban a necesitar unos armarios guapos guapos (y enormes) como los que tiene Nvidia para emular sus gráficas antes de sacarlas al mercado para conocer el rendimiento final y no va a ser el caso.
Por cierto gente, y que me decís de los portátiles y Intel NUC de nueva generación que llevan ThunderVolt 3 ? Creéis que con las cajas que están preparando nVidia y AMD para meter sus respectivas gráficas externamente las VGA seguirán experimentando cuello de botella ? La velocidad de transferencia del Thundervolt 3 es de 40 Gbps .

Un saludo.
11 respuestas