AMD RDNA3 "RX 7000" GPU.

HaGeK escribió:@hh1 pues 200e, lo hago mas que nada por el cacharreo, es mejor esta tarjeta que comento, con RT activado? O me quedo como estoy y me dejo de consumismo jeje.

Por 200€ chico...hazlo.
No sé qué piensas... [+risas] [beer]
hh1 escribió:
HaGeK escribió:@hh1 pues 200e, lo hago mas que nada por el cacharreo, es mejor esta tarjeta que comento, con RT activado? O me quedo como estoy y me dejo de consumismo jeje.

Por 200€ chico...hazlo.
No sé qué piensas... [+risas] [beer]


Pues no sé cómo son sus cuentas porque su 3080ti me la deja en 600 doy por hecho, el resto de dónde lo saca??
hh1 escribió:
HaGeK escribió:@hh1 pues 200e, lo hago mas que nada por el cacharreo, es mejor esta tarjeta que comento, con RT activado? O me quedo como estoy y me dejo de consumismo jeje.

Por 200€ chico...hazlo.
No sé qué piensas... [+risas] [beer]


cambiar una 3080 por una 7900 XT ? ni de broma, si fuera una 7900 XTX ...
Pienso lo mismo yo una 3080 no la cambiaba por una 7900 XT, por la XTX si que merece la pena y mucho, igualmente pienso que el margen de mejora de ambas tarjetas con los paso de los nuevos drivers que vendrán va a ser notable, pero básicamente son suposiciones claro está.

Y otra cosa que es digna de mencionar al señor personaje del foro que se dedica a pasar por todos los hilos a postear cuando sale cualquier mierda de AMD y a encumbrar todo lo que hacen los de NVIDiA, me caben dos posibilidades o tiene 12 años o tiene una vida muy triste, espero que la tarjeta te la regalen chico por qué desde luego jamás entenderé a los borregos que tienen la imperiosa necesidad de ir de defensores de una multinacional que solo te ve como lo que eres, otro cliente más al que sacarle los cuartos, cuando estás tan contento con algo no deberías tener la imperiosa necesidad de ir por los foros única y exclusivamente desprestigiando, alabando lo que va mal en la acera del vecino y encima dando lecciones de moral a la gente sobre lo que es bueno o malo cuando encima no es tu dinero, te voy a explicar de manera breve una cosita por culpa de gente como tú tenemos lo que tenemos, por qué cuando hay gente con capacidad de análisis 0 y todavía menos de crítica pues las compañías nos toman por gilipollas, y luego como buenos españoles que somos vamos a arreglar el mundo con el colega en el bar que es donde se cambian las cosas, el día que te des cuenta que el dinero es tuyo y que para unos y otros somo unos putos euros con patas empezarás a entender que los fanatismos no traen nada bueno, ala chico sigue con tu cruzada por los foros para demostrar lo buena que es tu compra y lo mala que es la de los demás, deberías de valorar lo triste que es ir haciendo eso, aquí estamos para aportar y ayudar....
maikel_eol escribió:
hh1 escribió:
HaGeK escribió:@hh1 pues 200e, lo hago mas que nada por el cacharreo, es mejor esta tarjeta que comento, con RT activado? O me quedo como estoy y me dejo de consumismo jeje.

Por 200€ chico...hazlo.
No sé qué piensas... [+risas] [beer]


cambiar una 3080 por una 7900 XT ? ni de broma, si fuera una 7900 XTX ...

Me refería a la XTX...pensé que hablaba de esa.
Por la XT ...no.
No tengo ni idea del tema, en emuladores tipo yuzu, la xtx me rendiría peor que la 3080?
Devil Crown escribió:No tengo ni idea del tema, en emuladores tipo yuzu, la xtx me rendiría peor que la 3080?


En emuladores Nvidia va mejor que AMD, entre otras cosas, porque Nvidia esta mucho mas extendida y los desarrolladores de emuladores casi todos tienen una. Y porque OpenGL es mucho mejor en Nvidia y muchos emuladores lo usan.
Devil Crown escribió:No tengo ni idea del tema, en emuladores tipo yuzu, la xtx me rendiría peor que la 3080?

No sé como te irá en la 3080 ni si irá mejor en una 7900XTX o no, pero cuando lo probé en su momento en la 6800XT con el Link's Awakening a mí me iba a 4K 60 fps sin poroblema, Yuzu ya hace tiempo que tiene Vulkan y además AMD hace un tiempo mejoró mucho el rendimiento en OpenGL.
beatle escribió:
Devil Crown escribió:No tengo ni idea del tema, en emuladores tipo yuzu, la xtx me rendiría peor que la 3080?


En emuladores Nvidia va mejor que AMD, entre otras cosas, porque Nvidia esta mucho mas extendida y los desarrolladores de emuladores casi todos tienen una. Y porque OpenGL es mucho mejor en Nvidia y muchos emuladores lo usan.


Yuzu usa vulkan, OpenGL está obsoleto desde hace muchísimo.

En cualquier caso, todos los emuladores suelen estar limitados por la CPU, te va dar igual que tengas una 3060 o una 4090.

El cuello de botella está en la CPU.

Y otro tema, OpenGL con AMD fue actualizado en Windows así que ya no debería haber mucha diferencia de rendimiento entre Nvidia y AMD.

Por cierto que en Linux AMD iba mucho mejor con OpenGL.

Pero vamos no necesitas ninguna serie 4000 o 7000 para ejecutar emuladores, que no hay emulador que tenga unos requisitos gráficos altos incluso escalando a 4k.
Gracias :) pues una duda menos a la hora de elegir si nvidia o amd
Devil Crown escribió:Gracias :) pues una duda menos a la hora de elegir si nvidia o amd

Espera, que yo uso Yuzu y Ryujinx con AMD. Te puedo decir que hay fallos gráficos que en Nvidia no pasan, como por ejemplo SMTV unos cuadrados blancos que van apareciendo en reflejos o bayonetta 3, tienes pixelación en según que texturas de humo y unos pedazo god rays que te cubren la visión según donde mires.
Pero, esos últimos drivers que han sacado desde 22.7.1 han mejorado OpenGL y, por ejemplo, en xenoblade 3 tienes tambien un bug injugable que te jode el capítulo 3 de la zona de pentelas entera. Y pasa solo en Vulkan! Entonces, hay que jugar en OpenGL y se agradece que se pueda en Windows. (Como han dicho, en Linux desde hace tiempo puedes usarlos también con OpenGL con mucho mejor rendimiento, aunque ahora empiezan a estar parejos.)
Yo si quieres la mejor experiencia, te diría Nvidia por ahora, ya que esos ejemplos a ellos no les pasan o están mitigados. En xenoblade 3, por ejemplo, a ellos es solo un brillo/glare no toda la pantalla con artefactos. Y se puede usar un mod para paliarlo, con lo que salen ganando.
Es cierto que necesitas antes una buena CPU que GPU, vas a estar más limitado por ello. Pero una GPU más potente te permite hacer reescalado a 2k o 4k y mejora la calidad de imagen. Pero como algunos juegos están rotos si los corres a más de 30fps, tampoco es que te cunda siempre tener una GPU mejor. Es un tema complicado. Una GPU más nueva tiene la ventaja que tal vez soporte ciertas instrucciones mejor que alguna muy antigua. Por ejemplo algunas gpus no pueden ejecutar ciertos juegos porque no soporta la versión de shader que el emulador meta, otro a veces se parchea. En fin, un rollo.

Resumen, ponte una CPU decente, y de gráfica investiga que juegos quieres y que hace falta. Algunos van bien con una AMD pero en general, menos problemas en Nvidia.
Herionz escribió:
Devil Crown escribió:Gracias :) pues una duda menos a la hora de elegir si nvidia o amd

Espera, que yo uso Yuzu y Ryujinx con AMD. Te puedo decir que hay fallos gráficos que en Nvidia no pasan, como por ejemplo SMTV unos cuadrados blancos que van apareciendo en reflejos o bayonetta 3, tienes pixelación en según que texturas de humo y unos pedazo god rays que te cubren la visión según donde mires.
Pero, esos últimos drivers que han sacado desde 22.7.1 han mejorado OpenGL y, por ejemplo, en xenoblade 3 tienes tambien un bug injugable que te jode el capítulo 3 de la zona de pentelas entera. Y pasa solo en Vulkan! Entonces, hay que jugar en OpenGL y se agradece que se pueda en Windows. (Como han dicho, en Linux desde hace tiempo puedes usarlos también con OpenGL con mucho mejor rendimiento, aunque ahora empiezan a estar parejos.)


Yo si quieres la mejor experiencia, te diría Nvidia por ahora, ya que esos ejemplos a ellos no les pasan o están mitigados. En xenoblade 3, por ejemplo, a ellos es solo un brillo/glare no toda la pantalla con artefactos. Y se puede usar un mod para paliarlo, con lo que salen ganando.
Es cierto que necesitas antes una buena CPU que GPU, vas a estar más limitado por ello. Pero una GPU más potente te permite hacer reescalado a 2k o 4k y mejora la calidad de imagen. Pero como algunos juegos están rotos si los corres a más de 30fps, tampoco es que te cunda siempre tener una GPU mejor. Es un tema complicado. Una GPU más nueva tiene la ventaja que tal vez soporte ciertas instrucciones mejor que alguna muy antigua. Por ejemplo algunas gpus no pueden ejecutar ciertos juegos porque no soporta la versión de shader que el emulador meta, otro a veces se parchea. En fin, un rollo.

Resumen, ponte una CPU decente, y de gráfica investiga que juegos quieres y que hace falta. Algunos van bien con una AMD pero en general, menos problemas en Nvidia.


Pues tenía decidido comparme una rx 6800 xt y con esto de los emuladores me haces dudar. ¿Solo pasa en Yuzu o también en mame, ps2 o gamecube?
kasandon escribió:
Herionz escribió:
Devil Crown escribió:Gracias :) pues una duda menos a la hora de elegir si nvidia o amd

Espera, que yo uso Yuzu y Ryujinx con AMD. Te puedo decir que hay fallos gráficos que en Nvidia no pasan, como por ejemplo SMTV unos cuadrados blancos que van apareciendo en reflejos o bayonetta 3, tienes pixelación en según que texturas de humo y unos pedazo god rays que te cubren la visión según donde mires.
Pero, esos últimos drivers que han sacado desde 22.7.1 han mejorado OpenGL y, por ejemplo, en xenoblade 3 tienes tambien un bug injugable que te jode el capítulo 3 de la zona de pentelas entera. Y pasa solo en Vulkan! Entonces, hay que jugar en OpenGL y se agradece que se pueda en Windows. (Como han dicho, en Linux desde hace tiempo puedes usarlos también con OpenGL con mucho mejor rendimiento, aunque ahora empiezan a estar parejos.)


Yo si quieres la mejor experiencia, te diría Nvidia por ahora, ya que esos ejemplos a ellos no les pasan o están mitigados. En xenoblade 3, por ejemplo, a ellos es solo un brillo/glare no toda la pantalla con artefactos. Y se puede usar un mod para paliarlo, con lo que salen ganando.
Es cierto que necesitas antes una buena CPU que GPU, vas a estar más limitado por ello. Pero una GPU más potente te permite hacer reescalado a 2k o 4k y mejora la calidad de imagen. Pero como algunos juegos están rotos si los corres a más de 30fps, tampoco es que te cunda siempre tener una GPU mejor. Es un tema complicado. Una GPU más nueva tiene la ventaja que tal vez soporte ciertas instrucciones mejor que alguna muy antigua. Por ejemplo algunas gpus no pueden ejecutar ciertos juegos porque no soporta la versión de shader que el emulador meta, otro a veces se parchea. En fin, un rollo.

Resumen, ponte una CPU decente, y de gráfica investiga que juegos quieres y que hace falta. Algunos van bien con una AMD pero en general, menos problemas en Nvidia.


Pues tenía decidido comparme una rx 6800 xt y con esto de los emuladores me haces dudar. ¿Solo pasa en Yuzu o también en mame, ps2 o gamecube?


Personalmente yo solo he usado Ryujinx, Yuzu, citra, cemu y rpcs3. Ni idea del resto. En cemu por ejemplo no hay tantos problemas, pero ha habido alguno como la hierba en botw, aunque ya está arreglado. Mejor meterte por su GitHub y hacer una búsqueda para el juego que te interese. Puedes ver qué problemas hay abiertos.
Al final me he cagado y he pillado una 3080 12GB Gaming Trio que encontré a buen precio.

Cada vez que leo sobre las 7900XTX nuevas me cago un poco más. Me seducen y creo que acabaré con una, pero necesitan unos meses para reposar como unas buenas lentejas y esperemos que el precio también baje un poco.

Me jode porque quería darle un correctivo a NVIDIA con mi compra, pero parece que sigo siendo una putita del marketing. Shame on me.

A ver si me sale buena y me da el tiempo que necesito para encarar la nueva generación con garantías.
Fleishmann escribió:Al final me he cagado y he pillado una 3080 12GB Gaming Trio que encontré a buen precio.

Cada vez que leo sobre las 7900XTX nuevas me cago un poco más. Me seducen y creo que acabaré con una, pero necesitan unos meses para reposar como unas buenas lentejas y esperemos que el precio también baje un poco.

Me jode porque quería darle un correctivo a NVIDIA con mi compra, pero parece que sigo siendo una putita del marketing. Shame on me.

A ver si me sale buena y me da el tiempo que necesito para encarar la nueva generación con garantías.


¿Dónde la has encontrado a buen precio?
@kasandon

Una unidad reaco sin uso por embalaje dañado en un distribuidor de la tienda de mi hermano, bueno buen precio para los tiempos que corren, 597 sin iva.

Dudé mucho con la 6800XT de Coolmod pero el síndrome perro de Pavlov de la puta NVIDIA cochina me decantó una vez más.

Hubiera sido una gran opción también para jugar como juego en 1440p-170hz, me pudo el marketing y el terreno conocido.

Luego los juegos que regalan me llama el Dead Island pero aún falta para Abril igualmente.

En resumen que me cagué con AMD aunque quiero saltar al mar rojo pero con condón.
Herionz escribió:Otra cosa interesante que nadie creo a comentado, tienen ahora mismo mejor rendimiento en Linux que Windows. Podria ser algo de drivers?
Imagen

Review linux

Y también consume menos en Linux... Que carajo? :-?
El rendimiento en RT es consiente por ello, a nivel de 3090.


AMD en GNU/Linux es imparable, va de puta madre. Yo ya no puedo valorar NVIDIA por eso mismo, tengo una RX 5700XT y no sé qué haré, primero me espero a las GPUs de gama media de la generación y luego ya veremos.

Total, quiero seguir jugando a 1080p pero a 144hz así que no necesito un pepino para mover 4k ni nada de eso.
M@tu escribió:
Herionz escribió:Otra cosa interesante que nadie creo a comentado, tienen ahora mismo mejor rendimiento en Linux que Windows. Podria ser algo de drivers?
Imagen

Review linux

Y también consume menos en Linux... Que carajo? :-?
El rendimiento en RT es consiente por ello, a nivel de 3090.


AMD en GNU/Linux es imparable, va de puta madre. Yo ya no puedo valorar NVIDIA por eso mismo, tengo una RX 5700XT y no sé qué haré, primero me espero a las GPUs de gama media de la generación y luego ya veremos.

Total, quiero seguir jugando a 1080p pero a 144hz así que no necesito un pepino para mover 4k ni nada de eso.

Los drivers libres de AMD son una auténtica maravilla, es lo que tiene el open source, mucha gente colabora en mejorarlos. Los libres de Nvidia desafortunadamente son una calamidad, lo digo con conocimiento de causa pues ahora tengo una Nvidia, hay que ir con los propietarios que no es que vayan mal, pero dependes absolutamente de Nvidia, por ejemplo si sale una nueva rama del kernel, hasta que a Nvidia no le dé por sacar drivers compatibles te quedas en modo TTY o sin actualizar de rama [+risas]
No sé si son rumores mal intencionados pero joder cada vez dicen cosas peores .
Espero las opciones de los compañeros que la tengan o vayan a tenerla que seguro son más fiables.
@Herionz @virtus

Pues parece que AMD ha confirmado que la función esa era algo experimental para futuras arquitecturas, y que las RDNA3 sí tienen el shader pre Fetch activo, pero no es esa parte del código.

https://www.tomshardware.com/news/amd-a ... works-fine

Además comentan que parece que llevan vendiendo los PCB A0 desde la serie 5000, pero eso no indica que sean productos inacabados, sólo es como les llaman.


Salu2
@Er_Garry como vuelan los maletines de Nvidia...
@Er_Garry vamos que es normal que de producto inacabado nada.
Er_Garry escribió:@Herionz @virtus

Pues parece que AMD ha confirmado que la función esa era algo experimental para futuras arquitecturas, y que las RDNA3 sí tienen el shader pre Fetch activo, pero no es esa parte del código.

https://www.tomshardware.com/news/amd-a ... works-fine

Además comentan que parece que llevan vendiendo los PCB A0 desde la serie 5000, pero eso no indica que sean productos inacabados, sólo es como les llaman.

Salu2

Oh, gracias! No lo había visto. Me ha hecho gracia que el rumor al final fuese cierto y falso. Ahora solo me queda esperar a ver navi32 y 33 pero, no seran chiplets estas creo? A ver qué tal. [ok]
BloodBlack está baneado por "clon de usuario baneado"
@Herionz

Navi 32 y 33 deberían ser chiplets, si lleva 12GB deberían ser 3 MCD para Navi 32 y 2 MCD para Navi33 con 8GB .
BloodBlack escribió:@Herionz

Navi 32 y 33 deberían ser chiplets, si lleva 12GB deberían ser 3 MCD para Navi 32 y 2 MCD para Navi33 con 8GB .

Esto es lo que he encontrado.
Imagen
Navi33 seria entonces la que hay dudas? Sabes si han dicho algo de info más actual? Gracias de antemano.

Por cierto, xtx a 4.0GHz [looco] Pero NO en juegos. [triston]
BloodBlack está baneado por "clon de usuario baneado"
@Herionz

Esa imagen parece de rumores anteriores, si te fijas Navi 31 lleva 128mb, cuando es 96mb. Navi 32 dependiendo su memoria (12 o 16gb) debería que dar de 3 a 4 MCD.


Si por el contrario se quiere comparar con lo mejor tiene otro de intel + 4090 con los mismos test.
ratataaaa No veas que mal esta hacerse con la XTX, tenia la intención de que si la XT se llevaba poca diferencia en rendimiento con la XTX pillar una, pero después de ver reviews ese 20% es demasiado margen por la diferencia de precio, no me convence.

Entonces alguien sabe si hay stock en algún sitio, quitando la pagina de AMD (que me tima cuando añado al carrito y después me sale vacio cawento ) pccom, y coolmod? gracias :)
@BloodBlack [ok]

He visto que algunos usuarios han empezado a hacer el test de Mesh Shaders y el resultado es similar que a los que les salió a los reviewers de Club386. Se confirma un bug al menos. Ni idea del impacto que tiene en juegos.
Kin escribió:ratataaaa No veas que mal esta hacerse con la XTX, tenia la intención de que si la XT se llevaba poca diferencia en rendimiento con la XTX pillar una, pero después de ver reviews ese 20% es demasiado margen por la diferencia de precio, no me convence.

Entonces alguien sabe si hay stock en algún sitio, quitando la pagina de AMD (que me tima cuando añado al carrito y después me sale vacio cawento ) pccom, y coolmod? gracias :)

Desde el inicio ya se sabía que la XT no iba a merecer la pena por el precio.
Kavezacomeback escribió:


Si por el contrario se quiere comparar con lo mejor tiene otro de intel + 4090 con los mismos test.

100w de base menuda locura... mi 6900xt de base consume 30...xd
hh1 escribió:Desde el inicio ya se sabía que la XT no iba a merecer la pena por el precio.


Claro, pero entonces porque AMD sigue manteniendo el precio tan similar y no lo baja, son conscientes que de la XT no vende nada porque veo stock por todos lados incluido en su propia web.

Vamos, que le sobran mínimo 200€ a la XT.
Coolmod ya ha subido 100€ el precio de la red devil y eso que aún siguen sin stock...

https://www.coolmod.com/powercolor-amd- ... 4gb-gddr6/
Pacorrr escribió:Coolmod ya ha subido 100€ el precio de la red devil y eso que aún siguen sin stock...

https://www.coolmod.com/powercolor-amd- ... 4gb-gddr6/



Lleva días subido, ellos verán, 1450€ puede ser un precio que ya no interese a nadie teniendo la 4090FE por 1860€
Pacorrr escribió:Coolmod ya ha subido 100€ el precio de la red devil y eso que aún siguen sin stock...

https://www.coolmod.com/powercolor-amd- ... 4gb-gddr6/

Ya bajarán cuando vean que no venden...
Y ya no la 4090.Es que a ese precio me voy antes a la 4080.

Ni a 1350€ la pagaría
Lo malo de la 4080, es lo malo de la 4090, tarjeta enorme (más q posible problema de espacio) y conector 12VHPWR.
@trandeira supongo que lo solucionaran.
La 4070 tendrá un tamaño normal, no? No tendrá una potencia para justificar un tamaño muy grande.
Kavezacomeback escribió:@trandeira supongo que lo solucionaran.

eso espero porque vaya salvajada... si vas a ver google mejor no encender el pc jaja
BladeRunner escribió:Lo malo de la 4080, es lo malo de la 4090, tarjeta enorme (más q posible problema de espacio) y conector 12VHPWR.

y que tiene de malo el conector? yo no le veo mucho problema.
BladeRunner escribió:Lo malo de la 4080, es lo malo de la 4090, tarjeta enorme (más q posible problema de espacio) y conector 12VHPWR.



De hecho yo tengo ese conector en una 4090 y para mi es el futuro son todo ventajas es pequeño y no como los otros...
BloodBlack está baneado por "clon de usuario baneado"
@Herionz

Juegos ninguno, es una de las mayores características de próxima generación que falta por ver en juegos.

El UE 5 con Nanite usa algo parecido que funciona en Dx11 y todas las GPU, pero no sé si será tan efeciente como el Mesh Shaders que es para Hardware específico desde las RTX 2000 y Rx 6000.

Y si tiene pinta de ser algún bug.
@medearu1986 si solo llega un cable desde la parte de atrás de la fuente pues si, mola. Pero si se queda esa manguera cutre de empalmes por abajo o arriba de la gráfica pues no estoy tan de acuerdo. Lo que tengo claro es que no cambio una caja y una fuente por una gráfica sobre dimensionada y un adaptador metido con calzador. Me niego a meter más que una rm850 para cualquier gráfica...
HaGeK escribió:@medearu1986 si solo llega un cable desde la parte de atrás de la fuente pues si, mola. Pero si se queda esa manguera cutre de empalmes por abajo o arriba de la gráfica pues no estoy tan de acuerdo. Lo que tengo claro es que no cambio una caja y una fuente por una gráfica sobre dimensionada y un adaptador metido con calzador. Me niego a meter más que una rm850 para cualquier gráfica...


Mira que estuve mirando como meter una rtx 4080 con el conector de 16 pines 12VHPWR en una caja corsair icue 465x y poder cerrar con la tapa lateral, era imposible por lo ancho que mencionas, que entre la manguera con las rastas y el conector que sobresale quedaba fatal.

Ademas que justamente también tengo una RM850W y me niego a cambiar la fuente, menos aun la caja que esta prácticamente nueva.
@Kavezacomeback yo he intentado poner esos valores a mi 7900XTX... y en la mayoría de juegos no era estable. Aunque empiezo a pensar de que es un problema de mi fuente de alimentación que no da tanto ameraje, porque con los mismos valores de Vcore, al subir el power limit de la GPU, aumentaba la inestabilidad en los juegos más exigentes (puede que debido a los famosos picos de consumo que detectaron en varias reviews).

Aunque la ganancia con él de serie a subirlo es muy pequeña en juegos (Ej Shadow of the Tomb Raider pasa de 195 a 201 y Horizon Zero Down de 185 a 188). Pero sí la fuente no el da potencia suficiente, eso sí puede afectar a la escalabilidad de las frecuencias y por tanto no obtener el máximo rendimiento de la GPU.

También he visto que en algunos otros juegos me limitaba la CPU en determinadas circunstancias y benchs, y además que si se usa el Radeon Superposition para monitorizar la GPU, la pérdida de frames es enorme :-| (sobre un 15%).

Tengo que hacer más pruebas, pero parece que las 7900XTX requieren un ajuste más fino y una buena fuente para sacar todo su potencial [+risas]


Salu2
HaGeK escribió:@medearu1986 si solo llega un cable desde la parte de atrás de la fuente pues si, mola. Pero si se queda esa manguera cutre de empalmes por abajo o arriba de la gráfica pues no estoy tan de acuerdo. Lo que tengo claro es que no cambio una caja y una fuente por una gráfica sobre dimensionada y un adaptador metido con calzador. Me niego a meter más que una rm850 para cualquier gráfica...

Hombre claro, esa es la gracia.

Lo que no me parece normal es estar ya casi 2023 y seguir estirando el conector 8 pin y que las 7900 XTX tire de 3 conectores de 8-pin (no sé si todas o algunas) con los consecuentes cables en la caja.

Obviamente en este momento de adaptación al 12VHPWR habrá quienes no lo quieran por medio obligarles a actualizar la fuente (digo medio obligarles porque no obligan del todo al existir adaptador), pero veo mas lógico tirar de adaptador que seguir con los conectores de 8 pines al menos en tarjetas de alta gama (que usan 3... y cuál es el límite? XD ) y romper toda la gracia del nuevo conector 12VHPWR para quienes tengan una fuente moderna.

Y a todo esto me parece un movimiento un poco contradictorio por parte de AMD porque precisamente para las nuevas CPUs no les ha dado miedo ignorar completamente el DDR4 e ir a por todas con el DDR5 y en cambio en las gráficas no han tenido esa visión de futuro y han preferido seguir anclado en lo antiguo :-?
@Rvilla87 claro, mejor obligar a todo el mundo a comprar una fuente nueva y cara para reducir cableado [+risas]

Además las 7900XTX de referencia sólo usan 2 cables de 8 pines y no 3, y si tienes la "mala suerte" de no tener una fuente con el nuevo conector nativo, si no me equivoco tienes que usar 4 cables de 8 pines para alimentarlo "correctamente" no?

Sinceramente yo las 4080/90 las descarté por tamaño y por el nuevo conector, que me parece un despropósito (que puedan arder por no conectarlo del todo... :-| ).


Salu2
BloodBlack escribió:@Herionz

Juegos ninguno, es una de las mayores características de próxima generación que falta por ver en juegos.

El UE 5 con Nanite usa algo parecido que funciona en Dx11 y todas las GPU, pero no sé si será tan efeciente como el Mesh Shaders que es para Hardware específico desde las RTX 2000 y Rx 6000.

Y si tiene pinta de ser algún bug.

Gracias por la explicación [ok]. A ver si hay suerte y se revolucionan con los drivers de los próximos meses.
jiujinkai escribió:y que tiene de malo el conector? yo no le veo mucho problema.

Tenía q haber puesto "malo" entre comillas para q se me entendiera mejor, me refiero a q, para q la instalación esté limpia y sea más segura hace falta una fuente q ya traiga ese conector de fábrica. De todas formas también podrían haber sobredimensionado algo más ese conector para q no hubieran problemas de sobrecalentamiento.

Y además, a no ser q se compre el cable ese acodado q vale ¿50€?, el adaptador es tan tocho q obliga a tener una caja bien grande porque no se dobla bien, sumándose a la tarjeta q ya de por si es grande.
Er_Garry escribió:@Rvilla87 claro, mejor obligar a todo el mundo a comprar una fuente nueva y cara para reducir cableado [+risas]

Pero quien dice obligar? Hay adaptadores como todos de aquí sabemos, de hecho ya lo dije en mi mensaje. No hace falta mentir para defender tu conector preferido.

E insisto que nadie dice que lo mejor sea usar el adaptador si se tiene una fuente vieja, pero eso es una cosa y otra muy diferente tratar de malo el nuevo conector cuando precisamente lo que se gana es reducir cables (con una fuente adecuada, como es evidente).
5150 respuestas