[Hilo oficial] Radeon RX 5000 Family

Sinceramente no veo AMD sacando una gpu por 1000€ o sobrepasando esa cifra, y soy el primero en querer adquirir sus artículos, pero creo que lo primero es lanzar cosas buenas a buen precio y que sean rival para la competencia, una vez tengan ya mercado ganado, la gente hable bien de AMD, etc, entonces si pueden arriesgarse a sacar un producto de 1000€, pero AMD siempre a ido de la mano precio/rendimiento
VanSouls escribió:Sinceramente no veo AMD sacando una gpu por 1000€ o sobrepasando esa cifra, y soy el primero en querer adquirir sus artículos, pero creo que lo primero es lanzar cosas buenas a buen precio y que sean rival para la competencia, una vez tengan ya mercado ganado, la gente hable bien de AMD, etc, entonces si pueden arriesgarse a sacar un producto de 1000€, pero AMD siempre a ido de la mano precio/rendimiento


A mí hasta se me hace raro que pasen de 600€

La última gráfica que costó más de eso fue la Radeon VII y aún resuena la hostia que se dio.
@Gwyn la radeon 7 la sacaron pero no interesaba ni venderla.

Era muy cara de producir y tendría muy poco de margen de benéfico si es que tenía beneficio.

No creo que amd supere el precio de nvidia porque no está en posición de elevar precios. Pero si tiene algo mejor que la 3090 podría poner los 1000€ perfectamente.
Gwyn escribió:
VanSouls escribió:Sinceramente no veo AMD sacando una gpu por 1000€ o sobrepasando esa cifra, y soy el primero en querer adquirir sus artículos, pero creo que lo primero es lanzar cosas buenas a buen precio y que sean rival para la competencia, una vez tengan ya mercado ganado, la gente hable bien de AMD, etc, entonces si pueden arriesgarse a sacar un producto de 1000€, pero AMD siempre a ido de la mano precio/rendimiento


A mí hasta se me hace raro que pasen de 600€

La última gráfica que costó más de eso fue la Radeon VII y aún resuena la hostia que se dio.

Si sacan algo en buenas condiciones claro, con precio/rendimiento como las 5700X (una media de 150€/200€) por debajo de la competencia, pueden hacer daño, hablo de antes de la salida de las Ampere, ahora deberían de sacar una 6800Xt por 400€/425€ y una 6900XT por 599€
neox3 escribió:
hh1 escribió:
Pacorrr escribió:Hay varios leakers que creen que los datos que mostraron ayer no corresponden con la gpu top que van a sacar, dejo un par de ellos

https://twitter.com/RedGamingTech/statu ... 0442291200

https://twitter.com/9550pro/status/1314555754246856704

Veremos qué muestran el día 28, ya queda menos.

Ojalá sea así.
Eso significaría que la 6900Xt es superior a la 3080 y a saber cuánto.


Pero si es cierto ya no importaria ese enfoque, porque si su objetivo es la 3090 ya hablamos minimo de una grafica de 1000e, para arriba, a no ser que solo sea mas potente y mantenga los 16 gigas de ram. Igual por ahí... Podrian hacer daño.

Aun asi, creo que no ai que hacerse falsas expectativas, a los posibles rumores ya estan respondiendo con algo que si son hechos, lo que dijo la CEO en la presentacion:

Nope. They specifically showed Big navi benchmarks and a few seconds earlier she said "this is our most powerful gaming GPU we've ever made". So that was the flagship top end card we saw the benchmarks of.

Hombre.,la clave estaría en que sería más potente que la 3080 a un precio similar o inferior y con 6Gb más de Vram.
A eso es a lo que tiene que jugar AMD y lo que esperamos muchos.

Igual que si la mostrada es la 6800Xt,pues siendo superior a la 3070,que sea similar o inferior en precio y con más VRAM.
Esa es la clave para destrozar a Nvidia.

Pero muy bonito suena para ser cierto.
Por lo que veo, yo intuyo que AMD va a sacar gráficas con mas potencia, pero con el ray trazing y el dlss sin pulir, y eso, salvo sorpresa es casi un hecho, hay que tener en cuenta que AMD con menos consumo esta prácticamente igual que la 3080 (al menos en los juegos mostrados, que son muy exigentes), si amd le sube el consumo, ya sea a base de overclock o a base de mas núcleos, rebasaria con facilidad a Nvidia, el problema lo va a tener con los añadidos, el dlss le hace un daño brutal a Amd y el raytrazing esta por ver, pero nvidia les llevan 2 generaciones de ventaja. Veo un caso similar al de la rx5700xt vs 2070 super, que en rendimiento en fps eran casi igual e incluso AMD superaba a la 2070, pero claro, sin rtx ni dlss, que ahi es donde le rompía el ojete a Amd, aunque en esta ocasión no va a ser tanta la diferencia de calidad, si va a estar por debajo de Nvidia, pero por muy poco, solo tienen que subir el tdp, que creo que por ahi nvidia se las ha metido doblada, puesto que una tarjeta de mas de 300w es una auténtica locura y a Amd ni se le habria pasado por la cabeza que Nvidia tirara por tantísimo tdp, y parece ser que a mismo tdp, AMD gana de calle.
Es la impresión que me da.
De lo que tengo mis dudas es del rt de Amd, porque por un lado Nvidia tiene mas experiencia, y por otro, los juegos se van a optimizar para rdna2 gracias a las consolas, y eso puede marcar la diferencia, como siempre las AMD empezaran como el culo, pero envejeceran mucho mejor.
@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.

El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.
MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.

El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.

Yo he tenido 2 5700Xt y una 2070Super, con drivers actualizados a día de hoy son parejas, no tengo pruebas porque ya no las tengo, si te sirve unos videos "actuales"
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=vP5c5yvXsvk

Lo que está claro es que el que comprase una 1080Ti, hizo la compra de la década :p :p

Y sobre el dlss, será bueno si la desarrolladora quiere ponerlo, porque no está en manos de Nvidia.
VanSouls escribió:
MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.

El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.

Yo he tenido 2 5700Xt y una 2070Super, con drivers actualizados a día de hoy son parejas, no tengo pruebas porque ya no las tengo, si te sirve unos videos "actuales"
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=vP5c5yvXsvk

Lo que está claro es que el que comprase una 1080Ti, hizo la compra de la década :p :p

Y sobre el dlss, será bueno si la desarrolladora quiere ponerlo, porque no está en manos de Nvidia.

No esta en manos de Nvidia, pero ahi está, si ven que sus juegos son muy pesados tiraran por ahi.
A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.
Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.

Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.
masticatigres escribió:
Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.

Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.

DLSS es privativo, sólo se ha implementado en juegos patrocinados. Con Physx era igual, aparecía en juegos patrocinados, y al final se acabó imponiendo Havok. Es lo que he comentado sobre que Microsoft tiene DirectML (ML de machine learning). Y es un standard que puede adoptar cualquiera, pero habrá que ver qué tal funciona primero. De todos modos por muy bueno que sea un reescalado, a mí siempre me parecerá mejor la resolución nativa.
Pacorrr escribió:
masticatigres escribió:
Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.

Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.

DLSS es privativo, sólo se ha implementado en juegos patrocinados. Con Physx era igual, aparecía en juegos patrocinados, y al final se acabó imponiendo Havok. Es lo que he comentado sobre que Microsoft tiene DirectML (ML de machine learning). Y es un standard que puede adoptar cualquiera, pero habrá que ver qué tal funciona primero. De todos modos por muy bueno que sea un reescalado, a mí siempre me parecerá mejor la resolución nativa.

Pues con el Death Stranding incluso lo mejora, y es una tecnología para el 8k hasta que se pueda implementar de forma nativa, me parece un gran invento, mas que nada porque la ley de moore ya no da para mucho mas, y puede ser como poco, la transición a una nueva tecnologia del silicio o grafeno, pero como dices habrá que ver como lo implementa MS, pero creo que es una tecnologia condenada a entenderse hasta al menos encontrar otra forma de aumentar la computacion.
Pacorrr escribió:
masticatigres escribió:
Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.

Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.

DLSS es privativo, sólo se ha implementado en juegos patrocinados. Con Physx era igual, aparecía en juegos patrocinados, y al final se acabó imponiendo Havok. Es lo que he comentado sobre que Microsoft tiene DirectML (ML de machine learning). Y es un standard que puede adoptar cualquiera, pero habrá que ver qué tal funciona primero. De todos modos por muy bueno que sea un reescalado, a mí siempre me parecerá mejor la resolución nativa.

Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.
adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.


¿Los devs deben pagar algo a Nvidia si quieren implementarlo?
Gwyn escribió:
adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.


¿Los devs deben pagar algo a Nvidia si quieren implementarlo?

No lo se, nunca he leído nada que lo indique.
adriano_99 escribió:
Gwyn escribió:
adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.


¿Los devs deben pagar algo a Nvidia si quieren implementarlo?

No lo se, nunca he leído nada que lo indique.

Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
VanSouls escribió:
MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.

El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.

Yo he tenido 2 5700Xt y una 2070Super, con drivers actualizados a día de hoy son parejas, no tengo pruebas porque ya no las tengo, si te sirve unos videos "actuales"
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=vP5c5yvXsvk

Lo que está claro es que el que comprase una 1080Ti, hizo la compra de la década :p :p

Y sobre el dlss, será bueno si la desarrolladora quiere ponerlo, porque no está en manos de Nvidia.

Sin duda.Yo sigo con la 1080 Ti y su rendimiento tras 3 años sigue siendo buenísimo y de sobra.
Aún no me convence nada para el cambio.
La 3080 con solo 10gb de Vram.,no...Encima sin stock.
La 3070 con 8Gb...No.
3090 excesivamente cara.

Tal vez un 3080 super con más VRAM,una 3070Ti o alguna nueva AMD.Pero vamos,puro capricho.
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.

DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
adriano_99 escribió:
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.

DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.

DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.
adriano_99 escribió:
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.

DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.


AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.

Imagen
papatuelo escribió:
adriano_99 escribió:
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.

DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.


AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.

Imagen

masticatigres escribió:
adriano_99 escribió:
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.

DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.

DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.


Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.
adriano_99 escribió:
papatuelo escribió:
adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.


AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.

Imagen

masticatigres escribió:
adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.

DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.


Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.

Obviamente, por eso decimos que es el punto fuerte de Nvidia y que lo que saque AMD estará mas verde que lo de Nvidia, eso, o nos llevamos una sorpresa...
adriano_99 escribió:
papatuelo escribió:
adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.


AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.

Imagen

masticatigres escribió:
adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.

DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.


Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.


Yo no he dicho hasta ahora.

He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.

Eso es lo que hace dlss, escalar resoluciones basandose en ML
@VanSouls ya he visto los vídeos, en unos ves a la 5700xt por encima y en otras a la 2070super, pero ninguna de ellas dos destaca claramente en algo y yo al menos no noto las diferencias. Sin embargo en el precio si que había una diferencia evidente cuando salieron.

Un ejemplo de lo que digo es que seguramente sí ahora vendemos una 5700xt o una 2070 super de segunda mano con la misma garantía, el precio intuyo que será más parejo que en 2019.

En lo de la 1080ti también estoy totalmente de acuerdo.
@MarioLemieux es que las RTX tienen tecnologías que no tienen la serie 5000 XT de AMD, por lo tanto es normal que fueran más caras, otro asunto es que a uno eso le de igual, etc... y lo único que le importan son los fps sin el Ray Tracing, etc...

Saludos.
@javier español ya te entiendo, es normal que las tecnologías que incorporen aumenten el precio pero independientemente de mi percepción, creo que en la anterior generación el Ray tracing aportó más bien poco.

Me da la sensación que había que pagar por un adelanto o demo de lo que puede llegar a ser. Pero esto pasa con casi todas tecnologías, el 4k hace 5 años, la VR...etc..
Pacorrr escribió:Imagen



La verdad es que esos números pintan muy bien.

Si no se pasan con el precio y ponen suficiente Stock, pueden ser un pelotazo gordo :)


Salu2
adriano_99 escribió:
Gwyn escribió:
adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.


¿Los devs deben pagar algo a Nvidia si quieren implementarlo?

No lo se, nunca he leído nada que lo indique.


Si, tienen que pagar y mandar el juego a no se que megapc de deep learning....algo lei vamos, que no es gratis meterle dlss a un juego, lleva tiempo y dinero.
tampoco nos pensemos que nvidia ha hecho magia con el dlss. Hay redes de neuronas que hacen esto (podéis ver por ejemplo el moguri mod de final fantasy ix).

Lo que ha conseguido nvidia es utilizarlo en tiempo real para acelerar un videojuego.

Lo que digo con esto es que no me extrañaría tanto que amd sacará algo parecido.
Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.
mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.


Alguno de esos juegos soporta DLSS 2.0?

Pruébalo en alguno de estos y vuelve a contar tus impresiones luego:

Control, Deliver Us The Moon, MechWarrior 5: Mercenaries, o Wolfenstein: Youngblood.
Gwyn escribió:
mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.


Alguno de esos juegos soporta DLSS 2.0?

Pruébalo en alguno de estos y vuelve a contar tus impresiones luego:

Control, Deliver Us The Moon, MechWarrior 5: Mercenaries, o Wolfenstein: Youngblood.


Quieres decir q esos juegos son dlss 1.0? Y con estos que comentas mejora?

Voy a probar con alguno a ver, porque me pareció una decepción grande, al menos hasta ahora.
mls3197 escribió:
Gwyn escribió:
mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.


Alguno de esos juegos soporta DLSS 2.0?

Pruébalo en alguno de estos y vuelve a contar tus impresiones luego:

Control, Deliver Us The Moon, MechWarrior 5: Mercenaries, o Wolfenstein: Youngblood.


Quieres decir q esos juegos son dlss 1.0? Y con estos que comentas mejora?

Voy a probar con alguno a ver, porque me pareció una decepción grande, al menos hasta ahora.


Juzga tú mismo:



Tengo que probar esto. Si es así está muy bien.
Dlss no está masivamente implementado porque la 1.0 requería entrenar a la IA. Lo cual era costoso en tiempo.

Dlss 2.0 está implementado en el motor directamente. Es mucho más sencillo ofertarlo en tus juegos. El problema es que salió en abril... Tampoco ha habido mucho tiempo para que esté en muchos juegos.

Es una tecnología demasiado golosa para que obvie. Especialmente ahora que gracias a las consolas el RT va a ser más común.


Menudos mecheritos, aunque se referirá el tdp sólo del chip, el de la tarjeta completa habrá que sumar algo más (70-100)
Se rumorea que Big Navi podría escalar algo mejor a bajas resoluciones que Ampere.

También que tendremos algo más potente que lo que enseñó Lisa el otro día:

mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.

Como ya te han dicho todos esos juegos usan dlss 1.0, ese es muy malo y ya no se usa.
papatuelo escribió:
adriano_99 escribió:
papatuelo escribió:
AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.

Imagen

masticatigres escribió:DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.


Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.


Yo no he dicho hasta ahora.

He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.

Eso es lo que hace dlss, escalar resoluciones basandose en ML


De momento, usando el hardware que tiene AMD para hacer reescalados usando ML, no existe ni un sólo white paper hasta la fecha que se haga uso de ese tipo de hardware y a la vez pueda ser aplicado en tiempo real, así que esperemos que sean tanto Sony como Microsoft los que se tengan que mojar con esas cosas.
PilaDePetaca escribió:
papatuelo escribió:
adriano_99 escribió:

Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.


Yo no he dicho hasta ahora.

He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.

Eso es lo que hace dlss, escalar resoluciones basandose en ML


De momento, usando el hardware que tiene AMD para hacer reescalados usando ML, no existe ni un sólo white paper hasta la fecha que se haga uso de ese tipo de hardware y a la vez pueda ser aplicado en tiempo real, así que esperemos que sean tanto Sony como Microsoft los que se tengan que mojar con esas cosas.


Hasta donde yo sé el white paper de RDNA2 no existe
papatuelo escribió:
PilaDePetaca escribió:
papatuelo escribió:
Yo no he dicho hasta ahora.

He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.

Eso es lo que hace dlss, escalar resoluciones basandose en ML


De momento, usando el hardware que tiene AMD para hacer reescalados usando ML, no existe ni un sólo white paper hasta la fecha que se haga uso de ese tipo de hardware y a la vez pueda ser aplicado en tiempo real, así que esperemos que sean tanto Sony como Microsoft los que se tengan que mojar con esas cosas.


Hasta donde yo sé el white paper de RDNA2 no existe


No hace falta ningun white paper para saber que RDNA2 no lleva tensor cores, así que lo único que queda es hacerlo por INT4/8.
Pacorrr escribió:


Menudos mecheritos, aunque se referirá el tdp sólo del chip, el de la tarjeta completa habrá que sumar algo más (70-100)


Pero como van a consumir eso? Si las Nvidia consumen una burrada. No pueden ser tan buenas para consumir tan poco y rendir tanto. Porque signfica que debería de tener un margen de overclock por el consumo muy elevado.
gojesusga escribió:
Pacorrr escribió:


Menudos mecheritos, aunque se referirá el tdp sólo del chip, el de la tarjeta completa habrá que sumar algo más (70-100)


Pero como van a consumir eso? Si las Nvidia consumen una burrada. No pueden ser tan buenas para consumir tan poco y rendir tanto. Porque signfica que debería de tener un margen de overclock por el consumo muy elevado.


It can be read as RDNA 2 but it also could be DG2.
If it's RDNA B/W|Bus|Vram
If it's DG2 Core|Bus|Vram

Seguramente sean las Xe de Intel pero me cuadraba con las Navi nuevas si el TDP era sólo del chip [+risas]
Microsoft confirma que las AMD RX 6000 soportán el codec AV1


Actualmente sabemos muy poco de las nuevas tarjetas gráficas AMD Radeon RX 6000, también denominadas Big Navi. Estas nuevas tarjetas gráficas parece que darán un salto de rendimiento importante. Uno de los motivos es que las AMD RDNA soportaran la codificación de vídeo mediante AV1 (AOMedia Video 1). Este códec de compresión promete una compresión de datos de hasta el 34%.

El soporte para AV1 en las RDNA2 es algo que ha sido confirmado por parte de Microsoft en su blog oficial. Para poder usar este tipo de instrucciones se necesitara Windows 10 1909 o posterior, así como la extensión de vídeo AV1. Esto hace más plausible que las AMD Radeon RX 6000 puedan competir con las nuevas NVIDIA RTX 3000.


Las AMD Radeon RX 6000 soportaran codificación AV1

Microsoft informa que Intel, NVIDIA y AMD ya tienen o tendrán este mismo otoño en el mercado productos que soportarán la aceleración AV1. Intel ha presentado los procesadores Tiger Lake-U los cuales integran gráficos Xe-LP con soporte AV1. NVIDIA por su parte hace poco ha lanzado las gráficas RTX 3000 Ampere que soportan instrucciones AV1. AMD aún no ha anunciado nada, pero las RX 6000 serán presentadas a finales de este mismo mes y por lo tanto, soportaran AV1.

Estos son los componentes necesarios para experimentar vídeo AV1 acelerado por hardware en Windows 10:
– Una de estas nuevas GPU o CPU:
– Procesadores Intel Core de 11a generación con Intel Iris Xe Gráficos
– GPU NVIDIA GeForce RTX Serie 30
– Gráficos AMD Radeon serie RX 6000 (próximamente)
– Compilación de Windows 10 1909 o posterior
– La extensión de vídeo AV1
– Un navegador web u otra aplicación con soporte de aceleración de hardware para AV1, incluidas las aplicaciones creadas sobre Media Foundation
– Como es común con nuevas características como esta, es posible que deba actualizar el controlador de gráficos de vez en cuando para obtener las últimas características y mejoras
Blog de Microsoft
Debemos tener en cuenta que el proceso de codificación y decodificación, lo importante es el tiempo de transmisión del contenido. Hay muchos algoritmos de codificación, pero sin aceleración por hardware, son más lentos y pesados que AV1. VCC (Versatile Video Coding) en HD es hasta un 28% más rápido que AV1 y hasta un 34% más rápido en UHD. El problema es que VCC requiere un 70% más tiempo en codificación y hasta un 54% más en decodificación que AV1.

- - - Actualizado - - -

Nuevas AMD Navi RDNA2: especificaciones y precio





Nuevos rumores sobre el desembarco de las nuevas AMD indican que la compañía de Santa Clara no podrá volver a competir en la gama entusiasta, o lo que es lo mismo, no tendrá ninguna alternativa a la RTX 3090 de NVIDIA, que se mantendrá como la tarjeta gráfica de esta generación entrante más potente que existe hasta el momento, pero a cambio sí tendrá soluciones interesantes en el segmento alto y medio.
Rumores filtrados
Un usuario de Reddit ha recopilado algunos datos sobre las próximas GPUs Navi 2x y Navi 31 incluidos en el código fuente de la última versión de macOS 11 beta, confirmando la mayor parte de los rumores vertidos hasta la fecha en cuanto a unidades de computación y además añade datos sobre velocidades de reloj y TGPs.
Especificaciones de las AMD NAVI RDNA2

Navi 21 AMD NAVI RDNA2 Radeon RX 6900 XT
La tope de gama Navi 21 (posible Radeon RX 6900 XT Sienna Cichlid) tiene 80 CUs con unos probables 5.120 procesadores stream si AMD mantiene los 64 cores por unidad de computación.
En el código de mac OS 11 encontramos dos versiones para las Navi 21 indicando tanto memoria GDDR6 como HBM2. La Navi 21A vendría con una velocidad de reloj boost de 2050 MHz y 200W de TGP, mientras que la Navi 21B tendría 2200 MHz de boost y un 238W de TGP.

Navi 22
La Navi 22 sería la gama media con nombre clave Navi Flounder. Tendría 40 CUs con velocidades de reloj de 2500 MHz con un 170W de TGP . La Navi 23 con nombre clave Dimgrey Cavefish está detallada con 32 CUs pero sin información referente a velocidades de reloj ni TGP. Puede tratarse de una GPU «custom» para portátiles MacBook.

Navi 31
En cuanto a la Navi 31, tendría las mismas especificaciones que la Navi 21 pero con una arquitectura RDNA3 que vendrá más de un año más tarde.
Detalles y precio
En base a lo anteriormente filtrado, podemos dar los siguientes datos:
La posible Radeon RX 6900 XT, que se rumora será la solución potente de AMD, tendrá 5.120 shaders, 320 TMUs y 128 ROPs, según los últimos rumores, además de un bus de 256 bits y 16 GB de memoria GDDR6.
Su precio rondará los 599 dólares, y se comenta que estará a medio camino entre la RTX 3070 y la RTX 3080.
Por debajo de ella estaría la Radeon 6800 XT, que tendría 2.560 shaders, 160 TMUs y 64 ROPs, además, de un bus de 192 bits y 12 GB de GDDR6. Su precio será de unos 399 euros. No se descarta una versión con 6 GB de GDDR6 a un precio de 310 euros.
La solución más económica de AMD será la Radeon 6700 XT, que tendrá 2.048 shaders, un bus de 128 bits y 8 GB de memoria GDDR6. Su rendimiento debería ser similar al de la RX 5700 XT, y tendrá un precio de 249 dólares
Lo siento pero no tiene ningun sentido que una 6700xt no sea netamente superior a una 5700xt, con un cambio de generacion, no refrito
neox3 escribió:Lo siento pero no tiene ningun sentido que una 6700xt no sea netamente superior a una 5700xt, con un cambio de generacion, no refrito


Yo creo que será algo superior, pero será su sustituta ya que la 5700 las dejan de fabricar y por 2xx y pico euros no està nada mal, piensa que el 60% de steam va con una gtx1060 6gb.
Si esa 6900XT (~619€) no se queda MUY cerca de la 3080... malo.

Sin DLSS ni RT Cores lo tiene jodido si se queda más cerca de la 3070 (519€) que de la 3080 (719€).

Y aun así habrá gente que prefiera poner 100€ por contar con esas tecnologías.

Para mí la gran diferencia puede estar en consumo, temperaturas y la cantidad de VRAM.
neox3 escribió:Lo siento pero no tiene ningun sentido que una 6700xt no sea netamente superior a una 5700xt, con un cambio de generacion, no refrito


Esa información no la daría por buena.

Lo que ha hecho es coger los silicios completos que se conocen e ir dandole a cada uno una gama.

Es bastante probable que de Navi 21 salgan las 6900 y 6800 y de navi 22 salgan las 6700 y 6600.
1947 respuestas