VanSouls escribió:Sinceramente no veo AMD sacando una gpu por 1000€ o sobrepasando esa cifra, y soy el primero en querer adquirir sus artículos, pero creo que lo primero es lanzar cosas buenas a buen precio y que sean rival para la competencia, una vez tengan ya mercado ganado, la gente hable bien de AMD, etc, entonces si pueden arriesgarse a sacar un producto de 1000€, pero AMD siempre a ido de la mano precio/rendimiento
Gwyn escribió:VanSouls escribió:Sinceramente no veo AMD sacando una gpu por 1000€ o sobrepasando esa cifra, y soy el primero en querer adquirir sus artículos, pero creo que lo primero es lanzar cosas buenas a buen precio y que sean rival para la competencia, una vez tengan ya mercado ganado, la gente hable bien de AMD, etc, entonces si pueden arriesgarse a sacar un producto de 1000€, pero AMD siempre a ido de la mano precio/rendimiento
A mí hasta se me hace raro que pasen de 600€
La última gráfica que costó más de eso fue la Radeon VII y aún resuena la hostia que se dio.
neox3 escribió:hh1 escribió:Pacorrr escribió:Hay varios leakers que creen que los datos que mostraron ayer no corresponden con la gpu top que van a sacar, dejo un par de ellos
https://twitter.com/RedGamingTech/statu ... 0442291200
https://twitter.com/9550pro/status/1314555754246856704
Veremos qué muestran el día 28, ya queda menos.
Ojalá sea así.
Eso significaría que la 6900Xt es superior a la 3080 y a saber cuánto.
Pero si es cierto ya no importaria ese enfoque, porque si su objetivo es la 3090 ya hablamos minimo de una grafica de 1000e, para arriba, a no ser que solo sea mas potente y mantenga los 16 gigas de ram. Igual por ahí... Podrian hacer daño.
Aun asi, creo que no ai que hacerse falsas expectativas, a los posibles rumores ya estan respondiendo con algo que si son hechos, lo que dijo la CEO en la presentacion:
Nope. They specifically showed Big navi benchmarks and a few seconds earlier she said "this is our most powerful gaming GPU we've ever made". So that was the flagship top end card we saw the benchmarks of.
MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.
El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.
VanSouls escribió:MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.
El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.
Yo he tenido 2 5700Xt y una 2070Super, con drivers actualizados a día de hoy son parejas, no tengo pruebas porque ya no las tengo, si te sirve unos videos "actuales"
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=vP5c5yvXsvk
Lo que está claro es que el que comprase una 1080Ti, hizo la compra de la década
Y sobre el dlss, será bueno si la desarrolladora quiere ponerlo, porque no está en manos de Nvidia.
Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.
masticatigres escribió:Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.
Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.
Pacorrr escribió:masticatigres escribió:Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.
Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.
DLSS es privativo, sólo se ha implementado en juegos patrocinados. Con Physx era igual, aparecía en juegos patrocinados, y al final se acabó imponiendo Havok. Es lo que he comentado sobre que Microsoft tiene DirectML (ML de machine learning). Y es un standard que puede adoptar cualquiera, pero habrá que ver qué tal funciona primero. De todos modos por muy bueno que sea un reescalado, a mí siempre me parecerá mejor la resolución nativa.
Pacorrr escribió:masticatigres escribió:Pacorrr escribió:A mí el dlss me recuerda al physix, se implementó en juegos contados y el dlss de momento, igual. Las tecnologías privativas no suelen imponerse. Microsoft tienen un standard que puede adoptar cualquiera para DX12, DirectML, aunque habrá que ver qué tal funciona.
Lo importante no es la "marca dlss" sino la implementación en todas las apis s futuro, pero a día de hoy, amd no tiene nada que hacer en ese campo a menos que nos sorprenda.
DLSS es privativo, sólo se ha implementado en juegos patrocinados. Con Physx era igual, aparecía en juegos patrocinados, y al final se acabó imponiendo Havok. Es lo que he comentado sobre que Microsoft tiene DirectML (ML de machine learning). Y es un standard que puede adoptar cualquiera, pero habrá que ver qué tal funciona primero. De todos modos por muy bueno que sea un reescalado, a mí siempre me parecerá mejor la resolución nativa.
adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.
Gwyn escribió:adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.
¿Los devs deben pagar algo a Nvidia si quieren implementarlo?
adriano_99 escribió:Gwyn escribió:adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.
¿Los devs deben pagar algo a Nvidia si quieren implementarlo?
No lo se, nunca he leído nada que lo indique.
VanSouls escribió:MarioLemieux escribió:@masticatigres yo sigo sin conocer un solo ejemplo en el que la 2070 super dejase en evidencia a la 5700xt. Me vale un ejemplo en el que se vea el Raytracing y la supuesta diferencia que marca.
Es que en la generación anterior se quedó todo en palabrería yo creo. El RT era solo visual, limitado a algunos juegos y mermando el rendimiento, y encima pagando bastante por ello.
El DLSS 2.0 sí que lo veo un avance brutal, eso sí que puede marcar diferencias y hacer daño a AMD porque puede destrozar de golpe el ratio precio/rendimiento dónde NVIDIA cojea.
Yo he tenido 2 5700Xt y una 2070Super, con drivers actualizados a día de hoy son parejas, no tengo pruebas porque ya no las tengo, si te sirve unos videos "actuales"
https://www.youtube.com/watch?v=BA8aAD6Rgg4
https://www.youtube.com/watch?v=vP5c5yvXsvk
Lo que está claro es que el que comprase una 1080Ti, hizo la compra de la década
Y sobre el dlss, será bueno si la desarrolladora quiere ponerlo, porque no está en manos de Nvidia.
masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
adriano_99 escribió:masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
adriano_99 escribió:masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
papatuelo escribió:adriano_99 escribió:masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.
masticatigres escribió:adriano_99 escribió:masticatigres escribió:Si no le sale bien a MS terminará por comprarselo a Nvidia, es lo que suele ocurrir, como hizo con Mantle para meterlo dentro de DX12, seria lo mejor para nosotros, además darían una segunda vida a tarjetas mas antiguas aun muy validas como la R9 290x, que con esa tecnologia podria durar 10 años mas a pleno rendimiento.
DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.
adriano_99 escribió:papatuelo escribió:adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.masticatigres escribió:adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.
Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.
adriano_99 escribió:papatuelo escribió:adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.masticatigres escribió:adriano_99 escribió:DLSS no puede darle ninguna vida extra a ninguna grafica que no tenga tensor cores.
DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.
Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.
adriano_99 escribió:Gwyn escribió:adriano_99 escribió:Dlss 2.0 se ve mejor que la resolución nativa y si no me crees mira los análisis de digital foundry sobre todos los juegos que lo usan.
Es una maravilla y no entiendo como no lo llevan todos los triple A.
¿Los devs deben pagar algo a Nvidia si quieren implementarlo?
No lo se, nunca he leído nada que lo indique.
mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.
Gwyn escribió:mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.
Alguno de esos juegos soporta DLSS 2.0?
Pruébalo en alguno de estos y vuelve a contar tus impresiones luego:
Control, Deliver Us The Moon, MechWarrior 5: Mercenaries, o Wolfenstein: Youngblood.
mls3197 escribió:Gwyn escribió:mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.
Alguno de esos juegos soporta DLSS 2.0?
Pruébalo en alguno de estos y vuelve a contar tus impresiones luego:
Control, Deliver Us The Moon, MechWarrior 5: Mercenaries, o Wolfenstein: Youngblood.
Quieres decir q esos juegos son dlss 1.0? Y con estos que comentas mejora?
Voy a probar con alguno a ver, porque me pareció una decepción grande, al menos hasta ahora.
mls3197 escribió:Debo ser el único que el dlss me parece una castaña, probado en varios juegos, tómb raider, metro y alguno más y en todos pierde bastante definición comparado con resolución nativa, yo siempre lo desactivo, prefiero bajar algún detalle gráfico y poner la resolución nativa.
papatuelo escribió:adriano_99 escribió:papatuelo escribió:
AMD tiene su propia forma de hacerlo. ¿Cómo? No lo sé.masticatigres escribió:DLSS no, pero una tecnología hibrida si, es mas, se hablaba de que la API de MS podría reescalar cualquier juego con el Antialiasing, no se como funciona, pero si se que se podría hacer, si quieren, claro.
Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.
Yo no he dicho hasta ahora.
He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.
Eso es lo que hace dlss, escalar resoluciones basandose en ML
PilaDePetaca escribió:papatuelo escribió:adriano_99 escribió:
Hasta ahora ningún reescalado que hemos visto se ha ni acercado a la calidad que ofrece el dlss, pero ni de lejos.
Igual han encontrado la manera y me sorprenden pero hasta que no haya un ejemplo real de que pueden hacerlo dlss es lo único que te da rendimiento ganando nitidez.
Yo no he dicho hasta ahora.
He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.
Eso es lo que hace dlss, escalar resoluciones basandose en ML
De momento, usando el hardware que tiene AMD para hacer reescalados usando ML, no existe ni un sólo white paper hasta la fecha que se haga uso de ese tipo de hardware y a la vez pueda ser aplicado en tiempo real, así que esperemos que sean tanto Sony como Microsoft los que se tengan que mojar con esas cosas.
papatuelo escribió:PilaDePetaca escribió:papatuelo escribió:
Yo no he dicho hasta ahora.
He puesto la diapositiva de XBOX que dice que usarán Machine learning para cosas como escalar resoluciones.
Eso es lo que hace dlss, escalar resoluciones basandose en ML
De momento, usando el hardware que tiene AMD para hacer reescalados usando ML, no existe ni un sólo white paper hasta la fecha que se haga uso de ese tipo de hardware y a la vez pueda ser aplicado en tiempo real, así que esperemos que sean tanto Sony como Microsoft los que se tengan que mojar con esas cosas.
Hasta donde yo sé el white paper de RDNA2 no existe
gojesusga escribió:
Pero como van a consumir eso? Si las Nvidia consumen una burrada. No pueden ser tan buenas para consumir tan poco y rendir tanto. Porque signfica que debería de tener un margen de overclock por el consumo muy elevado.
neox3 escribió:Lo siento pero no tiene ningun sentido que una 6700xt no sea netamente superior a una 5700xt, con un cambio de generacion, no refrito
neox3 escribió:Lo siento pero no tiene ningun sentido que una 6700xt no sea netamente superior a una 5700xt, con un cambio de generacion, no refrito