Pacorrr escribió:A ver pero si es de perogrullo, un juego patrocinado por una marca, significa que han metido dinero en ese juego (caso por ejemplo del Cyberpunk y Nvidia). Una marca no va a meter dinero en patrocinar un juego para que metan tecnología de la competencia, es que es de sentido común, y es lo que siempre ha sucedido. Si AMD saca un reescalado propio, ten por seguro que no lo vas a ver tampoco en juegos patrocinados por Nvidia (a menos que sea una tecnlogía que no haga falta meter en el motor del juego, como sucede con el DLSS). Hasta ahora, todos los juegos con RT tienen DLSS porque todos esos juegos han sido patrocinados por Nvidia.
battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias .
Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.
Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.
Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.
Pacorrr escribió:battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias .
Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.
Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.
Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.
Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.
Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.
battman80 escribió:Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.
Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.
Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...
No pasa nada
sadistics escribió:Seguramente la solución de AMD se estandarice antes que la de nvidia. Nvidia trabaja en tecnologías propietarias y AMD suele ser mas de usar estándares o ayudar a desarrollarlos
pmol escribió:@battman80
Si no tengo entendido mal, el Direct ML va a ser de forma inmediata la alternativa al DLSS. Lo van a usar las consolas nextgen y, por supuesto, AMD. Todavía no sabemos mucho porque se liberó en agosto. Como tú, estoy deseando ver las primeras comparativas reales, en la que nos muestren Direct ML vs DLSS, si hay diferencias notables o no.
Estoy muy de acuerdo con el compañero con respecto al software privativo como el DLSS. Para implementarlo, las desarrolladoras van a tener que pasar por caja y será útil solo con gráficas Nvidia. El Direct ML es open source y funcionará con absolutamente todas las gráficas. Mi deseo, por este mismo motivo, es que el Direct ML se implante, pero eso está por ver.
Seguimos esperando a ver que pasa. Lo mejor para todos es que las gráficas Radeon estén a la altura de los rumores. Lo peor es la situación que teníamos hasta hace 2 meses, en la que Nvidia hacía y deshacía a su antojo, con unos precios desorbitados. De no ser por AMD, la RTX 3080 costaría 1000 lereles de base seguro.
iaFx escribió:pmol escribió:@battman80
Si no tengo entendido mal, el Direct ML va a ser de forma inmediata la alternativa al DLSS. Lo van a usar las consolas nextgen y, por supuesto, AMD. Todavía no sabemos mucho porque se liberó en agosto. Como tú, estoy deseando ver las primeras comparativas reales, en la que nos muestren Direct ML vs DLSS, si hay diferencias notables o no.
Estoy muy de acuerdo con el compañero con respecto al software privativo como el DLSS. Para implementarlo, las desarrolladoras van a tener que pasar por caja y será útil solo con gráficas Nvidia. El Direct ML es open source y funcionará con absolutamente todas las gráficas. Mi deseo, por este mismo motivo, es que el Direct ML se implante, pero eso está por ver.
Seguimos esperando a ver que pasa. Lo mejor para todos es que las gráficas Radeon estén a la altura de los rumores. Lo peor es la situación que teníamos hasta hace 2 meses, en la que Nvidia hacía y deshacía a su antojo, con unos precios desorbitados. De no ser por AMD, la RTX 3080 costaría 1000 lereles de base seguro.
A ver, que se os va....
DirectML es una API para aplicar IA, ya puede ser en reescalado, para texturas, para audio, etc. pero este no sustituye a DLSS, porque este no es una API, sino un algoritmo entrenado mediante una red neuronal para reescalar, y es aquí donde esta el meollo del asunto, DLSS puede funcionar con DirectML como API porque no se excluyen entre ellos, no son lo mismo con otra marca, lo que tiene que crear o mejorar AMD o Microsoft NO ES DirectML, sino un reescalado por IA que se apoye en DirectML y entrenado en una red neuronal y es ahí donde Nvidia le saca ventaja, porque ya tiene el algoritmo funcional y con varios años de entrenamiento y encima con hardware dedicado para acelerar el reescalado, hardware dedicado que no tienen las AMD, de hecho, Nvidia no tiene ningún problema en apoyarse en DirectML si ya no lo hace ya para usar DLSS porque va a conseguir lo mismo que con una API propietaria.
Y por cierto, DirectML NO es open source, todo lo que tenga Direct no lo es.
pmol escribió:@iaFx Gracias por la explicación. Yo solo sé de lo que voy leyendo por la web y se me escapan bastantes cosas.
En este caso para aplicar el DLSS, Nvidia tiene los Tensor Cores y AMD parece no tener hardware dedicado, no es así? Supongo que eso ya será un handicap a la hora del futurible DLSS que aplique AMD.
battman80 escribió:Pacorrr escribió:battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias .
Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.
Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.
Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.
Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.
Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.
Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.
Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.
Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...
No pasa nada
shingi- escribió:battman80 escribió:Pacorrr escribió:Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.
Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.
Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.
Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.
Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...
No pasa nada
No me quería meter en el fregao... pero es que hasta ahora NOOOO hay otra marca que no sea nVidia que mueva RT, ergo si tiene RT y nVidia es la ÚNICA que tiene tarjetas que pueden aprovecharse de ello, por supuesto TIENE DLSS, porque precisamente si hay RayTracing es porque están usando las tarjetas de nVidia en mente.
Ahora mira todos los juegos que NOOOO tienen RayTracing, llevan todos ellos DLSS? si van de la mano precisamente es porque hasta ahora solo una compañía ofrecía dicho soporte, ahora que AMD se suma a la fiesta habrá más juegos con RayTracing y obviamente todos los que AMD patrocine NOOOO llevarán DLSS, porque sino adivina qué... se les retira el patrocinio y mejor aún.... si las consolas empiezan a usar RayTracing, cosa que sucederá, y estas mondan la arquitectura RDNA 2 (propiedad de AMD), si has programado tu RT pensando en dicha arquitectura y tienes su equivalente en PC, porqué debería un desarollador tirar TODA su faena en este sentido para portarlo a otra arquitectura de la competencia?
Y esto no es un Company Wars, que la gente pille la tarjeta que le guste, ambas ofrecen cosas que me llaman la atención y yo mismo no tengo ni zoooorrins de qué pillaré al final, pero no habrá DLSS en TODOS los juegos que utilicen RT , de hecho no he sabido encontrar si Dirt 5 utlitza DLSS, quizás si, pero no supe verlo.
saludos
masticatigres escribió:AzagraMac escribió:DaNi_0389 escribió:Joder pues esta bastante bien, con lo que se venía comentando estos días no esperaba que una 6800 rindiese algo más que la 2080Ti activando Raytracing.
la 6800 es la que tengo fichada... me largo de NVIDIA
https://www.gigabyte.com/Graphics-Card/GV-R68-16GC-B#kf
Joer, yo estoy muy indeciso con el tema, ya que para Blender y programas de diseño 3d las Nvidia ganan de calle, pero también se que dentro de nada van a optimizar los programas para las AMD que dan mas potencia bruta, pero son solo promesas...
MarioLemieux escribió:@nomg yo igual, teniendo una 5700xt ahora mismo para 1440p me sirve para una buena temporada y no me voy a lanzar ahora mismo a nada. Pasado un tiempo con precios más bajos y otra exigencia en los juegos y quizás me lo plantee.
Para la gente que juega a 1080 o que juega a 1440p y tiene una 2070 super, 2080, 2080ti, 5700xt...tampoco aporta tanto esta generación yo creo. Al que le guste renovar cada poco algo puede ganar pero yo creo que con esas gráficas se va de sobra en el medio plazo salvo que se sea muy exigente.
PepeC12 escribió:@ZipiZape no todo es dlss
Tener en cuenta que habrá (y de hecho ya hay) juegos que se ven lastrados el rendimiento por falta de vram.
Ahí amd tiene ventaja.
Por ejemplo nvidia no ha mostrado el battlefield v porque supera los 10gb con raytracing.
Y ya la 3070 con lo buena que podría ser con 12 o 16 gb y la sacan con 8.
Yo como soy bastante prudente me esperaré a la primavera a ver si nvidia saca graficas con más vram.
pmol escribió:Para los preocupados por la ausencia DLSS, acabo de ver una comparativa en directo de Michael Quesada utilizando Death Stranding. Voy a resumir lo visto:
Compara el DLSS con el FidelityFX CAS a 1080,1440, y 4K.
1080p: el DLSS es objetivamente mejor que el CAS
1440 y 4K: no hay diferencias apreciables entre DLSS y CAS, salvo que con CAS obtienes algunos fps más.
En todos los casos que se emplea el DLSS es en modo calidad, pues en modo desempeño se ve mucho peor y curiosamente los fps son exactamente los mismos que en el modo calidad
Hay que recordar que son dos tecnologías diferentes y que en el FidelityFX CAS no interviene el deep learning, y aún así perfectamente comparables a 1440 y 4k.
Recordad que el equivalente al DLSS de AMD está por llegar, el Direct ML.
Conclusión, yo no estaría nada preocupado por este tema en las nuevas Radeon, al igual que tampoco lo estoy por el Ray Tracing.
Metalyard escribió:@Antoniopua Imagínate yo que voy a pasar de una 1080 a una 3080Ti o 6900XT...
pmol escribió:@papatuelo Estaba algo más adelante en la conversación.
http://www.twitch.tv/michaelquesadapcma ... =a&t=7642s
battman80 escribió:Pacorrr escribió:battman80 escribió:@Pacorrr No te preocupes, que todo esto ya se verá .
Tampoco hay que irritarse si resulta que todos los juegos con RT se apoyan en DLSS, porque eso es para el bien de los usuarios. A nadie le ponen una pistola en la cabeza a la hora de elejir. Lo ridiculo es querer que hayan juegos con RT que "solo" podamos jugar a 40 frames, un suponer, porque nos fastidia que otros con otro tipo de GPUS los jueguen a 80...Esto no es el mundo de las consolas, salvo que me esté equivocando de foro y de compañias .
Ademas, estamos hablando de valor de las GPUS, en este caso poniendo el valor las 6000, que este es su hilo, y estar tratando el tema de lo importante o no que es tener en cuenta el rendimiento de los juegos con DLSS (con y sin RT, y sí DLSS), y yo, que sí soy usuario del DLSS desde que está disponible, siento mucho que no haya podido probarlo TODO EL MUNDO, porque sino, los "antis" no exisitirian, y en todo caso solo quedaría llorar para que sea algo universal. Es una ventaja que podemos tener en PC, y es una lastima que AMD no pueda usarlo, y ojalá Nvidia al menos encuentre la manera de aplicarlo sin necesidad de implementarlo juego a juego.
Respecto a lo del patrocinio, Nvidia y AMD, mas que pagar como piensas tu, lo que hacen es suministrar soporte durante el desarrollo de los juegos para que los estudios puedan conseguir los objetivos que buscan. Ese motivo es el que hace que luego, ni AMD ni Nvidia pintan nada en lanzamientos ni demas cosas alrededor de los juegos en los que aparecen sus logos, y un caso para la historia es el de GTAV, y el TONTEO que le hizo ROCKS a Nvidia, dejandola con el culo al aire en pleno lanzamiento de sus nuevas GPUS, porque quien si pagaba, que era Sony, dio la orden, y los maletines, para que se retrasa el lanzamiento en PC y no hacerles el feo a las consolas. Todo eso "filtrado" en su dia por el propio CEO de Nvidia en un caso ya miticio.
Nvidia y AMD no son fabricantes de consolas, y no van por ahí untando a los estudios para tenerlos a sus pies. Que no si es mejor asi, porque me encantaria ver un juego "pagado" por Nvidia mismo, explotando al 100% la potencia real de un PC high END, porque lo que solemos ver, solo es morralla porteada y adecentada, aun siendo espectacular, respecto de lo que veriamos en juegos pensados desde la base hasta la cima para exprimir la arquitectura de un PC.
Veo que sigues sin entenderlo. No es cuestión de lo que uno quiera o deje de querer, le fastidie o le divierta, es de puro sentido común. No sé a qué vienen las pullitas sinceramente, he tenido una 2080 hasta hace bien poco y he probado el DLSS, y ahora tengo una 8800GTS del año de los pecos esperando a ver qué es lo que compro.
Me parece que no te das cuenta que las tecnologías privativas, como el DLSS, como era el Physx, son muy difíciles de imponer como standard, precisamente porque son cerradas y no se permiten usar fuera del propietario. Si no entiendes eso, seguirás sin entender que el DLSS sólo lo vas a ver en juegos patrocinados o en los que Nvidia llegue a algún acuerdo.
Lo entiendo perfectamente, pero todo esto es hablando y suponiendo, que dentro de X tiempo, no se sabe si semanas o meses, AMD presente algun tipo de solución, apollada en la arquitectura de sus GPUS, similar a DLSS (realmente similar), y que ENTONCES, hubiendo dos soluciones en el mercado, pueda uno y otro fabricante estimular a los estudios para usar la suya y no la de la compentencia, con lo cual unos usuarios se quedran sin una de las ventajas en algunos juegos, y otros en otros tantos.
Yo te digo que hasta que no veamos eso, y hasta el dia de hoy, todos los juegos que han salido con RT y los que vienen en el corto plazo, llevan DLSS, y no es por que Nvidia pague, es porque son casi injugables sin DLSS...Es o usarlo, o renunciar al RT, y el RT si que no es algo de Nvidia, es algo universal. Para mi no es un problema de DLSS sí o DLSS no, es un problema de RT sí o RT no.
Por lo demas, estamos en la misma situación, y yo lo que quiero es ver esas 6000, en concreto la 6900xt porque las otras no me interesan absolutamente nada, corriendo en los tipicos juegos tochos (al margen de los usados en los benchs de AMD), corriendo con procesadores como el mio, proque está claro que para cambiar a zen3 + placa+ 6900XT, pillo una 3090 que salgo ganando por todos lados y no necesito nada mas, y corriendo con RT ON. O sea, todo lo que AMD por ahora nos sigue ocultando...
No pasa nada
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.
Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.
ionesteraX escribió:Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.
Debes distinguir entre vram reservada y vram en uso, por ejemplo la reservada suele estar muy cerca del maximo que tenga tú gráfica mientras que usado suele ser menor, despues si el juego esta programado de forma correcta ese uso se adecua a la que tengas, en las pruebas que he hecho yo con 8gb puedes tenerlos todos reservados pero solo usar 6,5gb y con 10gb tener reservados todos y usar 8,5gb, el rendimiento apenas se resiente, ahora mismo no es algo definitorio la cantidad de vram pero quiza sí lo sea en un futuro con juegos hechos para las nuevas consolas.
Sobre lo que habeis hablado del FidelityFX cas y el dlss, yo me pase el death stranding a 4K@120fps y os aseguro que la diferencia que hay entre ambas tecnologias es generacional en favor del dlss, al menos en el momento de salida del juego que fue cuando las probe.
Drakenathan escribió:ionesteraX escribió:Drakenathan escribió:No se si son fiables los datos, pero con GPU-Z y Msi Afterburner se zampa 9 Gb de Vram el Apex con la Aorus Master, me esperaba que con la Gddr6X se consumiese menos, pero no.... me da a mí que como AMD cumpla con al 6800XT se va para wallapop.
Debes distinguir entre vram reservada y vram en uso, por ejemplo la reservada suele estar muy cerca del maximo que tenga tú gráfica mientras que usado suele ser menor, despues si el juego esta programado de forma correcta ese uso se adecua a la que tengas, en las pruebas que he hecho yo con 8gb puedes tenerlos todos reservados pero solo usar 6,5gb y con 10gb tener reservados todos y usar 8,5gb, el rendimiento apenas se resiente, ahora mismo no es algo definitorio la cantidad de vram pero quiza sí lo sea en un futuro con juegos hechos para las nuevas consolas.
Sobre lo que habeis hablado del FidelityFX cas y el dlss, yo me pase el death stranding a 4K@120fps y os aseguro que la diferencia que hay entre ambas tecnologias es generacional en favor del dlss, al menos en el momento de salida del juego que fue cuando las probe.
Como sacas el dato de la cantidad real que consume?
Drakenathan escribió:Como sacas el dato de la cantidad real que consume?
ionesteraX escribió:Drakenathan escribió:Como sacas el dato de la cantidad real que consume?
Con el afterburner, metieron recientemente la manera de saber cuanta tiene reservarda y cuanta en uso, para 8gb por ejemplo me reserva los 8 y usa 6,5 mientras que con una gráfica de 10 me reserva los 10 y usa 8,4.