NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

ariakan25 escribió:
papatuelo escribió:Ya lo dije y parece que es así, el dlss aporta entre poco y nada.

Se vendía como jugar a 4K con mucho más rendimiento, de hecho tuve una discursión absurda con alguien de este foro que aseguraba que activando dlss la gráfica tenía más "potencia", y es lo lo que es un reescalado. Normal que rinda más.

Es tan ridiculo como vender que si ejecutas el juego a 2K la gpu rinde un 100% (un decir), completamente absurdo.

Se supone que el sistema tiene que ir aprendiendo y refinandose, pero de momento es un mojon.

que el dlss ha sido un casco enm estos primeros juegos es evidente

pero puede funcionar bien?

la respuesta si , solo hay que ver el benchmark de port royal que no solo da mas frames si no que encima se ve mejor con dlss que sin el.

ahora bien eso es un bench en el que siempre pasa los mismo, las mismas imagenes, es corto y se acaba

un juego cada vez es diferente, y implementarlo de esa manera tiene que ser muchisimo mas complicado

solo digo que les demos tiempo haber en que queda


Port Royal si no me equivoco no es un juego, sino que son x minutos o segundos de metraje, normal que el DLSS vaya de muerte en esa situación. El dlss lo que hace es coger x juego "estudiarselo" y luego intentar acercar en cada momento la imagen a la resolución mas alta posible rellenando los pixeles que no existen con la información que ha aprendido. Creo que es facil imaginar que si sabe las respuestas del examen (cada frame en cada momento) sacara mejor nota.

¿Que pasa cuando llega a un juego? Q cada frame es diferente y ahí la liamos.
Hay que tener en cuenta que tanto en Port Royal como en Final Fantasy XV se utiliza un TAA que emborrona bastante, por eso el DLSS sale mejor parado en esos casos. El TAA que implementan BFV y Metro es mucho mejor.
@papatuelo Si, tienes toda la razón, en el battlefield está claro que no merece la pena activarlo.

En mi caso se ve mejor en realidad tener esto a 1440p nativo que tenerlo a 4k dlss, porque hasta ahí se nota la borrosidad que le mete. También algún frame ganaría yo a 1440p seguramente, ya que siempre se pierden algunos pocos frames al pasar de una resolución nativa a la siguiente con dlss. Aún así en mi caso sigue estando el problema del cuello de botella y ya tengo comprobado al menos a 4k dlss que ahí el micro no molesta, mientras que a 1440p todavía algo se hace notar. Será que a pesar de todo la gráfica va mas sobrecargada a 4k hasta con el dlss pero si, mejor será que lo compruebe eso yo un poco mejor. Sea como sea, con mi micro no voy a poder poner esto nunca jamás muy por encima de unos 60 frames ya que si lo hago, en los momentos que el micro dice aquí estoy yo, la rascada es mas grande cuantos mas frames pudiera alcanzar la gráfica.

Por lo menos, estoy entretenido buscando y encontrando sweet spots trasteando con las opciones y las resoluciones, para mucha gente esto que digo último puede hasta parecer una chorrada, pero lo dicho, a mi me entretiene. Si tuviera un pepinaco de ordenador con todo a la última, esto lo perdería ya que sería ponerlo todo a toda pastilla siempre y se acabó.
papatuelo escribió:El error es lo que te subrayo, con dlss tu juego no va a 4K. Tu juego renderiza a 2K y reescala a 4K, normal que de más frames.

La comparativa real debería ser 2K nativo vs 4K dlss, ver la calidad que se gana (si se gana) y que diferencia de rendimiento existe.

De hecho estaria bien que @vmanuelgm pusiera las diferencias de rendimiento entre 1080p con un AA decente, 2K dlss y 2K nativo y una captura raw de una imagen compleja en las tres comfiguraciones para comparar.



A ver si tengo un rato y lo hago!!!

;)
Me da a mí que esto del DLSS al final va a ser anecdótico xD
Hasta ahora el dlss son tres casos, un juego donde funciona bien a 4k, el final fantasy XV, un benchmark donde funciona bien pero es que si no lo hiciera bien ahí apaga y vámonos. Y por último un juego donde es un desastre.

Yo creo que todavía es temprano para decir si esto va a ser una tecnología válida o fallida. Según vayan saliendo mas juegos los sabremos eso, no creo además que necesitemos muchas mas muestras. Aún así como todo en la vida, si el dlss de forma mas o menos general va a sacar una imagen borrosa (y no será siempre, en el ffxv la imagen es mas nítida que cuando se aplica taa), habrá a quien le guste eso porque para gustos no hay nada escrito.
pakolo1977 escribió:Hasta ahora el dlss son tres casos, un juego donde funciona bien a 4k, el final fantasy XV, un benchmark donde funciona bien pero es que si no lo hiciera bien ahí apaga y vámonos. Y por último un juego donde es un desastre.

Yo creo que todavía es temprano para decir si esto va a ser una tecnología válida o fallida. Según vayan saliendo mas juegos los sabremos eso, no creo además que necesitemos muchas mas muestras. Aún así como todo en la vida, si el dlss de forma mas o menos general va a sacar una imagen borrosa (y no será siempre, en el ffxv la imagen es mas nítida que cuando se aplica taa), habrá a quien le guste eso porque para gustos no hay nada escrito.


Desde mi punto de vista:

- En Metro Exodus--> una basura.
- En BV --> Otra basura.
- En FF XV --> No pude probarlo porque no tengo monitor 4K. Pero en este se ve mejor porque la implementación del TAA es una auténtica chapuza.

Según Nvidia no iba a diferir mucho de la calidad nativa, porque la IA era una técnica muy avanzada y bla bla bla bla...joder, es que la diferencia, al menos en 1440P en más que evidente. Todo se emborrona. Y en BV es demencial.

Solamente espero que la IA vaya mejorando, que debería ser así, y el DLSS igual. Veremos en Anthem como queda, es la última esperanza de verlo bien en un AAA.
goku593 escribió:
pakolo1977 escribió:Hasta ahora el dlss son tres casos, un juego donde funciona bien a 4k, el final fantasy XV, un benchmark donde funciona bien pero es que si no lo hiciera bien ahí apaga y vámonos. Y por último un juego donde es un desastre.

Yo creo que todavía es temprano para decir si esto va a ser una tecnología válida o fallida. Según vayan saliendo mas juegos los sabremos eso, no creo además que necesitemos muchas mas muestras. Aún así como todo en la vida, si el dlss de forma mas o menos general va a sacar una imagen borrosa (y no será siempre, en el ffxv la imagen es mas nítida que cuando se aplica taa), habrá a quien le guste eso porque para gustos no hay nada escrito.


Desde mi punto de vista:

- En Metro Exodus--> una basura.
- En BV --> Otra basura.
- En FF XV --> No pude probarlo porque no tengo monitor 4K. Pero en este se ve mejor porque la implementación del TAA es una auténtica chapuza.

Según Nvidia no iba a diferir mucho de la calidad nativa, porque la IA era una técnica muy avanzada y bla bla bla bla...joder, es que la diferencia, al menos en 1440P en más que evidente. Todo se emborrona. Y en BV es demencial.

Solamente espero que la IA vaya mejorando, que debería ser así, y el DLSS igual. Veremos en Anthem como queda, es la última esperanza de verlo bien en un AAA.

estoy descargando el Metro, yo juego a 4k en mi TV dentro de unas horas pondre impresiones a ver como da la talla el DLSS, en FF15 mejora imagen y rendimiento, enb BFV no lo se por que no lo tengo, asi que este va a ser la prueba de fuego a 4k nativos Vs 4k DLSS Vs 2k nativos
kikomanco escribió:
goku593 escribió:
pakolo1977 escribió:Hasta ahora el dlss son tres casos, un juego donde funciona bien a 4k, el final fantasy XV, un benchmark donde funciona bien pero es que si no lo hiciera bien ahí apaga y vámonos. Y por último un juego donde es un desastre.

Yo creo que todavía es temprano para decir si esto va a ser una tecnología válida o fallida. Según vayan saliendo mas juegos los sabremos eso, no creo además que necesitemos muchas mas muestras. Aún así como todo en la vida, si el dlss de forma mas o menos general va a sacar una imagen borrosa (y no será siempre, en el ffxv la imagen es mas nítida que cuando se aplica taa), habrá a quien le guste eso porque para gustos no hay nada escrito.


Desde mi punto de vista:

- En Metro Exodus--> una basura.
- En BV --> Otra basura.
- En FF XV --> No pude probarlo porque no tengo monitor 4K. Pero en este se ve mejor porque la implementación del TAA es una auténtica chapuza.

Según Nvidia no iba a diferir mucho de la calidad nativa, porque la IA era una técnica muy avanzada y bla bla bla bla...joder, es que la diferencia, al menos en 1440P en más que evidente. Todo se emborrona. Y en BV es demencial.

Solamente espero que la IA vaya mejorando, que debería ser así, y el DLSS igual. Veremos en Anthem como queda, es la última esperanza de verlo bien en un AAA.

estoy descargando el Metro, yo juego a 4k en mi TV dentro de unas horas pondre impresiones a ver como da la talla el DLSS, en FF15 mejora imagen y rendimiento, enb BFV no lo se por que no lo tengo, asi que este va a ser la prueba de fuego a 4k nativos Vs 4k DLSS Vs 2k nativos

con el equipo y la tv que tienes eso se tiene que ver bien hasta en graficos bajos [qmparto] [qmparto]
Buenas yo estoy pensando en pillar una 2060. Juego a 1080p y según he leído rinde como una 1070ti por lo que entiendo que tendría tarjeta para aburrir. Mi duda viene por si a estas resoluciones más bajas se aplica también el DLSS y los problemas que se están viendo o si se hace uso sólo en resoluciones más altas
Primeras impresiones con la RTX 2080ti con metro exodus

El juego luce bien

El DLSS hace bien su trabajo, da un 50% de rendimiento extra de activarlo a no hacerlo

Eso sí, pierde definición

A 4k nativo se ve todo más nítido

Y el raytracing tampoco es nada del otro mundo

Si habeis jugado al re2 remake, cuando entráis en el laboratorio hay reflejos de luces mejor que en este juego y eso que el re2 no tiene raytracing, para mí no justifica el RT la perdida de rendimiento que genera, pero por lo menos con el dlss se justifica

Cómo diría José Mota, las gallinas que entran por las que salen

Pero eso sí, se ve todo un poco más borroso, como cuando le aplicas al re2 remake el TXAA + FXAA (que yo por cierto lo jugué así) por qué prefiero más realidad que ver artefactos y ruido que tiene cuando no le aplicas esos filtros de AA

En resumen, prefiero RT más dlss que 4k nativos sin dlss y sin RTX

Pero esto ya irá por gustos, a mi el resultado en 4k me gusta, en otras resoluciones a lo mejor si será más grave, pero a 4k se ve perfecto
Puede ser que los juegos todavía no estén adaptados, no?

Si en el benckmark funciona bien debería ir igual en los juegos, igual es porque todavía no han podido incluir un soporte completo.
eric_14 escribió:Puede ser que los juegos todavía no estén adaptados, no?

Si en el benckmark funciona bien debería ir igual en los juegos, igual es porque todavía no han podido incluir un soporte completo.

También, pueden ir sacando parches para el juego que mejore todo eso y de más rendimiento y menor calidad de imagen
Para cuando ya le hayamos dado dos vueltas a los juegos, no?
Cuando sea una tecnología estandar o que de verdad se use y no nos usen a nosotros como conejillos de indias, me compraré una RTX. A dia de hoy es pagar (pagar un pastizal, de hecho) por una tecnología que no se usa aún (en contados juegos y encima mal) y que no sabemos si se llegará a usar.
Eso si, si el precio fuera acorde, sin duda me compraba una (como la oferta de la RTX. 299€ lo veo aceptable, 500 y pico euros como pasó a costar despues, ni de broma).
kikomanco escribió:Primeras impresiones con la RTX 2080ti con metro exodus

El juego luce bien

El DLSS hace bien su trabajo, da un 50% de rendimiento extra de activarlo a no hacerlo

Eso sí, pierde definición

A 4k nativo se ve todo más nítido

Y el raytracing tampoco es nada del otro mundo

Si habeis jugado al re2 remake, cuando entráis en el laboratorio hay reflejos de luces mejor que en este juego y eso que el re2 no tiene raytracing, para mí no justifica el RT la perdida de rendimiento que genera, pero por lo menos con el dlss se justifica

Cómo diría José Mota, las gallinas que entran por las que salen

Pero eso sí, se ve todo un poco más borroso, como cuando le aplicas al re2 remake el TXAA + FXAA (que yo por cierto lo jugué así) por qué prefiero más realidad que ver artefactos y ruido que tiene cuando no le aplicas esos filtros de AA

En resumen, prefiero RT más dlss que 4k nativos sin dlss y sin RTX

Pero esto ya irá por gustos, a mi el resultado en 4k me gusta, en otras resoluciones a lo mejor si será más grave, pero a 4k se ve perfecto

Ojo, que hay zonas donde apenas se nota y zonas donde parece otro juego.
Ahora no puedo poner el enlace pero si miras el análisis de digitalfoundry lo veras.
Menudo fracaso las RTX cómo no las bajen de precio se las van a comer con papas yoi teniendo una Gtx 1070 y notar un cambio sustancial tendría que irme a una RTX 2080 y no bajan de 700e la más barata que he visto. Estamos locos o que
Tanto hablar de metro exodus últimamente que he terminado pillándomelo también. XD

El dlss aquí con la 2080, aquí a 1080p no funciona, igual que en el battlefield V, seguro que si hago el truqui de forzar el driver de una 2070, lo activaría lo mismo que para el otro juego, pero volvería a ser la fiesta de la borrosidad, así que paso.

A 1440p y 4k le mete borrosidad, pero esta vez no parece la cosa tan grave como en el battlefield. Por otro lado ya veo que mi micro no hace cuello de botella, así que me voy a dedicar mas a disfrutarlo que a testear cosas. Con el monitor que gasto ahora, que es fullhd, poniéndolo a 1080p se ve muy bien y va muy suave todo, así que por ahora lo dejaré tal cual, con todo al máximo y sin dlss, ya que los frames no bajan de 60 nunca jamás por lo que he visto. El dlss vuelve a ser un fiasco, ya tenemos dos de cal y dos de arena, aunque esta vez no es la locura del battlefield tal y como yo lo veo.

El juego en si me está gustando, pero a mi es que me gustan mucho los juegos peliculeros, con mucho metraje de diálogos entre las de acción, aunque después sean muy lineales en el desarrollo, desde que jugué el primer metal gear solid hace 20 años me aficioné a eso. Me vuelvo al juego, ahora que me han dejado en paz la esposa y la vástaga, hasta luego!
pakolo1977 escribió:Tanto hablar de metro exodus últimamente que he terminado pillándomelo también. XD

El dlss aquí con la 2080, aquí a 1080p no funciona, igual que en el battlefield V, seguro que si hago el truqui de forzar el driver de una 2070, lo activaría lo mismo que para el otro juego, pero volvería a ser la fiesta de la borrosidad, así que paso.

A 1440p y 4k le mete borrosidad, pero esta vez no parece la cosa tan grave como en el battlefield. Por otro lado ya veo que mi micro no hace cuello de botella, así que me voy a dedicar mas a disfrutarlo que a testear cosas. Con el monitor que gasto ahora, que es fullhd, poniéndolo a 1080p se ve muy bien y va muy suave todo, así que por ahora lo dejaré tal cual, con todo al máximo y sin dlss, ya que los frames no bajan de 60 nunca jamás por lo que he visto. El dlss vuelve a ser un fiasco, ya tenemos dos de cal y dos de arena, aunque esta vez no es la locura del battlefield tal y como yo lo veo.

El juego en si me está gustando, pero a mi es que me gustan mucho los juegos peliculeros, con mucho metraje de diálogos entre las de acción, aunque después sean muy lineales en el desarrollo, desde que jugué el primer metal gear solid hace 20 años me aficioné a eso. Me vuelvo al juego, ahora que me han dejado en paz la esposa y la vástaga, hasta luego!

A 4K le mete borrosidad pero no mucha, es más como cuando metes el TXAA que emborrona pero suaviza mucho las líneas y le da más realismo al juego, decir que apenas acabo de salir del metro y estoy andando los primeros pasos en modo libre por el mundo abierto y es un espectáculo gráfico, da para paja, la iluminación es bestial y el paisaje post apocalíptico sublime, lo recomiendo 100% el juego, me está gustando mucho, pensé que estaría peor optimizado, pero pedir 60fps a 4k con RT activado no es moco de pavo, yo creo que mediante parches lo irán dejando más fino, de momento muy satisfecho
Sigo con mucho interés el hilo y cuanto más os leo más me parece una catástrofe de generación.

Los máximos beneficiados, los estudios desarrolladores de esos TRES juegos que están vendiendo a todos los poseedores de Turing que intentan usar la tecnología por la qué han pagado (y han pagado bien).

Con el máximo respeto para los compradores (yo estuve a punto de serlo), me parece un auténtico fraude. Espero y deseo que la cosa mejore.
eric_14 escribió:Puede ser que los juegos todavía no estén adaptados, no?

Si en el benckmark funciona bien debería ir igual en los juegos, igual es porque todavía no han podido incluir un soporte completo.


No tiene xq, ya lo hemos dicho más atrás.

Esta tecnología lo que hace es estudiarse el benchmark o juego y aplicar lo que sabe para rellenar los pixeles que no se están renderizando con la información que ha aprendido.

Por decirlo de alguna forma, depués de estudiar viene el examen y ahí pone en uso lo que ha aprendido. La diferencia es que en un benchmark tiene las respuestas del examen. Cada frame es igual cada vez que el bench se ejecuta x lo que no es muy dificil acercar ese fotograma a su máxima definición.

Sin embargo en un juego cada fotograma es diferente y no tienes xq tener la información necesaria para completarlo.

Por otro lado creo que deberiamos de dejar de hablr de que con dlss activado se "gana rendimiento" y si juegas a menos resolución por esa regla de tres también. Tendría más sentido hablar de si realmente se gana calidad respecto de 2K nativo con un buen AA.

Por ejemplo he visto muy por encima el analisis del metro exodus de DF y creo que dicen que no se gana calidad al ejecutar dlss , no apreciable al menos, respecto de ejecutar el juego a 2K con AA y encima a 2K tienes un rendimiento un 10% mejor que si ejecutas el juego con dlss. Pero como digo lo vio a ultima hora ya durmiendome y no sé si cogí bien la idea.
Ha salido un artículo con comentarios de nvidia sobre como funciona el DLSS.

Pinta mal el asunto, lo que quizá pensabamos algunos, que serviría para poder ganar fps a ciertas resoluciones y encima calidad, vamos a quedar desolusionados.

Si la GPU tiene bastante chicha para mover X fps a Y resolución, el DLSS no se activa porque incluso te haría perder rendimiento respecto a no tenerlo activo (por la carga fija adicional que necesita).

Si esta explicación tan detallada la hubiesen hecho de salida de las RTX, quizás habrían vendido bastante menos de lo esperado. Yo creo que nos han vendido la moto, o en todo caso, no explicado toda la verdad cuando tocaba.

“DLSS is designed to boost frame rates at high GPU workloads (i.e. when your framerate is low and your GPU is working to its full capacity without bottlenecks or other limitations). If your game is already running at high frame rates, your GPU’s frame rendering time may be shorter than the DLSS execution time. In this case, DLSS is not available because it would not improve your framerate. However, if your game is heavily utilizing the GPU (e.g. FPS is below ~60), DLSS provides an optimal performance boost. You can crank up your settings to maximize your gains. (Note: 60 FPS is an approximation — the exact number varies by game and what graphics settings are enabled)
To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution.”

What this ultimately means is that DLSS is not a technique that can universally improve your framerate at every possible resolution. This technique can be only used when the GPU is pushed to its limits and, truth be told, the NVIDIA GeForce RTX2080Ti is CPU-bottlenecked at 1080p even on high-end CPUs. As such, it doesn’t really make sense to enable DLSS in low resolutions (as there wouldn’t be any performance improvement at all). There are exceptions of course in which the NVIDIA GeForce RTX2080Ti can be fully utilized at 1080p, however these are really rare exceptions at the moment.

Here is also what Andrew had to say about the poorly implementation of DLSS in Metro Exodus and Battlefield 5.
“We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high. To this end, we concentrated on high resolutions during development (where GPU load is highest) with 4K (3840×2160) being the most common training target. Running at 4K is beneficial when it comes to image quality as the number of input pixels is high. Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920×1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.

We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time.”
Lastly, Andrew claims that new updates for both Battlefield 5 and Metro Exodus are planned, though there isn’t yet any ETA on when they will be available.
“For Battlefield V, we think DLSS delivers a big improvement in 4K and 2560×1440 performance — up to 40% — for the corresponding quality, but also hear the community. For the next push, we are focusing our testing and training to improve the image quality at 1920×1080 and also for ultrawide monitors (e.g. 3440×1440). The current experience at these resolutions is not where we want them.
For Metro Exodus, we’ve got an update coming that improves DLSS sharpness and overall image quality across all resolutions that didn’t make it into day of launch. We’re also training DLSS on a larger cross section of the game, and once these updates are ready you will see another increase in quality. Lastly, we are looking into a few other reported issues, such as with HDR, and will update as soon as we have fixes.”


https://www.dsogaming.com/news/nvidia-c ... lefield-5/
Pues a 4k y en una tv de 55" yo no aprecio diferencia de calidad, con dlss he ganado 20 frames largos y mas feliz que una perdiz.
Vamos ya para 4 meses con Turing en la calle, sólo 2 o 3 juegos "aprovechan" sus nuevas características y parece que el DLSS no en todos los escenarios. Si era con esto con lo que querían justificar el sablazo...
CannonlakeEvo está baneado por "Troll"
Brillo brillo va a ser una genial argucia para subir permanentemente toda la gama de precios y modelos, y ha quedado comprobado con esa explicación a posteriori de NVIDIA. Total, el dinero ya voló de vuestras carteras.

NVIDIA os dá las gracias por ejercer de ansiosos Alpha testers y os garantiza que las gráficas nunca serán de nuevo asequibles.

El próximo año a la excusa del brillo le seguirá otra nueva, con idéntico resultado; precios altos.
Imagen

Como ya he dicho muchas veces no es 4K, es 2K escalado y como he dicho muchas veces ganas rendimiento como lo ganas bajando la resolución, y encima en este caso es que se ve mejor el 2K a palo seco.

Es que la gente habla de el DLSS como si fuera jugar a 4K pero con un boost de rendimiento y no es así.
exter escribió:Ha salido un artículo con comentarios de nvidia sobre como funciona el DLSS.

Pinta mal el asunto, lo que quizá pensabamos algunos, que serviría para poder ganar fps a ciertas resoluciones y encima calidad, vamos a quedar desolusionados.

Si la GPU tiene bastante chicha para mover X fps a Y resolución, el DLSS no se activa porque incluso te haría perder rendimiento respecto a no tenerlo activo (por la carga fija adicional que necesita).

Si esta explicación tan detallada la hubiesen hecho de salida de las RTX, quizás habrían vendido bastante menos de lo esperado. Yo creo que nos han vendido la moto, o en todo caso, no explicado toda la verdad cuando tocaba.

“DLSS is designed to boost frame rates at high GPU workloads (i.e. when your framerate is low and your GPU is working to its full capacity without bottlenecks or other limitations). If your game is already running at high frame rates, your GPU’s frame rendering time may be shorter than the DLSS execution time. In this case, DLSS is not available because it would not improve your framerate. However, if your game is heavily utilizing the GPU (e.g. FPS is below ~60), DLSS provides an optimal performance boost. You can crank up your settings to maximize your gains. (Note: 60 FPS is an approximation — the exact number varies by game and what graphics settings are enabled)
To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution.”

What this ultimately means is that DLSS is not a technique that can universally improve your framerate at every possible resolution. This technique can be only used when the GPU is pushed to its limits and, truth be told, the NVIDIA GeForce RTX2080Ti is CPU-bottlenecked at 1080p even on high-end CPUs. As such, it doesn’t really make sense to enable DLSS in low resolutions (as there wouldn’t be any performance improvement at all). There are exceptions of course in which the NVIDIA GeForce RTX2080Ti can be fully utilized at 1080p, however these are really rare exceptions at the moment.

Here is also what Andrew had to say about the poorly implementation of DLSS in Metro Exodus and Battlefield 5.
“We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high. To this end, we concentrated on high resolutions during development (where GPU load is highest) with 4K (3840×2160) being the most common training target. Running at 4K is beneficial when it comes to image quality as the number of input pixels is high. Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920×1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.

We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time.”
Lastly, Andrew claims that new updates for both Battlefield 5 and Metro Exodus are planned, though there isn’t yet any ETA on when they will be available.
“For Battlefield V, we think DLSS delivers a big improvement in 4K and 2560×1440 performance — up to 40% — for the corresponding quality, but also hear the community. For the next push, we are focusing our testing and training to improve the image quality at 1920×1080 and also for ultrawide monitors (e.g. 3440×1440). The current experience at these resolutions is not where we want them.
For Metro Exodus, we’ve got an update coming that improves DLSS sharpness and overall image quality across all resolutions that didn’t make it into day of launch. We’re also training DLSS on a larger cross section of the game, and once these updates are ready you will see another increase in quality. Lastly, we are looking into a few other reported issues, such as with HDR, and will update as soon as we have fixes.”


https://www.dsogaming.com/news/nvidia-c ... lefield-5/

Imagen
[+risas] [+risas]
descoat escribió:@FullKillerUltimate.

Techpowerup, asaltador.... Uff no me gusta tal combinación.

Para empezar, juégate lo que quieras a que pongo mi vega 64 y no da esos fps en Metro Exodus.

Y eso que tengo software comprado a ellos.

El asaltador.... Mira, ponte sus vídeos y te darás cuenta de que habla dando la sensación de que lo sabe todo pero mete unos patinazos que terminas por fiarte casi nada y te pongo ejemplos:
Capítulo donde habla sobre la Refrigeración líquida y comenta que el aire del depósito es importante tenerlo porque sirve de cámara de expansión.... ¿ Cámara de expansión????? Estamos hablando sobre un líquido que va a alcanzar una temperatura irrisoria y sin necesidad de tener que dejar esa cantidad de aire en el depósito porque símplemente, aún carente de él, no va a pasar nada...nada.

También comenta en el mismo vídeo del montaje de una líquida barata, que el depósito de agua hace que la temperatura sea menor que un AIO al tener menos agua.... Otro error gordo porque termina siendo LA MISMA.
Si en un sólo vídeo metes dos gambazos así, es preocupante, porque te intenta enseñar desinformando.

Otro: Vídeo donde habla sobre la ventilación en radiadores y la eficacia push y pull. Termina su experimento concluyendo que pull es mejor por mucho a push.... Craso error. Está testeando ese radiador. Cada uno tiene un diseño y la eficacia del laminado con push o pull va a ser distinta.

Así te puedo decir muchos.

El chico sabe sobre electrónica ( un pelín oxidado pero sabe) y tiene una forma excelente de comunicar pero ha de respirar 2 veces antes de decir las cosas, pues es un profesional de la materia y a ellos se les debe exigir no sólo saber sino actualizarse, cosa que a nosotros no.

Yo me gasté 1200€ sólo en libros el año pasado para actualizar los existentes a versiones más actuales. Es mi trabajo y si bien no creo que en hardware tengas que gastar tanta pasta en libros, por lo menos que se actualicen con cursos antes de sentar cátedra.

Iker tiene el mal de todo jóven. Espero y deseo que si quiere ser un referente, se aleje de toda regalía de las compañías y cultive independecia. Si no, va a ser un telepredicador de las religiones que más paguen en hardware.


Sobre DLSS, ha sido un desastre dedicar hardware para tener resultados que van a diferir muy poco de otros.
¿Ray tracing? Prometedor pero rendimiento muy bajo y a veces injugable por el frame time. Le quedan 2 generaciones más para ser decente. Espérate a la siguiente.

Pd: Pásate por el hilo de Radeon VII y verás la comparativa del compi @Pacorrr entre esta tarjeta y la 2080 rtx. Te darás cuenta que la 2060 no va a poder compararse con ella, sólo su hermana mayor.



Buenas.

Brutal el curro del compañero.

Yo no me he referido nunca a que RTX2060 rinda mas que esta nueva vega7 si fuese asi pienso que la misma AMD ni la saca al mercado, esta claro, el problema es el precio, con ese precio no puede competir con una RTX2080 rinde similar pero consume mas, es mas ruidosa y la RTX tiene nuevas tecnologias. Yo siempre la e comparado con la Vega 64, pienso que esta a su nivel.

https://www.youtube.com/watch?v=7kP0j_PzS-4&t=362s

Esa GPU rinde bastante bien, y consume menos.

Saludos
Esta generacion ha sido una vendida de humo, no ha sido un salto como de la serie 9 a la 10, y con la humeada del ray tracing, dlss y demas... graficas que deberian costar maximo 800 euros a 1400/1500 pavos, de pelicula vamos (esto de no tener competencia es muuuy malo) [bye]
A mi nunca me convenció el RayTracing pero sí tenía esperanzas para el DLSS, viendo esto pues menuda basura. Ésto era la recompensa de la "inversión inicial" que había que hacer para lo que saliera en el futuro? [facepalm] [facepalm]
Modo malpensado on: A ver si va a ser que la mejora visual del FF XV con el DLSS es fraudulenta... Es decir, qué le hayan puesto un filtro al modo sin DLSS (en 4k).
valencia escribió:A ver si va a ser que la mejora visual del FF XV con el DLSS es fraudulenta...


No creo que sea fraudulenta, pero habrán puesto un tiempo y mimo q no pueden poner a cada juego. Cómo las hamburguesas de las fotos.
A mi el DLSS me parece un auténtico despropósito ahora mismo, el rtx si me gusta pero consume una barbaridad de recursos
hit está baneado por "Troll"
exter escribió:Ha salido un artículo con comentarios de nvidia sobre como funciona el DLSS.

Pinta mal el asunto, lo que quizá pensabamos algunos, que serviría para poder ganar fps a ciertas resoluciones y encima calidad, vamos a quedar desolusionados.

Si la GPU tiene bastante chicha para mover X fps a Y resolución, el DLSS no se activa porque incluso te haría perder rendimiento respecto a no tenerlo activo (por la carga fija adicional que necesita).

Si esta explicación tan detallada la hubiesen hecho de salida de las RTX, quizás habrían vendido bastante menos de lo esperado. Yo creo que nos han vendido la moto, o en todo caso, no explicado toda la verdad cuando tocaba.

“DLSS is designed to boost frame rates at high GPU workloads (i.e. when your framerate is low and your GPU is working to its full capacity without bottlenecks or other limitations). If your game is already running at high frame rates, your GPU’s frame rendering time may be shorter than the DLSS execution time. In this case, DLSS is not available because it would not improve your framerate. However, if your game is heavily utilizing the GPU (e.g. FPS is below ~60), DLSS provides an optimal performance boost. You can crank up your settings to maximize your gains. (Note: 60 FPS is an approximation — the exact number varies by game and what graphics settings are enabled)
To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution.”

What this ultimately means is that DLSS is not a technique that can universally improve your framerate at every possible resolution. This technique can be only used when the GPU is pushed to its limits and, truth be told, the NVIDIA GeForce RTX2080Ti is CPU-bottlenecked at 1080p even on high-end CPUs. As such, it doesn’t really make sense to enable DLSS in low resolutions (as there wouldn’t be any performance improvement at all). There are exceptions of course in which the NVIDIA GeForce RTX2080Ti can be fully utilized at 1080p, however these are really rare exceptions at the moment.

Here is also what Andrew had to say about the poorly implementation of DLSS in Metro Exodus and Battlefield 5.
“We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high. To this end, we concentrated on high resolutions during development (where GPU load is highest) with 4K (3840×2160) being the most common training target. Running at 4K is beneficial when it comes to image quality as the number of input pixels is high. Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920×1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.

We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time.”
Lastly, Andrew claims that new updates for both Battlefield 5 and Metro Exodus are planned, though there isn’t yet any ETA on when they will be available.
“For Battlefield V, we think DLSS delivers a big improvement in 4K and 2560×1440 performance — up to 40% — for the corresponding quality, but also hear the community. For the next push, we are focusing our testing and training to improve the image quality at 1920×1080 and also for ultrawide monitors (e.g. 3440×1440). The current experience at these resolutions is not where we want them.
For Metro Exodus, we’ve got an update coming that improves DLSS sharpness and overall image quality across all resolutions that didn’t make it into day of launch. We’re also training DLSS on a larger cross section of the game, and once these updates are ready you will see another increase in quality. Lastly, we are looking into a few other reported issues, such as with HDR, and will update as soon as we have fixes.”


https://www.dsogaming.com/news/nvidia-c ... lefield-5/


Vamos que les des tiempo pero han vendido humo a base de bien...yo menos mal que pille la 2070 saltando de una 970 para llegar a los 144 hz a 1080p pero algunos que esperaban estas tecnologias como agua de mayo ahora se tienen que estar tragando su bilis...paginas mas atras estan los susodichos que nos querian hacer ver esto como la panacea y ahora no se les vera el pelo por el hilo(amijo del tdp xdxd)

Edit: Si me reia en su dia del checkboard de la ps4pro ahora de esto me tengo que reir mas aun,es logica pura y aplastante
Bien que no hize caso a los que decian que la 2080 era un desproposito, yo compre la 2080 porque necesitaba el rendimiento que era superior a mi anterior 980, la 2080 me parece que es una buena opcion con un buen precio, no cuesta demasiado como la 2080ti o titan rtc y puedo correr cualquier juego a 1440p sin problemas, ademas de que veo que el dlss no funciona en monitores 1440p con la 2080ti, asi que más salvado aún.
hit escribió:
exter escribió:Ha salido un artículo con comentarios de nvidia sobre como funciona el DLSS.

Pinta mal el asunto, lo que quizá pensabamos algunos, que serviría para poder ganar fps a ciertas resoluciones y encima calidad, vamos a quedar desolusionados.

Si la GPU tiene bastante chicha para mover X fps a Y resolución, el DLSS no se activa porque incluso te haría perder rendimiento respecto a no tenerlo activo (por la carga fija adicional que necesita).

Si esta explicación tan detallada la hubiesen hecho de salida de las RTX, quizás habrían vendido bastante menos de lo esperado. Yo creo que nos han vendido la moto, o en todo caso, no explicado toda la verdad cuando tocaba.

“DLSS is designed to boost frame rates at high GPU workloads (i.e. when your framerate is low and your GPU is working to its full capacity without bottlenecks or other limitations). If your game is already running at high frame rates, your GPU’s frame rendering time may be shorter than the DLSS execution time. In this case, DLSS is not available because it would not improve your framerate. However, if your game is heavily utilizing the GPU (e.g. FPS is below ~60), DLSS provides an optimal performance boost. You can crank up your settings to maximize your gains. (Note: 60 FPS is an approximation — the exact number varies by game and what graphics settings are enabled)
To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution.”

What this ultimately means is that DLSS is not a technique that can universally improve your framerate at every possible resolution. This technique can be only used when the GPU is pushed to its limits and, truth be told, the NVIDIA GeForce RTX2080Ti is CPU-bottlenecked at 1080p even on high-end CPUs. As such, it doesn’t really make sense to enable DLSS in low resolutions (as there wouldn’t be any performance improvement at all). There are exceptions of course in which the NVIDIA GeForce RTX2080Ti can be fully utilized at 1080p, however these are really rare exceptions at the moment.

Here is also what Andrew had to say about the poorly implementation of DLSS in Metro Exodus and Battlefield 5.
“We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high. To this end, we concentrated on high resolutions during development (where GPU load is highest) with 4K (3840×2160) being the most common training target. Running at 4K is beneficial when it comes to image quality as the number of input pixels is high. Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920×1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.

We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time.”
Lastly, Andrew claims that new updates for both Battlefield 5 and Metro Exodus are planned, though there isn’t yet any ETA on when they will be available.
“For Battlefield V, we think DLSS delivers a big improvement in 4K and 2560×1440 performance — up to 40% — for the corresponding quality, but also hear the community. For the next push, we are focusing our testing and training to improve the image quality at 1920×1080 and also for ultrawide monitors (e.g. 3440×1440). The current experience at these resolutions is not where we want them.
For Metro Exodus, we’ve got an update coming that improves DLSS sharpness and overall image quality across all resolutions that didn’t make it into day of launch. We’re also training DLSS on a larger cross section of the game, and once these updates are ready you will see another increase in quality. Lastly, we are looking into a few other reported issues, such as with HDR, and will update as soon as we have fixes.”


https://www.dsogaming.com/news/nvidia-c ... lefield-5/


Vamos que les des tiempo pero han vendido humo a base de bien...yo menos mal que pille la 2070 saltando de una 970 para llegar a los 144 hz a 1080p pero algunos que esperaban estas tecnologias como agua de mayo ahora se tienen que estar tragando su bilis...paginas mas atras estan los susodichos que nos querian hacer ver esto como la panacea y ahora no se les vera el pelo por el hilo(amijo del tdp xdxd)

Edit: Si me reia en su dia del checkboard de la ps4pro ahora de esto me tengo que reir mas aun,es logica pura y aplastante

¿Pero de qué cojones hablas tío? Si tienes una RTX. Venga coño, es que a algunos os falta un hervor.

Aquí hemos caído todos los poseedores de RTX. Punto.
hit está baneado por "Troll"
goku593 escribió:
hit escribió:
exter escribió:Ha salido un artículo con comentarios de nvidia sobre como funciona el DLSS.

Pinta mal el asunto, lo que quizá pensabamos algunos, que serviría para poder ganar fps a ciertas resoluciones y encima calidad, vamos a quedar desolusionados.

Si la GPU tiene bastante chicha para mover X fps a Y resolución, el DLSS no se activa porque incluso te haría perder rendimiento respecto a no tenerlo activo (por la carga fija adicional que necesita).

Si esta explicación tan detallada la hubiesen hecho de salida de las RTX, quizás habrían vendido bastante menos de lo esperado. Yo creo que nos han vendido la moto, o en todo caso, no explicado toda la verdad cuando tocaba.

“DLSS is designed to boost frame rates at high GPU workloads (i.e. when your framerate is low and your GPU is working to its full capacity without bottlenecks or other limitations). If your game is already running at high frame rates, your GPU’s frame rendering time may be shorter than the DLSS execution time. In this case, DLSS is not available because it would not improve your framerate. However, if your game is heavily utilizing the GPU (e.g. FPS is below ~60), DLSS provides an optimal performance boost. You can crank up your settings to maximize your gains. (Note: 60 FPS is an approximation — the exact number varies by game and what graphics settings are enabled)
To put it a bit more technically, DLSS requires a fixed amount of GPU time per frame to run the deep neural network. Thus, games that run at lower frame rates (proportionally less fixed workload) or higher resolutions (greater pixel shading savings), benefit more from DLSS. For games running at high frame rates or low resolutions, DLSS may not boost performance. When your GPU’s frame rendering time is shorter than what it takes to execute the DLSS model, we don’t enable DLSS. We only enable DLSS for cases where you will receive a performance gain. DLSS availability is game-specific, and depends on your GPU and selected display resolution.”

What this ultimately means is that DLSS is not a technique that can universally improve your framerate at every possible resolution. This technique can be only used when the GPU is pushed to its limits and, truth be told, the NVIDIA GeForce RTX2080Ti is CPU-bottlenecked at 1080p even on high-end CPUs. As such, it doesn’t really make sense to enable DLSS in low resolutions (as there wouldn’t be any performance improvement at all). There are exceptions of course in which the NVIDIA GeForce RTX2080Ti can be fully utilized at 1080p, however these are really rare exceptions at the moment.

Here is also what Andrew had to say about the poorly implementation of DLSS in Metro Exodus and Battlefield 5.
“We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high. To this end, we concentrated on high resolutions during development (where GPU load is highest) with 4K (3840×2160) being the most common training target. Running at 4K is beneficial when it comes to image quality as the number of input pixels is high. Typically for 4K DLSS, we have around 3.5-5.5 million pixels from which to generate the final frame, while at 1920×1080 we only have around 1.0-1.5 million pixels. The less source data, the greater the challenge for DLSS to detect features in the input frame and predict the final frame.

We have seen the screenshots and are listening to the community’s feedback about DLSS at lower resolutions, and are focusing on it as a top priority. We are adding more training data and some new techniques to improve quality, and will continue to train the deep neural network so that it improves over time.”
Lastly, Andrew claims that new updates for both Battlefield 5 and Metro Exodus are planned, though there isn’t yet any ETA on when they will be available.
“For Battlefield V, we think DLSS delivers a big improvement in 4K and 2560×1440 performance — up to 40% — for the corresponding quality, but also hear the community. For the next push, we are focusing our testing and training to improve the image quality at 1920×1080 and also for ultrawide monitors (e.g. 3440×1440). The current experience at these resolutions is not where we want them.
For Metro Exodus, we’ve got an update coming that improves DLSS sharpness and overall image quality across all resolutions that didn’t make it into day of launch. We’re also training DLSS on a larger cross section of the game, and once these updates are ready you will see another increase in quality. Lastly, we are looking into a few other reported issues, such as with HDR, and will update as soon as we have fixes.”


https://www.dsogaming.com/news/nvidia-c ... lefield-5/


Vamos que les des tiempo pero han vendido humo a base de bien...yo menos mal que pille la 2070 saltando de una 970 para llegar a los 144 hz a 1080p pero algunos que esperaban estas tecnologias como agua de mayo ahora se tienen que estar tragando su bilis...paginas mas atras estan los susodichos que nos querian hacer ver esto como la panacea y ahora no se les vera el pelo por el hilo(amijo del tdp xdxd)

Edit: Si me reia en su dia del checkboard de la ps4pro ahora de esto me tengo que reir mas aun,es logica pura y aplastante

¿Pero de qué cojones hablas tío? Si tienes una RTX. Venga coño, es que a algunos os falta un hervor.

Aquí hemos caído todos los poseedores de RTX. Punto.


Tengo una rtx pork era lo que me compre en su momento para 144 1080p pero lo que no voy a hacer es defender algo que esta en pañales,la pille por potencia pura pero estas tecnologias son el timo de la estampita,si quieres defenderlas adelante,yo no voy a hacer eso y parecer un fanboy absurdo

El dlss es una checkboard consolero y el RTX nunca lo activare...como nunca he activado el physics y las mierdas propietarias de una marca o otra

Cuando pierdes el sentido comun por una marca mal vas machote...pero bueno que te voy a contar a ti que habias puesto a las rtx finas y ahora cambias de bando bcs yes
hit escribió:
goku593 escribió:
hit escribió:
Vamos que les des tiempo pero han vendido humo a base de bien...yo menos mal que pille la 2070 saltando de una 970 para llegar a los 144 hz a 1080p pero algunos que esperaban estas tecnologias como agua de mayo ahora se tienen que estar tragando su bilis...paginas mas atras estan los susodichos que nos querian hacer ver esto como la panacea y ahora no se les vera el pelo por el hilo(amijo del tdp xdxd)

Edit: Si me reia en su dia del checkboard de la ps4pro ahora de esto me tengo que reir mas aun,es logica pura y aplastante

¿Pero de qué cojones hablas tío? Si tienes una RTX. Venga coño, es que a algunos os falta un hervor.

Aquí hemos caído todos los poseedores de RTX. Punto.


Tengo una rtx pork era lo que me compre en su momento para 144 1080p pero lo que no voy a hacer es defender algo que esta en pañales.,la pille por potencia pura pero estas tecnologias son el timo de la estampita,si quieres defenderlas adelante,yo no voy a hacer eso y parecer un fanboy absurdo

El dlss es una checkboard consolero y el RTX nunca lo activare...como nunca he activado el physics y las mierdas propietarias de una marca o otra

Cuando pierdes el sentido comun por una marca mal vas machote...pero bueno que te voy a contar a ti que habias puesto a las rtx finas y ahora cambias de bando bcs yes


Tienes una RTX porque has apoyado a Nvidia y a sus nuevos modelos RTX, así como a sus tecnologías. Deja de intentar justificarte como comprador y asumelo. El motivo por el que lo has pillado, a Nvidia se la suda, el dinero tuyo es el mismo que el de todos.

Y, perdona, pero soy el primero que critico a Nvidia y reconozco que en su dia les di el voto de confianza.
hit está baneado por "Troll"
goku593 escribió:
hit escribió:
goku593 escribió:¿Pero de qué cojones hablas tío? Si tienes una RTX. Venga coño, es que a algunos os falta un hervor.

Aquí hemos caído todos los poseedores de RTX. Punto.


Tengo una rtx pork era lo que me compre en su momento para 144 1080p pero lo que no voy a hacer es defender algo que esta en pañales.,la pille por potencia pura pero estas tecnologias son el timo de la estampita,si quieres defenderlas adelante,yo no voy a hacer eso y parecer un fanboy absurdo

El dlss es una checkboard consolero y el RTX nunca lo activare...como nunca he activado el physics y las mierdas propietarias de una marca o otra

Cuando pierdes el sentido comun por una marca mal vas machote...pero bueno que te voy a contar a ti que habias puesto a las rtx finas y ahora cambias de bando bcs yes


Tienes una RTX porque has apoyado a Nvidia y a sus nuevos modelos RTX, así como a sus tecnologías. Deja de intentar justificarte como comprador y asumelo.

Y, perdona, pero soy el primero que critico a Nvidia y reconozco que en su dia les di el voto de confianza.


Tengo una RTX pork las vegas no me gustaban y para gastarme el dinero en algo antiguo me lo gasto en algo nuevo que tendra mas soporte drivers...las tecnologias propietarias que me venden son una BASURA que a mi como jugador no me sirven para nada,no soy jugador de modo ultra y el unico motivo para gastar el dinero en esa gpu eran los 144hz a 1080p y para meter dinero en algo antiguo lo meto en algo nuevo que como te digo dos frases mas atras tendra mejor soporte de drivers que algo de un gen anterior

Me vas a decir tu a mi el motivo de la compra...manda narices lo tuyo
hit escribió:
goku593 escribió:
hit escribió:
Tengo una rtx pork era lo que me compre en su momento para 144 1080p pero lo que no voy a hacer es defender algo que esta en pañales.,la pille por potencia pura pero estas tecnologias son el timo de la estampita,si quieres defenderlas adelante,yo no voy a hacer eso y parecer un fanboy absurdo

El dlss es una checkboard consolero y el RTX nunca lo activare...como nunca he activado el physics y las mierdas propietarias de una marca o otra

Cuando pierdes el sentido comun por una marca mal vas machote...pero bueno que te voy a contar a ti que habias puesto a las rtx finas y ahora cambias de bando bcs yes


Tienes una RTX porque has apoyado a Nvidia y a sus nuevos modelos RTX, así como a sus tecnologías. Deja de intentar justificarte como comprador y asumelo.

Y, perdona, pero soy el primero que critico a Nvidia y reconozco que en su dia les di el voto de confianza.


Tengo una RTX pork las vegas no me gustaban y para gastarme el dinero en algo antiguo me lo gasto en algo nuevo que tendra mas soporte drivers...las tecnologias propietarias que me venden son una BASURA que a mi como jugador no me sirven para nada,no soy jugador de modo ultra y el unico motivo para gastar el dinero en esa gpu eran los 144hz a 1080p y para meter dinero en algo antiguo lo meto en algo nuevo que como te digo dos frases mas atras tendra mejor soporte de drivers que algo de un gen anterior

Me vas a decir tu a mi el motivo de la compra...manda narices lo tuyo

Pero tío que el motivo de tu compra a Nvidia le suda los cojones. Que lo que teníamos que haber hecho es ser pacientes antes de comprar un producto en pañales. Tú, igual que todos, has comprado ese producto. Punto. Podrías haber adquirido una tarjeta Pascal, que están ahora a precios cojonudos, y tienen buena potencia. No los has hecho así, por ende, has confiado en las RTX igual que todos.

No sé si te habrás dado cuenta, de que parte del chip de tu RTX está conformado por núcleos RT y Tensor...¿ o la tuya no los traía porque querias potencia bruta solo?
hit está baneado por "Troll"
@goku593 El motivo es que la 970 me daba 144 fps en uno? dos juegos? y jugar a 60 me rompia las pelotas,tengo el dinero? lo gasto y hasta dentro de dos gens si te he visto no me acuerdo,reitero nunca he usado ninguna tecnologia propietaria,el unico motivo de la compra era potencia bruta para satisfacer mi hobby...si valoras en donde meto o no pasta ya te estas metiendo en un terreno que es de mala educacion

Los modos ultra,tress fx,hairworks rtx y demas a mi me dan igual,siempre me lo han dado y siempre me lo daran.Fin
hit escribió:@goku593 El motivo es que la 970 me daba 144 fps en uno? dos juegos? y jugar a 60 me rompia las pelotas,tengo el dinero? lo gasto y hasta dentro de dos gens si te he visto no me acuerdo,reitero nunca he usado ninguna tecnologia propietaria,el unico motivo de la compra era potencia bruta para satisfacer mi hobby...si valoras en donde meto o no pasta ya te estas metiendo en un terreno que es de mala educacion

Los modos ultra,tress fx,hairworks rtx y demas a mi me dan igual,siempre me lo han dado y siempre me lo daran.Fin


Pero es que esta vez no era Software, no sé ha quedado en eso, como el Hairworks y demás basura que no sirve para nada. Esta vez, un porcentaje del chip físico va orientado a esas tecnologías...si no las usas, estas perdiendo el dinero, es sencillo, ¿qué tu lo usas para potencia bruta y FPS? Correcto. También están los típicos viejos por la carretera con Posche 911 que van a 80. Pero no dejan de tener un motor de 600 caballos.
hit está baneado por "Troll"
goku593 escribió:
hit escribió:@goku593 El motivo es que la 970 me daba 144 fps en uno? dos juegos? y jugar a 60 me rompia las pelotas,tengo el dinero? lo gasto y hasta dentro de dos gens si te he visto no me acuerdo,reitero nunca he usado ninguna tecnologia propietaria,el unico motivo de la compra era potencia bruta para satisfacer mi hobby...si valoras en donde meto o no pasta ya te estas metiendo en un terreno que es de mala educacion

Los modos ultra,tress fx,hairworks rtx y demas a mi me dan igual,siempre me lo han dado y siempre me lo daran.Fin


Pero es que esta vez no era Software, no sé ha quedado en eso, como el Hairworks y demás basura que no sirve para nada. Esta vez, un porcentaje del chip físico va orientado a esas tecnologías...si no las usas, estas perdiendo el dinero, es sencillo, ¿qué tu lo usas para potencia bruta y FPS? Correcto. También están los típicos viejos por la carretera con Posche 911 que van a 80. Pero no dejan de tener un motor de 600 caballos.


Vuelvo a repetir...meterte en el terreo que te estas metiendo es farragoso...ya te he dado una explicacion ¿no te gusta? correcto pero ya,cada uno mete la pasta donde le sale de las gonadas
...
Editado por metalgear. Razón: Offtopic
hit está baneado por "Troll"
...
Editado por metalgear. Razón: Offtopic
...
Editado por metalgear. Razón: Offtopic
La verdad que me da pena leer este tipo de cosas...

Estamos hablando de NVIDIA la mayor empresa del sector con diferencia.. La que tiene clientes haga lo que haga y anuncie lo que anuncie.

Que quiero decir? pues que si han anunciado esta tecnologia no es por gusto ... no necesitan hacerlo.. con anunciar rtx ya iban sobrados...

es evidente que esta muy pero que muy verde... tan verde como el logo Nvidia xD pero tengo clarisimo que se la va a sacar pero bien en breve
hit está baneado por "Troll"
goku593 escribió:
hit escribió:
goku593 escribió:Pues entonces tío, métete la lengua donde te quepa, y no vengas a criticar a la gente que confió en las RTX y menos a decir que soltaron Bilis. Venga ya hombre.


Es mi opinion...si no te gusta pues lo siento,la hice desde el respeto y tu ahora mismo estas faltandome al respeto no una si no que van 2 ¿otra mas o lo pasas songoanda?

¿Desde el respeto diciendo que echaron bilis y haciendo mención camuflada a ciertos usuarios sin tener los cojones de mencionarlos a ellos? Venga que sí.

Vamos que les des tiempo pero han vendido humo a base de bien...yo menos mal que pille la 2070 saltando de una 970 para llegar a los 144 hz a 1080p pero algunos que esperaban estas tecnologias como agua de mayo ahora se tienen que estar tragando su bilis...paginas mas atras estan los susodichos que nos querian hacer ver esto como la panacea y ahora no se les vera el pelo por el hilo(amijo del tdp xdxd)

Pide respeto cuando seas respetuoso.


Si te das por aludido...una cosa tengo clara no voy a ser el defensor de nada que me parezca malo aunque lo tenga ¿puedes decir lo mismo? esta clarinete que no y contigo ya acabo,odio a los fanboys y tu eres uno de ellos y porsupuesto no malgasto el tiempo con ellos,es tirarlo a la basura y como sabras los minutos de la gente son oro como para que lo ocupes en hacerme cambiar de opinion...asi que te puedes ahorrar la contestacion
CrazyGenio escribió:goku vs hit versión eol


[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]

Lo mas curioso es que ya veo que la gente está asimilando que lo de DLSS y Raytracing ha sido humo a gran escala.

Se ha pasado de discusiones de
- "Calidad precio no compensa"
- "Compensa porque las tecnologías hay que pagarlas y son la repera"

a discusiones de tipo

- "Nos la han metido doblada a todos"
- "No a mi no"
- "Si, a ti igual que a los demás"

En fin, yo seguiré atento a ver como sigue la generación, pero vamos, doy por seguro de que esta generación es mejor saltarla de largo y hacer como que nunca ha existido...

Por cierto, me quedé con ganas de comentar el otro día la noticia de EOL de portada:

Los datos para todo el año son sin embargo positivos. De hecho, Nvidia ha obtenido unos ingresos de 11.720 millones de dólares, lo que supone una mejora del 21 % con respecto al ejercicio de 2018. Se trata de un nuevo récord, reforzado por ingresos igualmente inéditos en los segmentos dedicados a la producción de unidades gráficas para juegos, centros de datos, imagen profesional y automoción. En total, los beneficios anuales fueron de algo más de 4.000 millones de dólares.


Aún recuerdo los que hablaban de la inversión multimillonaria en investigación de nvidia y de ahí el precio de las RTX [facepalm]
No sé si sois conscientes, pero con menos de 12.000 millones de ingresos, tener mas de 4000 millones de beneficios solo es posible de una única manera: un sopreprecio brutal en los productos que vende. Hablamos de alrededor de un 35% de los ingresos se vuelven beneficios, es que eso es una auténtica burrada. Queda mas que claro lo que mucha gente decía hace unos meses, las gráficas de Nvidia tienen un sobrecoste insultante y no es por hardware ni por investigación, si no porque no tienen ningún tipo de competencia.

Yo como he dicho anteriormente, solo me planteo la 2060 como opción y no pienso pagar por ella más de 300-320€. Mis necesidades son 1080p y 144Hz, por lo que con eso tendría mas que suficiente. El que quiera 4K, pues tendrá que pasar por el aro del sobrecoste, no hay otra opción, porque según parece la 1080Ti se queda corta para esa labor.
11796 respuestas