NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

pakolo1977 escribió:
Letrina escribió:En esta web hacen un bechmark de las CPU con varias GPU donde se puede ver que un i5 2500k en 4k no tiene tanto cuello de botella como en 1080p en Battlefield V

https://gamegpu.com/action-/-fps-/-tps/ ... F2I.reddit

Me da muchiiiiisima pereza actualizar mi i5 2500k, porque ire a la opcion mas economica, quedarme en 1080p cn una grafica que no me haga cuello de botella y pueda jugar a ultra en Battlefield V o pillar una GTX1080Ti en el Black Friday a 600€ o espero que menos y si incluye el BFV ya lo peta hahaha y jugar a 4k sin cuello de botella como veo en estso benchmarks.

Echo en falta esos benchmarks a 4k con procesadores de todas las generaciones, para ver realmente esos cuellos de botella si son prescindibles y nos ahorran hacer gasto en placa, procesador y ram, porque si me va a ir a 60fps a 4k me da igual perder 20 o 30fps, 20fps de diferencia no valen 500-600€ que podria costar actualizar esos componentes

Como lo veis? alguien con una RTX2080Ti o RTX2080 o GTX1080Ti con un i5 2500k puede hacer la prueba en 4k y ver realmente ese cuello de botella?

Muchas gracias


Grosso modo, lo que he averiguado yo hasta ahora es que en resoluciones altas, con mi 3770k con overclock a 4.4 Ghz mas mi 2080 founders edition, el micro hace menos cuello de botella que en 1080p. Como la gráfica tiene mas trabajo que hacer a 2k y mucho mas trabajo a 4k, los framerates no son tan altos como a 1080p y el micro hace menos cuello de botella. A 1440p algo de cuello hace todavía, pero por lo que he visto a 4k, nada de nada.

Lo mismo pasa si en 1080p se activa el vsync a 60 frames, el micro no llega a saturarse en ningún momento y además la gráfica va a medio gas casi siempre. El único juego de los que tengo que ha sobrecargado la gráfica a 1080p y no ha llegado a los 60 frames rocosos, ha sido el star wars battlefront II, poniendo absolutamente todo a tope y directx12, pero ahí entre otras cosas tenía activada el supersampling o ubersampling o como se llame eso al 200%. Fue ponerlo al 100% y problema arreglado, volvieron los 60 frames.

Si alguien tiene un monitor con mayor tasa de refresco, juntarlo con un microprocesador viejo no es aconsejable, esto así en bruto todo lo que me explico es que a mayor tasa de frames, mas fácil es que se sature el micro.

a ver, una 2080 para jugar a 60 fps a 1080p lo veo un desproposito, esa grafica es para jugar a 2k con una tasa de frames altos o a 4k 60 fps rinde +- que una 1080ti y una 1080ti en 4k bajando ajustes se desenvuelve muy bien, y si encima a tu grafica le suma cuando apliquen la opcion del DLSS pues apaga y vamonos, a 4k tu micro si le va a hacer cuello de botella en juegos por ejemplo como; Assasin creed origin y odissey, comprobado por mi mismo con un 4790k a 4.5 ghz, ese juego fue uno de los motivos por los que cambie de micro, por que era entrar en alejandria y pegar bajones a 45 fps y la grafica tocandose los eggs, pero como te digo son en algunos juegos cpu dependientes, cambiando de micro no solo vas a tener mas maximos de fps, si no que tambien (mucha gente lo obvia por desconocimiento) mas FPS en bajos que al final es para mi lo mas importante
@Exitworldgamer pues ni idea cuando sera el mejor momento para comprar, para navidades ya te digo yo que no, si acaso el mejor momento para comprar seria aprovechar ofertas del black friday y si no puedes, pues esperarte a despues de navidad
Exitworldgamer escribió:
kikomanco escribió:
Octavia_RS escribió:@kikomanco yo hubiera echo lo mismo, ya contarás cuando te llegue

la verdad que si, por que tengo varios juegos atrasados por jugar (Tomb raider, Forza horizon 4, Dragon Quest XI y Assasing Odissey)
@Exitworldgamer si hubiera sido el I5 8600k si hubieras tenido minimo para 2-3 años mas, rinde un poco por encima del 7700k y si lo subes a 5 Ghz como lo tengo yo saca en multihilo lo mismo que un 8700 no k en cinenbench que son 1300 puntos, vamos una burrada, pero claro el mio es un 6 core a 5.0 Ghz y aun lo puedo llevar hasta 5.3Ghz pero de momento no me hace falta, en el Assasing creed origin ni se inmuta y lo tengo con un Corsair H100 y no pasa de los 60 grados jugando, una maravilla de micro


Gracias por comentar Kikomanco, la verdad es que creo que con cualquiera de los dos procesadores tanto el ryzen 7 2700x como el i7 8700k darán buenos resultados, por lo que veo en resoluciones 2k el i7 va por delante pero es caro, así que ya veré en navidades que hago. La verdad es que nueva placa + nuevo procesador + rtx 2080 + Monitor Alienware 34" ips 2k gsync, va a ser un salto, un salto a la calle que es donde me va a enviar mi mujer...

Sobre cuando comprar, creéis que es mejor en plenas navidades, cualquier dia de Diciembre, fiestas de enero? sabéis cuando suele estar todo a mejor precio? (si es que pasa tal cosa)

Gracias de nuevo

Mi recomendación es que pilles un Ryzen 1600 y una 1080ti. Es el mejor combo al mejor precio-rendimiento.
@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.

Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.

Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.

Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.
pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.

Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.

Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.

Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.

pues no se si te gustaran los juegos de rol en mundo abierto, pero telita con el assasin creed origin, es una obra maestra, para mi con diferencia el mejor assasin de la saga (aun no he jugado al odissey) deberias de darle una oportunidad por que es muy bueno, yo el 1 no fui capaz de acabarlo y desde entonces no habia vuelto a jugar a ningun assasin y para mi fue una grata sorpresa
¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo :)

https://youtu.be/Grk1PzoRT6g
@kikomanco Si este que mencionas está barato, podría hasta pensármelo. De todas formas voy a estar unos días muy justo de tiempo. Algo he leído de que el odissey es un gran juego también, pero sobre todo porque dicen que han fusilado multitud de cosas del witcher 3.

Para mi es hasta normal que el witcher 3 tenga la sombra alargada. Para mi ha sido el mas grande videojuego parido por la humanidad en toda su historia, eso si, es una opinión muy subjetiva. Nunca he dedicado mas de 300 horas a un videojuego y después haya querido seguir jugando, eso también.
Muchas gracias @pakolo1977 y @kikomanco por responder.

La verdad Pakolo1977 que yo tenia esa sensación, por los benchmarks que veo, la verdad que yo jugaria a 6044x1080 con 3 monitores de 1080 con sus respectivos marcos, en ese caso me acercaria al 4k sin consumir tanto, porque creo que ahi van menos pixeles que en el 4K y la idea era algun dia comprar un monitor ultrawide que aun es menos resolucion 3440x1440 o esta ahi ahi a los 3 monitores, para eso me viene bien los 11Gb de memoria RAM a mas resolucion se nota mas creo, asi pues creo que seria un poco un equilibrio para que la grafica y procesador esten un poco a la par, la verdad que los juegos como assasins creed no me gustan mucho, soy mas de Battlefield y Tomb Raider, y juegos casual gratuitos como Starcraft 2 entre otros, o juegos que son divertidos y no requieren tanto maquinon.

Asi pues me da esperanzas tu comentario, la verdad la idea es que si el Mediamark que es mas facil devolver algo, comprar una gtx1080ti hacer la prueba y si me convence comprarla en el black friday.

Muchas gracias por las respuestas chic@s!! :)
en el video del mass effect con que app monitoriza el juego???
pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.

Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.

Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.

Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.


Si juegas a 1080p juegas a 1080p el dlss no tiene nada que ver. El dlss es un reescalado, por lo que para que fuera más holgada por jugar a 1080p tendrías que jugar a menos de 1080p y que te lo reescalara a 1080p. En realidad que te lo reconstruyera. pero como toda reconstrucción el resultado no es igual al nativo.

De todas formas juaría que leí en digital foundry que el dlss solo sirve para reescalar de 2K a 4K pero de este extremo no estoy seguro.

Y que es eso de que un supercomputador se necesita para el dlss? Tu estás seguro de eso? Me suena muy raro.
como luce en vertical la 2080ti jeje



Imagen

Imagen
niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo :)

https://youtu.be/Grk1PzoRT6g


el cuello de botella aparte del procesador depende del juego , un i7 7700K con su IPC poco cuello de botella le va a hacer en Mass Effect andromeda , ahora si pones Watchs dogs 2 o Assassins creed orgins/Odyssey la cosa cambia , habra juegos donde incluso un i7 3770K no le haga cuello de botella o se lo haga muy poco y otros en los que el cuello de botella sera heavy , a mi en coolmod me dijeron que un i7 3770K a 4.4 Ghz era perfectamente valido para montar con una 1080 Ti y cuando pude probar los juegos... la decepción que me lleve fue enorme , en los benchmark daba el rendimiento que tenia que dar , pero en los juegos como tomb raider , GTA V , Ghost recon wildlands y algunos cuantos mas el rendimiento era pesimo , bajones de fps , tirones.... carga baja de gpu... etc.. etc...
niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo :)

https://youtu.be/Grk1PzoRT6g



No aguanta a 60fps el Mass Effect.... en la zonas abiertas 50fps en las cerradas 60 y algo pero poco estable

Me sorprende que hablen que la 2080 es una GPU para 4k si con una 2080Ti tiene esas bajadas..
karlostek escribió:como luce en vertical la 2080ti jeje



Imagen

Imagen


Qué bonito!
@papatuelo ¿Y que es eso de que un supercomputador se necesita para el dlss? Tu estás seguro de eso? Me suena muy raro.[/quote]

El dlss existe gracias a la inteligencia artificial, y funciona gracias a los tensor cores de las nuevas gpus de Nvidia, para que eso funcione los desarrolladores de juegos dan a la propia Nvidia su programa para que ellos lo pasen por una supercomputadora llamada DGX saturnNV, especializada en inteligencia artificial, redes neuronales... etc etc

Esta computadora empezará a aprender a general imágenes con hasta 64 veces mas calidad que la original, para seguidamente ir sombrear cada pixel hasta 64 veces, para que el resultado final sea casi inapreciable a la imagen original. Eso es gracias a la propia inteligencia artificial y redes neuronales del superordenador de Nvidia, cuando el programa ya a sido pasado por SaturnNV, los tensor cores de las nuevas RTX se encargan de reproducirlo.
haber, lo del famoso cuello de botella con la 2080ti.
esque me hace gracia, el otro día cierto famoso youtuber, muy bocazas él, que se dedica a subir vídeos de batlefield y demás, decía todo chulo que con su 6700k y la 2080ti no tenía cuello de botella en batlefield 1 y que no pasaba su pc de 40 grados, no sabemos si se refería a el cristal de la torre o a la temperatura de la calle..
me refiero con esto, a que la gente dice muchas tonterías, por ignorancia o por arrogancia como es este caso en concreto.
veréis, tengo un 8700K, oc a 4.8 ghz, y si, existe el cuello de botella.
jugando al batlefield 1 es muy fácil de ver, la gráfica va sumamente sobrada, no me pasa del 80 por ciento de la carga...
otro ejemplo es el rise of teh tomb raider, en este caso no hay cuello de botella, al menos en mi caso.
quiero decir con esto, que dependiendo de que juego uses puedes tenerlo, pero es totalmente lógico, es más, estoy casi seguro que el nuevo 9700k pasará lo mismo...
juego a 2k 144hz.
saludos [beer]
Si la mayoría tiene cuello de botella en resoluciones bajas, no sera mejor esperar a la siguiente generación de procesadores para actualizar el pc? y comprarse la gráfica que uno pueda permitirse ahora mismo y quedarse en 4k calidad discutible? o quedarse en 1080p con calidad mas mediocre y comprar una gráfica de las que están bajando de precio?

Si para jugar a 4K a saco hay que gastar mas de 2000€

No sera mejor invertir esos 2000€ en 1-2 años, y prescindir de procesador ahora mismo?

Hablo siempre desde la opinión personal, de los que tenemos dudas de comprar algo que no va a moverlo todo al máximo después de derrachar tanto dinero, casi mejor quedarse en 1080p y esperar un poco mas.
Letrina escribió:Si la mayoría tiene cuello de botella en resoluciones bajas, no sera mejor esperar a la siguiente generación de procesadores para actualizar el pc? y comprarse la gráfica que uno pueda permitirse ahora mismo y quedarse en 4k calidad discutible? o quedarse en 1080p con calidad mas mediocre y comprar una gráfica de las que están bajando de precio?

Si para jugar a 4K a saco hay que gastar mas de 2000€

No sera mejor invertir esos 2000€ en 1-2 años, y prescindir de procesador ahora mismo?

Hablo siempre desde la opinión personal, de los que tenemos dudas de comprar algo que no va a moverlo todo al máximo después de derrachar tanto dinero, casi mejor quedarse en 1080p y esperar un poco mas.


¿y si optimizan los juegos como dios manda y dejan de tocar los cataplines poniendo todos los cores al 100% nada mas por que sí?
jolur escribió:
Letrina escribió:Si la mayoría tiene cuello de botella en resoluciones bajas, no sera mejor esperar a la siguiente generación de procesadores para actualizar el pc? y comprarse la gráfica que uno pueda permitirse ahora mismo y quedarse en 4k calidad discutible? o quedarse en 1080p con calidad mas mediocre y comprar una gráfica de las que están bajando de precio?

Si para jugar a 4K a saco hay que gastar mas de 2000€

No sera mejor invertir esos 2000€ en 1-2 años, y prescindir de procesador ahora mismo?

Hablo siempre desde la opinión personal, de los que tenemos dudas de comprar algo que no va a moverlo todo al máximo después de derrachar tanto dinero, casi mejor quedarse en 1080p y esperar un poco mas.


¿y si optimizan los juegos como dios manda y dejan de tocar los cataplines poniendo todos los cores al 100% nada mas por que sí?

Ojalá los pusiesen todos, ponen uno al 100% y los demás a rascarse las bolas.

Por cierto, a los que dicen que en 4k las cpu,s hacen cuello de botella en las gráficas. Tenía entendido que a ciertas resoluciones la gráfica no puede escupir los suficientes frames para saturar la cpu, con lo cual la 2080ti es bastante válida para un i5 si juegas a 4k.
ikki1988 escribió:haber, lo del famoso cuello de botella con la 2080ti.
esque me hace gracia, el otro día cierto famoso youtuber, muy bocazas él, que se dedica a subir vídeos de batlefield y demás, decía todo chulo que con su 6700k y la 2080ti no tenía cuello de botella en batlefield 1 y que no pasaba su pc de 40 grados, no sabemos si se refería a el cristal de la torre o a la temperatura de la calle..
me refiero con esto, a que la gente dice muchas tonterías, por ignorancia o por arrogancia como es este caso en concreto.
veréis, tengo un 8700K, oc a 4.8 ghz, y si, existe el cuello de botella.
jugando al batlefield 1 es muy fácil de ver, la gráfica va sumamente sobrada, no me pasa del 80 por ciento de la carga...
otro ejemplo es el rise of teh tomb raider, en este caso no hay cuello de botella, al menos en mi caso.
quiero decir con esto, que dependiendo de que juego uses puedes tenerlo, pero es totalmente lógico, es más, estoy casi seguro que el nuevo 9700k pasará lo mismo...
juego a 2k 144hz.
saludos [beer]

Lógico, esta gráfica está overkill en 2k, está más pensada para el 4k, que hay es donde saca mejor rendimiento respecto a las demas gráficas
Estamos llegando a unos límites de risa macho. Que hasta un 8700K te pueda hacer cuello de botella. Las compañías desarrolladoras se creen que toda la gente tiene PCs de la NASA...
A ver, pregunta, ya puestos a esperar, que queda para que salgan los i9 9900k? quizá me valga la pena esperar :-?
Aquí Michael Quesada explica la razón del por qué el procesador hace cuello de botella. Son solo 4 minutos "Falacias" aunque pueden ver el vídeo completo, lo explica todo muy bien.
Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.

Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.
gracias por la respuesta....
goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.

Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.


Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.
https://www.youtube.com/watch?v=Grk1Pzo ... e=youtu.be

Por favor seria alguien tan amable de decirme con que aplicacion monitoriza este señor el gameplay???? muchas gracias
papatuelo escribió:
pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.

Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.

Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.

Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.


Si juegas a 1080p juegas a 1080p el dlss no tiene nada que ver. El dlss es un reescalado, por lo que para que fuera más holgada por jugar a 1080p tendrías que jugar a menos de 1080p y que te lo reescalara a 1080p. En realidad que te lo reconstruyera. pero como toda reconstrucción el resultado no es igual al nativo.

De todas formas juaría que leí en digital foundry que el dlss solo sirve para reescalar de 2K a 4K pero de este extremo no estoy seguro.

Y que es eso de que un supercomputador se necesita para el dlss? Tu estás seguro de eso? Me suena muy raro.


Por aquí lo mencionan, también dicen que se usaría para una resolución a partir de los 1440p. Saturno V dicen que se llama el supercomputador. https://www.eurogamer.es/articles/digitalfoundry-2018-analisis-tecnologia-nvidia-dlss

Si el dlss además no carga mucho los tensor cores, que es algo que no digo como seguro, estaría por ver cuánto haría que trabajaran, podría ser incluso que se activara todo a la vez, raytracing para reflejos y sombreado, denoising para ese raytracing y a la vez dlss. De hecho ver que es una técnica que se usaría a resoluciones altas mas me hace pensar en que sucederá algo así. Si el raytracing va a penalizar tantísimo hasta a las 2080ti, el usar núcleos tensor debería servir no para quitarles trabajo de forma estricta, sino para "trucar" la imagen, tratando imágenes con una resolución inferior a la dada, quitando ruido del renderizado rápido que harían los núcleos rt y aplicando a la vez este supersampling ficticio que explican. Trucos que conseguirían que un chip que no puede dar un framerate alto a resoluciones elevadas porque no tiene potencia de cálculo suficiente, a fin de cuentas si pueda darlas, buscando un compromiso entre calidad de imagen y framerate en el que yo me supongo que poco podremos trastear ajustando parámetros mas allá de la activación o desactivación de unas u otras caracterísiticas.

Puede que a 1080p no lo vayan a usar porque hayan determinado que el rendimiento de la gráfica a esa resolución con el raytracing activado y el denoising sea suficiente. Aunque lo mismo, que habrá que verlo. Si la 2080 se observa que donde brilla es a 1440p, sobra a 1080p y no llega a 4k para los juegos actuales, mucho me temo que con lo nuevo sea una gráfica que sea adecuada a 1080p y no mas.

Será curioso ver también cuánto se calentará el chip de la gráfica cuando se activen todos los circuitos a la vez, ahí veremos también lo válidas que serán las soluciones de refrigeración que han metido a las gráficas estas tanto NVIDIA como el resto de fabricantes. En mi caso de todo esto que me estoy suponiendo me alegro de haber pillado una founders, ya que le supongo algo mas de testeo de la refrigeración del chip con estas historias activadas. Pero igual que todo lo anterior, es un suponer.

Hablando basto, estos de NVIDIA son unos hijos de puta, me estoy hartando de tener que usar los tiempos futuro y condicional en los verbos. "estaría", "haría", "podría ser", etc. Joder, esto de escribir queriendo describir un futuro mas o menos probable es una hartura. Si me he gastado 850 euros en una gráfica porque me gusta trastear, quiero que aunque sea con cuentagotas, vayan saliendo cosas. Poder acceder al ejecutable del benchmark del final fantasy XV que activa el dlss por ejemplo, o la demo de los modelos humanoides sin texturas esa que tienen para mostrar raytracings y denoisings varios. Recordaré por mucho tiempo esto que nos están haciendo ahora, nos tienen de putitas hambrientas de sexo, después de haber pagado además.
(mensaje borrado)
benestan escribió:
goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.

Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.


Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.

Efectivamente. Es que es así. Suena ridículo que uno de los mejores procesadores del mercado qurde corto para gaming...coño, ¿que vamos a necesitar un super servidor para jugar?

El tema es ese, lo que dice el chaval, que tienen que optimizar las API, para usar los núcleos de forna eficiente.
FullKillerUltimate. escribió:
El dlss existe gracias a la inteligencia artificial, y funciona gracias a los tensor cores de las nuevas gpus de Nvidia, para que eso funcione los desarrolladores de juegos dan a la propia Nvidia su programa para que ellos lo pasen por una supercomputadora llamada DGX saturnNV, especializada en inteligencia artificial, redes neuronales... etc etc

Esta computadora empezará a aprender a general imágenes con hasta 64 veces mas calidad que la original, para seguidamente ir sombrear cada pixel hasta 64 veces, para que el resultado final sea casi inapreciable a la imagen original. Eso es gracias a la propia inteligencia artificial y redes neuronales del superordenador de Nvidia, cuando el programa ya a sido pasado por SaturnNV, los tensor cores de las nuevas RTX se encargan de reproducirlo.


Pero al final el calculo se hace en local en esos tensor cores, que es que el compañero en su mensaje daba a entender que se delegaba a la nube.

De todas formas todo eso que pones se saca de la propaganda de Nvidia que no va a hacer más que echar flores sobre la tecnología en cuestión.

Pero en la práctica la imagen que genera dista de la nativa, y ojo que todas la comparativas se hacen DLSS vs taa que es un metodo de de AA que ya de por si emborrona la imagen. Si se enfrentara a otro tipo de AA la diferencia cantaría aun más.

Es de suponer que si se basa en inteligencia artificial está irá aprendiendo y que se irá mejorando con actualizaciones de drivers de la tarjeta pero ni es calculo delegado a la nube ni el resultado es "casi inapreciable"
Titán_Salvaje_ escribió:
niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo :)

https://youtu.be/Grk1PzoRT6g


el cuello de botella aparte del procesador depende del juego , un i7 7700K con su IPC poco cuello de botella le va a hacer en Mass Effect andromeda , ahora si pones Watchs dogs 2 o Assassins creed orgins/Odyssey la cosa cambia , habra juegos donde incluso un i7 3770K no le haga cuello de botella o se lo haga muy poco y otros en los que el cuello de botella sera heavy , a mi en coolmod me dijeron que un i7 3770K a 4.4 Ghz era perfectamente valido para montar con una 1080 Ti y cuando pude probar los juegos... la decepción que me lleve fue enorme , en los benchmark daba el rendimiento que tenia que dar , pero en los juegos como tomb raider , GTA V , Ghost recon wildlands y algunos cuantos mas el rendimiento era pesimo , bajones de fps , tirones.... carga baja de gpu... etc.. etc...


No sé a que resolucion juegas, pero con una 1080 ti no creo sea a 1080p ¿? siempre puede haber algún titulo donde de problemas, y "nadie" gasta 1400€ en la mejor gráfica para ir con 4 núcleos pelaos (el i5 de por ahí atrás) aunque para 4k puede sorprender algunas veces
https://youtu.be/EMmLBc2nqHo

A igualdad de núcleos y alta resolución ya es más difícil justificar lo que valen ciertas CPUs https://youtu.be/skV9exEDM3w

Y parece que nos haya leído, aunque la verdad es que nombraste muchos juegos.

https://youtu.be/3Wij5tp6jxQ el Wildlands

https://youtu.be/HKlQQLtLBGQ el SOTTR

@evilkainn_ seguro que la extensa biblioteca que tiene Steam hallo un juego con menos de 5 años donde se arrastre la gráfica a 4k
No se que bloque de agua comprar para la 2080 ti gaming oc en la web de ekwb hay para el modelo windforcee oc pero no estoy seguro que vaya bien
goku593 escribió:
benestan escribió:
goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.

Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.


Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.

Efectivamente. Es que es así. Suena ridículo que uno de los mejores procesadores del mercado qurde corto para gaming...coño, ¿que vamos a necesitar un super servidor para jugar?

El tema es ese, lo que dice el chaval, que tienen que optimizar las API, para usar los núcleos de forna eficiente.


No es un tema de API, es un tema de que los programadores de juegos sepan optimizar.

Hay juegos DX11 como Rainbow Six, que es una locura lo bien que paralelizan y utilizan todos los núcleos.

Hasta ahora se ha programado pensando para pocos cores y más frecuencia, por eso procesadores con menos frecuencia o IPC hacen "Cuello" sin poder aprovechar la gráfica al 100%. También porque las gráficas top ya son muy bestias.

Hay que empezar a sacar partido a la paralelización de hilos, pero eso llevará tiempo. Por mucho que un juego optimice, poco o mucho habrá un hilo que toque techo y ya te estará haciendo cuello.

Esto con el tiempo va mejorando, ya hay mucho juegos que aprovechan bien la cantidad de hilos, pero hay motores viejos que todavía no, y de ahi el problema.

Ya llevan tiempo poniendose las pilas sobretodo en consolas, con las CPU de mierda que llevan tienen que sacar el máximo partido. Se rumorea que PS5 y XboX Scarlett llevarán núcleos Zen, mínimo 8 cores.

El cuello también depende de la resolución obviamente, a 4K siempre vais a ver la GPU al 100% al tener esta toda la carga, es a menos resoluciones, sobretodo 1080p, que las CPU no dan más de si. Pero claro, estamos hablando que te está dando un juego más de 250fps y la gráfica casi tocandose las bolas.
exter escribió:
goku593 escribió:
benestan escribió:
Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.

Efectivamente. Es que es así. Suena ridículo que uno de los mejores procesadores del mercado qurde corto para gaming...coño, ¿que vamos a necesitar un super servidor para jugar?

El tema es ese, lo que dice el chaval, que tienen que optimizar las API, para usar los núcleos de forna eficiente.


No es un tema de API, es un tema de que los programadores de juegos sepan optimizar.

Hay juegos DX11 como Rainbow Six, que es una locura lo bien que paralelizan y utilizan todos los núcleos.

Hasta ahora se ha programado pensando para pocos cores y más frecuencia, por eso procesadores con menos frecuencia o IPC hacen "Cuello" sin poder aprovechar la gráfica al 100%. También porque las gráficas top ya son muy bestias.

Hay que empezar a sacar partido a la paralelización de hilos, pero eso llevará tiempo. Por mucho que un juego optimice, poco o mucho habrá un hilo que toque techo y ya te estará haciendo cuello.

Esto con el tiempo va mejorando, ya hay mucho juegos que aprovechan bien la cantidad de hilos, pero hay motores viejos que todavía no, y de ahi el problema.

Ya llevan tiempo poniendose las pilas sobretodo en consolas, con las CPU de mierda que llevan tienen que sacar el máximo partido. Se rumorea que PS5 y XboX Scarlett llevarán núcleos Zen, mínimo 8 cores.

El cuello también depende de la resolución obviamente, a 4K siempre vais a ver la GPU al 100% al tener esta toda la carga, es a menos resoluciones, sobretodo 1080p, que las CPU no dan más de si. Pero claro, estamos hablando que te está dando un juego más de 250fps y la gráfica casi tocandose las bolas.



Pero coño, me estás dando la razón. No es un problema de que los procesadores toquen techo, sino que los desarrolladores no programan como deben, no sé si será por vaguería o porque las APIs actuales llegan hasta donde llegan...que me inclino más por esto. Para que te hagas una idea, DX 11 data del 2009, tú fíjate lo que ha llovido, y diría que es el estándar en Gaming, cuando DX12 ya tendría que haberse explotado al máximo y haberse impuesto, porque recordemos, ¿que juegos existen que funcionen bien bajo esta API? Como mucho Shadows of the Tomb Raider, y quizás el próximo Battlefield V, ya que, Battlefield 1 era una auténtica chapuza con DX12.

El tema es que hay que explotar estas API, sacarles el jugo, y parece que es ahora, en 2018, cuando se va a empezar a hacer esto con los nuevos lanzamientos.

Fíjate en este vídeo el uso de CPU; en la API DX12 se reparte la carga de trabajo con muchísima más eficiencia, se mantienen los núcleos entorno al 20-30% de forma homogénea. Mientras que en DX 11 hay núcleos al 9% y otros al 45-50%. Ahí es donde está el verdadero cuello de botella que vemos, y no en nuestras CPU.

Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.

Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.

Imagen

Shadow of the tomb raider seguramente está programado en DX12 directamente, y luego portado a DX11 para dar compatiblilidad y hecho de cualquier manera.

Forza Horizon 4 es DX12 y vamos va que alucinas.

El problema es tener que dar soporte a varias apis por compatibilidad de la base de jugadores, si programas en DX11, luego DX12 va de aquella manera porque ya dijeron que la manera de hacer las cosas nada tiene que ver.

Y al revés igual. Vulkan es otro ejemplo de lo bien que puede ir una api si lo haces con cariño.

Aún así, he dicho que por mucho que optimicen, la CPU va a hacer cuello, porque llevan muchos años al límite que no mejoran apenas IPC y las frecuencias tampoco dan más.

A bajas resoluciones la CPU va a limitar con gráficas gordas.

Para el que juega a 60Hz le da igual, no le va a limitar la cpu.
exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.

Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.

Imagen


Pero como dices, ahí también entra el nivel de optimización. Rainbow Six es un juego que lleva en el mercado muchísimo tiempo ya, y quieren estirarlo otros 10 años. Es por esto que se conocen los entresijos del motor del juego al máximo, y lo tienen super pulido. No es un ejemplo práctico por esto mismo, porque es un juego en el que se sabe que trabajan en todos los aspectos.

Las API no son más que herramientas para los desarrolladores. Es obvio que si bajo DX 12 Ubisoft desarrolla Assassins "el que sea" va a ser la puta misma mierda, ¿por qué? Porque no optimizan, meten DRM a saco y hacen entregas anuales. En este escenario una nueva API no influye porque, directamente, el juego carece de mimo y optimización.

La API se nota cuando, además de ser más eficiente, los desarrolladores hacen un buen trabajo.

No claro, la CPU hará cuello de botella al que juegue a más de 100 FPS o a resoluciones altas. Pero hay ejemplos como los últimos AC, que son canelita en rama...ya puedes jugar a 1080/30 que un i7 7700K se ahoga.

Respecto a Forza Horizon. Es un ejemplo de BUENÍSIMA optimización. Si todos los desarrolladores invirtiesen así en optimizar los juegos pues no estaríamos hablando de esto ahora.
El artículo aquel que el compañero tradujo bastante bien ayer o anteayer al castellano, lo pude leer yo también del original. I'm not fluent in english written or spoken but I can read it fairly well and the vocabulary in this article I think we all know here, so I could understand what I was reading.

El artículo sobre todo habla de la situación actual, yo estoy especulando sobre un futuro que espero sea próximo. Espero equivocarme por mucho, eso también, porque espero que una 2080 sea capaz de tirar de lo nuevo con soltura a la misma resolución que mueve ya con soltura lo existente, o sea 1440p. Del dlss no espero yo gran cosa, porque pienso que atar a la gente a esa tecnología a la larga podría ser contraproducente y además parece una especie de parche para mejorar rendimientos mediante un truco que tampoco termina de convencer a algunos, yo incluido. Que si, que los cálculos finales se hacen en local, pero tiene que haber datos precargados y la gráfica debe tener tensor cores, si falta alguna de las dos cosas, el truco no sucede.

También tengo una cosa bastante clara, después de haberse tirado dos años para presentar esta arquitectura nueva lo mas seguro es que hayan dejado poca cosa a la improvisación, lo malo es que aquí no podemos hacer mas que conjeturas sobre sus planes presentes y futuros. En todas las reviews que he leído, podré estar mas de acuerdo en unas cosas mas en desacuerdo en otras, pero en esto pasa como con casi todas las cosas sobre las que se puede opinar, todo el mundo ve partes del elefante y piensa que es un elefante, pero dudo mucho que ninguno veamos al elefante en su totalidad. Bueno, sí hay alguien que lo ve, que es la misma NVIDIA, pero no ha abierto la boca mas allá de la presentación y lo que va publicando en su web. Y ni ellos pueden prever con total seguridad cuales serán los vaivenes del mercado ni a tres meses vista. La mierda de las criptomonedas hicieron de elemento disruptivo en su momento, y aunque no se las espera en el futuro próximo, esa volatilidad horrorosa que tienen podría hacer que cualquier noticia hiciera que la burbuja empiece a inflarse de nuevo y a poco que haya criptos apetecibles para minar con gpus, empezamos a hacer baile de stocks otra vez. En el caso de las turing, este sobreprecio que tienen, en ese caso podría hasta ser beneficioso para los usuarios "normales".

Sobre el lío de las apis, sobre si escalan regular las directx11 y escalan mucho mejor las directx12, decir que el software siempre va por detrás del hardware, ya bastante complicado es programar un motor gráfico como para además refinarlo lo suficiente y hacer que haga lo que ya debería hacer la api, cumpliendo plazos de tiempo además, porque los inversores se impacientan. Muchas de las veces supongo que lo que ocurrirá ahí es que llegarán a soluciones de compromiso que no sobrecarguen demasiado un hardware mas o menos potente, y de ahí la publicación de requisitos mínimos y recomendados. Siempre me ha gustado la forma de trabajar que tenían en id software y ahora los de cd project, el "lo sacaremos cuando esté terminado". Ya bastantes horas se tienen que machacar como para encima ponerse fechas tope, lo que no tengo tan claro es como serán las reuniones con los inversores.

Ojalá tuviera ahora mismo algún juego que me absorviera o alguna demo con la que juguetear, así no tendría que estar dando la tabarra por aquí tanto. Tengo que reconocer que esto también me está divirtiendo. Gracias por estar ahí.
goku593 escribió:
exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.

Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.

Imagen


Pero como dices, ahí también entra el nivel de optimización. Rainbow Six es un juego que lleva en el mercado muchísimo tiempo ya, y quieren estirarlo otros 10 años. Es por esto que se conocen los entresijos del motor del juego al máximo, y lo tienen super pulido. No es un ejemplo práctico por esto mismo, porque es un juego en el que se sabe que trabajan en todos los aspectos.

Las API no son más que herramientas para los desarrolladores. Es obvio que si bajo DX 12 Ubisoft desarrolla Assassins "el que sea" va a ser la puta misma mierda, ¿por qué? Porque no optimizan, meten DRM a saco y hacen entregas anuales. En este escenario una nueva API no influye porque, directamente, el juego carece de mimo y optimización.

La API se nota cuando, además de ser más eficiente, los desarrolladores hacen un buen trabajo.

No claro, la CPU hará cuello de botella al que juegue a más de 100 FPS o a resoluciones altas. Pero hay ejemplos como los últimos AC, que son canelita en rama...ya puedes jugar a 1080/30 que un i7 7700K se ahoga.

Respecto a Forza Horizon. Es un ejemplo de BUENÍSIMA optimización. Si todos los desarrolladores invirtiesen así en optimizar los juegos pues no estaríamos hablando de esto ahora.


Hay muchos juegos DX11 bien optimizados. Battlefield 4 por ejemplo, mira los años que tiene.

AC dejaron de lado el tema de la entrega anual con Origins, cierto que les mata la puta protección de Denuvo que se come las cpus. Aún así, un 7700K hay muchos juegos que se caga ya en las bragas.
exter escribió:
goku593 escribió:
exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.

Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.

Imagen


Pero como dices, ahí también entra el nivel de optimización. Rainbow Six es un juego que lleva en el mercado muchísimo tiempo ya, y quieren estirarlo otros 10 años. Es por esto que se conocen los entresijos del motor del juego al máximo, y lo tienen super pulido. No es un ejemplo práctico por esto mismo, porque es un juego en el que se sabe que trabajan en todos los aspectos.

Las API no son más que herramientas para los desarrolladores. Es obvio que si bajo DX 12 Ubisoft desarrolla Assassins "el que sea" va a ser la puta misma mierda, ¿por qué? Porque no optimizan, meten DRM a saco y hacen entregas anuales. En este escenario una nueva API no influye porque, directamente, el juego carece de mimo y optimización.

La API se nota cuando, además de ser más eficiente, los desarrolladores hacen un buen trabajo.

No claro, la CPU hará cuello de botella al que juegue a más de 100 FPS o a resoluciones altas. Pero hay ejemplos como los últimos AC, que son canelita en rama...ya puedes jugar a 1080/30 que un i7 7700K se ahoga.

Respecto a Forza Horizon. Es un ejemplo de BUENÍSIMA optimización. Si todos los desarrolladores invirtiesen así en optimizar los juegos pues no estaríamos hablando de esto ahora.


Hay muchos juegos DX11 bien optimizados. Battlefield 4 por ejemplo, mira los años que tiene.

AC dejaron de lado el tema de la entrega anual con Origins, cierto que les mata la puta protección de Denuvo que se come las cpus. Aún así, un 7700K hay muchos juegos que se caga ya en las bragas.


Ay si, las protecciones anticopia. Son un anacronismo heredado de cuando la distribución de los contenidos se hacía sobre todo por medios físicos, esfuerzos de programación que terminan siempre cayendo. Ya por fin se está viendo que lo que hacía falta para que la gente dejara de lado las redes p2p y las descargas es una tarifa plana y/o un sistema de distribución que no penalice mucho el bolsillo. CD project es Dios y el witcher 3 su profeta, todos sabemos lo que opinan esos polacos sobre esto en particular además. A día de hoy ya da hasta mala imagen recurrir a esas porquerías en los juegos. Creo que no tengo yo nada en mi pc que use denuvo y así pienso seguir todo lo que pueda.
NVIDIA GeForce RTX 2070 3DMark Timespy Benchmark Leaks Out – Slightly Faster Than GTX 1080 Custom Models

The benchmark results posted by the source aren’t very clear since it only displays the overall score and not the individual graphics score. The system was configured with a Core i7-8700K and ZOTAC GeForce RTX 2070 graphics card with a reported clock speed of 1950 MHz (Boost clocks). The score was 8151 points for the entire system and as I mentioned, there are no individual scores provided since the benchmark is hidden.

https://wccftech.com/nvidia-ge...3dmark ... mark-leak/

2070 rindiendo poco más q una 1080
@evilkainn_ tienen que dejar hueco para una 2070 Ti que os han visto la cartera [qmparto]
evilkainn_ escribió:NVIDIA GeForce RTX 2070 3DMark Timespy Benchmark Leaks Out – Slightly Faster Than GTX 1080 Custom Models

The benchmark results posted by the source aren’t very clear since it only displays the overall score and not the individual graphics score. The system was configured with a Core i7-8700K and ZOTAC GeForce RTX 2070 graphics card with a reported clock speed of 1950 MHz (Boost clocks). The score was 8151 points for the entire system and as I mentioned, there are no individual scores provided since the benchmark is hidden.

https://wccftech.com/nvidia-ge...3dmark ... mark-leak/

2070 rindiendo poco más q una 1080


Y de precio? (sólo por curiosidad).... lo acabo de ver, jo..., 640 pavos
La 2070 no parece que sea ni por precio ni por rendimiento muy diferente a las otras dos entonces. Ya tenemos los tres escalones hechos para lo nuevo. De la 2060 mejor ni hablar, muy difícil va a ser que dé una sorpresa, aunque podría ser que para cuando salga ya haya algo de software que active circuitos. Mmmm, al final debería haberme esperado, ay el ansia viva...
Si pero habiendo GTX 1080 por unos 550 euros, que alguien me lo explique. ¿No es esta la primera generación donde el equivalente en rendimiento a la generación anterior es más caro? Es un despropósito por parte de Nvida y creo que el resultado será que la tasa de adopción de las RTX será relativamente baja.
valencia escribió:Si pero habiendo GTX 1080 por unos 550 euros, que alguien me lo explique. ¿No es esta la primera generación donde el equivalente en rendimiento a la generación anterior es más caro? Es un despropósito por parte de Nvida y creo que el resultado será que la tasa de adopción de las RTX será relativamente baja.

Supongo que nvidia lo consideró un precio a pagar por el nuevo hardware.
Desde luego esto con competencia real no lo habrían hecho, si eso es bueno o malo lo dejo a la elección de cada uno.
No es la primera vez que pasa por cierto, cuando salieron als primeras tarjetas que renderizaban 3D eran mucho mas caras en el mismo rendimiento que las que ya había.
niñodepapa escribió:@evilkainn_ tienen que dejar hueco para una 2070 Ti que os han visto la cartera [qmparto]


Que va hombre, está vez la jugada maestra va a ser la 2060ti que ya se ha filtrado ;p

Esto es culpa de la nula competencia, de las inundaciones, la demanda de ram, de las apuestas arriesgadas por nuevas tecnologías... y de que la abuela fuma of course.

De que somos unos panolis, no.

valencia escribió:Si pero habiendo GTX 1080 por unos 550 euros, que alguien me lo explique. ¿No es esta la primera generación donde el equivalente en rendimiento a la generación anterior es más caro? Es un despropósito por parte de Nvida y creo que el resultado será que la tasa de adopción de las RTX será relativamente baja.


Ya dieron un pasito con las 10xx, siendo una generación tan "fantastica" no extraña lo de esta.
@valencia estos días había 1080 de palit por 469€ y ahora tienes varias rondando los 500€ de evga o Gigabyte

Yo no le veo mucho sentido a esta generación
@Mendrolo la RTX 2060 4GB 380€ y la de Ti de 6GB 480€ una 1060 subida con rayos [babas]


Putas consolas que no nos dejan avanzar [qmparto] [qmparto]
Estoy mirando 2080ti y no encuentro en ningún lado, e visto la ASUS dual en eBay a 1500 lereles y pasando...

Tendré que esperar

Voy a cambiar la ram, 3000mhz cl17, quiero unas con latencias mas bajas, o esas latencias pero a más frecuencia, mi placa es esta http://es.gigabyte.com/products/page/mb ... urev_10#sp

Alguna recomendación?? Aguanta hasta 3800 mhz, el 6700k lo tengo a 5ghz, cuando salgan los nuevos Intel cambiaré, pero vamos, no me vuelvo a gastar tanta pasta en una placa para sentirte obligado a cambiar de esta manera, ya podría haber sacado antes amd los ryzen, seguramente el 6700k hubiera sido 6/12 y no desaprovechar esta placa base de esta manera, ahora, no se si dejar este pc tal cual y hacer uno completamente nuevo, porque me da una lástima venderlo...

Bueno al tema, me llama la atención la aorus, prisa ninguna, pero hasta que no la tenga no me quedo tranquilo xD, con la 980ti voy tirando.

Un saludo


Edit: https://www.pccomponentes.com/gskill-tr ... 2x8gb-cl18

Estoy haciendo cuentas a ojo y me están dando ganas de prenderles fuego https://hardzone.es/2018/04/30/demandan ... nd-pactar/

300€ por 16gb...
11796 respuestas