pakolo1977 escribió:Letrina escribió:En esta web hacen un bechmark de las CPU con varias GPU donde se puede ver que un i5 2500k en 4k no tiene tanto cuello de botella como en 1080p en Battlefield V
https://gamegpu.com/action-/-fps-/-tps/ ... F2I.reddit
Me da muchiiiiisima pereza actualizar mi i5 2500k, porque ire a la opcion mas economica, quedarme en 1080p cn una grafica que no me haga cuello de botella y pueda jugar a ultra en Battlefield V o pillar una GTX1080Ti en el Black Friday a 600€ o espero que menos y si incluye el BFV ya lo peta hahaha y jugar a 4k sin cuello de botella como veo en estso benchmarks.
Echo en falta esos benchmarks a 4k con procesadores de todas las generaciones, para ver realmente esos cuellos de botella si son prescindibles y nos ahorran hacer gasto en placa, procesador y ram, porque si me va a ir a 60fps a 4k me da igual perder 20 o 30fps, 20fps de diferencia no valen 500-600€ que podria costar actualizar esos componentes
Como lo veis? alguien con una RTX2080Ti o RTX2080 o GTX1080Ti con un i5 2500k puede hacer la prueba en 4k y ver realmente ese cuello de botella?
Muchas gracias
Grosso modo, lo que he averiguado yo hasta ahora es que en resoluciones altas, con mi 3770k con overclock a 4.4 Ghz mas mi 2080 founders edition, el micro hace menos cuello de botella que en 1080p. Como la gráfica tiene mas trabajo que hacer a 2k y mucho mas trabajo a 4k, los framerates no son tan altos como a 1080p y el micro hace menos cuello de botella. A 1440p algo de cuello hace todavía, pero por lo que he visto a 4k, nada de nada.
Lo mismo pasa si en 1080p se activa el vsync a 60 frames, el micro no llega a saturarse en ningún momento y además la gráfica va a medio gas casi siempre. El único juego de los que tengo que ha sobrecargado la gráfica a 1080p y no ha llegado a los 60 frames rocosos, ha sido el star wars battlefront II, poniendo absolutamente todo a tope y directx12, pero ahí entre otras cosas tenía activada el supersampling o ubersampling o como se llame eso al 200%. Fue ponerlo al 100% y problema arreglado, volvieron los 60 frames.
Si alguien tiene un monitor con mayor tasa de refresco, juntarlo con un microprocesador viejo no es aconsejable, esto así en bruto todo lo que me explico es que a mayor tasa de frames, mas fácil es que se sature el micro.
Exitworldgamer escribió:kikomanco escribió:Octavia_RS escribió:@kikomanco yo hubiera echo lo mismo, ya contarás cuando te llegue
la verdad que si, por que tengo varios juegos atrasados por jugar (Tomb raider, Forza horizon 4, Dragon Quest XI y Assasing Odissey)
@Exitworldgamer si hubiera sido el I5 8600k si hubieras tenido minimo para 2-3 años mas, rinde un poco por encima del 7700k y si lo subes a 5 Ghz como lo tengo yo saca en multihilo lo mismo que un 8700 no k en cinenbench que son 1300 puntos, vamos una burrada, pero claro el mio es un 6 core a 5.0 Ghz y aun lo puedo llevar hasta 5.3Ghz pero de momento no me hace falta, en el Assasing creed origin ni se inmuta y lo tengo con un Corsair H100 y no pasa de los 60 grados jugando, una maravilla de micro
Gracias por comentar Kikomanco, la verdad es que creo que con cualquiera de los dos procesadores tanto el ryzen 7 2700x como el i7 8700k darán buenos resultados, por lo que veo en resoluciones 2k el i7 va por delante pero es caro, así que ya veré en navidades que hago. La verdad es que nueva placa + nuevo procesador + rtx 2080 + Monitor Alienware 34" ips 2k gsync, va a ser un salto, un salto a la calle que es donde me va a enviar mi mujer...
Sobre cuando comprar, creéis que es mejor en plenas navidades, cualquier dia de Diciembre, fiestas de enero? sabéis cuando suele estar todo a mejor precio? (si es que pasa tal cosa)
Gracias de nuevo
pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.
Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.
Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.
Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.
pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.
Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.
Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.
Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.
niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo
https://youtu.be/Grk1PzoRT6g
niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo
https://youtu.be/Grk1PzoRT6g
Letrina escribió:Si la mayoría tiene cuello de botella en resoluciones bajas, no sera mejor esperar a la siguiente generación de procesadores para actualizar el pc? y comprarse la gráfica que uno pueda permitirse ahora mismo y quedarse en 4k calidad discutible? o quedarse en 1080p con calidad mas mediocre y comprar una gráfica de las que están bajando de precio?
Si para jugar a 4K a saco hay que gastar mas de 2000€
No sera mejor invertir esos 2000€ en 1-2 años, y prescindir de procesador ahora mismo?
Hablo siempre desde la opinión personal, de los que tenemos dudas de comprar algo que no va a moverlo todo al máximo después de derrachar tanto dinero, casi mejor quedarse en 1080p y esperar un poco mas.
jolur escribió:Letrina escribió:Si la mayoría tiene cuello de botella en resoluciones bajas, no sera mejor esperar a la siguiente generación de procesadores para actualizar el pc? y comprarse la gráfica que uno pueda permitirse ahora mismo y quedarse en 4k calidad discutible? o quedarse en 1080p con calidad mas mediocre y comprar una gráfica de las que están bajando de precio?
Si para jugar a 4K a saco hay que gastar mas de 2000€
No sera mejor invertir esos 2000€ en 1-2 años, y prescindir de procesador ahora mismo?
Hablo siempre desde la opinión personal, de los que tenemos dudas de comprar algo que no va a moverlo todo al máximo después de derrachar tanto dinero, casi mejor quedarse en 1080p y esperar un poco mas.
¿y si optimizan los juegos como dios manda y dejan de tocar los cataplines poniendo todos los cores al 100% nada mas por que sí?
ikki1988 escribió:haber, lo del famoso cuello de botella con la 2080ti.
esque me hace gracia, el otro día cierto famoso youtuber, muy bocazas él, que se dedica a subir vídeos de batlefield y demás, decía todo chulo que con su 6700k y la 2080ti no tenía cuello de botella en batlefield 1 y que no pasaba su pc de 40 grados, no sabemos si se refería a el cristal de la torre o a la temperatura de la calle..
me refiero con esto, a que la gente dice muchas tonterías, por ignorancia o por arrogancia como es este caso en concreto.
veréis, tengo un 8700K, oc a 4.8 ghz, y si, existe el cuello de botella.
jugando al batlefield 1 es muy fácil de ver, la gráfica va sumamente sobrada, no me pasa del 80 por ciento de la carga...
otro ejemplo es el rise of teh tomb raider, en este caso no hay cuello de botella, al menos en mi caso.
quiero decir con esto, que dependiendo de que juego uses puedes tenerlo, pero es totalmente lógico, es más, estoy casi seguro que el nuevo 9700k pasará lo mismo...
juego a 2k 144hz.
saludos
goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.
Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.
papatuelo escribió:pakolo1977 escribió:@kikomanco Ok, es bueno saber eso de los assassins creed, no tengo ninguno de los dos juegos. El II, el de Ezio auditore me gustó una barbaridad, pero me bajé muy pronto yo de aquel barco.
Es cierto que para 60 frames sostenidos a 1080p la 2080 sobra por todas partes, y que con el DLSS eso hasta será mas ya que la gráfica en teoría estaría hasta mas descargada aún si cabe. Pero creo que ya habréis leído algo que opiné sobre que las DLSS podrían usarse por parte de NVIDIA como una forma de forzar una obsolescencia programada a unas gráficas que seguramente todavía conseguirán dar bien el tipo para juegos durante varios años todavía, sobre todo si el DLSS es un triunfo, porque en cualquier momento NVIDIA podría retirar unilateralmente el soporte DLSS a un juego solamente con una actualización de drivers o activarlo a partir de una generación en concreto, o mantener el soporte DLSS a un juego para la generación en la que salió y generaciones posteriores, pero no anteriores. No sé si me explico bien. El caso es que hasta ahora que yo sepa las gráficas no usaban precálculos en los juegos, o al menos éstos no partían directamente de NVIDIA, o sea, si se hacía algún precálculo para hacer una caché por ejemplo, era la gráfica local la que lo hacía en primera instancia, no un supercomputador en otra parte.
Otra cosa es que una carga del 50% para un juego directx11 o 12 en el 2018, puede que sea una carga de un 75% para un juego directx12 en el 2020 y una carga del 100% para el 2022. Eso sin contar raytracings ni denoisers ni ias para los personajes ni historias varias de las nuevas a implementar, o sea, hasta con esas cosas desactivadas. Cuando hablo de que mi gráfica es muy future-proof a 1080p, también me refiero a eso. Pero claro, en ese caso igual me hubiera servido haber comprado una 1080ti, si el rendimiento es parecido. Que conste que a día de hoy considero que la 2080 está un pasito por detrás en cuestión de rendimiento con respecto a la 1080ti y no debería ser así. Al césar lo que es del césar. Y si, cada día que pasa tengo mas ganas de activar los circuitos nuevos y por fin ver que es lo que tienen en la mente los de NVIDIA para haberlos metido en los chips estos.
Sea como sea, yo ya he picado el anzuelo y la maquinita de hacer dineros de NVIDIA ahí sigue, engrasadita.
Si juegas a 1080p juegas a 1080p el dlss no tiene nada que ver. El dlss es un reescalado, por lo que para que fuera más holgada por jugar a 1080p tendrías que jugar a menos de 1080p y que te lo reescalara a 1080p. En realidad que te lo reconstruyera. pero como toda reconstrucción el resultado no es igual al nativo.
De todas formas juaría que leí en digital foundry que el dlss solo sirve para reescalar de 2K a 4K pero de este extremo no estoy seguro.
Y que es eso de que un supercomputador se necesita para el dlss? Tu estás seguro de eso? Me suena muy raro.
benestan escribió:goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.
Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.
Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.
FullKillerUltimate. escribió:
El dlss existe gracias a la inteligencia artificial, y funciona gracias a los tensor cores de las nuevas gpus de Nvidia, para que eso funcione los desarrolladores de juegos dan a la propia Nvidia su programa para que ellos lo pasen por una supercomputadora llamada DGX saturnNV, especializada en inteligencia artificial, redes neuronales... etc etc
Esta computadora empezará a aprender a general imágenes con hasta 64 veces mas calidad que la original, para seguidamente ir sombrear cada pixel hasta 64 veces, para que el resultado final sea casi inapreciable a la imagen original. Eso es gracias a la propia inteligencia artificial y redes neuronales del superordenador de Nvidia, cuando el programa ya a sido pasado por SaturnNV, los tensor cores de las nuevas RTX se encargan de reproducirlo.
Titán_Salvaje_ escribió:niñodepapa escribió:¿Cómo va la cuellobotellitis? Por este gameplay no parece que sea tal, pero ya vendrá algún guru a aclararlo
https://youtu.be/Grk1PzoRT6g
el cuello de botella aparte del procesador depende del juego , un i7 7700K con su IPC poco cuello de botella le va a hacer en Mass Effect andromeda , ahora si pones Watchs dogs 2 o Assassins creed orgins/Odyssey la cosa cambia , habra juegos donde incluso un i7 3770K no le haga cuello de botella o se lo haga muy poco y otros en los que el cuello de botella sera heavy , a mi en coolmod me dijeron que un i7 3770K a 4.4 Ghz era perfectamente valido para montar con una 1080 Ti y cuando pude probar los juegos... la decepción que me lleve fue enorme , en los benchmark daba el rendimiento que tenia que dar , pero en los juegos como tomb raider , GTA V , Ghost recon wildlands y algunos cuantos mas el rendimiento era pesimo , bajones de fps , tirones.... carga baja de gpu... etc.. etc...
goku593 escribió:benestan escribió:goku593 escribió:Por cierto, ¿se sabe si hay algún juego más que vaya a usar DLSS? Parece muy buena tecnología y sería una pena que no la usen.
Y sí, Michael lo que viene a decir no es que nuestras CPUs se queden cortas de potencia, sino que las API, no aprovechan eficientemente todos sus núcleos. Habrá que esperar a DX 12 a ver si cambia esto.
Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.
Efectivamente. Es que es así. Suena ridículo que uno de los mejores procesadores del mercado qurde corto para gaming...coño, ¿que vamos a necesitar un super servidor para jugar?
El tema es ese, lo que dice el chaval, que tienen que optimizar las API, para usar los núcleos de forna eficiente.
exter escribió:goku593 escribió:benestan escribió:
Así es, la verdad es que lo deja todo bien claro y explica la razón del tema en cuestión. Muchos hablan de que el procesador como un i7-8700K hace cuello de botella a una RTX 2800 TI pero no tienen ni la remota idea de que no es por potencia del procesador si no que es culpa de la API.
Efectivamente. Es que es así. Suena ridículo que uno de los mejores procesadores del mercado qurde corto para gaming...coño, ¿que vamos a necesitar un super servidor para jugar?
El tema es ese, lo que dice el chaval, que tienen que optimizar las API, para usar los núcleos de forna eficiente.
No es un tema de API, es un tema de que los programadores de juegos sepan optimizar.
Hay juegos DX11 como Rainbow Six, que es una locura lo bien que paralelizan y utilizan todos los núcleos.
Hasta ahora se ha programado pensando para pocos cores y más frecuencia, por eso procesadores con menos frecuencia o IPC hacen "Cuello" sin poder aprovechar la gráfica al 100%. También porque las gráficas top ya son muy bestias.
Hay que empezar a sacar partido a la paralelización de hilos, pero eso llevará tiempo. Por mucho que un juego optimice, poco o mucho habrá un hilo que toque techo y ya te estará haciendo cuello.
Esto con el tiempo va mejorando, ya hay mucho juegos que aprovechan bien la cantidad de hilos, pero hay motores viejos que todavía no, y de ahi el problema.
Ya llevan tiempo poniendose las pilas sobretodo en consolas, con las CPU de mierda que llevan tienen que sacar el máximo partido. Se rumorea que PS5 y XboX Scarlett llevarán núcleos Zen, mínimo 8 cores.
El cuello también depende de la resolución obviamente, a 4K siempre vais a ver la GPU al 100% al tener esta toda la carga, es a menos resoluciones, sobretodo 1080p, que las CPU no dan más de si. Pero claro, estamos hablando que te está dando un juego más de 250fps y la gráfica casi tocandose las bolas.
exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.
Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.
goku593 escribió:exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.
Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.
Pero como dices, ahí también entra el nivel de optimización. Rainbow Six es un juego que lleva en el mercado muchísimo tiempo ya, y quieren estirarlo otros 10 años. Es por esto que se conocen los entresijos del motor del juego al máximo, y lo tienen super pulido. No es un ejemplo práctico por esto mismo, porque es un juego en el que se sabe que trabajan en todos los aspectos.
Las API no son más que herramientas para los desarrolladores. Es obvio que si bajo DX 12 Ubisoft desarrolla Assassins "el que sea" va a ser la puta misma mierda, ¿por qué? Porque no optimizan, meten DRM a saco y hacen entregas anuales. En este escenario una nueva API no influye porque, directamente, el juego carece de mimo y optimización.
La API se nota cuando, además de ser más eficiente, los desarrolladores hacen un buen trabajo.
No claro, la CPU hará cuello de botella al que juegue a más de 100 FPS o a resoluciones altas. Pero hay ejemplos como los últimos AC, que son canelita en rama...ya puedes jugar a 1080/30 que un i7 7700K se ahoga.
Respecto a Forza Horizon. Es un ejemplo de BUENÍSIMA optimización. Si todos los desarrolladores invirtiesen así en optimizar los juegos pues no estaríamos hablando de esto ahora.
exter escribió:goku593 escribió:exter escribió:Pero tu decías que era un cosa de API, osea fallo de DX11 que no hay más, también lo dice el tio ese del video.
Y por ejemplo tienes al Six DX11 que va de puta madre, porque los programadores y supongo que el engine del juego hace lo que debe.
Pero como dices, ahí también entra el nivel de optimización. Rainbow Six es un juego que lleva en el mercado muchísimo tiempo ya, y quieren estirarlo otros 10 años. Es por esto que se conocen los entresijos del motor del juego al máximo, y lo tienen super pulido. No es un ejemplo práctico por esto mismo, porque es un juego en el que se sabe que trabajan en todos los aspectos.
Las API no son más que herramientas para los desarrolladores. Es obvio que si bajo DX 12 Ubisoft desarrolla Assassins "el que sea" va a ser la puta misma mierda, ¿por qué? Porque no optimizan, meten DRM a saco y hacen entregas anuales. En este escenario una nueva API no influye porque, directamente, el juego carece de mimo y optimización.
La API se nota cuando, además de ser más eficiente, los desarrolladores hacen un buen trabajo.
No claro, la CPU hará cuello de botella al que juegue a más de 100 FPS o a resoluciones altas. Pero hay ejemplos como los últimos AC, que son canelita en rama...ya puedes jugar a 1080/30 que un i7 7700K se ahoga.
Respecto a Forza Horizon. Es un ejemplo de BUENÍSIMA optimización. Si todos los desarrolladores invirtiesen así en optimizar los juegos pues no estaríamos hablando de esto ahora.
Hay muchos juegos DX11 bien optimizados. Battlefield 4 por ejemplo, mira los años que tiene.
AC dejaron de lado el tema de la entrega anual con Origins, cierto que les mata la puta protección de Denuvo que se come las cpus. Aún así, un 7700K hay muchos juegos que se caga ya en las bragas.
evilkainn_ escribió:NVIDIA GeForce RTX 2070 3DMark Timespy Benchmark Leaks Out – Slightly Faster Than GTX 1080 Custom Models
The benchmark results posted by the source aren’t very clear since it only displays the overall score and not the individual graphics score. The system was configured with a Core i7-8700K and ZOTAC GeForce RTX 2070 graphics card with a reported clock speed of 1950 MHz (Boost clocks). The score was 8151 points for the entire system and as I mentioned, there are no individual scores provided since the benchmark is hidden.
https://wccftech.com/nvidia-ge...3dmark ... mark-leak/
2070 rindiendo poco más q una 1080
valencia escribió:Si pero habiendo GTX 1080 por unos 550 euros, que alguien me lo explique. ¿No es esta la primera generación donde el equivalente en rendimiento a la generación anterior es más caro? Es un despropósito por parte de Nvida y creo que el resultado será que la tasa de adopción de las RTX será relativamente baja.
niñodepapa escribió:@evilkainn_ tienen que dejar hueco para una 2070 Ti que os han visto la cartera
valencia escribió:Si pero habiendo GTX 1080 por unos 550 euros, que alguien me lo explique. ¿No es esta la primera generación donde el equivalente en rendimiento a la generación anterior es más caro? Es un despropósito por parte de Nvida y creo que el resultado será que la tasa de adopción de las RTX será relativamente baja.