Soulblad3 escribió:@polnuman @evilkainn_
Las de pccom empiezan el domingo a las 22:00. Ojo!
Yo sigo emperrao en la gigabyte 2070 oc, aparte de mejor disipador 4 años de garantia, esa es la que tienen que rebajar
Mendrolo escribió:dual_box escribió:e estado mirando comparativas y demas y mucha gente recomienda que para coger la 1080ti te cojas la 2080.. dicen que en cuestión de rendimiento ahora mismo no despunta pero que en futuras actualizaciones de drivers y actus podria mejorar...
un compi se que comento esto mismo un par de hojas mas atras.... entonces pregunto... entre la 1080ti y la 2080 ( a falta de pulir drivers etc etc) cual veis mejor compra?
EDITO para de decir que es para el pc de mi firma..
A precio parecido, la 2080 obviamente. La duda estaba con las ofertas de las 1080ti a 600 euros, que por un 25% menos de dinero tenías fuerza bruta similar.
evilkainn_ escribió:Soulblad3 escribió:@polnuman @evilkainn_
Las de pccom empiezan el domingo a las 22:00. Ojo!
Yo sigo emperrao en la gigabyte 2070 oc, aparte de mejor disipador 4 años de garantia, esa es la que tienen que rebajar
Puff pues menos mal que lo has dicho .. porque yo iba a entrar sobre las 24:00
A ver si tenemos suerte y podemos pillar algo a precio decente compañeros
dual_box escribió:Mendrolo escribió:dual_box escribió:e estado mirando comparativas y demas y mucha gente recomienda que para coger la 1080ti te cojas la 2080.. dicen que en cuestión de rendimiento ahora mismo no despunta pero que en futuras actualizaciones de drivers y actus podria mejorar...
un compi se que comento esto mismo un par de hojas mas atras.... entonces pregunto... entre la 1080ti y la 2080 ( a falta de pulir drivers etc etc) cual veis mejor compra?
EDITO para de decir que es para el pc de mi firma..
A precio parecido, la 2080 obviamente. La duda estaba con las ofertas de las 1080ti a 600 euros, que por un 25% menos de dinero tenías fuerza bruta similar.
Pues a ver si con este black que empieza mañana por la noche sale la 2080 algo mas barata de lo que esta...
interesa las ediciones que estan con el OC o no?
Uff le acabo de echar el ojo a esta "Gigabyte Aorus GeForce RTX 2080 Xtreme" menuda preciosidad....espero que tire igual que su precio
Beta Reverse escribió:Ojito con las Aorus RTX, sí. Parece ser que los ventiladores hacen un trabajo horrendo disipando calor y la gráfica arroja temperaturas mayores y más ruido que la hermana menor de Gigabyte, la Gaming.
Exitworldgamer escribió:
Yo también le eché el ojo pero he leído mucha cosa negativa, ese diseño de ventilador con led parece ser que no ayuda a refrigerar y sube a 75 grados, y otros usuarios reportan en reddit mucho ruido y salidas al escritorio. A mi me flipa por lo bonita y por los 4 años de garantía, pero aún no lo tengo claro por lo que te cuento.
JBullo escribió:karlostek escribió:roma21 escribió:Que tal el tendimiento a 4K con estas 2080?
como el de las 1080ti en algunos casos un poco inferior
Porque cuando es superior por poco deciis que es igual pero cuando es en algun caso puntual inferior por poco entonces si que es inferior?
dual_box escribió:Exitworldgamer escribió:
Yo también le eché el ojo pero he leído mucha cosa negativa, ese diseño de ventilador con led parece ser que no ayuda a refrigerar y sube a 75 grados, y otros usuarios reportan en reddit mucho ruido y salidas al escritorio. A mi me flipa por lo bonita y por los 4 años de garantía, pero aún no lo tengo claro por lo que te cuento.
Y a cual le tienes echado el ojo? Alguna marca diferente pero con mejor ventilacion?
Alguien recomienda alguna rtx2080 por la buena ventilación que tiene?
CrazyGenio escribió:Las gigabyte no me gustan, tienen el mismo diseño desde la serie 900, los ventiladores no aguantan curvas personalizadas, yo tuve una 980 gigabyte gaming g1 y petaron los ventiladores justo cuando se acaba la garantia y no tienen la rendija para añadir grasa o aceite como otros. Toca si o si cambiarlos con nuevos y tienen que ser originales porque si compras truchos salen volando disparados de la tarjeta.
Aunque el pcb y los vrm son los mejores si se te quema un vrm por overclockear o hacer undervolt, seguira funcionando la tarjeta.
willygermo escribió:CrazyGenio escribió:Las gigabyte no me gustan, tienen el mismo diseño desde la serie 900, los ventiladores no aguantan curvas personalizadas, yo tuve una 980 gigabyte gaming g1 y petaron los ventiladores justo cuando se acaba la garantia y no tienen la rendija para añadir grasa o aceite como otros. Toca si o si cambiarlos con nuevos y tienen que ser originales porque si compras truchos salen volando disparados de la tarjeta.
Aunque el pcb y los vrm son los mejores si se te quema un vrm por overclockear o hacer undervolt, seguira funcionando la tarjeta.
Las gigabyte no aguantan curvas personalizadas? en ventiladores o en votajes? Porque yo tengo una, (1080ti), y si he podido ponerle una de potencia de ventilador según temperatura.
yosu888 escribió:Yo lo que flipo es que ahora muchos que presumian de potencia bruta y fps en pc a capa y espada,defiendan el rtx que funciona a 1080p/40 fps en ultra,nose lo veo un poco absurdo por un simple brilli brilli que cuando saquen la serie 4000 y todos la tengamos en casa la disfrutemos como una iluminacion normal de a dia de hoy,que sera y es mejor el rtx ,si,pero no a cualquier precio y menos sin poder moverlo a 4k/60fps.
Pero eso si,uffff como mola el bf5 con el rtx a 1080p,xd......
salchichaman_123 escribió:Pero porque mentís tanto, son 60 fps+ a 1080,
Otro, si amd os tiene en nómina vale, si no cobráis me ahorro el adjetivo
kikomanco escribió:Beta Reverse escribió:Ojito con las Aorus RTX, sí. Parece ser que los ventiladores hacen un trabajo horrendo disipando calor y la gráfica arroja temperaturas mayores y más ruido que la hermana menor de Gigabyte, la Gaming.
yo te puedo confirmar que la mia de 64 grados no pasa con oc y curva personalizada de ventilacion, lo normal, jugando esta en 59/60 grados jugando al assasing odyssey y frecuencias entre 2025/2010 mhz y +800 en memorias ademas de tener 4 años de garantia
Exitworldgamer escribió:kikomanco escribió:Beta Reverse escribió:Ojito con las Aorus RTX, sí. Parece ser que los ventiladores hacen un trabajo horrendo disipando calor y la gráfica arroja temperaturas mayores y más ruido que la hermana menor de Gigabyte, la Gaming.
yo te puedo confirmar que la mia de 64 grados no pasa con oc y curva personalizada de ventilacion, lo normal, jugando esta en 59/60 grados jugando al assasing odyssey y frecuencias entre 2025/2010 mhz y +800 en memorias ademas de tener 4 años de garantia
@Kikomanco es la 2080 extreme? O la aorus que no es extreme, debiste tener suerte porque poca gente comenta estar contenta. La verdad yo le tengo ganas por la garantía y diseño, además el boost es bueno
La verdad es que quizá pruebe suerte y me la juegue, me llama más que la trio y la zotac, si no, qué tal el servicio post venta de coolmod?
salchichaman_123 escribió:yosu888 escribió:Yo lo que flipo es que ahora muchos que presumian de potencia bruta y fps en pc a capa y espada,defiendan el rtx que funciona a 1080p/40 fps en ultra,nose lo veo un poco absurdo por un simple brilli brilli que cuando saquen la serie 4000 y todos la tengamos en casa la disfrutemos como una iluminacion normal de a dia de hoy,que sera y es mejor el rtx ,si,pero no a cualquier precio y menos sin poder moverlo a 4k/60fps.
Pero eso si,uffff como mola el bf5 con el rtx a 1080p,xd......
Pero porque mentís tanto, son 60 fps+ a 1080,
Otro, si amd os tiene en nómina vale, si no cobráis me ahorro el adjetivo
kikomanco escribió:Exitworldgamer escribió:kikomanco escribió:yo te puedo confirmar que la mia de 64 grados no pasa con oc y curva personalizada de ventilacion, lo normal, jugando esta en 59/60 grados jugando al assasing odyssey y frecuencias entre 2025/2010 mhz y +800 en memorias ademas de tener 4 años de garantia
@Kikomanco es la 2080 extreme? O la aorus que no es extreme, debiste tener suerte porque poca gente comenta estar contenta. La verdad yo le tengo ganas por la garantía y diseño, además el boost es bueno
La verdad es que quizá pruebe suerte y me la juegue, me llama más que la trio y la zotac, si no, qué tal el servicio post venta de coolmod?
No no, me has debido de malinterpretar, la mía es la 2080ti gaming oc, pero con esta son 4 gigabytes (980ti xtreme, 1080 xtreme, aorus 1080ti, y 2080ti gaming oc) y todas perfectas
albertoooooooooo escribió:salchichaman_123 escribió:yosu888 escribió:Yo lo que flipo es que ahora muchos que presumian de potencia bruta y fps en pc a capa y espada,defiendan el rtx que funciona a 1080p/40 fps en ultra,nose lo veo un poco absurdo por un simple brilli brilli que cuando saquen la serie 4000 y todos la tengamos en casa la disfrutemos como una iluminacion normal de a dia de hoy,que sera y es mejor el rtx ,si,pero no a cualquier precio y menos sin poder moverlo a 4k/60fps.
Pero eso si,uffff como mola el bf5 con el rtx a 1080p,xd......
Pero porque mentís tanto, son 60 fps+ a 1080,
Otro, si amd os tiene en nómina vale, si no cobráis me ahorro el adjetivo
Pero como mientes tu? Pero si mete rascadas a 32 fps, es una vergüenza de rendimiento... Lo que hay que leer...
pakolo1977 escribió:El poco rato que le he podido echar estos días a las pruebas, lo he centrado todo en pasar el benchmark del final fantasy XV con dlss. He probado de todo para echar a andar el dlss a resolución 2k y creo que no lo he conseguido porque no veía diferencia en los frames que daba la gráfica con eso y con el txaa activado, puede que la opción de línea de comandos haya cambiado o falle cualquier otra cosa. Sea como sea todas las veces que lo he probado a 4k, con diferentes opciones activadas cada vez, el aumento de rendimiento parece que es siempre el mismo, alrededor del 40%.
Una cosa curiosa, he probado a ejecutar esto sin ningún tipo de antialiasing además, resulta que con el dlss es cuando mas rinde la gráfica, algo que por otra parte puede ser hasta obvio porque si la gráfica está rasterizando ahí a 2k y la red neuronal escala a 4k sería hasta normal que todo rinda parecido a cuando lo hace a 2k sin el truco este. Sea como sea, si tengo que elegir que imagen me gusta mas, me quedo con la del dlss todas las veces, parece que han dado por fin con un "algoritmo" de escalado y antialiasing que no penaliza para nada a la gráfica, muy al contrario y deja una imagen que por lo menos para mi se ve muy resultona.
Tengo que hacer mas pruebas, pasar un benchmark a 4k con dlss y después pasar uno a 2k sin dlss sin antialiasing y comparar después los resultados. Esto es así porque por lo que sé de esto, creo que sería lo que haría la gráfica internamente, primero rasterizar a 2k sin antialias y después eso pasárselo a los tensor cores para mejorar la imagen final. Si los resultados de las pruebas son muy parecidos, supongo que estaría en lo cierto yo pensando eso. Pero eso, que tengo que probarlo y lo suyo es que lo haga varias veces.
Para lo que es el battlefield y todos los juegos que saldrán en el futuro que usen raytracing, lo suyo será que también usen el dlss, un 40% de aumento de rendimiento en los frames finales no es moco de pavo, gran parte del rendimiento que se pierde con el rt se recuperaría con el dlss.
Ojalá se pudiera implementar de forma fácil en los juegos esto, o que los de nvidia liberaran algún programa para poder hacer la gente los precálculos en sus casas, aunque eso tardara mucho tiempo en terminar de entrenar la red neuronal. Así no dependería que todo tuviera que pasar por los superordenadores de Nvidia para que funcionara.
Exitworldgamer escribió:pakolo1977 escribió:El poco rato que le he podido echar estos días a las pruebas, lo he centrado todo en pasar el benchmark del final fantasy XV con dlss. He probado de todo para echar a andar el dlss a resolución 2k y creo que no lo he conseguido porque no veía diferencia en los frames que daba la gráfica con eso y con el txaa activado, puede que la opción de línea de comandos haya cambiado o falle cualquier otra cosa. Sea como sea todas las veces que lo he probado a 4k, con diferentes opciones activadas cada vez, el aumento de rendimiento parece que es siempre el mismo, alrededor del 40%.
Una cosa curiosa, he probado a ejecutar esto sin ningún tipo de antialiasing además, resulta que con el dlss es cuando mas rinde la gráfica, algo que por otra parte puede ser hasta obvio porque si la gráfica está rasterizando ahí a 2k y la red neuronal escala a 4k sería hasta normal que todo rinda parecido a cuando lo hace a 2k sin el truco este. Sea como sea, si tengo que elegir que imagen me gusta mas, me quedo con la del dlss todas las veces, parece que han dado por fin con un "algoritmo" de escalado y antialiasing que no penaliza para nada a la gráfica, muy al contrario y deja una imagen que por lo menos para mi se ve muy resultona.
Tengo que hacer mas pruebas, pasar un benchmark a 4k con dlss y después pasar uno a 2k sin dlss sin antialiasing y comparar después los resultados. Esto es así porque por lo que sé de esto, creo que sería lo que haría la gráfica internamente, primero rasterizar a 2k sin antialias y después eso pasárselo a los tensor cores para mejorar la imagen final. Si los resultados de las pruebas son muy parecidos, supongo que estaría en lo cierto yo pensando eso. Pero eso, que tengo que probarlo y lo suyo es que lo haga varias veces.
Para lo que es el battlefield y todos los juegos que saldrán en el futuro que usen raytracing, lo suyo será que también usen el dlss, un 40% de aumento de rendimiento en los frames finales no es moco de pavo, gran parte del rendimiento que se pierde con el rt se recuperaría con el dlss.
Ojalá se pudiera implementar de forma fácil en los juegos esto, o que los de nvidia liberaran algún programa para poder hacer la gente los precálculos en sus casas, aunque eso tardara mucho tiempo en terminar de entrenar la red neuronal. Así no dependería que todo tuviera que pasar por los superordenadores de Nvidia para que funcionara.
Gracias por compartir tus pruebas, si fuera así no sería tan desastre esto del ray tracing. Por otra parte, espero que si pueda ponerse el dlss a 2k en breve.
salchichaman_123 escribió:albertoooooooooo escribió:salchichaman_123 escribió:
Pero porque mentís tanto, son 60 fps+ a 1080,
Otro, si amd os tiene en nómina vale, si no cobráis me ahorro el adjetivo
Pero como mientes tu? Pero si mete rascadas a 32 fps, es una vergüenza de rendimiento... Lo que hay que leer...
En las gráficas sale una media de 62 fps, y en los vídeos nunca lo vi bajar de 50, que en algún momento puntual baje a 32 creas que te da derecho a llamarme mentiroso mal empezamos, ademas que llevas poniendo a parir esta tecnología desde hace unas cuantas paginas, asiq e no sé ni para qué me molesto.
Estoy hasta la polla de leer tus mágicos métodos para sustituir el dxr, como si supieras más que nadie.
raul_sanchez1 escribió:tiene los cojones ahora de defenderlos porque ya se ha gastado 1300€ supongo yo, porque si no, no me cabe en la cabeza.
En fin, que cada uno haga lo que quiera con su dinero, eso está mas que claro, pero al menos, alguno debería de recapacitar lo que decía meses atrás y lo que dice ahora, es un poco hipócrita defender algo, que hace meses criticabas.
kikomanco escribió:Exitworldgamer escribió:pakolo1977 escribió:El poco rato que le he podido echar estos días a las pruebas, lo he centrado todo en pasar el benchmark del final fantasy XV con dlss. He probado de todo para echar a andar el dlss a resolución 2k y creo que no lo he conseguido porque no veía diferencia en los frames que daba la gráfica con eso y con el txaa activado, puede que la opción de línea de comandos haya cambiado o falle cualquier otra cosa. Sea como sea todas las veces que lo he probado a 4k, con diferentes opciones activadas cada vez, el aumento de rendimiento parece que es siempre el mismo, alrededor del 40%.
Una cosa curiosa, he probado a ejecutar esto sin ningún tipo de antialiasing además, resulta que con el dlss es cuando mas rinde la gráfica, algo que por otra parte puede ser hasta obvio porque si la gráfica está rasterizando ahí a 2k y la red neuronal escala a 4k sería hasta normal que todo rinda parecido a cuando lo hace a 2k sin el truco este. Sea como sea, si tengo que elegir que imagen me gusta mas, me quedo con la del dlss todas las veces, parece que han dado por fin con un "algoritmo" de escalado y antialiasing que no penaliza para nada a la gráfica, muy al contrario y deja una imagen que por lo menos para mi se ve muy resultona.
Tengo que hacer mas pruebas, pasar un benchmark a 4k con dlss y después pasar uno a 2k sin dlss sin antialiasing y comparar después los resultados. Esto es así porque por lo que sé de esto, creo que sería lo que haría la gráfica internamente, primero rasterizar a 2k sin antialias y después eso pasárselo a los tensor cores para mejorar la imagen final. Si los resultados de las pruebas son muy parecidos, supongo que estaría en lo cierto yo pensando eso. Pero eso, que tengo que probarlo y lo suyo es que lo haga varias veces.
Para lo que es el battlefield y todos los juegos que saldrán en el futuro que usen raytracing, lo suyo será que también usen el dlss, un 40% de aumento de rendimiento en los frames finales no es moco de pavo, gran parte del rendimiento que se pierde con el rt se recuperaría con el dlss.
Ojalá se pudiera implementar de forma fácil en los juegos esto, o que los de nvidia liberaran algún programa para poder hacer la gente los precálculos en sus casas, aunque eso tardara mucho tiempo en terminar de entrenar la red neuronal. Así no dependería que todo tuviera que pasar por los superordenadores de Nvidia para que funcionara.
Gracias por compartir tus pruebas, si fuera así no sería tan desastre esto del ray tracing. Por otra parte, espero que si pueda ponerse el dlss a 2k en breve.
si es que precisamente para eso lleva los Tensor cores
vergil escribió:https://youtu.be/09QDJQ5T_cM
xDDD
El-Gabo escribió:Buenas. Una duda chicos. Actualmente tengo una GTX 1060 y me gustaría pasarme a una GTX 1070ti. Cuántos fps ganaría ?, jugando a 1080p, que hay juegos muy pesados como el Kingdom come deliverance, final fantasy xv con tecnologías de Nvidia y tal.
Realmente quiero saber si valdría la pena dar ese salto, yendo más sobrado. Y ojo, doy prioridad a los gráficos por encima de los frames. Con 30-50 fps todo al mango me conformo
dual_box escribió:vergil escribió:https://youtu.be/09QDJQ5T_cM
xDDD
llamame loco pero aparte de ver como con el rtx desactivado tiene una media de 130fps y con el encendido cae de cabeza a 50fps... se nota algo mas visualmente?
Aviso que pregunto sin animo de molestar porque veo que en este post estáis calientes con todo este tema xD
raul_sanchez1 escribió:Yo lo que no entiendo es que mucha gente de aquí se pillaba la 1080Ti para jugar a 4K porque decían que 1080p no se ve tan claro, que si la resolución es una maravilla, que si tal y cuál... ahora, 1300€ después les dicen que tienen que volver a 1080p y la gente lo defiende?. De verdad, no lo entiendo. Hace meses, cuando no estaban las tarjetas la venta, la gente hablaba del TRX como una maravilla que encima no supondría perdida de rendimiento, que si los procesadores dedicados de Nvidia hacían este milagro, que eso unido a la natural mejora de la tecnología haría la maravilla de la vida...
Meses después, salen unas tarjetas infladisimas de precio, con una tecnología que, si bien pinta bien, desde luego está en pañales y parece mas un futuro para otra generación que para esta. Pero desde luego, lo que no entiendo es que ahora os dicen 1080p y... la gente lo defiende!. Alguno incluso criticando los 1080p hace meses, tiene los cojones ahora de defenderlos porque ya se ha gastado 1300€ supongo yo, porque si no, no me cabe en la cabeza.
En fin, que cada uno haga lo que quiera con su dinero, eso está mas que claro, pero al menos, alguno debería de recapacitar lo que decía meses atrás y lo que dice ahora, es un poco hipócrita defender algo, que hace meses criticabas.
Torkia escribió:Debe de ser que me ha tocado una tarjeta extraterrestre o algo parecido.
En Battlefield V a 1440p con RTX en bajo (no hay mucha diferencia entre bajo y ultra), en los mapas más demandantes entre 60 y 90 fps. Y en el resto entre 70 y 100 fps.
Si subo la calidad del RTX los fps bajan drásticamente pero la calidad no es ni mucho menos significativa.
La diferencia entre RTX activado o desactivado es más que notable. Los reflejos en cristaleras en tiempo real es una maravilla. Ver las que se montan reflejado en los cristales, en momentos puntuales te puede dar ventaja.
Ahora bien, en mi caso, prefiero alta tasa de imágenes por segundo sacrificando el RTX. Al menos en este tipo de juego.
kikomanco escribió:Torkia escribió:Debe de ser que me ha tocado una tarjeta extraterrestre o algo parecido.
En Battlefield V a 1440p con RTX en bajo (no hay mucha diferencia entre bajo y ultra), en los mapas más demandantes entre 60 y 90 fps. Y en el resto entre 70 y 100 fps.
Si subo la calidad del RTX los fps bajan drásticamente pero la calidad no es ni mucho menos significativa.
La diferencia entre RTX activado o desactivado es más que notable. Los reflejos en cristaleras en tiempo real es una maravilla. Ver las que se montan reflejado en los cristales, en momentos puntuales te puede dar ventaja.
Ahora bien, en mi caso, prefiero alta tasa de imágenes por segundo sacrificando el RTX. Al menos en este tipo de juego.
Claro que sí, a ti te ha tocado la 2080ti mega chachi editions, solo sale una de cada 10000 eres un afortunado, enhorabuena /modo ironic off/
Mutaracha escribió:Cuánta mala sangre hay en este hilo. A alguno le vendría bien irse a dar una vuelta y relajarse; tela marinera...
Alejandro_Tomas escribió:No sabía que la cosa llegaba a tanto: https://forums.geforce.com/default/topi ... ontact-us/
La han llegado a quitar de la tienda online (la 2080Ti)?
https://www.eteknix.com/geforce-rtx-208 ... ine-store/
dual_box escribió:vergil escribió:https://youtu.be/09QDJQ5T_cM
xDDD
llamame loco pero aparte de ver como con el rtx desactivado tiene una media de 130fps y con el encendido cae de cabeza a 50fps... se nota algo mas visualmente?
Aviso que pregunto sin animo de molestar porque veo que en este post estáis calientes con todo este tema xD
Titán_Salvaje_ escribió:dual_box escribió:vergil escribió:https://youtu.be/09QDJQ5T_cM
xDDD
llamame loco pero aparte de ver como con el rtx desactivado tiene una media de 130fps y con el encendido cae de cabeza a 50fps... se nota algo mas visualmente?
Aviso que pregunto sin animo de molestar porque veo que en este post estáis calientes con todo este tema xD
una vez activas el ray tracing la perdida de rendimineto esta siempre presente se vean o no los reflejos en pantalla
donde mas se nota esta tecnologia es en el mapa de rotterdam
salchichaman_123 escribió:Alejandro_Tomas escribió:No sabía que la cosa llegaba a tanto: https://forums.geforce.com/default/topi ... ontact-us/
La han llegado a quitar de la tienda online (la 2080Ti)?
https://www.eteknix.com/geforce-rtx-208 ... ine-store/
Pues si están saliendo malas normal, tendrán que sacar un modelo con mejor refrigeración porque que peten tantas es bastante lamentable.
Yo no me la he comprado porque quiero 60 fps en 1440p (con dxr) y si bajo la resolución a 1080 se ve como el culo en mi monitor.
dual_box escribió:Titán_Salvaje_ escribió:dual_box escribió:
llamame loco pero aparte de ver como con el rtx desactivado tiene una media de 130fps y con el encendido cae de cabeza a 50fps... se nota algo mas visualmente?
Aviso que pregunto sin animo de molestar porque veo que en este post estáis calientes con todo este tema xD
una vez activas el ray tracing la perdida de rendimineto esta siempre presente se vean o no los reflejos en pantalla
donde mas se nota esta tecnologia es en el mapa de rotterdam
ufff es que veo tanto comentario dispar que ya no se por donde narices tirar en este black... a por la 1080ti o a por la 2080....... intento entender y comprender los dos puntos de vista que hay en el foro... y por ello no termino de decidirme...