Kagetsuya escribió:ionesteraX escribió:hh1 escribió:Te has dejado la 1080TI de lado ..
Con esa consideras justificable el salto?
Sí, todo salto de pascal a 3080 lo veo justificado, no solo por el aumento de rendmimiento bruto si no por los añadidos.
Repito que todo esto lo pienso para 4K, si alguien juega a una resolución inferior ya depende de otros factores como hz de monitor/tele a los que juega.
Pues yo teniendo la TI no veo justificado, comprarme una 3080 (con menos vram para colmo), no hay mas que ver el salto de 1080 a 1080TI, así que sed pacientes por que estamos en un momento algo loco en el que las presiones de AMD han influenciado mucho este lanzamiento. El que la compre por los motivos que quiera me parece de puta madre, pero hablamos de una cantidad bastante considerable y siendo un poco avispado, puedes tener una tarjeta que te aguanta varios años y que el ordenador secundario que la tenga cuando cambie va a poder mover prácticamente todo a 1080p en ultra.
Raizan Snake escribió:Ir todos como locos a por las 3080 no dudéis en comprarlas. Que de esa manera fijo que me quedan 3090 libres para elegir xDDDDDDD
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.
Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)
PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.
Daicon escribió:Cuentaparacomentario escribió:Y encima con 10GB de VRAM, se van a quedar atascadas en cuanto lleguen a los menus de los juegos
se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.
kikomanco escribió:Daicon escribió:Cuentaparacomentario escribió:Y encima con 10GB de VRAM, se van a quedar atascadas en cuanto lleguen a los menus de los juegos
se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.
La super nes mini clasic mueve mejor el ZSupernes y el MAME que la 3080
hh1 escribió:Ruben1001 escribió:hh1 escribió:Es un portento que en el RDR2 ,se queda corta de Vram en 4K con todo al máximo.
Al loro...
No te deja poner todos los presets a tope.
Y hablamos de un juego de "old" gen.Espera a los nuevos.
Graficón, sí.Pero da que pensar.
Donde han dicho que se quede corto de vram a 4k en el RDR2??
Estoy buscando y no veo nada.
https://www.youtube.com/watch?v=WizmvEOFjb4
Míratelo.
The-Best escribió:jopasaps escribió:The-Best escribió:Para el flight simulator hay que esperarse a la serie 8000 por lo menos
Más bien esperar a que implementen directx 12 en el simulador. Su optimización es penosa.
Entonces mañana hay desgaste del F5 o al final los benchmarks no os convencen?
Que va tampoco hay mucha diferencia en la mayoría de juegos en dx11 o 12.
Lo suyo sería que hubieran hecho el juego solo en directx 12
yonnah escribió:kikomanco escribió:Daicon escribió:se comenta, que algunos juegos no se pueden ejecutar a mas de 2k, se cierran y echa al escritorio.
La super nes mini clasic mueve mejor el ZSupernes y el MAME que la 3080
Toca esperar a la Ti el proximo mes con 20g Vram.
d2akl escribió:
Yo ya avisé estos días de que Torotocho hace cosas muy raras, ya lo hizo con la serie 2000, llamándole a la 2060 gama alta/media y demás cosas.
Pero esto, es otro nivel.
Bueno esto, sin más, es intentar engañar a quien no tenga idea/no se fije.
ayran escribió:Yo también la voy a usar para jugar a 1080p. No estoy ni a 50 centímetros del monitor y quiero jugar todo en ultra a 240 fps.
Probé un monitor de 27 pulgadas 1440p y se me hace demasiado grande. Y eso, que hay juegos a 1080p que no alcanzan los 144 fps ( y de la anterior generación y sin RT).
Edit: y tengo la tele 4k al lado para enchufar el HDMI y jugar cualquier modo historia.
verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.
Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)
PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.
Antoniopua escribió:verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.
Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)
PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.
Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible
Antoniopua escribió:verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.
Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)
PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.
Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible
PioL1n escribió:Juegos old gen mal optimizados , creados para cpus ( gen consolas ) de hace 8 años con graficas de next gen... nose por que le dais tanta bola a estas reviews.. Lo importante vendrá en los juegos futuros..
Metalyard escribió:1. Conocéis de alguna 3080 custom de 2 ventiladores? Es que creo que no me entran las versiones de 3
[/img]
elamos escribió:Antoniopua escribió:verdezito escribió:Hago uan consulta que ya hice en reddit y al final se acabó hablando de todo menos de lo que pregunté en un principio....
Cómo veis la compra de una 3080 para jugar a 1080p, 144hz y todos los efectos posibles al máximo? Ray tracing y todas las tonterías posibles siempre a tope.
Sé que para la gente como yo se suele recomendar la 3070 (que además en principio también consume menos todo cuenta), pero no veo claro mi "necesidad" específica: tener una tarjeta que me permita durante algunos años jugar a 1080p "a lo salvaje".
Tengo ahora mismo una 1060 y ya voy notando algún que otro tirón en juegos nuevos, de ahí mi duda (que sí, se que la 3070 de primeras va a arrasar con todo, pero dentro de un añito o dos miedo me da)
PD: no preveo hacer el salto a las 4k jamás, soy la persona más feliz del mundo en mis 1080p. De vez en cuando hasta juego en una tele 4k buena y no hay problema. Sólo quiero unos 1080p con todas las tontadas del mundo activas.
Yo pensaba igual hasta que probé un monitor 4K 120hz... es algo indescriptible
¿Tamaño y distancia de visionado del monitor 4k? Porque es muy probable que eso indescriptible se llame placebo.
Te lo dice un tio que tiene un proyector 4k real y que proyecta a 3 metros de una pantalla de 100" cuando te pasas del limite de 4 metros por mucho que sea 4k lo ves igual que a 1080p.
Cuanto mas pequeña es una pantalla mas cerca te tienes que poner, asi que si hablamos de un monitor de por ejemplo 30" 4k y te pones a mas de 60 cm de visionado no estas viendo mas definición que 1080p
30" a 60 centimetros a mi me cuesta, juego a 90 cm aprox con una de 30" 1440p y en según que juegos me tengo que alejar unos centimetros mas para tener campo de vision completo sin tener que estar girando la cabeza a las 2x3... Sobretodo en juegos donde es vital mirar a cada rato tu barra de salud y magias, por ejemplo el dragon age inquisition.
Daicon escribió:wildchild_bcn escribió:bueno tras leer varias reviews definitivamente son humo y rinden muchisimo menos de lo prometido, casi menos que una 2080, que nadie se las compre por favor, a darle a nvidia donde mas le duele: en la cartera
que nadie se conecte mañana a las 15 a la pagina de nvidia a comprar las founders que son un horno, y que nadie compre las custom en ninguna tienda... hay que esperar a que bajen los precios o que saquen dentro de 2 semanas las super/ti
es que donde vas con 10 gigas de ram? ja, vaya tela...encima algunos juegos solo saca 20 fps a una 2080Ti con OC... donde vamos a parar
ojo, por debajo de la 1070 la he visto yo en algunas review.
inaceptable.
ionesteraX escribió:Bueno, vistos varios reviews pues se confirman las filtraciones y lo que comentabamos hace tiempo cuando salieron, alrededor de 30% sobre la Ti y un 60% sobre la 2080, todo esto hablando en terminos generales y a 4K, la diferencia baja conforme bajas resolución.
Entrando más en detalle e insisto todo hablando de 4K que es para lo que yo veo esta gráfica, lo primero como apunte y aunque ya lo sabiamos pci x 3 vs 4 da resultados similares:
En cuanto a rendimiento, yo el salto lo veo de pascal a ampere, es decir que todo los que tengan una 1080 o menos deben plantearse la compra si o si, estamos hablando de triplicar en muchos casos el rendimiento e incluso añadir cosas que las pascal no tienen como puede ser el raytracing o el dlss:
Entonces merece la pena el salto para la serie 20? Pues salvo que tengas una 2060 o seas un ansias... objetivamente no, yo soy un ansias y por eso la pillare xD
El debate con la serie 20 debe estar con la 2080:
Es decir, con la 2060 no hay debate ya que es un aumento muy grande y con la 2080Ti para mi no hay debate ya que es un aumento muy pequeño, merece la pena ese aumento con la 2080? pues igual sí, pero lo que veo es falta de software, es decir a que vas a jugar con ese 60% de más de potencia que salga ahora y no te valga la 2080? Solo me viene a la mente Cyberpunk, o aprovechar el fs2020 que es el unico juego que se atraganta a estas graficas.
Otro factor de compra es que esta serie 30 ya trae hdmi 2.1 y la gente podra usar sus oleds al 100% cosa que he estado haciendo yo con adaptadores y ahora podre hacerlo sin ellos.
Lo unico negativo que veo, el consumo y las temperaturas, a mi personalmente me parece que consumen una burrada, pero una burrada de verdad, se les fue la mano y mucho, ahora entiendo los 3x8pin de algunas custom, es una jodida locura xD
sefirot996 escribió:ionesteraX escribió:Bueno, vistos varios reviews pues se confirman las filtraciones y lo que comentabamos hace tiempo cuando salieron, alrededor de 30% sobre la Ti y un 60% sobre la 2080, todo esto hablando en terminos generales y a 4K, la diferencia baja conforme bajas resolución.
Entrando más en detalle e insisto todo hablando de 4K que es para lo que yo veo esta gráfica, lo primero como apunte y aunque ya lo sabiamos pci x 3 vs 4 da resultados similares:
En cuanto a rendimiento, yo el salto lo veo de pascal a ampere, es decir que todo los que tengan una 1080 o menos deben plantearse la compra si o si, estamos hablando de triplicar en muchos casos el rendimiento e incluso añadir cosas que las pascal no tienen como puede ser el raytracing o el dlss:
Entonces merece la pena el salto para la serie 20? Pues salvo que tengas una 2060 o seas un ansias... objetivamente no, yo soy un ansias y por eso la pillare xD
El debate con la serie 20 debe estar con la 2080:
Es decir, con la 2060 no hay debate ya que es un aumento muy grande y con la 2080Ti para mi no hay debate ya que es un aumento muy pequeño, merece la pena ese aumento con la 2080? pues igual sí, pero lo que veo es falta de software, es decir a que vas a jugar con ese 60% de más de potencia que salga ahora y no te valga la 2080? Solo me viene a la mente Cyberpunk, o aprovechar el fs2020 que es el unico juego que se atraganta a estas graficas.
Otro factor de compra es que esta serie 30 ya trae hdmi 2.1 y la gente podra usar sus oleds al 100% cosa que he estado haciendo yo con adaptadores y ahora podre hacerlo sin ellos.
Lo unico negativo que veo, el consumo y las temperaturas, a mi personalmente me parece que consumen una burrada, pero una burrada de verdad, se les fue la mano y mucho, ahora entiendo los 3x8pin de algunas custom, es una jodida locura xD
A que te refieres con aprovechar al 100% una oled por el 2.1 ?? Yo tengo un Tv 4k con hdr10 , e intuyo que lo dirás por el tema HDR ?? Ya que es cuando yo lo activo no noto apenas nada y supongo será por qué la gráfica es conector 2.0 ..
Si puedes explicar mejor que me interesa el tema
Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.
battman80 escribió:Daicon escribió:wildchild_bcn escribió:bueno tras leer varias reviews definitivamente son humo y rinden muchisimo menos de lo prometido, casi menos que una 2080, que nadie se las compre por favor, a darle a nvidia donde mas le duele: en la cartera
que nadie se conecte mañana a las 15 a la pagina de nvidia a comprar las founders que son un horno, y que nadie compre las custom en ninguna tienda... hay que esperar a que bajen los precios o que saquen dentro de 2 semanas las super/ti
es que donde vas con 10 gigas de ram? ja, vaya tela...encima algunos juegos solo saca 20 fps a una 2080Ti con OC... donde vamos a parar
ojo, por debajo de la 1070 la he visto yo en algunas review.
inaceptable.
Y en Fitoleaksultra, expertos en reviews imparciales, ya han soltado el rumor filtración de que la PS5 lleva dos 3080 dentro, en sli exclusivo, y como la refrigeran con un derivado de ziritione liquido por gas pericomprimido, a penas pasa de los 31 grados. Estas gpus que saca Nvidia son una tomadura de pelo total
Y ya hablando de otras cosas, empiezo a notar en general en el hilo una GRAN CONFUSIÓN, respecto de qué significa UN 50% MÁS DE RENDIMIENTO, que muchos caen en esa trampa mental de pensar "la mitad es el doble", y no . Lección de matemáticas:
Si 60 frames es el 100% de lo que consigue X gpu en un juego, el 50% son 30 frames. Si una GPU rinde un 50%+ respecto de la gpu que llega a 60 máximo, rinde 90, no 120. Me parecia que era ya muy importante recalcarlo, porque es una trampa que se usa mucho, y por eso hay gente que tiene esperanzas en que AMD que promete un 50% mas por W (todavía mas enrevesado...) que las actuales gpus suyas, saque algo descomunal (cuando vamos listos si iguala a una 2080Ti y habrá que ver consumo y temperaturas, porque AMD suele ir por el camino de lo bruto), o que cogen datos de este tipo soltados inteligentemente por la maquinaria de marketing de las consolas y automaticamente deducen que los juegos van a ser 10 veces mas que los actuales, 10 veces mas resolucion, mas frames, mas mapa, mas objetos, etc etc...No señores no, ojito que luego vienen las madresmias.
Respecto a toda la gente lamentandose de que ya no va a comprar una Founders, chincha rabiña! ,...¿De verdad? Pero si teneis las mismas posibilidades de pillar una que de que os caiga la primitiva mañana que es jueves... O casi... Ni queriendola la habriais pillado seguramente. Las custom, veremos para cuando, porque yo empiezo a tener la teoria que primero van a vaciar stock inicial de las mas fuleras (baratas) y despues empezar a distribuir las mejor rematadas (mas caras), porque asi se aseguran que con estos datos de temps y tal, el miedo a la eficacia de las primeras respecto de las segundas, por la diferencia de precio que hay, las eclipse.
Por lo demas, nada nuevo bajo el sol. Salen los benchs, la 3080 no saca 500 frames en el RDR2 a tope, y el hilo se llena de gente rasgandose las vestiduras por lo decepcionados que estan, etc... Y yo me juego la merienda que hacemos estudio de los perfiles a ver donde acumulan mas mensajes esas personas y las encontramos a la mayoría en los 2 - 3 hilos que yo os diga...Y no son este...
Y ya serios, lo dije ayer me parece, que con la diferencia que se presumia iba a haber en frames, se podía aguantar perfectamente con una Ti o una 80Super, incluso una 70S, un año o dos si hace falta, hasta las revisiones de estas gpus, que todos sabemos que van a exsitir (ya veremos si mas o menos caras, porque eso depende de si conviven o si sustituyen), o al menos, el tiempo necesario para que se vea bien bien de que pie cojean las 3000, que ensamblador y modelos interesan mas, que se necesita para que rindan optimamente, etc...
No veo justificada la prisa por cambiar ya, o vender una 80Ti por 350-400 para coger una 3080S, de momento. Y lo que está claro es que es con el RTX ON donde estas tarjetas muestran su superioridad...La cosa es ver hasta donde se logra implementar el RTX REAL "de Nvidia", y no la chufla bananera que saque AMD, que la ultima vez que insinuó que algo era similar, era el fidelity FX ese, que siempre habia estado escondido en el panel de control, y vendió para los despistados como algo nuevo, y que no es mas que renderizar por debajo de la resolución objetivo, reescalar la imagen mediante la GPU sin más al estilo tradicional, y aplicarle un filtro de nitidez, tal cual se hace desde el panel de Nvidia...Me sorprendería gratamente si consiguen algo mucho mejor que eso, y no espero PARA NADA, algo que llegue ni remotamente cerca de los resultados del DLSS, por desgracia...
PD: y para algunos que estan comentando que pillar una 2080Ti ahora de segunda manos por 400 es una estupidez, que la 3070 nueva vale 500, etc... A ver, que hay gente vendiendo 80Tis con 6 meses y menos, a las que les queda año y medio de garantia, por 400 pavos...Y en las tiendas, nuevas, a dia de hoy, siguen a sus precios habituales...Y tienes una GPU que tiene un recorrido que ofrece garantias de sobra sobre qué vas a encontrar y hasta donde puedes estirar... Vamos, que en el peor de los casos se te rompe dentro de un año, sin stock para reponertela, y te endosan una 3080, o una 3070 tranquilamente, que eso ya a pasado...Asi que no se yo donde está el mal negocio tan claro. Otra cosa es comprar una Ti sin garantía, con dos años de uso, por 400, cuando por lo mismo las tienes "seminuevas" .
Y por dios, dejemos de usar de ejemplo juegos que aqui al menos, todos deberiamos saber que estan "rotos", en settings que simplemente ya no van a reparar salvo futuras revisiones y que es necesario apagar si o si o reducir al maximo (caso "apartado bloqueado" de RED2) o que directamente están a medio terminar, han querido plasmar un realismo visual a base de tecnicas donde "poco" puede hacer el poder o no poder de una GPU, para ganar publicidad, y si eso, algun dia corregiran "a ordago", o simplemente se quedarán así hasta que a base de simpe fuerza bruta mejore su rendimiento dentro de 10 años, quien sabe, y hablo por supuesto del FS2020.
shoty escribió:No se vosotros pero yo veo clarísimo que si la ganancia es peor en 1440 que en 4K es debido a cuello de botella del resto del equipo. Las gráficas acaban de adelantar por la derecha a los procesadores
La prueba está en que en programas de edición la 3080 SI es el doble de rápida que la 2080...
ionesteraX escribió:@sefirot996 Las teles nuevas, bueno y no tan nuevas que la mia tendra más de un año xD, llevan ya el hdmi 2.1 mientras que las graficas hasta la serie 20 no tenian salida para hdmi 2.1, esto limitaba el ancho de banda que tenian a 18 gbps por lo que no podias por ejemplo jugar a 4K@120hz.
Esta limitación solo la podias saltar usando un adaptador a displayport para conseguir 32 gbps, ahora con la serie 30 ya traen de base hdmi 2.1 y puedes tener un ancho de banda de 48 gbps.
Resultado, porder jugar a 4K@120hz@444/RGB@10bits para conseguir HDR a esa resolución y tasa de fps, cosa que admiten los oled de lg desde la serie 9 y no podíamos tener por hdmi hasta ahora.
Strait escribió:shoty escribió:No se vosotros pero yo veo clarísimo que si la ganancia es peor en 1440 que en 4K es debido a cuello de botella del resto del equipo. Las gráficas acaban de adelantar por la derecha a los procesadores
La prueba está en que en programas de edición la 3080 SI es el doble de rápida que la 2080...
Y ese cuello de botella va a ser aun mayor en AMD que en intel. Y hasta ahora casi todas las reviews las he visto con un 10700k o 10900k
alvaro200 escribió:Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.
Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.
Ruben1001 escribió:alvaro200 escribió:Ruben1001 escribió:El consumo de VRAM del RDR2 que me dice el juego que necesita en 4k al maximo en las opciones graficas. No llega a 6GB, asi que lo que dice en el video no tiene sentido.
Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.
Es cierto tenia algún parámetro de los avanzados que no se había puesto al máximo, con todo al máximo llega a 6,5 GB de Vram. Pero lo tengo con el TAA de antiliasing, si le pongo el MSAA x 8 sube a 11 GB de Vram, pero vamos que para 4k no necesitas tanto antiliasing.
The-Best escribió:Para el flight simulator hay que esperarse a la serie 8000 por lo menos
alvaro200 escribió:Ruben1001 escribió:alvaro200 escribió:
Eso es el preset de Ultra que creo que no te pone todo al maximo, mira las opciones una a una a ver si hay algunas que puedes subir mas aun, prueba a ver cuanto te pide de VRAM subiéndolo todo a mano y nos comentas.
Es cierto tenia algún parámetro de los avanzados que no se había puesto al máximo, con todo al máximo llega a 6,5 GB de Vram. Pero lo tengo con el TAA de antiliasing, si le pongo el MSAA x 8 sube a 11 GB de Vram, pero vamos que para 4k no necesitas tanto antiliasing.
Vamos que no llega a los 11gb ni de coña, todo bien entonces.
axis100 escribió:ionesteraX escribió:@sefirot996 Las teles nuevas, bueno y no tan nuevas que la mia tendra más de un año xD, llevan ya el hdmi 2.1 mientras que las graficas hasta la serie 20 no tenian salida para hdmi 2.1, esto limitaba el ancho de banda que tenian a 18 gbps por lo que no podias por ejemplo jugar a 4K@120hz.
Esta limitación solo la podias saltar usando un adaptador a displayport para conseguir 32 gbps, ahora con la serie 30 ya traen de base hdmi 2.1 y puedes tener un ancho de banda de 48 gbps.
Resultado, porder jugar a 4K@120hz@444/RGB@10bits para conseguir HDR a esa resolución y tasa de fps, cosa que admiten los oled de lg desde la serie 9 y no podíamos tener por hdmi hasta ahora.
Tienes o has mirado ya cables hdmi 2.1? Es que veo muchos en Amazon, pero al no estar certificados, no sé cuál pillar. Alguna recomendación?
Es para jugar en una C9.