[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

BloodBlack está baneado por "clon de usuario baneado"
La densidad de pixel es lo que marca la definición en una pantalla , por mucho supersampling que hagas.

Ahora bien los monitores de 1080p generalmente son de 24 y 27 inch, por cual la densidad de pixel quedaría asi.:

24 = 91ppp
27 = 81 PPP

Los monitores se usan cerca por cual una densidad muy baja cantaría, según opiniones 27 para 1080p sigue siendo aceptable. Si ya es un TV de 34 de 1080p usado distancia de monitor eso sí sería horrible un festín pixelotes, serian unos 64ppp.
La cosa es que nunca me ha dado por buscar monitores oled fullhd o 1440p. Es que ni sé si habrá, supongo que 1440p alguno. Quizás le tire el día que muera el de ahora, después del funeral y eso...

Cuanto más tiempo pase, más barato será, de eso sí que estoy mucho más seguro.

Joder, le tengo unas ganas de coger todos esos parches para todos esos juegos que van a salir dentro de nada. Mi gráfica va a sufrir, ahora que la veo reirse desde dentro de la torre, creo que no sabe lo que le viene... Espero verle a Geralt de Rivia el pelo pantene hasta los de dentro de la nariz y las orejas.
A ver no sé como decir esto sin que suene borde o prepotente, pero vamos que la distancia entre pixeles (pixel pitch) es mejor en monitores 4k que en TV.

https://www.displayspecifications.com/en/model/74692f3d

https://www.displayspecifications.com/en/model/82bf263d
leonigsxr1000 escribió:@pakolo1977

Perdón compañero, tu eres el que tienes una 4090 con un monitor 1080p??

Por mucho que pongas el DRS la densidad de pixeles de tu monitor es la que es , no vas a ganar nada , 1080p es 1080p
Con una 3080 hubiera tenido de sobra :)

Pero por lógica la 3080 se le quedará atrás antes que la 4090.
Nunca he entendido estos comentarios. Vale que actualmente, con una 3080 va que chuta para esa resolución. Pero con una 4090 puede estirar más el chicle. Independientemente de la resolución a la que juegue.
Por pura lógica, la 3080 quedará obsoleta antes que la 4090.
@pakolo1977
Gerald no es muy peludo, al menos no el del juego. Quizás puedas apreciar el fondo de fibrina y queloides de sus muchas cicatrices, y disfrutar de la tersa piel de sus muchas amiguitas.

Eso sí que me gusta mirarlo y no el raytracing.

Por cierto yo estoy convencido de que con mi 2080ti en dos años podré ver mejores gráficos (si aún la tengo) que alguien con una 4090 a día de hoy.

El mayor avance gráfico que existe es el de los nuevos juegos salen, más que ninguna tecnología de hard.

El techo gráfico de la pasada gen pudo ser en muchos aspectos la vaquerada esa y fue en una triste videoconsola. Luego la gozamos poniéndole maquillajes y cosas en nuestros cohetes pero el impacto ya estaba allí.

Un juego que me impresión mucho en su dia fue el Starfox, creo que el primer juego de naves en 3d que recuerdo. Me preguntó si le podrían meter filtros y cosas hasta que una 4090 no pueda moverlo a 180k con RT. Seguro que si.
Bueno, PC que ya se viene para casa

Corsair 7000D airflow
Asus Rog Strix Z790-F Gaming Wifi
2x32 DDR5 5600
i9 13900KF
Artic Liquid Freezer II
Corsair HX 1000i 1000W
Nvidia 4090 FE
Samsung PRO 980 2TB NVME

A ver qué tal va el bicho
BloodBlack está baneado por "clon de usuario baneado"
BennBeckman escribió:
leonigsxr1000 escribió:@pakolo1977

Perdón compañero, tu eres el que tienes una 4090 con un monitor 1080p??

Por mucho que pongas el DRS la densidad de pixeles de tu monitor es la que es , no vas a ganar nada , 1080p es 1080p
Con una 3080 hubiera tenido de sobra :)

Pero por lógica la 3080 se le quedará atrás antes que la 4090.
Nunca he entendido estos comentarios. Vale que actualmente, con una 3080 va que chuta para esa resolución. Pero con una 4090 puede estirar más el chicle. Independientemente de la resolución a la que juegue.
Por pura lógica, la 3080 quedará obsoleta antes que la 4090.


El primer problema de ese planteamiento es que 1080p tendrán cuello con cualquier CPU, por cual va hacer la CPU quien marque los FPS y la GPU estará desperdiciada por varios años.

La Obsolescencia tecnología te pasará factura sin mantienes un componentes por mucho años y más tratándose tecnología prematura como el hardware RT. Con esto me refiero que por ejemplo de aquí algunos 5 años el hardware RT de las RTX6000 sera mucho potente incluso en las gamas medias, por cual se puede dar el caso que ni siquiera 1080p puedas manejarlo con una RTX 4000, solo tienes que ver las RTX 2080ti donde estan incluso 1080p en temas RT, una GPU pensando para 4k.

Así que comprar algo demasiado sobrado para muchos años tampoco suele ser factible, debe haber un equilibrio, o incluso ir cambiando más seguido con GPU más baratas como las gama media o media-altas.
Fox escribió:Bueno, PC que ya se viene para casa

Corsair 7000D airflow
Asus Rog Strix Z790-F Gaming Wifi
2x32 DDR5 5600
i9 13900KF
Artic Liquid Freezer II
Corsair HX 1000i 1000W
Nvidia 4090 FE
Samsung PRO 980 2TB NVME

A ver qué tal va el bicho

Buenos dineros te has dejado. A disfrutarlo [beer]
Fox escribió:Bueno, PC que ya se viene para casa

Corsair 7000D airflow
Asus Rog Strix Z790-F Gaming Wifi
2x32 DDR5 5600
i9 13900KF
Artic Liquid Freezer II
Corsair HX 1000i 1000W
Nvidia 4090 FE
Samsung PRO 980 2TB NVME

A ver qué tal va el bicho

Métele refrigeración líquida a todo, con su buena bomba. [amor]
leonigsxr1000 escribió:El tema de los dientes de sierra si , la verdad que si los disimulas.....
No sé yo empecé a jugar a 4K en 2014 con la primera tv 4k de Sony y una 780ti jehe , y hasta ahora yo no me bajo del 4K jeje
Tampoco he jugado nunca en un buen monitor 1080p así que no sé si me gustaría.

Aunque con la 2080ti tuve a jugar mucho a 1440p para tener buen framerate y la verdad que muy buena resolución :)

No te planteas Paco una OLED de 42" , yo estuve probándolá (me la envió Sony para mi canal) y se veía de escándalo, aunque mejor una LG por el inputlag y compatibilidades

Sea como fuere que disfrute usted del 1080p señor mío:)

Yo desde que probe la el oled y 4k no vuelvo. Para singleplayer en su maximo esplendor siempre tiro de la Xiaomi OLED, para multi el monitor a 2k IPS.

BennBeckman escribió:
Fox escribió:Bueno, PC que ya se viene para casa

Corsair 7000D airflow
Asus Rog Strix Z790-F Gaming Wifi
2x32 DDR5 5600
i9 13900KF
Artic Liquid Freezer II
Corsair HX 1000i 1000W
Nvidia 4090 FE
Samsung PRO 980 2TB NVME

A ver qué tal va el bicho

Métele refrigeración líquida a todo, con su buena bomba. [amor]


Bueno, esa Arctic en AIO es lo mejor que te puedes echar y encima suele tener un precio de escándalo.
jiujinkai escribió:
Bueno, esa Arctic en AIO es lo mejor que te puedes echar y encima suele tener un precio de escándalo.

No te digo que no, pero yo le metía refrigeración líquida hasta a la gráfica con su bomba. Puestos a gastar pasta... [buenazo]
BennBeckman escribió:
jiujinkai escribió:
Bueno, esa Arctic en AIO es lo mejor que te puedes echar y encima suele tener un precio de escándalo.

No te digo que no, pero yo le metía refrigeración líquida hasta a la gráfica con su bomba. Puestos a gastar pasta... [buenazo]


Vamos a probar qué tal así. Lo bueno del PC es que no tiene que quedarse fijo así :)
Fox escribió:
BennBeckman escribió:
jiujinkai escribió:
Bueno, esa Arctic en AIO es lo mejor que te puedes echar y encima suele tener un precio de escándalo.

No te digo que no, pero yo le metía refrigeración líquida hasta a la gráfica con su bomba. Puestos a gastar pasta... [buenazo]


Vamos a probar qué tal así. Lo bueno del PC es que no tiene que quedarse fijo así :)

Yo estoy enamorado de la refrigeración líquida... Pero a parte de costar un riñón, ya tienes que ponerte a cortar los tubos a medida y demás. Pero una vez montada, queda preciosa.
Menudo pepino te has montado, compi [amor]
Yo tengo esa AIO en un 5800x y es bastante buena, yo tengo la de 240, no sé si habra cogido la de 360 o 280.
BennBeckman escribió:Yo estoy enamorado de la refrigeración líquida... Pero a parte de costar un riñón, ya tienes que ponerte a cortar los tubos a medida y demás. Pero una vez montada, queda preciosa.
Menudo pepino te has montado, compi [amor]

Como sea de tubos rígidos sí. Es la leche de tiempo. Yo espero que el artic pueda con el i9.

Uhm, algo que no he pensado es si el artic viene con pasta térmica o no. Espero que si, si no, pediré.

He cogido la de 360 @elcapoprods
Fox escribió:
BennBeckman escribió:Yo estoy enamorado de la refrigeración líquida... Pero a parte de costar un riñón, ya tienes que ponerte a cortar los tubos a medida y demás. Pero una vez montada, queda preciosa.
Menudo pepino te has montado, compi [amor]

Como sea de tubos rígidos sí. Es la leche de tiempo. Yo espero que el artic pueda con el i9.

Uhm, algo que no he pensado es si el artic viene con pasta térmica o no. Espero que si, si no, pediré.

He cogido la de 360 @elcapoprods

Sí, incluye una jeringa con pasta térmica.
Lo que he visto y no sabía que el artic tiene version 420 y no sé si cambiarlo todavía que estoy a tiempo.

EDITO: Lo cambié por el 420. La caja tiene sitio de sobrisima.
Alguien con una 4080 y el Geekbench 5 para comparar mis resultados?
veo diferencia entre BIOS "Gaming" y "Silent" más que nada en el resultado de Vulkan, para los otros dos parece que no vale la pena poner los ventiladores a girar.

RTX 4080 MSI Suprim-X stock clocks, Ryzen 7 5800X3D, DDR4-3800, W11-22H2

BIOS modo "Gaming"
OpenCL 278.327 https://browser.geekbench.com/v5/compute/6029979
Vulkan 233.321 https://browser.geekbench.com/v5/compute/6029990
CUDA 313.836 https://browser.geekbench.com/v5/compute/6029965

BIOS modo "Silencio"
OpenCL 273.959 https://browser.geekbench.com/v5/compute/6029552
Vulkan 212.679 https://browser.geekbench.com/v5/compute/6029631
CUDA 310.729 https://browser.geekbench.com/v5/compute/6029796
@Lince_SPAIN La mia da peores resultados, diria que la tengo con la bios Gaming aunque veo que las frecuencias estan más bajas que las tuyas, los ventiladores se encienden pocas veces jugando ya que suele estar por debajo de 60ª jugando que es cuando se encienden.

Eso si viendo las grandes diferencias que me saca en las tres pruebas seguidas que he hecho no se si servirá de algo probarla con la otra bios... a ti te salen resultados similares siempre?

Gigabyte AERO 4080 Stock, i9 9900k 5Ghz DDR4 3200
1
OpenCl 233.281 https://browser.geekbench.com/v5/compute/6030415
Vulkan 121.911 https://browser.geekbench.com/v5/compute/6030421
CUDA 263.914 https://browser.geekbench.com/v5/compute/6030417

2
OpenCl 240.452 https://browser.geekbench.com/v5/compute/6030449
Vulkan 204.523 https://browser.geekbench.com/v5/compute/6030453
CUDA 292.835 https://browser.geekbench.com/v5/compute/6030452

3
OpenCL 266.182 https://browser.geekbench.com/v5/compute/6030457
Vulkan 198.568 https://browser.geekbench.com/v5/compute/6030461
CUDA 284.253 https://browser.geekbench.com/v5/compute/6030458
@ak4ever Lo que creo que ocurre es que el 5800X3D ayuda bastante en este tipo de pruebas y lleva casi al límite la GPU, eso sí lo de "bastante" hay que ponerlo así entre comillas pues tampoco es una diferencia escandalosa, también podría ser la RAM pues parece que estos benchmarks le dan prioridad al ancho de banda y no tanto a las latencias. Mirando un poco los resultados en la base de datos de la app se ven algunos ilógicos tanto por lo alto como por lo bajo, el típico que está limitado por un PCIe x4 en lugar de x16 y alguno que le habrá hecho el overclock del siglo, por eso quería preguntar aquí mejor. El test lo pasé el primer día y ahora con los últimos drivers es cuando lo he pasado ya un par de veces con la doble BIOS y he enlazado a mi perfil con los resultados.

En cuanto a las frecuencias pues con el GPU-Z veo que mi MSI más o menos se comporta como la mayoría de 4080's, 2835-2850 en modo "silent" y 2900-2925 en "gaming" pero nunca pasando de 55º en ninguna de las dos BIOS, curioso.
Fox escribió:
BennBeckman escribió:Yo estoy enamorado de la refrigeración líquida... Pero a parte de costar un riñón, ya tienes que ponerte a cortar los tubos a medida y demás. Pero una vez montada, queda preciosa.
Menudo pepino te has montado, compi [amor]

Como sea de tubos rígidos sí. Es la leche de tiempo. Yo espero que el artic pueda con el i9.

Uhm, algo que no he pensado es si el artic viene con pasta térmica o no. Espero que si, si no, pediré.

He cogido la de 360 @elcapoprods

Viene con la pasta mx5 o mx6
Tampoco vas a notar mucha diferencia entre la 240,360,420, rinden muy igual.

La líquida custom es un coñazo andar rellenando y desmontando algo, eso es lo malo que le veo yo.
@Fox Muy buena máquina del todo, vas a tener pepino para mucho tiempo. Ni sabía yo que había aios de 42 centímetros, me pasa por no interesarme en lo que no voy a montar en mi torre. Disfrútala mucho y muy fuerte.

Lo que ha dicho @Lince_SPAIN estaba yo pensándolo ayer por la noche, que la cpu influiría también algo en esos benchmarks aunque ahí estoy viendo un 5% de diferencia y estoy seguro de que la diferencia en la capacidad de los dos procesadores por si mismos será superior a eso ganando el más nuevo para variar. O sea, que si las cpus influyen en esos test sintéticos no es que lo hagan por mucho.

Y bueno, pues hoy saldrá el portal rtx, parche que no podré yo catar hasta la noche porque hoy tenemos el mediodía y la tarde llena de compromisos. Este mes de Diciembre se me está atragantando con tanta comida y tanta reunión, parece que ahora hay que hacer concentrado lo que no se ha hecho en los dos años pasados. Y yo que cada día que pasa me aumenta la misantropía...

Si el parche del witcher 3 sale el día 13 pues idem de lo mismo, esta vez se interpone la fiesta de navidad del colegio de la niña. Los pelos pantene del sobaco del carnicero de Blaviken tendré que verlos ya entrada la noche.

Jodido y sensual mes de Diciembre.
https://youtu.be/98ZmMuOTeqQ

https://youtu.be/ySrnQ8ei7hg

No se si serán reales pero vamos en los 700 parece que se nota más la diferencia.
jiujinkai escribió:https://youtu.be/98ZmMuOTeqQ

https://youtu.be/ySrnQ8ei7hg

No se si serán reales pero vamos en los 700 parece que se nota más la diferencia.


La verdad que, entre el 12900k y el 13900k siempre veo test muy dispares... Yo entiendo que si hay alguna diferencia en juegos entre uno y otro, será a resoluciones 1080p. Me tienta pasar de uno a otro, quizás lo haga en un futuro, pero es que ahora mismo con la 4090 va todo sobrado en 4K
KKnot escribió:
jiujinkai escribió:https://youtu.be/98ZmMuOTeqQ

https://youtu.be/ySrnQ8ei7hg

No se si serán reales pero vamos en los 700 parece que se nota más la diferencia.


La verdad que, entre el 12900k y el 13900k siempre veo test muy dispares... Yo entiendo que si hay alguna diferencia en juegos entre uno y otro, será a resoluciones 1080p. Me tienta pasar de uno a otro, quizás lo haga en un futuro, pero es que ahora mismo con la 4090 va todo sobrado en 4K

De todas formas yo estos test los cojo con pinzas, cualquiera se puede inventar una milonga con tal de arañar unas visitas.
@BloodBlack gracias por la info del RT, no discuto que RT en un futuro será algo casi obligatorio, pero el caso es que en los juegos que lo usan se nota de forma exagerada esa bajada de rendimiento.

Desconocía lo de los rebotes infinitos simulados, no es que me interese toda esa teoría (mucha parte física/matemática supongo) mareante si entramos a detalle, lo que mas me importa es a nivel práctico y lo que acabo viendo en los muchos benchmark y comparativas que se hacen es que el RT actualmente es un comefps brutal con el que se gana a nivel visual, bajo mi punto de vista, algo no comparable con la gran pérdida de fps. Si incluso monstruos como la 4090 no puede mover sobradamente Cyberpunk 4k nativo con RT (y eso que no es RT full/real o como se llame) me sigue demostrando que el RT actualmente no es del todo viable.

Ojalá en un futuro a corto plazo la cosa mejore mucho, pero personalmente no tengo muchas esperanzas. Depende del juego ya miraría las típicas comparativas de RT on/off y sus diferentes niveles de calidad y dependiendo de los fps que se pierda y la diferencia visual que me aporte supongo que elegiré uno u otro modo.


Kavezacomeback escribió:A ver no sé como decir esto sin que suene borde o prepotente, pero vamos que la distancia entre pixeles (pixel pitch) es mejor en monitores 4k que en TV.

https://www.displayspecifications.com/en/model/74692f3d

https://www.displayspecifications.com/en/model/82bf263d

Monitores vs TV? Creo que bloodback ya lo explicó bien.

Lo que importa es la relación de píxeles y tamaño de pantalla, independientemente que sea un monitor o TV. Sea monitor o TV, habrá mas PPI en una pantalla de 30" que en una de 60". Y en el punto en el que ahora hay tanto monitores como TVs de unas 40" cada vez le veo menos sentido diferenciar entre monitor y TV.

Si quieres decir que por la propia tecnología el hecho que sea monitor o TV marca una diferencia a favor para el monitor dime exactamente cuál es esa diferencia porque para mi monitor o TV es prácticamente lo mismo, solo que el monitor está pensado para el PC de escritorio (tendrá display port, tamaños no muy grandes) mientras una TV está pensado mas para el salón o similar (creo que no suele tener display port, tamaño mas grande).

Pero vamos, una TV la puedes usar perfectamente en un PC sin mayor problema, pudiendo tener 4k/144hz HDR, VRR y todas las tecnologías que quieras.


PD: Perdonad @parh @chrispro , me refería a 4k nativo, ahora lo he especificado. No sé qué se entiende cuando solo se dice 4k, para mi es nativo a menos que se especifique el DLSS/FSR, pero ya veo que mejor aclararlo.
Ya por curiosidad he estado buscando un monitor 1440p oled de 27 pulgadas, también si hubiera alguno 1080p así y no he encontrando ninguno.

Hay uno de LG que tiene que verse divinamente, la cosa es que ha salido ahora mismo y de hecho hasta he llegado a leer que no se podrá comprar en según que sitios hasta el año que viene en el primer trimestre. El precio es más de 1000 euros cuando se pueda comprar.

Si le tuviera algo de ilusión a eso me tocaría esperar, supongo que a partir de ahora estaré más pendiente de los oled 2k de 27 pulgadas que vayan saliendo. De aquí a un par de años aparte de haber más modelos así deberían estar algo más baratos también, aunque los precios de todo sigan yendo hacia arriba.

Pillar un 4k para mi no es opción, eso me rompería el plan completamente, con un 2k puedo elegir entre 3 resoluciones diferentes (1440p, 1620p y 2160p). Ahora mismo a eso le añado el 1080p también. Como antes expliqué, si algún juego se me atraganta a 4k o 3k, seguro que no lo haría a 2k o fullhd. Si me voy a la resolución más alta aunque después podría bajar a una inferior nunca jamás me ha gustado como se ve la imagen cuando hago eso, no creo que eso vaya a cambiar con un monitor 4k.
Rvilla87 escribió:@BloodBlack gracias por la info del RT, no discuto que RT en un futuro será algo casi obligatorio, pero el caso es que en los juegos que lo usan se nota de forma exagerada esa bajada de rendimiento.

Desconocía lo de los rebotes infinitos simulados, no es que me interese toda esa teoría (mucha parte física/matemática supongo) mareante si entramos a detalle, lo que mas me importa es a nivel práctico y lo que acabo viendo en los muchos benchmark y comparativas que se hacen es que el RT actualmente es un comefps brutal con el que se gana a nivel visual, bajo mi punto de vista, algo no comparable con la gran pérdida de fps. Si incluso monstruos como la 4090 no puede mover sobradamente Cyberpunk 4k con RT (y eso que no es RT full/real o como se llame) me sigue demostrando que el RT actualmente no es del todo viable.

Ojalá en un futuro a corto plazo la cosa mejore mucho, pero personalmente no tengo muchas esperanzas. Depende del juego ya miraría las típicas comparativas de RT on/off y sus diferentes niveles de calidad y dependiendo de los fps que se pierda y la diferencia visual que me aporte supongo que elegiré uno u otro modo.


Kavezacomeback escribió:A ver no sé como decir esto sin que suene borde o prepotente, pero vamos que la distancia entre pixeles (pixel pitch) es mejor en monitores 4k que en TV.

https://www.displayspecifications.com/en/model/74692f3d

https://www.displayspecifications.com/en/model/82bf263d

Monitores vs TV? Creo que bloodback ya lo explicó bien.

Lo que importa es la relación de píxeles y tamaño de pantalla, independientemente que sea un monitor o TV. Sea monitor o TV, habrá mas PPI en una pantalla de 30" que en una de 60". Y en el punto en el que ahora hay tanto monitores como TVs de unas 40" cada vez le veo menos sentido diferenciar entre monitor y TV.

Si quieres decir que por la propia tecnología el hecho que sea monitor o TV marca una diferencia a favor para el monitor dime exactamente cuál es esa diferencia porque para mi monitor o TV es prácticamente lo mismo, solo que el monitor está pensado para el PC de escritorio (tendrá display port, tamaños no muy grandes) mientras una TV está pensado mas para el salón o similar (creo que no suele tener display port, tamaño mas grande).

Pero vamos, una TV la puedes usar perfectamente en un PC sin mayor problema, pudiendo tener 4k/144hz HDR, VRR y todas las tecnologías que quieras.


la 4090 claro que puede mover CP2077 con RT en ultra, eso sí, usando DLSS 3.0 en modo calidad. No olvidemos que DLSS 3.0 es una tecnologia complementaria al RT. Nvidia ya sabia que RT fundiría cualquier grafica, asi que por eso se desarrolló DLSS, que, en su version 3.0, da un resultado totalmente satisfactorio y en muchos casos inapreciables con la version nativa.
parh escribió:
Rvilla87 escribió:@BloodBlack gracias por la info del RT, no discuto que RT en un futuro será algo casi obligatorio, pero el caso es que en los juegos que lo usan se nota de forma exagerada esa bajada de rendimiento.

Desconocía lo de los rebotes infinitos simulados, no es que me interese toda esa teoría (mucha parte física/matemática supongo) mareante si entramos a detalle, lo que mas me importa es a nivel práctico y lo que acabo viendo en los muchos benchmark y comparativas que se hacen es que el RT actualmente es un comefps brutal con el que se gana a nivel visual, bajo mi punto de vista, algo no comparable con la gran pérdida de fps. Si incluso monstruos como la 4090 no puede mover sobradamente Cyberpunk 4k con RT (y eso que no es RT full/real o como se llame) me sigue demostrando que el RT actualmente no es del todo viable.

Ojalá en un futuro a corto plazo la cosa mejore mucho, pero personalmente no tengo muchas esperanzas. Depende del juego ya miraría las típicas comparativas de RT on/off y sus diferentes niveles de calidad y dependiendo de los fps que se pierda y la diferencia visual que me aporte supongo que elegiré uno u otro modo.


Kavezacomeback escribió:A ver no sé como decir esto sin que suene borde o prepotente, pero vamos que la distancia entre pixeles (pixel pitch) es mejor en monitores 4k que en TV.

https://www.displayspecifications.com/en/model/74692f3d

https://www.displayspecifications.com/en/model/82bf263d

Monitores vs TV? Creo que bloodback ya lo explicó bien.

Lo que importa es la relación de píxeles y tamaño de pantalla, independientemente que sea un monitor o TV. Sea monitor o TV, habrá mas PPI en una pantalla de 30" que en una de 60". Y en el punto en el que ahora hay tanto monitores como TVs de unas 40" cada vez le veo menos sentido diferenciar entre monitor y TV.

Si quieres decir que por la propia tecnología el hecho que sea monitor o TV marca una diferencia a favor para el monitor dime exactamente cuál es esa diferencia porque para mi monitor o TV es prácticamente lo mismo, solo que el monitor está pensado para el PC de escritorio (tendrá display port, tamaños no muy grandes) mientras una TV está pensado mas para el salón o similar (creo que no suele tener display port, tamaño mas grande).

Pero vamos, una TV la puedes usar perfectamente en un PC sin mayor problema, pudiendo tener 4k/144hz HDR, VRR y todas las tecnologías que quieras.


la 4090 claro que puede mover CP2077 con RT en ultra, eso sí, usando DLSS 3.0 en modo calidad. No olvidemos que DLSS 3.0 es una tecnologia complementaria al RT. Nvidia ya sabia que RT fundiría cualquier grafica, asi que por eso se desarrolló DLSS, que, en su version 3.0, da un resultado totalmente satisfactorio y en muchos casos inapreciables con la version nativa.

y dlss2 tb por encima de 60
@parh que sepa cyberpunk no tiene aun el dlss3 ni los nuevos rt
@parh parece que te paga Nvidia, dlss3 se ve peor que el 2, y mete mucho input lag.
BloodBlack escribió:La densidad de pixel es lo que marca la definición en una pantalla , por mucho supersampling que hagas.

Ahora bien los monitores de 1080p generalmente son de 24 y 27 inch, por cual la densidad de pixel quedaría asi.:

24 = 91ppp
27 = 81 PPP

Los monitores se usan cerca por cual una densidad muy baja cantaría, según opiniones 27 para 1080p sigue siendo aceptable. Si ya es un TV de 34 de 1080p usado distancia de monitor eso sí sería horrible un festín pixelotes, serian unos 64ppp.

Si y no, cuando renderizas un juego a 4k en vez de a 2k en un tv de 2k, ese render se verá mejor y con menos dientes de sierra. Hay muchos juegos que aplican mejores efectos, mejores texturas, etc al ponerlo a 4k (Bugisoft es experta en eso)
PepeC12 escribió:@parh parece que te paga Nvidia, dlss3 se ve peor que el 2, y mete mucho input lag.



No, de hecho se ve MUCHO mejor DLSS3 que DLSS2.
Porque con DLSS2 partes de una resolucion mas baja y con DLSS3 partes de resolucion nativa, aunque tambien se puede combinar con DLSS2.

Y el input lag es 10ms mas, ni se nota.
@Rvilla87 bueno en el tema de monitor VS TV hay mucho que hablar.

Si nos ceñimos a ese dato por mucha oled que sea la TV tiene más o menos los mismos ppi que un monitor 1080p de 24" común. Mira los enlaces que te puse y verás como el monitor ese que te puse de 28" tiene muchos más por que en el tamaño del pixel pitch (y por lo tanto la suma del total de pixeles ppi) es menor a misma resolución y se lleva de calle a cualquier TV.

Mira en primera página aparece este https://www.displayspecifications.com/en/model/199c2f4e esto se funde a cualquier TV por lo comentado.

No quiere decir vayas a jugar mejor en una que otra, ahí ya influyen otros factores como la distancia de visionado.
Chaquetero está baneado por "troll"
De los creadores del "con dlss se ve hasta mejor" llega el " el dlss 3.0 se ve mejor que el dlss 2.0".

La realidad es que el dlss es una tecnología estupenda para gráficas de gama baja que necesiten un empujón por falta de potencia sin excesivo recorte grafico, pero el recorte gráfico es más que evidente.

Puede que no se vea en capturas, no sé qué es lo que dicen los youtubers mainstream hoy en día, pero me da igual, cualquiera que pruebe a jugar con dlss en calidad y sin dlss y no tenga problemas en la vista va a ver mucho mejor el juego en nativo, sin destellos raros propios del dlss, ni dientes de sierra en texturas lejanas.

Que el dlss sea un factor a considerar para culaquier usuario de 4080/4090/3090/6900xt/6800xt, etc... Me parece una broma. Vamos yo no activo el puñetero dlss con mi 4090 ni aunque me paguen.
Chaquetero escribió:
Que el dlss sea un factor a considerar para culaquier usuario de 4080/4090/3090/6900xt/6800xt, etc... Me parece una broma. Vamos yo no activo el puñetero dlss con mi 4090 ni aunque me paguen.


Segun el monitor que tengas.
Si es a 60hz te da igual, no vas a notar nada.

Si esa 120hz o mas es otro mundo. La fluidez y suavidad es increible.
PepeC12 escribió:@parh parece que te paga Nvidia, dlss3 se ve peor que el 2, y mete mucho input lag.

Lo siento, pero no te has informado correctamente
Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco
Chaquetero está baneado por "troll"
beatle escribió:
Chaquetero escribió:
Que el dlss sea un factor a considerar para culaquier usuario de 4080/4090/3090/6900xt/6800xt, etc... Me parece una broma. Vamos yo no activo el puñetero dlss con mi 4090 ni aunque me paguen.


Segun el monitor que tengas.
Si es a 60hz te da igual, no vas a notar nada.

Si esa 120hz o mas es otro mundo. La fluidez y suavidad es increible.


Ponte a jugar al Elden ring a 120 FPS a ver si te das cuenta de la chorrada que acabas de decir.

Pero que monitores quedan hoy en día que vayan a solo 60 Hz? Si cualquiera tiene hoy día un monitor de chorrocientos hz. De verdad, que sois muy malos como comerciales, lo malo es que cualquier persona que no tenga ni idea entre aquí y os haga caso a vosotros y se cree necesidades absurdas como la de tener que jugar a 144 FPS si o si porque "la suavidad es otra liga, no lo creerías" y "lo más importante para jugar es la CPU".

En qué cosa más lamentable se ha quedado este mundillo para que en vez de hablar de juegos, perfiles de oc, undervolting, rl, y demás, esto haya quedado única y exclusivamente en venir aqui a fardar, no se de qué, desinformando y diciendo mentiras a todas horas tratando de vender no sé muy bien el qué.
Chaquetero escribió:Pero que monitores quedan hoy en día que vayan a solo 60 Hz?

Monitores con sus añitos a la espalda q aún van bien... Gente q se compró un monitor 4k sin pedir un préstamo... Etc.
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


Yo tengo la 4090 y no noto ese gran inputlag leoni sinceramente, los beneficios superan con creces los supuestos perjuicios, anda que si jugais en la nube como en google stadia o la nube de nvidia eso si que es una puta mierda, os arrancabais los ojos...
medearu1986 escribió:
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


Yo tengo la 4090 y no noto ese gran inputlag leoni sinceramente, los beneficios superan con creces los supuestos perjuicios, anda que si jugais en la nube como en google stadia o la nube de nvidia eso si que es una puta mierda, os arrancabais los ojos...

Pues yo solo lo he puesto en el A plague requiem, y mira que el juego no es precisamente un juego de reflejos y lo tuve que quitar , no podía jugar te lo digo también sinceramente
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


El input lag de DLSS3 es casi el mismo que en resolucion nativa.


4k Nativo 26ms
Imagen

4k DLSS 3 39ms
Imagen

Y en Spiderman Miles Morales por el estilo.

4k Nativo 39ms
Imagen

4k DLSS 3 49ms
Imagen
beatle escribió:
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


El input lag de DLSS3 es casi el mismo que en resolucion nativa.


4k Nativo 26ms
Imagen

4k DLSS 3 39ms
Imagen

Y en Spiderman Miles Morales por el estilo.

4k Nativo 39ms
Imagen

4k DLSS 3 49ms
Imagen

Lo llamas casi el mismo pero luego pones que lo aumenta en un 50%.
Además de la incongruencia de tener mas fps pero de alguna manera el juego responde peor.
Entonces para qué quiero los fps si todo responde más lento?
El frame generation solo tiene sentido si en resolución nativa obtienes 120fps o mas, porque puedes aumentar la suavidad visual con un tiempo de respuesta razonablemente bajo ya que poca gente fuera de profesionales nota el input a partir de 120fps.
Pero que me diga que va a 60 o 120 fps no me sirve de nada si se controla como si fuese a 30 o 60.
leonigsxr1000 escribió:
medearu1986 escribió:
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


Yo tengo la 4090 y no noto ese gran inputlag leoni sinceramente, los beneficios superan con creces los supuestos perjuicios, anda que si jugais en la nube como en google stadia o la nube de nvidia eso si que es una puta mierda, os arrancabais los ojos...

Pues yo solo lo he puesto en el A plague requiem, y mira que el juego no es precisamente un juego de reflejos y lo tuve que quitar , no podía jugar te lo digo también sinceramente


Estoy jugando al portal RTX acaba de salir le meto DLSS3 y 4k y juro por dios que no soy capaz de notar el inpug lag, yo revisaria la configuración de tu equipo sinceramente...

Mi confi es 4090founder, 13900k, asus z790 extreme y memos gskill a 8000 32gb, por cierto el juego va super fluido gran trabajo de nvidia con este juego completo RTX

Imagen
adriano_99 escribió:
beatle escribió:
leonigsxr1000 escribió:Verlos yo lo veo igual , pero el inputlag que mete el DLSS3 es acojonante , por lo menos en mi percepción...
No lo pongo ni loco


El input lag de DLSS3 es casi el mismo que en resolucion nativa.


4k Nativo 26ms
Imagen

4k DLSS 3 39ms
Imagen

Y en Spiderman Miles Morales por el estilo.

4k Nativo 39ms
Imagen

4k DLSS 3 49ms
Imagen

Lo llamas casi el mismo pero luego pones que lo aumenta en un 50%.
Además de la incongruencia de tener mas fps pero de alguna manera el juego responde peor.
Entonces para qué quiero los fps si todo responde más lento?
El frame generation solo tiene sentido si en resolución nativa obtienes 120fps o mas, porque puedes aumentar la suavidad visual con un tiempo de respuesta razonablemente bajo ya que poca gente fuera de profesionales nota el input a partir de 120fps.
Pero que me diga que va a 60 o 120 fps no me sirve de nada si se controla como si fuese a 30 o 60.


10-13ms es imperceptible.
Como han dicho por ahi arriba, son prejuicios de quien no lo ha probado.
@medearu1986 ni me tienes que jurar por dios ni tengo que revisar nada macho , te lo digo "sinceramente "

Me carguen la puta macho , ahora otro dice que son perjuicios , joder, dejar que cada uno juguemos como nos salga de ahí por favor
Yo en el plague si lo noto bastante. Noto frames falsos descaradamente y mas retardo.

En cambio el portal rtx se han sacado la verga. No noto ni frames inventados ni retardo ampliado
@beatle 16ms es un frame de input lag en un monitor de 60hz.

Que tu no lo notes vale, que yo no lo quiera ni en pintura también.

Y no digo que no sirva, puede estar bien si tienes muchos fps de base y no es un juego que requiera mucha respuesta.

Yo le veo poco sentido más aya de ver muchos fps en pantalla, prefiero que el juego vaya a 60 fps y me responda rápido que me vaya a 120fps y me responda a menos de 60fps.
Kavezacomeback escribió:A ver no sé como decir esto sin que suene borde o prepotente, pero vamos que la distancia entre pixeles (pixel pitch) es mejor en monitores 4k que en TV.

https://www.displayspecifications.com/en/model/74692f3d

https://www.displayspecifications.com/en/model/82bf263d



Normal, ¿quien usa un monitor de 28" a 2m de distancia? y ¿quien usa una tv de 58" a 70 cm de distancia?
14371 respuestas