[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Nomada_Firefox escribió:Al paso que van rebajandolas, va a ser la cosa eterna.

Y creo que muchas no bajaran hasta que salgan las nuevas 4070 y 4060. Sera interesante ver que cantidad de memoria traen o si reducen mucho la cantidad respecto a cosas como la 4070Ti.

@hh1 No te extrañe que vinieran asi de la casa. LDLC no me ha parecido ninguna joya de tienda. Más bien lo contrario.

Tampoco lo descarto.
the_aeon escribió:
ivan95 escribió:
the_aeon escribió:Llevo unos dias probando juegos y me he dado cuenta que cuando activo el RT en los juegos provoca sttutering al girar la camara.

Si desactivo el RT se va el sttutering.

He pasado DDU, ultimos drivers, todo actualizado.

El spiderman antes me iba bien y ahora tengo sttutering al girar la camara.

Alguna idea??


Hace unos dias se saco BIOS nueva por cosas de ese estilo, que se notaban mucho en el ultimo Need For Speed.

Busca sobre el tema que quizas es tu mismo problema😉

Ya lo hice y nada.....


Estás en Windows 11 22H2?
Lince_SPAIN escribió:
the_aeon escribió:
ivan95 escribió:
Hace unos dias se saco BIOS nueva por cosas de ese estilo, que se notaban mucho en el ultimo Need For Speed.

Busca sobre el tema que quizas es tu mismo problema😉

Ya lo hice y nada.....


Estás en Windows 11 22H2?

Si, pero ya puse el parche que en teoria lo soluciona
@the_aeon

Prueba a volver a instalar los drivers de tu chipset, a veces con este tipo de actualizaciones complejas W11 cambia la configuración de los drivers con resultados como los que comentas, a mí me pasó algo parecido y recuperé la absoluta fluidez reinstalando los drivers de la gráfica (con DDU) y los de mi chipset X570.
Lince_SPAIN escribió:@the_aeon

Prueba a volver a instalar los drivers de tu chipset, a veces con este tipo de actualizaciones complejas W11 cambia la configuración de los drivers con resultados como los que comentas, a mí me pasó algo parecido y recuperé la absoluta fluidez reinstalando los drivers de la gráfica (con DDU) y los de mi chipset X570.

Ya probé reinstalar drivers de la gpu con DDU, pero del chipset no lo probé.

Otra opción es reinstalar windows, pero con la opción de conservar archivos, si no me pego un tiro
La RX 6900XT [carcajad] [carcajad]
5 fps a 1080p...

Imagen

Imagen

Imagen

Luego se preguntan porque las Nvidia son mas caras.
beatle escribió:La RX 6900XT [carcajad] [carcajad]
Luego se preguntan porque las Nvidia son mas caras.


No, la pregunta es porque son tan caras. Más... yo todavía lo entiendo, pero tanto no.
Pero bueno, yo el rtx ni caso, con lo que Nvidia ni la miro ya a veces, y mira que sus drivers son mejores todavía para emular.

28 FPS portal rtx 3090TI.... HAHAHAHA. Que disparate.
Herionz escribió:
beatle escribió:La RX 6900XT [carcajad] [carcajad]
Luego se preguntan porque las Nvidia son mas caras.


No, la pregunta es porque son tan caras. Más... yo todavía lo entiendo, pero tanto no.
Pero bueno, yo el rtx ni caso, con lo que Nvidia ni la miro ya a veces, y mira que sus drivers son mejores todavía para emular.

28 FPS portal rtx 3090TI.... HAHAHAHA. Que disparate.


5 fps a 1080p la AMD...5 fps [carcajad] [carcajad]
¿No tiene fsr?, ¿han colaborado en el desarrollo con nvidia? Si es así para ellos.

Por cosas como esta le tengo asco a nVidia.
Es lo que tiene tener mejores, tecnologías, drivers y soporte, se pongan como se pongan.
@beatle
Pero bro, rtx es algo que Nvidia esta impulsando, que no es realmente necesario porque es brute-force rendering, que se ha usado desde principios en renderizados 3D. Y me dices que sus tope de Gama ni casi pueden con ello salvo introduciendo otra tecnologia que aproxima frames!?
Tu no ves el disparate que se está montando. Propulsa raytracing para tener MAYOR precisión al crear sombras y reflejos por fuerza bruta para luego necesitar algoritmos de recrear imagen y que introducen ruido y falta de precisión! Y te cobran el doble por ello. Hahaha es de locos.
Si bueno como siempre, ya lo hacía con Physx, es cuestión de tiempo que caigan y los desarrolladores abogen por otras soluciones más universales.

Esta más que probado que se puede añadir RT sin perjudicar descaradamente a todo el que no tenga tu producto.
BloodBlack está baneado por "clon de usuario baneado"
La 4090 de $1600 da 26 FPS a 4k nativos

Lo de Portal es sencillo esta usando un Ray Tracing completo y de hasta 8 bounces supungo que para reflejos y GI, por cual hasta una 4090 se ahoga sin fakes frames y DLSS.

Apesar que están usando Denoising seria curioso ver cuántos rayos por pixel están usando, mas de 3 rayos seria muy pesado para cualquier GPU actual.
Kavezacomeback escribió:¿No tiene fsr?, ¿han colaborado en el desarrollo con nvidia? Si es así para ellos.

Por cosas como esta le tengo asco a nVidia.

No es que haya colaborado con nvidia es que lo ha hecho 100% nvidia.
Obviamente nvidia no le va a poner fsr.
Kavezacomeback escribió:Si bueno como siempre, ya lo hacía con Physx, es cuestión de tiempo que caigan y los desarrolladores abogen por otras soluciones más universales.

Esta más que probado que se puede añadir RT sin perjudicar descaradamente a todo el que no tenga tu producto.


Pero al menos yo recuerdo que Physx, los cuda cores los podías usar para renderizar más rápido, en según que programas.
Pero los cores de rtx, están cerrados no? No pueden dedicarse a otras cosas. Si me equivoco que alguien me lo confirme, porque no estoy puesto con gráficas actuales al 100%.
BloodBlack está baneado por "clon de usuario baneado"
Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.
@adriano_99 @Herionz pero es que se ha llevado por delante incluso sus gpus anteriores, tienen políticas de mierda.

Los únicos usos que conozco son RT y según ellos algoritmos IA (aquí es donde venden el rollo de dlss) pero vamos que lo que entendemos como IA tradicional en los juegos sigue siendo un mierdón y no depende de esto.
se habla mucho del rendimiento de la 4090 con RT, pero tambien debeis tener en cuenta que esta grafica es la autentica "UE5 Ready". A partir de 2023, vendran muchos juegos utilizando este motor grafico y quien quiera jugarlos a tope en 4K nativos y altos fps solo tiene la opcion de la 4090
BloodBlack está baneado por "clon de usuario baneado"
parh escribió:se habla mucho del rendimiento de la 4090 con RT, pero tambien debeis tener en cuenta que esta grafica es la autentica "UE5 Ready". A partir de 2023, vendran muchos juegos utilizando este motor grafico y quien quiera jugarlos a tope en 4K nativos y altos fps solo tiene la opcion de la 4090


Pues el Fornite con el UE 5 no es que vaya mucho FPS a 4k nativos🙄, creo que llega justo a los 60fps.
BloodBlack escribió:Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.



Falta de Vram en la 3080 quizá.
BloodBlack está baneado por "clon de usuario baneado"
DaNi_0389 escribió:
BloodBlack escribió:Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.



Falta de Vram en la 3080 quizá.


Pues puede ser factible pero la 6900XT que tiene 16GB también va 1 FPS.

No se me parece anormales esos resultados, ancho de banda tal vez, la RTX3080 tiene 760 GB/s y la RTX 3090 930 GB/s, la 6900xt tiene 512 GB/s. Por ahí he leído que el Ray Tracing más "tocho" tira bastante de caches y ancho de Banda, las RTX 4000 tienen una L2 mas grande.

Veremos si Alex de DF comenta algo.
Chino de Nvidia: Haced este juego para que las serie 2000 y 3000 rindan como una mierda, ah, y que las AMD directamente sea una presentación de powerpoint, que hay que vender las 4000 que nadie quiere.
BloodBlack escribió:Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.



Por ejemplo RTX 3070 con DLSS Balanced a 1080p apenas es capaz de romper la barrera de los 60 FPS. La AMD Radeon RX 6900 XT realmente no es apta para este nivel de trazado de rayos. Comienza con 5 FPS a 1080p y casi se ejecuta en modo "segundos por cuadro" a 4K.

Durante las pruebas, me sorprendió que varias tarjetas "decentes" como RTX 3080 y RTX 3070 terminaran con solo un cuadro por segundo a 4K. Profundizando más, resulta que los requisitos de VRAM de Portal RTX son realmente altos. Instalamos un RTX 4090 de 24 GB y probamos varias resoluciones. Con la resolución obsoleta de 1600x900, el uso de VRAM ya alcanza los 7,5 GB. A 1080p necesitas 8 GB de VRAM, a 1440p es mejor que tengas 10 GB y a 4K el juego asigna más de 16 GB de memoria, un nuevo récord. De alguna manera, sospecho que el juego no está realmente optimizado para el uso de VRAM, pero esto demuestra que los juegos futuros podrían terminar con serios requisitos de memoria. Sin embargo, habilitar DLSS reducirá drásticamente el uso de la memoria, ya que reduce la resolución de renderizado, por lo que siempre es una opción.
DaNi_0389 escribió:
BloodBlack escribió:Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.



Falta de Vram en la 3080 quizá.


Yo por eso enganche la de 12gb, al menos tengo para jugar a 2k decentemente unos añetes jeje
BloodBlack está baneado por "clon de usuario baneado"
medearu1986 escribió:
BloodBlack escribió:Efectivamente lo a hecho un estudio pequeño de Nvidia.

Pero creo que ni se han parado a testearlo en sus propias GPU (mucho menos las de AMD), pero que una RTX 3080 de 1 FPS y una RTX 3090 de 11 FPS es un resultado totalmente anormal, ya que entre esas GPU no hay 10X de diferencia....

Así que parece que si hay algún problema.



Por ejemplo RTX 3070 con DLSS Balanced a 1080p apenas es capaz de romper la barrera de los 60 FPS. La AMD Radeon RX 6900 XT realmente no es apta para este nivel de trazado de rayos. Comienza con 5 FPS a 1080p y casi se ejecuta en modo "segundos por cuadro" a 4K.

Durante las pruebas, me sorprendió que varias tarjetas "decentes" como RTX 3080 y RTX 3070 terminaran con solo un cuadro por segundo a 4K. Profundizando más, resulta que los requisitos de VRAM de Portal RTX son realmente altos. Instalamos un RTX 4090 de 24 GB y probamos varias resoluciones. Con la resolución obsoleta de 1600x900, el uso de VRAM ya alcanza los 7,5 GB. A 1080p necesitas 8 GB de VRAM, a 1440p es mejor que tengas 10 GB y a 4K el juego asigna más de 16 GB de memoria, un nuevo récord. De alguna manera, sospecho que el juego no está realmente optimizado para el uso de VRAM, pero esto demuestra que los juegos futuros podrían terminar con serios requisitos de memoria. Sin embargo, habilitar DLSS reducirá drásticamente el uso de la memoria, ya que reduce la resolución de renderizado, por lo que siempre es una opción.



Viendo la tablas pues si parece que es eso la RTX 3080 a 1440p ya rinde acorde respecto a la RTX 3090, así que parece un tema de VRAM.

Lo de AMD si no se aque se deberá, es cierto que la RX 6000 rinden menos en RT que las RTX3000, pero eso anda en torno a 50 - 100% de rendimiento, aquí estamos viendo diferencia de 10X, pero cuando salga supungo que AMD le meterá mano para ver lo que sucede.
La cantidad de rebotes que darán los rayos en el portal rtx me imagino que será algo configurable. Aunque esto me dolerá verlo así porque mi idea es ponerle todo al máximo a todo lo que se mueva durante varios años con la mía. De todas formas si a 4k se pone la cosa muy penosa, lo bajaré a 1440p dldsr que debería ir bastante mejor.

Sobre el comentario del fortnite con el ue5 en 4k, ni se me había ocurrido instalarlo porque yo a ese juego no le pego. Si lo veo a 4k en 60 cuadros pues idem de lo mismo, lo bajo a 1440p y asunto arreglao. Pero vaya, que sería para ver sufrir a la gráfica porque ese juego no es para mi, haya construcción de edificios o no.

De todas formas para el que quiera probar como una 4090 no puede, que lo vi el otro día. Si cogéis el GTA V, lo ponéis a 4k y ponéis absolutamente todas las opciones que hay al máximo, lo vais a ver a 5 cuadros por segundo aproximadamente con la gráfica al 100% y el micro tocándose el pirindolo del todo. Esto es porque tiene una opción de escalado de resolución que se puede poner hasta el 500% y eso creo que se pone en un 20k de resolución interna. Realmente el otro día no me dio por investigarlo esto, porque lo bajé al 100% y ni me paré a investigar que resolución real sería eso.
Teneis algun enlace por ahi a mano para pobar alguna demo de UE5? Me apetece ver como rula... Me he descargado la del bosque y en 2k me va muy bien.
beatle escribió:
Herionz escribió:
beatle escribió:La RX 6900XT [carcajad] [carcajad]
Luego se preguntan porque las Nvidia son mas caras.


No, la pregunta es porque son tan caras. Más... yo todavía lo entiendo, pero tanto no.
Pero bueno, yo el rtx ni caso, con lo que Nvidia ni la miro ya a veces, y mira que sus drivers son mejores todavía para emular.

28 FPS portal rtx 3090TI.... HAHAHAHA. Que disparate.


5 fps a 1080p la AMD...5 fps [carcajad] [carcajad]


Pues eso, baja la resolucion a 1080p para jugar con una 4090 de forma decente el jueguecito roñoso

Yo soy usuario de NVIDIA en los últimos años pero esta adaptación del RT a un juego realmente antiguo y gráficamente simple lo que deja en ridículo es a la propia tecnología, demostrando que está en pañales.

Yo creo firmemente que un diseño artístico potente consume cero recursos y le pega sopas con hondas al RT. Que sea el sistema en el que se programará la iluminación en el futuro no lo niego, pero a día de hoy (y ya van más de cuatro años desde que nos la presentaron) me parece un fraude y una necesidad artificialmente creada, con todo el respeto para los que la disfrutáis.
BloodBlack escribió:
parh escribió:se habla mucho del rendimiento de la 4090 con RT, pero tambien debeis tener en cuenta que esta grafica es la autentica "UE5 Ready". A partir de 2023, vendran muchos juegos utilizando este motor grafico y quien quiera jugarlos a tope en 4K nativos y altos fps solo tiene la opcion de la 4090


Pues el Fornite con el UE 5 no es que vaya mucho FPS a 4k nativos🙄, creo que llega justo a los 60fps.

Pensaba que te confundiste con el número de fps pero veo que es verdad (bueno, he visto varios videos, se podría decir que ronda los 50-80fps).

Creo que parh no hablaba de 4k nativo con altos fps y RT. Básicamente porque eso no lo tienes ahora con Cyberpunk y supongo que tampoco con otros juegos exigentes.

En el caso de Fornite el caso de los 60fps ocurre cuando tira todo al tope y con RT en 4k nativo. A mi personalmente el estilo gráfico del Fornite me parece una mierda y poco impactante visualmente, sea eso UE5 o hecho con un motor del año 2200. Lo digo porque aunque parezca simple a nivel visual por detrás hay técnicas y procesado de los gráficos que se supone que requiere una exigencia elevada al hacer que una 4090 con RT en 4k nativo solo pueda ir en torno a los 60 fps. Esto con un juego con gráficos realmente impactante seguro que refleja mucho mejor el potencial gráfico que requiere, pero con esos gráficos tan simples cuesta creer que solo vaya a 60fps.

Aunque me faltaría ver una comparativa de Fornite con la 4090 probando con RT y sin RT y diferentes opciones gráficas para ver de dónde pasa a tener tropecientos fps a tener solo unos 60. Así buscando rápido en youtube he visto mucho video donde no muestran claramente la opción gráfica elegida y no prueban con el detalle que digo.

Seguro que en el RT se van bastantes fps pero el resto de configuraciones "Épicas" me parece a la típica configuración consumefps que a nivel visual apenas hay diferencia.
@Fleishmann me has recordado lo que dice este y no le falta razón aunque el tío de parcial nada.




Sobre lo que dicen del UE5

BloodBlack está baneado por "clon de usuario baneado"
@Fleishmann @Rvilla87.

Los cito a los dos porque creo que son comentarios similares.

La Iluminación tradicional por mas diseño artístico, no es comparable y es por una razón sencilla, la iluminación tradicional es solamente una aproximación para intentar simular la iluminación real a un bajó coste, si se mira comparación de Fornite Lumen off/on o el Portal RT on/off hay una clara diferencia de precisión en la iluminación.

La Iluminación real, es cara principalmente la iluminación indirecta,ya que la iluminación directa es barata, esto se debe primero que la iluminación se calcula en tiempo real y no es precocinada, y dos porque los métodos para simular los fotones de la vida real, en un entorno 3D y que sean precisó es carísimo en calculos, en realidad el Ray Tracing que es método más precisó tiene la misma base , en la vida real los fotones viajan golpean y refleja la luz, en el Ray Tracing es lo mismo los rayos viajan chocan y se calcula luz exacta del resultado.

El detalle es que calcular eso es muy caro, el Portal por ejemplo usa hasta 8 rebotes de la luz, en la vida real la luz hasta desaparecer pueden ser 100 o mas rebotes, en películas se usan rebotes infinitos hasta que el último rayo deja de rebotar y sale de la escena. Si la 4090 con 8 rebotes se ahoga y maginate calculár rebotes infinitos. En la vida real pueden ser millones de fotones, en una película pueden ser miles de rayos por cada pixel, en juegos por temas de rendimiento se utiliza de 1 a 3 rayos por pixel, y se aplica Denoising.

Perdón por el tocho pero estoy resumiendo lo complejo que es calcular una iluminación 100% precisa en un entorno de renderizado. Aunque lógicamente hay optimizaciones y eso son recortes muchos de ellos ya se aplican, por ejemplo Lumen y el RT de Metro Exodus enhacend utiliza rebotes infinitos simulados para la GI por medio de utilizar el fotograma previo, y es complementa gratis. Si se compara la versión Ray Tracing original VS enhacend hay una clara diferencia en 1 rebote para la GI vs 1 rebote + rebotes infinitos simulados, y el rendimiento es el mismo ya que los rebotes infinitos simulados son gratis, si le metieramos 8 rebotes como en el portal el rendimiento se iría apique.

De locos lo que consume el RT en Portal, ahora imaginaros un juego next gen con ese nivel de RT, no lo mueve ni la 5090 con dlss 4 en ultra rendimiento XD
@Ivanfuci ni lo mire, pues el resultado es increíble.

Pensé era el 5 XD
Segun tengo entendido el RT es gloria bendita para las desarrolladoras ya que les simplifica mucho el curro, por la via tradicional se vuelven locos creando los puntos de luz simulandolo, no?
Pero si tan bueno es para ellas por que no se implementa en mas juegos?

@HaGeK Busca en Steam The Market of Light
jiujinkai escribió:Segun tengo entendido el RT es gloria bendita para las desarrolladoras ya que les simplifica mucho el curro, por la via tradicional se vuelven locos creando los puntos de luz simulandolo, no?
Pero si tan bueno es para ellas por que no se implementa en mas juegos?


Porque quieren vender juegos…

Primero que las consolas van justisimas desde que salieron… y segundo, a quien les van a vender juegos con RT? Al 0.1 % de la gente de pc que puede jugar decentemente con RT?

Si hacen un juego sin reflejos en modo no RT por que en realidad muestran los reflejos en el modo RT… los juegos perderían calidad para los no RT users.. me explico?
BloodBlack está baneado por "clon de usuario baneado"
jiujinkai escribió:Segun tengo entendido el RT es gloria bendita para las desarrolladoras ya que les simplifica mucho el curro, por la via tradicional se vuelven locos creando los puntos de luz simulandolo, no?
Pero si tan bueno es para ellas por que no se implementa en mas juegos?


Por falta de rendimiento y los juegos tienen que salir también para consolas que no se nos olvide. Para que el RT sea estándar en el desarrollo las consolas tendrán que manejarlo, tal vez para PS6 y la próxima Xbox.

Pero el RT geométrico no es la única forma de emplear Ray Tracing , hay otras variantes menos costosas que no se han explorado, aunque los desarrolladores están más centrados en la GI con probes. Lumen software es por ejemplo una de esas variantes y funciona bien consolas de nueva generación al menos con reescalados.

Poco dura la alegría en la casa del pobre (y del gamer pobre ya ni os cuento). XD

Ahora con las gráficas recien estrenaditas que tenemos por aquí algunos, resulta que cualquier juego por viejo que sea con los suficientes retoques puede poner de rodillas a gráficas que hace 1 año eran casi ciencia ficción (en potencia y en precio).

En fin, que lo sacan para que no terminemos nunca de salivar por algo mejor que lo que tenemos. Al menos la cpu no le debería hacer cuello de botella a la gráfica en el portal rtx a 1080p. XD

Otra gracia es el video este del metro exodus. Resulta que cuando salió ya se vendía como que al llevar rtx global ilumination para que se viera en condiciones hacía falta al menos una Turing. Ahora resulta que aquella primera iluminación global no era tan buena como la de la enhanced edition, en fin.

Si al final va a resultar que el unreal engine 5 con el nanite y el lumen aunque lastren casi cualquier hardware, van a estar hasta bien optimizados. Después llegarán los de id software y con vulkan se mearán en todas estas historias como pasó con el doom eternal.

Lo dicho, que no terminamos nunca con lo de dar vueltas a la misma rueda, da igual el tiempo que pase, la potencia de los chips y que se pongan las gráficas a millón.

Para el que preguntaba por demos del ue5. Un enlace de la demo del templo: https://drive.google.com/file/d/1YMis8iL15M5zyJmP0EGcOh13WVG2Nc2C/view
@pakolo1977

A mi la demo que dice el compi de arriba del UE5 con una 3080 me da de media 75fps con bajadas hasta los 62 y subidas hasta los 90, tampoco va tan mal....eso en 2k. Con el gsync va de fabula la verdad, cero tirones. Para mi eso ya es jugar con dignidad no se...
@HaGeK Para mi también es super digno eso.

Los 60 cuadros y el 1080p digan lo que digan algunos siguen siendo el standard para pc. A las consolas de ahora en 4k en muchos casos ya les gustaría tener todo el catálogo a 60 cuadros, aunque supongo que en 1080p sí deberían tenerlo, por lo menos por ahora porque ya veremos que pasa en los próximos 2 años o así.

Puede que la ironía del post anterior en mi caso sea tan leve que hasta podría malinterpretarse.
BloodBlack está baneado por "clon de usuario baneado"
Un error que cometen la mayoría es pensar que por comprar lo más top y caro, podrá con todo los juegos si o si.

Y es gracioso porque la parte técnica(gráfica) siempre va avanzando, y las GPU siempre se quedaran obsoletas, hasta que no se alcance un techo gráfico, y para tener potencia para mover un Ray Tracing en condiciones (sin mucho recorte)quedaran muchas generaciones de GPU todavía.

Así que un portal ponga de rodillas a una gráfica top actual , no es novedad, ni sinónimo de alarmismo, es una vance natural a nivel técnico. Sin compras una GPU top pensado que jugaras a 4k y 144fps todos los juegos te llevarás decepciónes.
@pakolo1977 tranqui que ni se me ha pasado por la cabeza malinterpretar nada. Yo solo estoy aqui para compartir mis experiencias y para aprender, que hay mucha gente muy pro. Lo que jode es que se cuelen los trols de vez en cuando XD
Por probar he instalado el fornite y en 4k ultraépico todo máximo power vaya 60 cuadrazos que me he comido. Ofú con el unreal engine 5...

He jugado dos partidas y en la segunda he sido un cobarde total, me he metido en unos servicios con la puerta cerrada a esperar y he terminado el primero de la partida... Se ve que el ojo de la tormenta esa estaba justo en esos servicios porque por más que disminuía la redondela del mapa a mi me pillaba todo el rato en el centro.

Será que los viejos cobardes como yo hemos criado la paciencia que no tienen otros, aunque jugar a eso y pegar pocos tiros no está bonito. Un día de estos volveré al death stranding si eso, que me pega más eso de ir caminando a los sitios que ir corriendo pegando tiros. Ciencia ficción al fin y al cabo porque eso de trabajar de repartidor hoy en día con la furgoneta es de todo menos relajante.

PD. No tengo con que comparar, pero creo que los wateres en el fornite ahora se ven como mucho más realistas... Después están ahí de adorno, porque quería sentarme a esperar escopeta en ristre y no hubo manera.
Como siempre cogedlo con pinzas ya que es un rumor

NVIDIA Mulling Pricing GeForce RTX 4070 Ti Around $899 MSRP

Vamos, que no tocarian el precio inicial que pensaron para la tarjeta
@silenius Hará un mes o así aposté en que bajarían poco o no bajarían el precio de aquella 4080 de 12 gigas renombrada a 4070ti, porque me parecía un insulto hacerlo y sería como llamarnos tontos de remate o peor a todo el mundo. Ojo, que esto no es para defender al chino Juan.

A estas alturas de la película yo creo que con el chino Juan pensar mal (y acertar) es lo más lógico. Yo creo que la estrategia aquí va a ser sacar la gráfica X por el precio todo lo inflado posible y si ve que pasan las semanas y se las comen con papas, ya si eso inventar lo que sea para ir bajando el precio lentamente. Total, si es que no hay nadie que le haga sombra, porque lo de AMD todavía está por ver (que ojalá, en serio).

Mientras tanto cada cual habrá tenido sus motivos para comprar su 4090 o 4080 o no comprar nada. El mío ha sido un capricho junto con mi plan marciano de aguantar mi monitor todo el tiempo que pueda (porque me gusta como se ve mi monitor). No sé hasta que punto le habré pagado la fiesta al chino Juan esta vez, pero todavía recuerdo la presentación de Septiembre, en la que lo que eran los juegos llenaron 20 minutos de algo que duró más de 2 horas.

Yo creo que cada vez más el tema gaming le estorba al chino Juan y lo que le gustaría en realidad es vender muchos chips ultracaros a otras industrias y gobiernos que tienen muchísima panoja y muchísimas ganas de hacer inteligencias artificiales varias.

Lo de que cuando dos especies inteligentes comparten habitat tienden a masacrarse es algo que está por ver. Yo no soy tan optimista como Asimov para esas cosas, de hecho ahora me he hecho fan de ese otro chino que ha sacado la teoría del bosque oscuro.
@pakolo1977

Perdón compañero, tu eres el que tienes una 4090 con un monitor 1080p??

Por mucho que pongas el DRS la densidad de pixeles de tu monitor es la que es , no vas a ganar nada , 1080p es 1080p
Con una 3080 hubiera tenido de sobra :)
@leonigsxr1000 Ojalá fuera la densidad de píxeles solamente... Sí que soy ese del monitor 1080p, está en mi firma puesto cual es.

¿Alguien ha probado a mirar una pantalla fullhd a 2 metros de distancia con gafas progresivas?

Como yo tengo la vista ya, a menos de 1 metro todavía no veo los píxeles, me tengo que acercar más para ver esos cuadrados.

Otra cuestión es que de vez en cuando teletrabajo (cuando me dejan). En el trabajo los monitores son sí o sí 1080p 60 hz y no hay posibilidad de cambiarlos por algo mejor. Me molesta sobremanera cuando he conectado con algo con una resolución diferente.

Aún así también reconozco que hay un componente subjetivo grande en esto. Aparte de ir haciendo tiempo para encontrar algún otro monitor perfecto para mi, porque este fue amor a primera vista. Me gusta como se ve y como se siente todo el rato.

Habrá monitores que se verán 10 veces mejor, yo lo sé y me sigo quedando con este. El día que muera yo hago el funeral y guardo luto.
leonigsxr1000 escribió:@pakolo1977

Perdón compañero, tu eres el que tienes una 4090 con un monitor 1080p??

Por mucho que pongas el DRS la densidad de pixeles de tu monitor es la que es , no vas a ganar nada , 1080p es 1080p
Con una 3080 hubiera tenido de sobra :)

Leoni si gana… el supersampling siempre gana
En un monitor 1080 pon un juego a tope y veras como tiene algun diente de sierra, con el supersampling lo reduces o eliminas.

a 4k igual. Cualquier juego que ejecutandose a 4 k tenga dientes de sierra en un monitor 4 k, le das un poco de supersamplin y solucionado.

Pasa hasta en un simple fifa y en las lineas pintadas en el cesped
El tema de los dientes de sierra si , la verdad que si los disimulas.....
No sé yo empecé a jugar a 4K en 2014 con la primera tv 4k de Sony y una 780ti jehe , y hasta ahora yo no me bajo del 4K jeje
Tampoco he jugado nunca en un buen monitor 1080p así que no sé si me gustaría.

Aunque con la 2080ti tuve a jugar mucho a 1440p para tener buen framerate y la verdad que muy buena resolución :)

No te planteas Paco una OLED de 42" , yo estuve probándolá (me la envió Sony para mi canal) y se veía de escándalo, aunque mejor una LG por el inputlag y compatibilidades

Sea como fuere que disfrute usted del 1080p señor mío:)
14371 respuestas