[HO] Starfield

d2akl escribió:
Kavezacomeback escribió:Maravilloso, yo te digo lo que veo jugando no analizando cada pixel en una captura. El ultimo que jugué y perdí el tiempo un poco en comparar fue el Miles Morales y me pareció todo más que correcto.

De AMD ya salio Mantle que desemboco en Vulkan (ademas el una API apoyada por nvidia también), a ver si con suerte de esta colaboración sale algo parecido que se vuelva un estándar.

Por cierto yo si puedo, normalmente sí puesto que no me importa jugar a 1080p Alto, evito usar cualquiera de estas tecnologías.


No hace falta analizar cada pixel, jugando se nota y mucho. Yo ya te lo dije en el punto uno, a mi estas mierdas no me gustan, prefiero que optimicen los putos jueguitos, y con la excusa del dlss...me da que recortan mucho de eso.
Yo también evito usarlas.
Como a 1080p? Wtf, me estás diciendo que a 1080 que es donde más se nota por eones,no notas nada? Me estas troleando básicamente y no son horas [+risas]
Pensé que estábamos hablando de 4k.


1080p + DLSS = Pixeles como limones.
1080p + FSR = Pixeles como melones.
@d2akl no hay troleo alguno. Básicamente depende de la distancia y tamaño de la pantalla, pero vamos que no quiero iniciar ese debate.

Lo que si te digo es que por ejemplo acabo de cambiar un monitor 4k 60fps por uno 1080P 165hz al crio que sí tiene problemas de vista y prefiero se le canse menos si pasa varias horas frente al monitor y sin embargo no me he molestado ni en instalarme el monitor yo por que voy bien con la TV (es 4K) y el portátil que es 1080P aunque bueno le tengo una resolución custom de 2560x1440p por que no me permite activar el DSR que sí uso en algunos juegos donde va sobrado y no hay factor alguno competitivo, pero ojo que no va bien este tema en muchos juegos.
xineloeol escribió:
d2akl escribió:
Kavezacomeback escribió:Maravilloso, yo te digo lo que veo jugando no analizando cada pixel en una captura. El ultimo que jugué y perdí el tiempo un poco en comparar fue el Miles Morales y me pareció todo más que correcto.

De AMD ya salio Mantle que desemboco en Vulkan (ademas el una API apoyada por nvidia también), a ver si con suerte de esta colaboración sale algo parecido que se vuelva un estándar.

Por cierto yo si puedo, normalmente sí puesto que no me importa jugar a 1080p Alto, evito usar cualquiera de estas tecnologías.


No hace falta analizar cada pixel, jugando se nota y mucho. Yo ya te lo dije en el punto uno, a mi estas mierdas no me gustan, prefiero que optimicen los putos jueguitos, y con la excusa del dlss...me da que recortan mucho de eso.
Yo también evito usarlas.
Como a 1080p? Wtf, me estás diciendo que a 1080 que es donde más se nota por eones,no notas nada? Me estas troleando básicamente y no son horas [+risas]
Pensé que estábamos hablando de 4k.


1080p + DLSS = Pixeles como limones.
1080p + FSR = Pixeles como melones.


Mientras no sea pizza con piña... no? Alguno vendrá y dira que es la mejor pizza del mundo, ya lo verás.

@Kavezacomeback

Estamos muy lejos en nuestros puntos de vista generales de estas tecnologías, coincidiendo en que no nos gusta usarlas, no mola seguir "ensuciando" el hilo con nuestros debates.

Pero para concluir, nos estamos centrando mucho en dlss y fsr desde la noticia de lo de amd, y normal cuando es una cerdada importante.
Pero me da a mi, tengo yo esa impresión, que en este caso, es un juego CPU dependiente al 101%
@d2akl a ver que tal dentro de un par de meses, cierto que Bethesda suele optimizar con el ojete, pero vamos si lo visto es una XSX con escalado en un PC sí o sí se debe ver algo mejor siempre que el hard acompañe.
Kavezacomeback escribió:Maravilloso, yo te digo lo que veo jugando no analizando cada pixel en una captura. El ultimo que jugué y perdí el tiempo un poco en comparar fue el Miles Morales y me pareció todo más que correcto.

De AMD ya salio Mantle que desemboco en Vulkan (ademas el una API apoyada por nvidia también), a ver si con suerte de esta colaboración sale algo parecido que se vuelva un estándar.

Por cierto yo si puedo, normalmente sí puesto que no me importa jugar a 1080p Alto, evito usar cualquiera de estas tecnologías.


Vulkan mano de santo, directx 12 escupo sobre su tumba xDDD.
Sacar este juego que pinta que va como el culo de rendimiento sin el DLSS 3 es un suicidio. Yo no me lo pillaré de salida como tenía pensado y veré qué tal va de rendimiento.
Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]


¿No has visto los vídeos? ¿No has visto el juego a 20 fps o incluso menos?
Se viene hilo presalida cyberpunk xD
Strait escribió:
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]


¿No has visto los vídeos? ¿No has visto el juego a 20 fps o incluso menos?

Cualquier vídeo que no sea del juego "despues de su salida" es un vídeo basado en un juego que precisamente está en proceso de optimización, esa es la última parte en el desarrollo de un juego, no puedo tomarme en serio datos basados en algo sin acabar ni de llegar a ningún tipo de conclusión con ellos, no obstante, soy consciente de que hablamos de Beth y que no es precisamente el sumun de la optimización en sus juegos de salida, pero también sabemos que el motor está mejorado y que hasta vacila de que su juego, si saliese ahora, sería el juego con menos bugs de la historia de Beth, asi que tampoco tengo razones para pensar lo contrario sin tener el juego en la mano en su versión 1.0 de salida y haberlo catado personalmente, tengo que hacer uso de la lógica para estos casos [+risas]
Pues si deben estar mal de pasta para venderse por cuatro duros a amd jodiendo el juego, salir sin dlss y fg es de tontos, de muy tontos, aunque bueno siempre nos quedaran los mods para implementarlo despues como en el jedi survivor.
Yo creo que tras el anuncio de los 30fps en consola tenían que soltar más pronto que tarde el sponsor con AMD y no dejarlo más, porque sino la gente se iba a enfadar bastante a medida que se acercara la fecha de lanzamiento.

Te venden la moto de optimización con el HW de AMD en este caso y las bondades del FSR tanto en PC como en consolas, pero en estas últimas acabas de decir que 30fps y punto...

Creo que es AMD la única que bloquea tecnologías de terceros en titulos en los que ellos han colaborado con la desarrolladora, dejando fuera XeSS, DLSS, etc. Hay alguna excepción reciente como el Forspoken, pero la implementación del DLSS era bastante malilla.
Creo que todos estamos de acuerdo que es una práctica muy sucia y anticonsumidor tanto de un lado como del otro y deberíamos siempre criticarla, tengamos pinchado gpu verde, roja o fosforita.

Los últimos títulos con sponsor Nvidia creo que no venían capados de nada, ofreciendo tanto DLSS como FSR, al igual que los ports de Sony, que si bien alguno ha salido roto todos vienen con DLSS-FSR como debería ser.

El modder famoso ya ha comentado en su Discord que va a tener acceso anticipado a Starfield y dedicará esos 5 días a darle forma al mod DLSS+FG.
ionesteraX escribió:Pues si deben estar mal de pasta para venderse por cuatro duros a amd jodiendo el juego, salir sin dlss y fg es de tontos, de muy tontos, aunque bueno siempre nos quedaran los mods para implementarlo despues como en el jedi survivor.

Ese mod lo tiene PureDark bloqueado detrás de donación Patreon. https://www.patreon.com/posts/jedi-survivor-82468418 esperemos que no con Starfield, supongo que hará su magia como hizo con DLSS 3 en Skyrim SE y Fallout 4, que aunque no sea nativo hizo un gran trabajo. No hace falta ser privilegiados, solo observar un poco el historial y lo que supone la falta de ello para una tecnologia con el 80% de cuota presencial en la industria.

Aun asi, ¿Bethesda ha mencionado que DLSS no va a estar disponible? Porque puede ser un ejemplo idéntico a Forspoken que no tuvo confirmación hasta la salida de sus drivers.
En pocas palabras,la "Compañia de el puyeblo" (AMD) nos jode a los demas.
Es bethesda siuendo Bethesda,
¿Os acordais como salio The Witcher 3 ?Fue y es tremendo Juegazo,,pero el dia de su salida madre mia..hasta psado un año o asi era apena jugable(para mi)..
¿Os acordais de como salio el Cyberpunk 2077?Otro tremendo juego,pero con mas bugs de los deseables.Estuvo"bien" casi pasado un año de el lanzamiento.
¿Starfield?para e lverano que viene sera jugable.Relax,mucho relax.
Yo por mi parte,si no desbloquean DLSS,lo jugare en Game pass o Sparrow.Por quye si un friki en su casa hace mods a los tres dias para que haya DLSS,la compañias tambien podrian hacerlo.
Y los juegos "optimizados AMD" suelen ser juegos "desoptimizados para todo el mundo" como el jedi Survivor o The Last of Us.
En fin,tenia mucho Hype con el juego...peo se me paso la sobre excitacion y me eh convertido en un potencial cliente jodidamente pre-cabreadoY eso sin descargar un byte en mi disco duro. ¬_¬
Buenas,

soy suscriptor de Game Pass, tengo unas Series X y un PC. Me estoy planteando pillar el extra de la ampliación a versión deluxe (o como se llame) por 35 pavos.

Ya me he informado y funcionará correctamente aunque no haya "comprado" el juego base, simplemente teniendo el game pass activo.

Las dudas empiezan cuando al ir a hacer la reserva me preguntan qué versión quiero. Yo pensaba que al ser un juego play-everywhere podría descargarlo en pc y en la consola y jugar donde me apeteciera más.

Parece que el juego base sí funciona así, pero para el DLC no me queda claro. Si compro el DLC en pc, lo tendré disponible en consola?

Y luego la otra duda es, en caso que el DLC sólo puediera jugarlo en el sitio en el que lo compre... dónde me compensa más jugarlo? Pensaba jugar en consola, pero el tema MODS parece que son muy importantes en los juegos de esta gente (es mi primer juego suyo). En ese caso, mejor PC? Y de optimización cómo iremos? Tengo un 5800X y una 5700XT. No es para jugar a 4k ultra, desde luego, pero no soy tan exquisito. Si tengo que bajar algo, sin problema. Pero a la vista de los últimos ports, me da miedo q salga una castaña injugable en pc...

qué tenéis pensado hacer los demás?
@Fry77 Con lo del DLC, lo normal es que vaya asociado donde lo compres, no creo que sirva para las dos versiones.
En mi caso lo voy a jugar en PC porque no tengo más remedio, pero si pudiese jugarlo en consola (tengo la One X), no lo haría por los 30fps rocosos... una vez el ojo se acostumbra a más de 30 como es mi caso no se puede volver a eso. Si en PC saco 40, ya será más [+risas]

salu2
Hay algun precedente de juego patrocinado o pro AMD que haya tenido tambien Dlss o ya podemos confirmar que no va a traer ninguna tecnologia de Nvidia???? Lo digo porque lo dais por sentado e igual si que los trae, desde la ignorancia lo digo...
preBugs, procedural, FPS, DLSS kk, FSR....queda en el tintero rayTracing o si se podrá mover con una 4090 TI Hiper MAX....y estamos todavía en Junio...y pese a todo, no puedo parar de leeros...es pura droga....
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]



Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

@spiderrrboy en esa dirección no sé, pero ayer mismo jugué al Battlefield 2042 que solo tiene Dlss.
Kavezacomeback escribió:
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]



Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

@spiderrrboy en esa dirección no sé, pero ayer mismo jugué al Battlefield 2042 que solo tiene Dlss.


¿Hay alguien que no quiera jugar al doble de FPS de lo que da el juego por sí solo?
Strait escribió:
Kavezacomeback escribió:
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]



Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

@spiderrrboy en esa dirección no sé, pero ayer mismo jugué al Battlefield 2042 que solo tiene Dlss.


¿Hay alguien que no quiera jugar al doble de FPS de lo que da el juego por sí solo?


Uff todos los que activan RayTracing XD
Strait escribió:
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]


¿No has visto los vídeos? ¿No has visto el juego a 20 fps o incluso menos?


Esos videos son de consola no de pc, al menos los 45 minutos del direct.

Pero estoy contigo no traer dlss y más con lo que ayuda en este tipo de juegos, open world, es pegarse un tiro en el pie de locos.

@Strait

Pues depende, yo prefiero jugar nativo a 60fps +
que rescalando una imagen e inventando pixels para tener 90fps.
Strait escribió:
Kavezacomeback escribió:

Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

@spiderrrboy en esa dirección no sé, pero ayer mismo jugué al Battlefield 2042 que solo tiene Dlss.


¿Hay alguien que no quiera jugar al doble de FPS de lo que da el juego por sí solo?


A costa de reescalar una imagen y inventarse pixels

No es tan bueno como lo pintan, solo os fijáis en el contador de fps y no debería de ser así
@Fry77 Estoy casi seguro d que funcionará en consola Y PC, Stevie que en PC uses la tienda de Xbox para jugarlo, no por ejemplo en Steam.

Y ya digo por qué estoy tan convencido: En la ficha dea Xbox Store, el DLC llamado Starfield: Premium Content, sale que es jugable tanto en XBOX Series como en PC

https://www.xbox.com/es-ES/games/store/ ... ZH2R9/0010
Os acordais de cuando los juegos tenian que soportar exactamente tu tarjeta gráfica ( 3DFX voodoo ...) ?

Ahora eso nos parecería una aberración, el juego soporta Vulcan o DX12, y esa capa ve que hardware hay debajo.

Pues para interpolaciónes temporales y reescalados, deberia pasar lo mismo, y NVIDIA deberia presionar para que pasase a ser parte de Vulkan y DX12, y esa capa deberia decidir si hace algo cutre por software, o si utiliza aceleración hardware de la tarjeta que esta por debajo.

El culpable de la falta de soporte de DLSS no es AMD, en NVIDIA por querer dejar a los demas fuera.
El rey de las resoluciones para jugar cojonudamente bien, bajo mi opinión, es 1440p, jugarás a todo a esos rangos de fps tan flipantes, incluso con RT, los 1440p a dia de hoy son tan estables como los 1080 fueron en su dia cuando empezó esa a asomar la cabeza, la peña se empeña en culpar a los juegos por optimización para todo, pero no, no todos los juegos están mal optimizados, la realidad es que es el hardware el que no está hecho para los 4k, puede que lleve tiempo ya esa resolución, pero está más verde que un guisante, luego vienen los disgustos, cuando ves que ese juego tiene bailes de fps incluso por debajo de 60 y piensas: "Cojones, me he gastado 2000 pavos en una puta grafica para 4k y este puto juego baja de 60????".

1440p Es el camino gaming, pero esa es solo mi opinión personal, lo que no es cierto es que todo esté mal optimizado si hablamos de jugar a 4k, lo que no está optimizado es el hardware a esas resoluciones, para mi esto es una realidad, para otros, no se, una fumada, envidia quizás [looco]
davoker escribió:El rey de las resoluciones para jugar cojonudamente bien, bajo mi opinión, es 1440p, jugarás a todo a esos rangos de fps tan flipantes, incluso con RT, los 1440p a dia de hoy son tan estables como los 1080 fueron en su dia cuando empezó esa a asomar la cabeza, la peña se empeña en culpar a los juegos por optimización para todo, pero no, no todos los juegos están mal optimizados, la realidad es que es el hardware el que no está hecho para los 4k, puede que lleve tiempo ya esa resolución, pero está más verde que un guisante, luego vienen los disgustos, cuando ves que ese juego tiene bailes de fps incluso por debajo de 60 y piensas: "Cojones, me he gastado 2000 pavos en una puta grafica para 4k y este puto juego baja de 60????".

1440p Es el camino gaming, pero esa es solo mi opinión personal, lo que no es cierto es que todo esté mal optimizado si hablamos de jugar a 4k, lo que no está optimizado es el hardware a esas resoluciones, para mi esto es una realidad, para otros, no se, una fumada, envidia quizás [looco]



Esta claro que el punto dulce son los 1440p.
Para mi 1080p y para alguien minimamente analitico, IMO,es una resolución desfasada y desde hace ya unos años además. Y el 4k pues ..."es caro" de mantener.

En lo que si discrepo con tu mensaje, es en una cosa, lo que si podría estar en pañales es Rt+4k .

Sin Rt juegas a 4k60fps+ a todo con el ejemplo que pusiste y con inferiores también.
d2akl escribió:
davoker escribió:El rey de las resoluciones para jugar cojonudamente bien, bajo mi opinión, es 1440p, jugarás a todo a esos rangos de fps tan flipantes, incluso con RT, los 1440p a dia de hoy son tan estables como los 1080 fueron en su dia cuando empezó esa a asomar la cabeza, la peña se empeña en culpar a los juegos por optimización para todo, pero no, no todos los juegos están mal optimizados, la realidad es que es el hardware el que no está hecho para los 4k, puede que lleve tiempo ya esa resolución, pero está más verde que un guisante, luego vienen los disgustos, cuando ves que ese juego tiene bailes de fps incluso por debajo de 60 y piensas: "Cojones, me he gastado 2000 pavos en una puta grafica para 4k y este puto juego baja de 60????".

1440p Es el camino gaming, pero esa es solo mi opinión personal, lo que no es cierto es que todo esté mal optimizado si hablamos de jugar a 4k, lo que no está optimizado es el hardware a esas resoluciones, para mi esto es una realidad, para otros, no se, una fumada, envidia quizás [looco]



Esta claro que el punto dulce son los 1440p.
Para mi 1080p y para alguien minimamente analitico, IMO,es una resolución desfasada y desde hace ya unos años además. Y el 4k pues ..."es caro" de mantener.

En lo que si discrepo con tu mensaje, es en una cosa, lo que si podría estar en pañales es Rt+4k .

Sin Rt juegas a 4k60fps+ a todo con el ejemplo que pusiste y con inferiores también.

Si, realmente es mas cosa del RT, pero según el juego a 4k con esa 4090 lo ves por rango de fps de 50 incluso sin RT, uno de esos ejemplos es de CP2077:



Pero es que tienes cientos de vídeos con otros juegos donde ves el mismo caso, despues de ese fragmento activa el RT pero con DLSS y va bien, despues muestra con RT sin DLSS y estamos viendo 35 fps incluso menos, es ridículo, y no pasa solo con este juego como digo, no tenemos hardware decente para esta resolución para juegos que podamos considerar top, y se han hecho pruebas con juegos que ya tienen algunos años, ya no se les puede considerar top gráficamente si quiera.

La conclusión que saco es la misma, 1440p es la mejor resolución a día de hoy para jugar cómodamente a todo [beer]
@Kavezacomeback
Tu mensaje es troll no ? A tu niño lo tienes con monitor 4k que vale una pasta o es una tele y nos quieres vender la moto. Un monitor 4k cuesta desde casi 400€ hasta 1000€.

No me puedo creer que nadie pille un monitor 4k porque esos monitoress se acompañan de bestias de pc no para ir en ruedines.
No paras de insistir con reírte de las innovaciones en videojuegos como el ray tracing y el dlss. No cuentes cuentos se ve por dónde vas.
Es muy triste que la manera de competir de AMD sea a golpe de talonario privando al consumidor del resto de tecnologías de la competencia:

Imagen

La norma cuando el patrocinio es de AMD es ofrecer únicamente su "flamante" FSR, en el caso contrario no ocurre, y se ofrecen ambas técnicas de escalado.
Los únicos juegos que no tienen FSR son previos a la aparición de esta tecnología, FSR 1.0 se liberó en junio 2021, hace 2 años.

Ya podían invertir ese dinero en I+D en cuanto a raytracing y el FSR que a día de hoy sigue en pañales.
Kavezacomeback escribió:
davoker escribió:Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]



Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

@spiderrrboy en esa dirección no sé, pero ayer mismo jugué al Battlefield 2042 que solo tiene Dlss.


¿ No entiendes que si algún día compras una Nvidia y vuelves a jugar el juego, tendras SI o SI un 50 % menos de rendimiento porque no usa la generación de frames ?

¿Que con una tarjeta de 400 euros como la 4060 vas a doblar el framerate SI o SI mientras una grafica de AMD de 800 o 1000 euros no te lo asegura , porque el juego puede estar limitado por CPU?

Madre mia, JAJA.

Por lo menos que AMD saque un generador de frames que funcione, hasta entonces solo estará limitado el funcionamiento del competidor, via talonario.
elbuscador escribió:@Kavezacomeback
Tu mensaje es troll no ? A tu niño lo tienes con monitor 4k que vale una pasta o es una tele y nos quieres vender la moto. Un monitor 4k cuesta desde casi 400€ hasta 1000€.

No me puedo creer que nadie pille un monitor 4k porque esos monitoress se acompañan de bestias de pc no para ir en ruedines.
No paras de insistir con reírte de las innovaciones en videojuegos como el ray tracing y el dlss. No cuentes cuentos se ve por dónde vas.


Yo por eso ya no le conteste más ayer, desde que dijo que usa fsr en 1080 y que no nota que empeora la imagen, pues xD. Y viendo hoy esto de como le contesto a davoker...

davoker escribió:
Entonces ya sabemos que el juego va ir mal de rendimiento? joder, si es que ya no hace falta jugarlos, tenemos toda la info por adelantado, luego dicen de prensa, somos unos privilegiados [looco] [looco]

-------
Pataleta del que tiene una RTX 4xxx [qmparto]

Esto es normal por otra parte, se han gastado la pasta en esto y quieren que todo lo implemente.

------


No alimenteis al troll , aunque bueno, todo sea por las risas.
Este artículo de wccftech está bastante bien:
What’s Up With The Missing NVIDIA DLSS Support In AMD Sponsored FSR Titles?

We reached out to AMD for their comment and they once again commit to an open approach that is broadly supported by console and competitive solutions.

To clarify, there are community sites that track the implementation of upscaling technologies, and these sites indicate that there are a number of games that support only DLSS currently (for example, see link).

AMD FidelityFX Super Resolution is an open-source technology that supports a variety of GPU architectures, including consoles and competitive solutions, and we believe an open approach that is broadly supported on multiple hardware platforms is the best approach that benefits developers and gamers. AMD is committed to doing what is best for game developers and gamers, and we give developers the flexibility to implement FSR into whichever games they choose.

AMD Spokesperson to Wccftech

NVIDIA does not and will not block, restrict, discourage, or hinder developers from implementing competitor technologies in any way. We provide the support and tools for all game developers to easily integrate DLSS if they choose and even created NVIDIA Streamline to make it easier for game developers to add competitive technologies to their games.

Keita Iida, vice president of developer relations, NVIDIA


No se debaría debatir qué es mejor, si 1440p, 4k con DLSS, o el que juega a 1080p con FSR, que cada cuál juegue como le de la gana o con los medios que tiene, pero que bloqueen y prohiban el uso de tecnología de la competencia es una práctica horrorosa.

Que cada cuál saque sus propias conclusiones.
@Cuentaparacomentario el que no entiende eres tu. Ahora mismo Nvidia limita según series, mañana limitara según gamas y le reís la gracia mientras que FSR es algo que puede ir en todas.

Yo entiendo si tienes una lo quieras, entiendo lo mejor en meter todo, pero también entiendo que de tener que elegir uno y por fuerza dejar fuera a los demás prefiero incluya FSR.

@elbuscador pues de troll nada, no voy a poner el monitor solo para que veas es cierto si quieres lo crees y si no pues me da igual. En este caso lo compre hace ya unos años y me costo unos 400€ y el de 1080p 170Hz (eso dice MSI) no es que me lo hayan regalado que han sido 220€ (bueno 240€ con un seguro de un año).

Imagen
mini facebook com

Mira una prueba que me pillaba bien, junto a un ventilador de AliExpress que pille por 21€ :p


-------------------------------------------------------------------------------

Por cierto, ¿qué veis mejor de las siguientes opciones? A) Monitor 1080 y tirar de Super Sampling o B) Monitor 4K y jugar con DLSS
@d2akl

No me lo había leído todo pero es que vaya tela.

No me refiero al 1080p que será el tuyo sino al monitor 4k palchaval con la encarta ahí toflama.

No os pongáis a discutir el juego tendrá dlss de una forma u otra. Este será como los de Ms que tienen fsr y dlss3.0 como el Horizon 5 o como Last of us. Al final en grandes títulos muy amados se haga en jedi no se ha hecho todavía por algo básico, lo siguen parcheando cada 3/4 semanas con Bugs importantes.

El rendimiento ya sabemos cómo será para jugarlo como los últimos lanzamientos. Quieres asegurarte que te funcione 4080/7900xtx para arriba. Siempre estoy referiendome al virus del ultritis y de 4k/1440p 120.

Aunque claro este juego tendrá que correr en una triste serie s que será como un portátil gamer de hace años con una 1060ti. Entonces no deberíamos preocuparnos. Ms sus juegos salen ready no le creo que starfield en series s salga mal aunque sea 640p.

Eso sí pensar que este juego con la iluminación del vídeo del direct se veía flipante sobretodo los escenarios parecían reales gracias a la estupenda iluminación.

Una 2080 rinde como una 4060 literalmente. Así que el recomendado es la 4060.

Imagen
A Plague Tale: Requiem también corre en un XSS, deja fuera a FSR y no veo tanto lloro....
Kavezacomeback escribió:Por cierto, ¿qué veis mejor de las siguientes opciones? A) Monitor 1080 y tirar de Super Sampling o B) Monitor 4K y jugar con DLSS



Veo mejor no gastarte un pastizal en gráficas de transición.

¿Porque digo esto?

Se han abierto dos caminos demasiado pronto (resoluciones 4k y RT), y la "solución" ha sido crear técnicas de empeoramiento de la imagen para soportar estas dos cosas juntas. No es que suene bonito precisamente.

DLSS, patatin, patatón y soluciones que mejoran rendimiento a costa de calidad, según se implementen, pueden ser aceptables, pero desde luego no son el camino. Nunca ha sido el camino empeorar la calidad de la imagen...

Pero algo tenían que inventar, porque han metido con calzador el 4K y luego se han sacado de la manga el RT para aumentar el brilli brilli sin tener que currarse las simulaciones. Y a día de hoy, no hay hardware que soporte ambas cosas juntas con soltura.

Ciertamente, la buena acogida de el DLSS y demás técnicas similares, es algo que no me parece nada positivo, que por otro lado entiendo perfectamente que el usuario tire de ellas. La pasión por su implementación ya no tanto.

Pero bueno, menos mal, que estas gráficas de "transición" las venden baratitas.... [qmparto]
@Caos1 ya veras cuando llegue mañana que lanzan la 4060 los que pretenden jugar a 4K a este juego con esa o con una Ti [qmparto]

Troll dicen.... madre mía que fanatismo.
Strait escribió:@Kavezacomeback Hombre, un poco troll sí que pareces.


¿Por el monitor o por decir de elegir una solo tecnología prefiero FSR por que beneficia a todos y no solo los que tienen nvidia?
Kavezacomeback escribió:@Caos1 ya veras cuando llegue mañana que lanzan la 4060 los que pretenden jugar a 4K a este juego con esa o con una Ti [qmparto]

Troll dicen.... madre mía que fanatismo.



Querer jugar a 4k con una 4060 o la ti, ya sea en este o en otro juego, minimamente actual, es de saber por donde no viene el viento.
Es una tarjeta puramente enfocada a 1080p y a usar DLSS 3 en esa resolución, que manda eggs.


Quien la compre pensando en eso, en 4k, incluso te diria que se lo merece [carcajad] [carcajad]
@Kavezacomeback
Primero enseña el de 4k no el 1080p.

Jugar a 1080p es un poco de 2016 y más meterle tonterías para mejorar el iq cuando a esa resolución los pixeles son gigantes.
No te entiendo, literalmente nadie que he conocido en mi vida que tiene dlss dice que prefiere que venga con fsr. Pero es que nadie, por algo será que los gente quiere fg.
Disculpa si me equivoco pero hatear al dlss y luego al rtx huele a tengo una amd y prefiero fsr que nada. Y como el ray tracing solo se puede activar porque jugar no pues también hate.

Lo del plague es por lo que he comentado antes tenemos todos un complejo de ultritis y jugar en medio como las consolas no nos gusta y muchos menos en bajo. Pero bueno viendo los requerimientos 2080 y 6800, los de 3060 y 4060 sufrirán como perros.
@elbuscador no ves bien la foto :-? Igual es por que no es 4K (creo no lo he comprobado).

Veo no entiendes lo que digo, eres un fanboy? Imagino que sí.
Se está animando el hilo que últimamente estaba muerto...
Imagen
elbuscador escribió:@Kavezacomeback
Primero enseña el de 4k no el 1080p.

Jugar a 1080p es un poco de 2016 y más meterle tonterías para mejorar el iq cuando a esa resolución los pixeles son gigantes.
No te entiendo, literalmente nadie que he conocido en mi vida que tiene dlss dice que prefiere que venga con fsr. Pero es que nadie, por algo será que los gente quiere fg.
Disculpa si me equivoco pero hatear al dlss y luego al rtx huele a tengo una amd y prefiero fsr que nada. Y como el ray tracing solo se puede activar porque jugar no pues también hate.

Lo del plague es por lo que he comentado antes tenemos todos un complejo de ultritis y jugar en medio como las consolas no nos gusta y muchos menos en bajo. Pero bueno viendo los requerimientos 2080 y 6800, los de 3060 y 4060 sufrirán como perros.

Muy de 2016

1024 x 768 0.20%
1280 x 800 0.46%
1280 x 720 0.26%
1280 x 1024 0.57%
1360 x 768 0.96%
1366 x 768 5.22%
1440 x 900 1.95%
1600 x 900 1.40%
1680 x 1050 0.92%
1920 x 1200 0.71%
1920 x 1080 64.33%
2560 x 1080 0.87%
2560 x 1600 2.19%
2560 x 1440 12.88%
3440 x 1440 1.52%
3840 x 2160 2.68%
@elbuscador Exageras compi, la 2080 es de hace 2 generaciones ya, y aun que algunos se empeñen en que no hay grandes diferencias con series más modernas, cuando sacan nuevas generaciones hay claras diferencias a nivel de rendimiento.

La RTX 2080 (normal) es apenas un 20% (poco más) más potente que una 3060, por lo que las que tengan esa gráfica podrán jugar con el requisito recomendado de la 2080 de forma más que digna quizás bajando un punto en la calidad de alguna de las opciones que más suelen consumir en los juegos (calidad/distancia de sombras, diferentes opciones que hacen referencia a la iluminación, etc), y no tendrán que bajarlas demasiado y no notaran grandes diferencias visuales salvo que tengas ojo biónicos :-|

Me pones la 4060 despues, y la "ti" precisamente le pasa la mano por la cara a la 2080 "normal", tal cual, es mejor gráfica y rinde mejor para juegos, si pones la 2080ti a su lado distan muy poco, como en todo benchmark, "según el juego", hablamos de que la 2080ti puede sacarle 15 o algún fps más a la 4060ti, pero en otros, hablamos de diferencias de 1 a 5 fps, osea, nada, por lo que la 4060 es igual de digna para jugar con los requisitos del juego que piden con la 2080 casi con la misma soltura, nada que no arregle ajustar un "poquitín" los ajustes gráficos.

Para mi que pidan en recomendados una gráfica de hace 2 generaciones no me parece ni exagerado ni es signo de poca optimización, que pidieran una 4080/90 si sería preocupante, la 4080 es casi el doble de potente para juegos, mucho más rendimiento que la 2080, pero vamos, no quiero confundir con esto, la 2080 va ser una gráfica perfecta para jugar unos cuantos años más, pero evidentemente las nuevas generaciones traen mejoras, y se va viendo poco a poco como las XX80 se van quedando cortas con las comparadas con las XX60 de nuevas generaciones, es el sino del avance en estas tecnologías [+risas]

Caos1 escribió:
Kavezacomeback escribió:Por cierto, ¿qué veis mejor de las siguientes opciones? A) Monitor 1080 y tirar de Super Sampling o B) Monitor 4K y jugar con DLSS



Veo mejor no gastarte un pastizal en gráficas de transición.

¿Porque digo esto?

Se han abierto dos caminos demasiado pronto (resoluciones 4k y RT), y la "solución" ha sido crear técnicas de empeoramiento de la imagen para soportar estas dos cosas juntas. No es que suene bonito precisamente.

DLSS, patatin, patatón y soluciones que mejoran rendimiento a costa de calidad, según se implementen, pueden ser aceptables, pero desde luego no son el camino. Nunca ha sido el camino empeorar la calidad de la imagen...

Pero algo tenían que inventar, porque han metido con calzador el 4K y luego se han sacado de la manga el RT para aumentar el brilli brilli sin tener que currarse las simulaciones. Y a día de hoy, no hay hardware que soporte ambas cosas juntas con soltura.

Ciertamente, la buena acogida de el DLSS y demás técnicas similares, es algo que no me parece nada positivo, que por otro lado entiendo perfectamente que el usuario tire de ellas. La pasión por su implementación ya no tanto.

Pero bueno, menos mal, que estas gráficas de "transición" las venden baratitas.... [qmparto]
Totalmente de acuerdo, me parece una descripción bastante acertada, "gráficas de transición", cuando los 4k con RT sean estables de verdad y permitan jugar a FPS dignos que no provoquen urticaria visual por falta de fluidez, probablemente ya estemos en las RTX modelos 80XX? o algo así [+risas] los 1080p tardaron años en ser digamos estables como digo, cuando a los 4k ni se le olía salían juegos que hacían más que poner a prueba las gráficas top, mucho se tardó en decir "con esta gráfica juegas a todo a 1080p con todo al máximo tenga lo que tenga el juego", y aún así, a esa resolución y poniendo de ejemplo una RTX 4070, ahí es nada, si hablamos de RT en juegos como CP2077, bajamos hasta de 60 fps -> https://youtu.be/O901gvsdQd8?t=754

Y es 1080p oiga, encima con DLSS activado y toda la pesca [qmparto] hay mil ejemplos como ese, asi que si, no hay gráficas actualmente capaces de mover algo de forma decente con RT activado porque aún no tenemos la tecnología necesaria para hacerlo, pero como se la han sacado de la manga pues tienen que inventarse lo que se inventan [fiu]

En lo personal, lo dije más atrás, 1440p me parece el "punto dulce" como dijo otro compi atrás, pero con RT palidece cualquier resolución, creo que no hay mejor prueba que esa para entender que aún no tenemos nada para jugar decentemente con esa tecnologia, pero vaya, es solo mi opinión, me está empezando a dar miedo como se pone esto a la hora de opinar nada, ya han empezado a poner "sellos" [mad] [qmparto] [qmparto]

P.D: @metalgear He tenido que darle unas 6 veces (a enviar el mensaje) a "atrás" en el navegador, darle a actualizar para que recupere el mensaje y a enviar de nuevo, este proceso 5 o 6 veces, para que el mensaje se envie, porque no lo enviaba, me devolvía al hilo y como si no hubiera enviado nada, esto me pasa a diario más de una vez y solo me pasa con este foro concretamente, estoy empezando a pensar que EOL no se lleva bien con chrome como navegador, porque he probado a tener desactivado mi "adblock" en el foro durante meses para ver si ese era el problema y seguía pasando lo mismo, y recuerdo haber leído que esto le pasa a más gente y de hecho había hilos en feedback comentado esto, no he probado más navegadores, asi que solo puedo pensar que es un problema con el chrome? aun que esto no parece pasarle a la mayoría evidentemente, asi que no se, una rayada [+risas]
@anibaltw
Tú tienes una 1060 o una de sus variantes ?
Las medias son eso medias, decir que jugar a 1080p metiéndole sma es mejor que jugar a 1440p es de chiste.
Entiendo el paradigma de la media es una 1060 todo lo que no lo pueda mover se morirá de hambre. Pues starfield la deja fuera mínimo una 1070.
Es normal si queremos que los juegos se vea mejor no ?

La 2080 es mejor que una 3060 y la 4060 es similar. Si he nombrado a la tinha sido un descuido. Eso son los recomendados no los de jugar a 2k en ultra y luego baja son los recomendados, los ya son medios y bajos. Una 2080 es como poner recomendados una 3060ti similar. Ya la gente diría ostia que no está ni en recomendados mi gráfica.
@davoker ahi te has equivocado, la 4070 con rt va sobrada a mas de 130 fps. Lo que tu has puesto es el pathtracing

@elbuscador creo que no me querias citar a mi
9412 respuestas