[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Viendo lo que se dice de que no renta comprar de salida una gráfica tope de gama, yo creo que eso tiene matices porque si uno compra pensando en cambiar a penas salga algo más potente pues no tiene mucho sentido para eso uno se compra lo que de el rendimiento que uno busca ejemplifiquemos el asunto con las ultimas graficas de nvidia en el escenario de 1080p ultra con juegos actuales de los cuales ya dejé una imagen en este hilo más sin embargo dejo el link y los escalados de ganancia en porcentaje de techpowerup comparados con la 3080 Ti

30% - GTX 980 TI - JUNIO 2015 - no llega a los 40fps
50% - GTX 1080 TI - MARZO 2017 - entre 60fps Y 80fps
64% - RTX 2080 TI - SEPTIEMBRE 2018 - entre 80fps y 100fps
100% -RTX 3080 TI - MAYO 2021 - supera los de 120 fps

el punto es que por ejemplo el compro una GTX 980 Ti de salida es la persona que debería estar pensando en un upgrade después de 7 años y cualquier cosa por encima de una RTX 3060 ya es ganancia, las demás graficas aún son competentes a día de hoy y no encuentro realmente un motivo de peso para tener que cambiar a día de hoy el punto es que se puede jugar bien

entiendo que exista gente que se pueda permitir tener siempre lo más top y pague por ello lo que le corresponda, pero eso no quiere que no rente a un usuario de a pie tener una gráfica tope de gama y tenerla hasta el momento que ya no le permita jugar en las resoluciones y calidades que uno quiera o este acostumbrado

estoy de acuerdo es que uno va estar cambiando para no quedarse "desactualizado" uno no compra lo más top uno compra lo que le da el rendimiento que necesite.... pero si la idea es ir haciendo upgrade uno tarde o temprano terminara llegando a las gráficas tope de gama porque uno no cambia pan por pan y llegado a ese punto te das cuenta que no necesitas una gráfica tope de gama para tener una buena experiencia de juego y el ciclo vuelve a repetirse

Ahora como punto aparte los sigan pensando que el Raytracing solo va por la iluminación y sombras y dicen que eso no renta y que la mejora no es mucha y etc etc etc y si miras los resultados no pueden tener mas razon.. pero eso no está solo para tener mejores gráficos... esta para poder simplificar el desarrollo de juegos y lograr tener un único sistema donde el desarrollador pueda crear sus proyectos... y pues como todo entra por los ojos pues no lo venden como una mejora gráfica y es más que eso, creo que nate gentile es que, más fácil lo ha explicado en su video "Lo que NO te contaron sobre Ray Tracing" lo dejo por aca si a alguien le interesa informase mas



y con respecto a las correcciones que se están haciendo con respecto a las especificaciones se las RTX 4000 no se supone que básicamente ya entraron en producción para las que ya se van a vender este año sea cuales sean..ósea yo lo veo raro.. no creo que en la planta les digan oigan cambiamos las especificaciones paren todo ajusten lo que ya se hizo y las nuevas se hacen ya con los cambios... porque dudo mucho que eso funcione así.... parece que nos estuvieran haciendo una trolleada pero monumental... o que nvidia necesita mantener las expectativas altas porque AMD como que tienen el asunto mejor resuleto, digo asi una como mi opnion
Wookiee escribió:Y bueno, contaras tus verdades, que son tan discutibles como las de cualquiera. Para mi es una verdad que si te cambian a pelo la tuya por una 3080 pierdes el culo, del mismo modo que tambien es una verdad que otra cosa es que fueras a reconocerlo.

No seas tan arrogante de pensar que todos funcionamos siguiendo la misma logica mentirosa que seguramente tu sigues porque afirmas que los demas mentimos. [bye]

@garbaje_de_potanzos Red Dead Redemption 2 creo recordar que usa texturas hd tambien con la misma bara de medir, otro que comente es el Deathloop y apostaria a que más juegos de Ubisoft hacen lo mismo, asi como los futuros desarrollados con Dunia de Avatar y si no lo cancelan de Star Wars. Dunia es el motor del Far Cry para quien no lo sepa.
garbaje_de_potanzos escribió:@Nomada_Firefox No se no me viene a la mente otro juego así bruto con las texturas y memoria, aunque recuerdo que Control ponerlo con RTX y ajustes altos me ponía las texturas borrosas a veces, sería curioso verlo correr en una 3080 a 4k a ver si hace lo mismo.

Control lo jugué hace poco y el problema con las texturas es un bug, posiblemente por mala optimización, si miras gameplays le pasa a mucha gente con gran variedad de gpu's, yo tuve que bajarme un mod para solucionarlo, está en el hilo de control.
hilo_ho-control_2289554_s600#p1752785308
La culpa es de los desarrolladores.


El juego además tiene un problema de delay con la voz/sincronización labial, por lo menos en los diálogos en castellano, por cierto, el doblaje es penoso.
No quiero seguir ensuciando el hilo pero es que este mensaje del foro overclockers sobre los 10 GB de la 3080 esta gracioso [+risas]
Tienen un hilo de mas de 300 paginas sobre el tema https://forums.overclockers.co.uk/threads/10gb-vram-enough-for-the-3080-discuss.18897519/page-314

Escenario

Se pregunta si son 10 GB suficientes en un 3080.

-Los usuarios imparciales del foro comienzan a explicar que 10 GB son suficientes en el 99,9 % de los escenarios.
-Muchos explican que prefieren el precio más bajo que se les ofrece al tener menos vram y que el vram adicional se suma al costo de la tarjeta y el costo adicional no vale la pena para ellos.
-Algunos explican que incluso después de dos años, todavía hay un solo juego que vale la pena jugar y que necesita más de 10 gb.
-Otros explican que el problema con el 3080 es que se queda sin gruñido antes que vram la mayoría de las veces.

Una vez que hemos llegado a esta etapa, puede ocurrir una de tres cosas; aceptación, deflación o negación.

*Aceptación
El usuario acepta las razones expuestas anteriormente y sigue adelante.

*Desviación
Los usuarios del foro ignoran los ejemplos provistos y se desvían usando una pregunta que está diseñada de tal manera que se necesita un solo ejemplo de 10 gb que no son suficientes.
Un título patrocinado por AMD llamado Godfall (un juego en el que nadie aquí en este foro está interesado) se usa ampliamente para responder a esta pregunta cuidadosamente construida mientras se espera que surja algo bueno (ningún otro juego obligatorio lo hace).
Otro título patrocinado por AMD que no cumple con las expectativas pero es mejor que Godfall comienza a usarse.
De repente, Godfall ya no se usa como ejemplo como si ni siquiera existiera y Far Cry 6 se convierte en el nuevo poster child que se usa exclusivamente para responder a esta pregunta.

Los usuarios imparciales intentan explicar una vez más que la cantidad de personas interesadas en jugar FC6 y resulta ser un 4K es muy pequeña. En este punto llegamos a la negación.

*Negación
No me importa lo que digan los demás, no se alinea con mis creencias y, por lo tanto, seguiré impulsando mi narrativa usando mi pregunta cuidadosamente enmarcada cada vez que surja el tema.


@Nomada_Firefox Tio para animar el foro eres el numero uno, me da pereza debatir contigo de las perlas que sueltas [qmparto] De buen rollo, un saludo!
Namaskar está baneado por "clon de usuario baneado"
Yo en el far cry 6 sí tuve mala experiencia con la 3070 con las texturas y demás en ultra a 4k pero con la 3080 nunca se me llegó a atravesar en ningún caso. También he decir que las memos las llevaba a 22ghz casi siempre y la verdad que todo el tiempo que la tuve y jugué en 4k con ella se comportó de 10.

Puedo decir que en 17 meses que la tuve probé muchos juegos, algunos los terminé y otros no pero en cualquier caso siempre solía jugar en 4k todo alto/ ultra y cumplía fenomenal por los 850 que me costó.

El viernes seguramrnte me llegue la 3090ti y la someta a alguna prueba extrema en 8k , a ver que tal si esos 24 gigas bien subiditos lo soportan.
RTX 4080: un 70% más rápida que la RTX 3080 ¡y con el mismo consumo!
https://elchapuzasinformatico.com/2022/ ... endimiento

- Buena noticia para nuestros bolsillos (factura de la luz) y para el planeta...
- ... a no ser q por la nueva relación hashrate/consumo el minado se vuelva factible, otra vez
- Si aparece a buen precio, corran a comprarla, insensatos!

Sobre la Vram, mejor curarse en salud y partir de 12GB en adelante.
EMC2 está baneado por "Troll"
Yo voy esperar que AMD saque las suyas para ver el panorama y elegir la mejor rendimiento/precio.

Y de ser ciertos los rumores el otro mes se presentarían ya estarian cercas.
Si las filtraciones ya de base son para cogerlas con pinzas si encima te las cambian a cada rato, es una perdida de tiempo seguir especulando
BladeRunner escribió:RTX 4080: un 70% más rápida que la RTX 3080 ¡y con el mismo consumo!
https://elchapuzasinformatico.com/2022/ ... endimiento

- Buena noticia para nuestros bolsillos (factura de la luz) y para el planeta...
- ... a no ser q por la nueva relación hashrate/consumo el minado se vuelva factible, otra vez
- Si aparece a buen precio, corran a comprarla, insensatos!

Sobre la Vram, mejor curarse en salud y partir de 12GB en adelante.


yo no me creo nada sabiendo que traen nuevo conector de alimentación y las fuentes que están saliendo con ese nuevo conector, no bajan de los 1000 watios...

habrá que esperar a que las presenten oficialmente
JaviGabber escribió:No quiero seguir ensuciando el hilo pero es que este mensaje del foro overclockers sobre los 10 GB de la 3080 esta gracioso [+risas]
Tienen un hilo de mas de 300 paginas sobre el tema https://forums.overclockers.co.uk/threads/10gb-vram-enough-for-the-3080-discuss.18897519/page-314

@Nomada_Firefox Tio para animar el foro eres el numero uno, me da pereza debatir contigo de las perlas que sueltas [qmparto] De buen rollo, un saludo!

Yo en estos dos años el único problema de VRAM que he tenido ha sido con la VR. Porque al final quieres que se vea de locos, así que te coges el TWD o el Alyx y a la mínima que le subas un poco la resolución la lías, porque ya la propia interfaz de las Oculus (en mi caso) y de Steam VR te pillan varios GB de VRAM sin haber iniciado el juego.

Pero bueno, quitando ese caso específico, para jugar a 1440p a cualquier juego al máximo, 0 problemas en general. Si se me escapa algún caso específico del cual me esté olvidando, entonces lo dejamos en que con el 99% de los juegos hay 0 problemas con 10GB de VRAM. Eso sí, en cuanto salga la nueva serie 4000 me cambio en busca de un modelo con más VRAM. Como decía, para temas de VR 10GB son demasiados justos.
El hilo yo diría que está saliendo calcado al del año pasado de las RTX3000, clónico. Mismas verdades, mismas chorradas, mismas excusas, mismos envidiosos hipócritas, etc etc etc.

A ver esas 4000 jugosas si salen de verdad este año y a que precios. Si se cumple un poco lo que se va filtrando y tal, basicamente son GPUS para ir pensando ya en el 8k como algo muy real y palpable, porque en el tema rendimiento de RT, por mucho que mejoren, y debido sobre todo al "lastre" que son las consolas, pocos estudios o ninguno se van a molestar en mejorar la implementacion del trazado de rayos en las versiones de PC de los juegos.

Bueno, para ir pensando en el 8k me refiero con graficos ya en calidades top, y por supuesto, para ir viendo como algo asequible (pagandolo claro, entiendase) los 4k 120 e incluso mas.

Yo he tenido todo tipo de graficas, unas veces mejores, otras peores, pero siempre LA MEJOR que me he podido permitir en cada momento, y nunca me he arrepentido ni me he sentido insatisfecho ni he pensado que jugando en calidades medias o a 40 frames o a menos resolucion me sobraba. Por eso se les tilda de productos "entusiastas", como pasa con cualquier tipo de producto, desde un colonia, hasta unas gafas de sol, pasando por muebles, coche, ropa y hasta mascota. Cada uno es feliz con lo que le mueve la patata, y no hay mas infeliz, por desgracia, que el que quiere algo que no se puede permitir, siendo yo el primero infeliz en ese sentido en multitud de escenarios. Pero no reconocer eso y saltar a las excusas y las teorias de la conspiracion, yo siempre lo veré absurdo y nunca, nunca, me lo creere. No creo que nadie prefiera "por que sí" pan y cebolla a un buen filete, un buen pescado, o el mejor tofu, que se yo. Se entiende la idea.

Mi ultima compra fue a un compi en estos mismos foros, una 3090 que tuvo el detalle de venderme a precio de lanzamiento a pesar de que en ese momento ya estaba subiendo la especulacion como la espuma, y aunque nme han hecho ofertas realmente fuera de sentido (3000 euros, una locura) no la he vendido porque no me ha dado la gana, porque no necesitaba expresamente ese dinero y muy mucho por respeto al compañero que me la vendió a pesar de recibir ofertas mas altas durante los dias de los tratos, por haberse comprometido primero conmigo. Y oye, venía de una 2080Ti y SI HE NOTADO MUCHISIMA MEJORA. Ostia que si se nota como cambia la cancion [qmparto] [tadoramo] . La mejor compra a nivel de hardware que he hecho en mi vida, y ademas es el modelo que quería desde que se anunciaron las 3000 y se supo que se lanzaría.

Evidentemente, yo no la uso solo para jugar, tambien para algo de edicion y sobre todo creacion 3d, render y animacion, y es la polla tener, a nivel "amateur", un maquinon asi, el cambio en los tiempos de produccion de los trabajos y el aumento de posibilidades en las cosas que puedo hacer, son otro mundo. Ahora, ya acostumbrado, a veces se me queda "corta", porque llevo el limite tan tan mas allá, que ni la 3090 puede, pero como yo, en mi perfil de usuario, ya he llegado a ese limite, y lo estoy deseando rebasar, tengo claro como el dia que en cuanto se concrete que las 4090 existen y van a salir, me tiro a por ellas de cabeza. Ahora mas que nunca tengo cero dudas de que es una inversion de la que no me voy a arrepentir, porque yo tambien pensaba que "total" de la 2080Ti a la 3090 tampoco iba a notar tanto cambio... Y sí.

Todo está en el tema del perfil de usuario que seas. Pero en esto del hard, de las gpus, y en especial centrado en el gaming, que narices, si te dan una tope de gama, DADA, nunca vas a decir "no gracias prefiero la gama media". No te preocupes, que si la tienes ya encontraras la forma de explotarla, si sabes que terreno pisas y realmente estas dentro de este mundillo al 100%. Otra cosa son esas personas que porque se lo pueden permitir, van por ahi comprando GPUS del calibre que comento para jugar al lol a 1080, y cosas parecidas, y acaban en foros como este llorando y quejandose por las esquinas de lo mucho que han invertido y lo poco que han sentido. Si sabes lo que quieres, y sabes lo que compras, conforme contigo mismo, lo mismo eres feliz con una 770 que con una 3090 o una 6900XT.
Si eres deshonesto contigo mismo, o quieres abordar cosas que te sobrepasan, acabas en los foros poniendo pegas y buscandole tres pies al gato.

[bye] [oki]
EMC2 está baneado por "Troll"
El Ray Tracing ya esta bien implementado en pc.
Dirás bien mal implementado porque funcionar funciona pero chupa fps como una loca.
La verdad que reducir a la mitad los frames al activarlo no lo llamaría yo "bien implementado".
EMC2 escribió:El Ray Tracing ya esta bien implementado en pc.


pues se puede dejar en que esta implementado

Nomada_Firefox escribió:Dirás bien mal implementado porque funcionar funciona pero chupa fps como una loca.


no creo que se trate de una cuestión de optimización se trata simplemente de potencia requerida, aver es que básicamente estamos hablando de una simulación no de un efecto que de la sensación de ser realista o lo suficientemente bueno para que nos "engañe"... y una simulación es tan buena como la cantidad de datos usados

el raytracing no es nuevo y hay muchas industrias que les interesaría esa "optimización" y teniendo presente que donde hacen los efectos para CGI no han encontrado otra forma que usar hardware más potente ahora ni hablemos de en videojuegos hacerlo en tiempo real

PHANTASIA escribió:La verdad que reducir a la mitad los frames al activarlo no lo llamaría yo "bien implementado".


como lo exprese anteriormente el hecho de que la industria como tal apoye/impulse el raytracing va más allá de los gráficos... pero aún falta potencia para eso y el logro actual está en hacerlo en tiempo real

yo ha esto no lo puedo comparar con otras tecnologías como Physisx, o Gsync o incluso la misma teselación porque son cosas que se añaden al rasterizado y usan las mismas técnicas más o menos refinadas que se vienen usando desde hace años para simular mundos realistas... lo mismo que usa para los reflejos

el raytracing lo que permite es cambiar todo eso y no tener que ni predefinir ni tener que trabajar cada cosa por separado y simplificar el proceso de convertir una escena 3D a 2D para verla en monitor

Edit: si me pongo a mirar lo que se ve de las filtraciones y los test, lo que vemos es aumento en potencia a costa de más consumo energético, no hay nuevas tecnologías ni novedades solo potencia y se asume que en escalas más grandes que otros saltos de generación y AMD apunta a lo mismo, para mi la industria de las gráficas depende enteramente del contenido que esta para usar ese hardware, incluso el juego en streaming por que también necesita hardware capaz de llegar a eso y moverlo, si recapitulamos vemos que se necesita más potencia, y que es necesario que la forma de hacer videojuegos cambie no se puede mantener el ritmo actual o incluso desarrollar ciertas idea de la manera correcta con las herramientas actuales, donde la tecnología te va limitar.. donde pasas más tiempo mirando que el juego no falle, rinda a nivel técnico lo mínimo para que no se te venga el mundo encima se vea bn y que las mecánicas para interactuar con el mundo que sea crea no las defina las limitaciones a la hora de crear dicho mundo.... porque la final cuando pasas tanto tiempo en eso que donde queda hacer como tal juego
Bueno lo que les toca ahora es optimizar mucho mas la técnica. Alguno igual no se acuerda que desde que apareció el Teselado con la HD 5870, AMD no dio con la tecla para que no penalizara tanto en el rendimiento de sus gráficas hasta GCN 3.0 con la serie RX 400.

Por ejemplo hace unos días AMD ha lanzado una herramienta gratuita para desarrolladores Radeon Raytracing Analizer que analiza las escenas trazadas con rayos y va indicando que zonas se podrían optimizar lanzando menos rayos y ahorrando recursos. A nivel hardware me imagino que también iran dando con la tecla para reducir el rendimiento perdido... Todo se andará
Namaskar está baneado por "clon de usuario baneado"
battman80 escribió:El hilo yo diría que está saliendo calcado al del año pasado de las RTX3000, clónico. Mismas verdades, mismas chorradas, mismas excusas, mismos envidiosos hipócritas, etc etc etc.

A ver esas 4000 jugosas si salen de verdad este año y a que precios. Si se cumple un poco lo que se va filtrando y tal, basicamente son GPUS para ir pensando ya en el 8k como algo muy real y palpable, porque en el tema rendimiento de RT, por mucho que mejoren, y debido sobre todo al "lastre" que son las consolas, pocos estudios o ninguno se van a molestar en mejorar la implementacion del trazado de rayos en las versiones de PC de los juegos.

Bueno, para ir pensando en el 8k me refiero con graficos ya en calidades top, y por supuesto, para ir viendo como algo asequible (pagandolo claro, entiendase) los 4k 120 e incluso mas.

Yo he tenido todo tipo de graficas, unas veces mejores, otras peores, pero siempre LA MEJOR que me he podido permitir en cada momento, y nunca me he arrepentido ni me he sentido insatisfecho ni he pensado que jugando en calidades medias o a 40 frames o a menos resolucion me sobraba. Por eso se les tilda de productos "entusiastas", como pasa con cualquier tipo de producto, desde un colonia, hasta unas gafas de sol, pasando por muebles, coche, ropa y hasta mascota. Cada uno es feliz con lo que le mueve la patata, y no hay mas infeliz, por desgracia, que el que quiere algo que no se puede permitir, siendo yo el primero infeliz en ese sentido en multitud de escenarios. Pero no reconocer eso y saltar a las excusas y las teorias de la conspiracion, yo siempre lo veré absurdo y nunca, nunca, me lo creere. No creo que nadie prefiera "por que sí" pan y cebolla a un buen filete, un buen pescado, o el mejor tofu, que se yo. Se entiende la idea.

Mi ultima compra fue a un compi en estos mismos foros, una 3090 que tuvo el detalle de venderme a precio de lanzamiento a pesar de que en ese momento ya estaba subiendo la especulacion como la espuma, y aunque nme han hecho ofertas realmente fuera de sentido (3000 euros, una locura) no la he vendido porque no me ha dado la gana, porque no necesitaba expresamente ese dinero y muy mucho por respeto al compañero que me la vendió a pesar de recibir ofertas mas altas durante los dias de los tratos, por haberse comprometido primero conmigo. Y oye, venía de una 2080Ti y SI HE NOTADO MUCHISIMA MEJORA. Ostia que si se nota como cambia la cancion [qmparto] [tadoramo] . La mejor compra a nivel de hardware que he hecho en mi vida, y ademas es el modelo que quería desde que se anunciaron las 3000 y se supo que se lanzaría.

Evidentemente, yo no la uso solo para jugar, tambien para algo de edicion y sobre todo creacion 3d, render y animacion, y es la polla tener, a nivel "amateur", un maquinon asi, el cambio en los tiempos de produccion de los trabajos y el aumento de posibilidades en las cosas que puedo hacer, son otro mundo. Ahora, ya acostumbrado, a veces se me queda "corta", porque llevo el limite tan tan mas allá, que ni la 3090 puede, pero como yo, en mi perfil de usuario, ya he llegado a ese limite, y lo estoy deseando rebasar, tengo claro como el dia que en cuanto se concrete que las 4090 existen y van a salir, me tiro a por ellas de cabeza. Ahora mas que nunca tengo cero dudas de que es una inversion de la que no me voy a arrepentir, porque yo tambien pensaba que "total" de la 2080Ti a la 3090 tampoco iba a notar tanto cambio... Y sí.

Todo está en el tema del perfil de usuario que seas. Pero en esto del hard, de las gpus, y en especial centrado en el gaming, que narices, si te dan una tope de gama, DADA, nunca vas a decir "no gracias prefiero la gama media". No te preocupes, que si la tienes ya encontraras la forma de explotarla, si sabes que terreno pisas y realmente estas dentro de este mundillo al 100%. Otra cosa son esas personas que porque se lo pueden permitir, van por ahi comprando GPUS del calibre que comento para jugar al lol a 1080, y cosas parecidas, y acaban en foros como este llorando y quejandose por las esquinas de lo mucho que han invertido y lo poco que han sentido. Si sabes lo que quieres, y sabes lo que compras, conforme contigo mismo, lo mismo eres feliz con una 770 que con una 3090 o una 6900XT.
Si eres deshonesto contigo mismo, o quieres abordar cosas que te sobrepasan, acabas en los foros poniendo pegas y buscandole tres pies al gato.

[bye] [oki]


El 8k ultra a 60fps en juegos actuales lo veo más factible para la serie 5000 .

Yo también tuve una 3090 e hice pruebas en 8k de varios juegos y se arrastraba.

Es normal es muy bestia el salto de 4k a 8k es como tener que mover 4 pantallas 4k y tener que renderizar 33 millones de píxeles por fotograma...se pasa de 8.3 millones a 33, eso ya son palabras mayores.

Mañana me llega una 3090ti que he pillado por aburrimiento para volver a cacharrear. Probaré de nuevo tirar a 8k en algun juego como ya probé en su día con la 3090 a ver si llego esta vez a los 30 fps. [carcajad]

EMC2 está baneado por "Troll"
El Ray Tracing esta muy bien implementado en realidad, ya de primeras esta muy optimizado (recortado en palabras tecnicas) para que corra en tiempo real en juegos.

El Ray Tracing completo/puro es increíblemente costoso, y no exagero:

- El Ray Tracing o patchtracing esta diseñado para calcular miles de rayos por cada pixel, para tener un pixel limpio, se puede necesitar hasta de 100 o hasta 50,000 rayos por cada pixel, una resolucion de 1080p ya tiene 2 millones de pixeles, y imaginate la burrada de cálculos que tendria que calcular una GPU, ni en 20 generaciónes de GPU se tendria potencia para mover algo asi....en la peliculas se usan granja de CPU o GPU que pueden tardar minutos en muestrear una imagen y dejarla suave sin ruido, para un juego necesitas al menos un tiempo de 30ms(30fps).

- En el Ray Tracing para juegos eso se recorta de forma brutal, y en juegos generalmente se usan 1 o 3 rayos por pixel, esto genera una imagen ruidosa, pero ahi entra el filtro denoising para limpiar la imagen .

- Y por ultimo el Ray Tracing de juego esta recortado en temas con cantidad de reflejos secundarios o número de rebotes de la GI, que es muy pesado.

En este imagen se puede apreciar lo que comento arriba, para tener Ray Tracing full necesitaría muchísimos rayos/samples por pixel (SPP).

Imagen
Viendo las ultimas filtraciones y mirando las "rebajas" y lo rumorologia

pues la cosa pinta de que la la RTX 4070 va estar al nivel de la RTX 3090 Ti

le bajaron el consumo, pero en "TGP" a 285W y un precio para la gama entre los 400 y 500 dólares

ósea de ser verdad vamos a ver RTX 3090 Ti en 400 dólares o menos en el mercado de segunda mano y grandes descuentos en las que están nuevas

Pero recapitulando esto mismo paso o se rumoro cuando la salida de las RTX 3000 y aun que hubo gente que regalo sus RTX 2080 Ti en la salida lo cierto es que nadie ahora paga de ellas más de lo que vale una RTX 3060 Ti, pero el detalle es que aun seguimos con precios inflados aún no hemos llegamos al MSRP

pero no se me suena muy a que nvidia pareciera querer dispararse un tiro en el pie así misma, pero.... ellos tienen practica creando escasez artificial y esa podría ser la fórmula para salir del stock que tienen sin perder mucho dinero, ya que mientras la gente espera por una RTX 4000 que salgan a cuenta gotas, comprar RTX 3000 a precio inflado o de derribo según sea mercado cuando eso suceda
JagerCrow escribió:Viendo lo que se dice de que no renta comprar de salida una gráfica tope de gama, yo creo que eso tiene matices porque si uno compra pensando en cambiar a penas salga algo más potente pues no tiene mucho sentido para eso uno se compra lo que de el rendimiento que uno busca ejemplifiquemos el asunto con las ultimas graficas de nvidia en el escenario de 1080p ultra con juegos actuales de los cuales ya dejé una imagen en este hilo más sin embargo dejo el link y los escalados de ganancia en porcentaje de techpowerup comparados con la 3080 Ti

30% - GTX 980 TI - JUNIO 2015 - no llega a los 40fps
50% - GTX 1080 TI - MARZO 2017 - entre 60fps Y 80fps
64% - RTX 2080 TI - SEPTIEMBRE 2018 - entre 80fps y 100fps
100% -RTX 3080 TI - MAYO 2021 - supera los de 120 fps

el punto es que por ejemplo el compro una GTX 980 Ti de salida es la persona que debería estar pensando en un upgrade después de 7 años y cualquier cosa por encima de una RTX 3060 ya es ganancia, las demás graficas aún son competentes a día de hoy y no encuentro realmente un motivo de peso para tener que cambiar a día de hoy el punto es que se puede jugar bien

entiendo que exista gente que se pueda permitir tener siempre lo más top y pague por ello lo que le corresponda, pero eso no quiere que no rente a un usuario de a pie tener una gráfica tope de gama y tenerla hasta el momento que ya no le permita jugar en las resoluciones y calidades que uno quiera o este acostumbrado

estoy de acuerdo es que uno va estar cambiando para no quedarse "desactualizado" uno no compra lo más top uno compra lo que le da el rendimiento que necesite.... pero si la idea es ir haciendo upgrade uno tarde o temprano terminara llegando a las gráficas tope de gama porque uno no cambia pan por pan y llegado a ese punto te das cuenta que no necesitas una gráfica tope de gama para tener una buena experiencia de juego y el ciclo vuelve a repetirse

Ahora como punto aparte los sigan pensando que el Raytracing solo va por la iluminación y sombras y dicen que eso no renta y que la mejora no es mucha y etc etc etc y si miras los resultados no pueden tener mas razon.. pero eso no está solo para tener mejores gráficos... esta para poder simplificar el desarrollo de juegos y lograr tener un único sistema donde el desarrollador pueda crear sus proyectos... y pues como todo entra por los ojos pues no lo venden como una mejora gráfica y es más que eso, creo que nate gentile es que, más fácil lo ha explicado en su video "Lo que NO te contaron sobre Ray Tracing" lo dejo por aca si a alguien le interesa informase mas



y con respecto a las correcciones que se están haciendo con respecto a las especificaciones se las RTX 4000 no se supone que básicamente ya entraron en producción para las que ya se van a vender este año sea cuales sean..ósea yo lo veo raro.. no creo que en la planta les digan oigan cambiamos las especificaciones paren todo ajusten lo que ya se hizo y las nuevas se hacen ya con los cambios... porque dudo mucho que eso funcione así.... parece que nos estuvieran haciendo una trolleada pero monumental... o que nvidia necesita mantener las expectativas altas porque AMD como que tienen el asunto mejor resuleto, digo asi una como mi opnion



Respecto a los datos del inicio, esa escala de rendimiento y la imagen de Tom's hardware no tiene ni pizca de sentido, pues conozco y he testado varias de esas gráficas ahí citadas, y ni de coña la GTX 980 Ti rinde tan por debajo de una GTX 1070 (he tenido ambas, y he pasado pruebas con varios juegos, antiguos y actuales y rendían muy cerca una de la otra), mucho menos rinde a la altura de una GTX 1060 de 6 GB (otra que he tenido una bueeena temporada) ni le saca tan poco a una Rx570 (y eso que yo he tenido la versión de 8 GB, que rendirá mejor y ni de coña le saca tan poco la GTX 980 Ti). La 1060 era más rápida que la Rx570 y la distancia relativa "encaja", pero ya digo que la 980 Ti ahí, no encaja ni de coña.

Lo voy a decir claro, una GTX 980 Ti versión tuneada por el fabricante (además hasta el mismo y misma línea) rendía marginalmente menos que una GTX 1070 también tuneada (ambas evga, SC, etc). Pero muy poco, con OC igualaba o superaba a la 1070 con OC. Ahi la diferencia parece bestial, ni de coña es tanto.

También decir que mi experiencia más breve con una 1080 ti, es que ésta le saca un mínimo de un 50% a ambas gráficas mencionadas. Y no es lo que se refleja en esa gráfica, si no menos. Cierto que a 1080p puede limitar algo la cpu, pero es que yo ni eso en las pruebas que le hice a esa resolución y, la pobre 1080 ti usando un 4770K vs cpus más modernas y capaces en sistemas posteriores (fue un préstamo para trastear).

La verdad, no sé ni lo que han probado ni cómo, pero resultados así de dispares a lo que he visto con JUEGOS reales, sólo los he visto en cosas estilo 3DMark, donde sí siempre se saca rendimiento extra de arquitecturas nuevas (o dicho de otra forma, usan técnicas pensadas para mostrar la "mejora" con nuevas generaciones, de ahí que saquen más que juegos en comparaciones intergeneracionales).

Ojo, las pruebas las he hecho hace poco, de ahí que no tengan sentido esos porcentajes. GTX980 Ti <== GTX 1070. Y con OC, la cosa incluso se vuelve mucho más igualada.

Y sí, la 3060 es el comienzo para rentar el cambio de una gráfica de ese nivel, pero es que la 980 ti casi rinde igual que una 3050 (igual que una 1070). Están por debajo pero relativamente poco, no renta el cambio. La 3060 ya va siendo otra cosa. Pero eso no tiene nada que ver con los datos extraños y un tanto dudosos de Toms (es que la 980 ti parece un chiste ahí, rindiendo como una rx 580 cuando mi antigua rx 570 8Gb y con OC, y la 980 ti le sacaba un 50% de rendimiento en no pocos casos).
Chaquetero está baneado por "troll"
EMC2 escribió:El Ray Tracing esta muy bien implementado en realidad, ya de primeras esta muy optimizado (recortado en palabras tecnicas) para que corra en tiempo real en juegos.

El Ray Tracing completo/puro es increíblemente costoso, y no exagero:

- El Ray Tracing o patchtracing esta diseñado para calcular miles de rayos por cada pixel, para tener un pixel limpio, se puede necesitar hasta de 100 o hasta 50,000 rayos por cada pixel, una resolucion de 1080p ya tiene 2 millones de pixeles, y imaginate la burrada de cálculos que tendria que calcular una GPU, ni en 20 generaciónes de GPU se tendria potencia para mover algo asi....en la peliculas se usan granja de CPU o GPU que pueden tardar minutos en muestrear una imagen y dejarla suave sin ruido, para un juego necesitas al menos un tiempo de 30ms(30fps).

- En el Ray Tracing para juegos eso se recorta de forma brutal, y en juegos generalmente se usan 1 o 3 rayos por pixel, esto genera una imagen ruidosa, pero ahi entra el filtro denoising para limpiar la imagen .

- Y por ultimo el Ray Tracing de juego esta recortado en temas con cantidad de reflejos secundarios o número de rebotes de la GI, que es muy pesado.

En este imagen se puede apreciar lo que comento arriba, para tener Ray Tracing full necesitaría muchísimos rayos/samples por pixel (SPP).

Imagen


Como os toman el pelo las compañías con el marketing. A los únicos que beneficia el rtx es en todo caso a los desarrolladores, que les cuesta mucho menos programar la iluminación y la proyección de sombras. A los usuarios no nos beneficia en nada, y apenas es perceptible salvo cuando capan a posta la opción sin rtx para justificar la merma de rendimiento y la estafa:



Si la realidad es la que es, que Nvidia, y AMD también se apunta al carro, se descojona y el usuario al que estafan lejos de ser consciente los defiende con uñas y dientes. Esto es como cuando se nombra la guarrada de los 8gb de VRAM en las 3070, pues un puñado de gente saltando a defender la decisión correctísima que ha hecho Nvidia porque hoy en día no se necesita más, o la vergüenza del capado a x8 en las líneas pcie de las 6600, y la gente saltando diciendo que casi no se nota XD.

Que el videojuego referente en iluminación con mucha diferencia, el rdr2, no tiene nada de Ray tracing de los cojones.
EMC2 está baneado por "Troll"
Hay cierto rumores que indican que retrasarian hasta el 2023.

Y en realidad si en la proximas semanas no se filtran en algun benchmark, puede señal que se retrasan, cuando una GPU ya esta cerca se comienza filtrar en geekbenchmark o otros similares con ID desconocido.

@Chaquetero

Si esto te parece cambios imperceptibles ....

https://youtu.be/pmpwMiSDYP4
https://youtu.be/7tloid3bJlw
https://youtu.be/nXerm08r69c

El Ray Tracing no se puede comparar con tecnicas actuales de iluminación, es una tecnica para calcular de forma 100% precisa la iluminación y que se usa en cine tambien.

Y la iluminación de RDR2 usa tecnicas estándares hoy en dia en la industria, basadas en probes, en realidad son iluminación bastante antinatural principalmente en la oclusion ambienta y apoyandose en SSAO terminan por dar una oclusión ambiental artificial.
@wwwendigo mira compañero yo no me voy a poner a discutir resultados porque en el mismo link del articulo donde esta esa imagen están los juegos y las pruebas donde corrieron y los settings etc etc y no tengo motivos para poner en dudas el trabajo hecho por los chicos de tom's Hardware y ponen lo siguiente| y dejo el link para el que quiera verlo

"The eight games we're using for our standard GPU benchmarks hierarchy are Borderlands 3 (DX12), Far Cry 6 (DX12), Flight Simulator (DX12), Forza Horizon 5 (DX12), Horizon Zero Dawn (DX12), Red Dead Redemption 2 (Vulkan), Total War Warhammer 3 (DX11), and Watch Dogs Legion (DX12). The fps score is the geometric mean (equal weighting) of the eight games."

He tenido de las gráficas enunciadas la EVGA GTX 980 Ti FTW, la MSI GTX 1070 Gaming X y la Vega 64 de Sapphire FE y desafortunamente no probe personalmente ninguno de los juegos mencionados con esas graficas asi que no puedo dar una opinion, podría decir que los mass effect o los dead space pero básicamente todos esos juegos rinden igual o en el PUBG don la unica que rinde un poco mas es la Vega, asi que supongo que la idea de la prueba era meter juegos mas recientes

@Chaquetero la cosa compañero es que básicamente llevamos más de 20 años (la industria para ser más claro) falseando efectos en las gráficas para que no solo se ven más realistas y que también se vean bien (artísticamente o más bien al gusto del espectador es como ver explosiones en una película que en la vida real no se dan libertades que se da el autor para trasmitir o dar entender algo), y es mi opinion pensar que la industria se dio cuenta que se estancó la unica mejora que ofrecen es más resolución y más FPS las desarrolladoras de video juegos se ven limitadas por tecnología y deben darle gusto a la mayoría de su público que exige gráficos impresionantes así sean falsos pero que deben parecer reales e igual es solo una parte como influye la luz en ambiente 3D interactivo y como se hace dicha interactividad van de la mano y el raytracing provee una solución a esto dejando un único sistema con el cual que lidiar lo cual les permite a los creadores de juegos dejar de gastar recursos en hacer que los juegos se vena bien y trabajar más en cómo se interactúa con esos mundo virtuales que se crean y lleven a nuevas cosas

la cosa compañero es que es evidente que falta potencia, pero es todo un logro que se pueda ejecutar eso en tiempo real.. que por que han hecho eso así??? (sacra las RTX) supongo que por lógica y sentido común hay que hacer una transición no puedes sencillamente decir todas las gráficas y la forma de hacer videojuegos a la basura de aquí en adelante todo es diferente... es una tecnología nueva para aplicar en mundos interactivos y se ve que necesita un hardware nuevo para que funcione lo suficientemente bien, que los que compramos RTX somo early adopters si claro, que la industria está viendo cómo puede usarse que nuevo puede aportar al no tener las limitaciones de sistemas estáticos o precalculados (entorno luces objetos sonido)

no discuto compañero que el RDR2 se ve espectacular y que ese juego se vea como se ve es el resultado de más 20 años de desarrollo de técnicas para simular entornos reales y sabes cuando del tiempo de desarrollo del juego se gastó en que se viera así y sabes cuando tiempo más se llevó de que ese mundo hermoso pero falso funcionara en un entorno interactivo sabes lo que costo hacer eso... el punto es que si hubiera suficiente potencia para el raytracing tendríamos un juego que se vería mejor tendría mejores mecánicas o cualquier otra cosa que les ocurriera a los desarrolladores y hubiera llevado menos tiempo en hacerse... ese creo yo es el propósito del raytracing ese pienso yo es el motivo por el cual toda la industria está volcada en que funcione, pero la gente no ve eso solo que ve que tienen un RDR2 que se ve mejor que cualquier cosa con raytracing en la actualidad yo no culpo a la gente y no creo que los creemos y entendemos el alcance que puede tener esta tecnología seamos tontos o nos comamos el marketing de las empresas

y si, yo puedo estar equivocado... pero lo que vemos hoy en día en los juegos es la evolución de los fondos prerrenderizados llevados a su límite y el problema es sencillo tenemos algo inamovible y permanente en juegos que necesitamos que sean dinámicos para poder hacer más... y el hecho de la industria no ofrezca más que resolución y fps nos indica eso porque es lo único que escuchamos y cuantas veces aca en los foros no he escuchado que todos los juegos se parecen que no aportan nada y que los juegos que llegan a hacer algo nuevo no solo demoran un montón en desarrollarse si no que se ven limitados

el tiempo dirá que es lo va ser y para donde vamos
@JagerCrow

Aquí con una 980ti (kingpin) que viene siendo como una gtx 1080fe, si cambio sería 3080 mínimo.

No es necesario poner los settings el ultra... Ahí ajustes que se desmadran merman el rendimiento sin casi aportar.

Ajustando settings en alto y algunas en ultra.
>>Como me anda
Far Cry 6 > 45~55fps _ 1440p
Borderlands 3 > 45~50 _ 1440p
Forza Horizon 5 > 60 ~ 70 _ 1440p
Horizon Zero Dawn > 45 _ 1440p
Dead Redemption 2 > 52_ 1080p y 43 en 1440p
Cyberpunk > 33 en _ 1440p y 60fps medio alto en 1080p
dying light 2 y Days gone 45 _ 1440p

/////
Si hay muchos juegos que me abrían gustado jugarlos a 60fps pero bueno tampoco me preocupa ya que puedo jugar a prácticamente a todo lo demás a 60fps (si exceptuando juegos 2019 adelante Títulos A³
@uchi23a pero conpañero ese es el punto de hacer las pruebas es comparar de forma objetiva y pudiendo dar una base sobre la cual se pueda comparar no ajustar para que la gráfica de buenos resultados perdiendo lo mínimo gráficamente hablando ... Lo cual no tiene nada de malo y pero no sirve para comparar lo cual es el objetivo de hacer las pruebas as queí no se trata de ver que pueda correr bn si no de que es capaz de hacer
@JagerCrow

Para no influir en drives, VRAM instalada, motor gráfico y arquitecturas del die....

Pienso que sí se va hacer un Vs de modelos disponibles con settings en medio o en alto ya que ha veces se lo flipan con la configuración en ultra y ahí se notará donde la empresa a optimizado más en una arquitectura o en otra.

Un claro ejemplo el Borderlands 3 con la serie 6xxx Radeon por ejemplo.
JagerCrow escribió:@wwwendigo mira compañero yo no me voy a poner a discutir resultados porque en el mismo link del articulo donde esta esa imagen están los juegos y las pruebas donde corrieron y los settings etc etc y no tengo motivos para poner en dudas el trabajo hecho por los chicos de tom's Hardware y ponen lo siguiente| y dejo el link para el que quiera verlo

"The eight games we're using for our standard GPU benchmarks hierarchy are Borderlands 3 (DX12), Far Cry 6 (DX12), Flight Simulator (DX12), Forza Horizon 5 (DX12), Horizon Zero Dawn (DX12), Red Dead Redemption 2 (Vulkan), Total War Warhammer 3 (DX11), and Watch Dogs Legion (DX12). The fps score is the geometric mean (equal weighting) of the eight games."

He tenido de las gráficas enunciadas la EVGA GTX 980 Ti FTW, la MSI GTX 1070 Gaming X y la Vega 64 de Sapphire FE y desafortunamente no probe personalmente ninguno de los juegos mencionados con esas graficas asi que no puedo dar una opinion, podría decir que los mass effect o los dead space pero básicamente todos esos juegos rinden igual o en el PUBG don la unica que rinde un poco mas es la Vega, asi que supongo que la idea de la prueba era meter juegos mas recientes


Compañero, la crítica es a esos datos y la prueba de Toms, no a tus experiencias, me llamaron la atención esos datos y no entendía semejante diferencia con la realidad que he podido medir por mí mismo durante mucho tiempo, precisamente por tener esas gráficas y ver su rendimiento en muchos juegos (tengo la costumbre de pasar pruebas usando benchs ingame con fraps o afterburner), puedo decir que los resultados de Toms no tienen sentido. La GTX 980 Ti aparece demasiado abajo vs la 1070. Y en general la línea 9x0 no está bien posicionada, mientras que la Rx5x0 está demasiado alta, y ya hubiera querido que la Rx570 rindiera tan bien como dicen ahí, pero no, rinde, pero no a ese nivel.

La diferencia está en que en mi caso prueba más que 8 juegos, reconozco que no justo ésos (aunque sí algunos de los títulos precedentes de algunas de las sagas citadas), aunque la selección es un tanto extraña.

Yo no usaría precisamente BL3 con DX12 teniendo en cuenta que va mejor y más estable, sobre todo, al usar la variante DX11, que no tiene ninguna diferencia gráfica. Es extraño lo que han hecho en Toms, varios de esos juegos son conocidos por ser poco neutros en cuanto a fabricante de gpu, eso puede explicar el porqué las Rx5x0 están tan altas contra las gtx 9x0, aunque sigue sin entenderse el porqué hay esa diferencia con la 1070 en su alma gemela la 980 ti, que tú mismo reconoces que rinde parecido (y algo que comparto al verlas rendir a ambas lado a lado).

También me extraña el uso de WD Legion con DX12, éste no lo he podido probar con la 1070, pero sí con la Rx570 y la 980 Ti, y el API DX12 es un desastre de stuttering (por lo menos en su bench interno) contra la más suave versión DX11. En este caso sólo la 980 ti y la Rx570 cataron dicho juego con DX12, pero en ambos casos considero la implementación de DX12 un desastre.

Me parece más fiable sites como TPU! gracias a que usan una veintena larga de juegos, y no una colección tan reducida que se da a alteraciones extrañas y un peso demasiado grande de cualquier desviación provocada por un juego solitario (además han elegido varios juegos muy dados a rendir mejor en AMD, además más juegos implica más posibilidad de que las desviaciones acaben compensándose entre éstas, al revés de cuando la selección es así de escasa,y lo que es peor, no me parece de recibo el uso de versiones de DX12 bastante inestables contra versiones DX11 u otras que van mejor).

El comentario está en la línea de que la gente que tenga una gráfica antigua, tampoco se crea que el rendimiento es "tan malo" como parece demostrar Toms con esas pruebas. Que igual llegan a creerse que una 980 Ti rinde igual o poco más que una GTX 1060, y ni de coña, ni con juegos actuales ni con pasados. La prueba de Toms es cuanto menos cuestionable por varias razones, de tamaño muestral, de mala selección de APIs en cada juego, y del poco cuidado en una selección que no es neutral ni representativa en sus rendimientos por fabricante (ni para uno, ni para otro, entiéndase así).

Quizás sea suficiente para señalar el punto en tu caso de qué hace falta o no como mínimo para un cambio generacional, pero también puede dar lugar a equívocos en otros casos.

Saludos.
@wwwendigo estoy de acuerdo y es válido tu punto y así como el compañero @uchi23a mencionaba se puede jugar con los settings y seguir teniendo una buena experiencia de juego, por lo genral yo tomo los datos de techpowerup pero hay tú haces la comparación con respecto a una gráfica y sobre la cual calculas que tan lenta es o que tan rápida es con respecto a otras y creo que no es lo mismo que poner todas las gráficas y decir ok es ta es la media de fps que dan en X juegos porque no es lo mismo decir que en general es X% más rápida/lenta que poner y decir la gráfica da X fps y la B tantos X fps

entiendo tu punto y se que para el mundo real y el usuario de a pie le vale más decir puedes seguir usando tu grafica solo que debes usarla de X manera para tener mejor performance, pero la relevancia de estas pruebas los veo como piques de cuarto de milla te dan una idea de cuál es el auto más potente, pero eso no implica que en otras condiciones sea completamente valido y funcional

el punto de mostrar eso era mirar los matices en los cuales comprar una gráfica tope de gama puede ser una opción muy válida y obviamente dar credibilidad a los que dicen que no lo es porque todo depende de lo que hagas de cada cuanto renueves tu hardware y que juegues

volviendo al tema del hilo alguien sabe o hay alguna fuente confiable que haya dicho si ya entraron en producción porque viendo que cada semana vemos ajustes en las especificaciones me huele a que no hay un diseño final listo para producción, o que tal vez están tanteando el mercado a ver que cuela y que no, aunque lo que está claro es que se va imponer potencia sobre cualquier otra cosa
El ultimo rumor via twitter es que la 4090 es la unica que saldra este año, el resto a 2023 para limpiar stock. De hecho, hace unos dias salio una noticia de que iba a volver a producir las 3080, por lo visto la produccion de estas graficas se paro hace 2 meses. Y que se espera una rebaja importante para finales de agosto para darles salida.
Namaskar está baneado por "clon de usuario baneado"
@wwwendigo Yo también hice muchos testeos con la 980ti vs la 1070 / 1080 y diría que está entre ambas. Si se aprieta bien la 980ti sigue dando el callo. La mia subía a 1620mhz con una bios custom que cocine yo mismo.

Pasa un poco lo mismo con la 2080ti que está entre la 3070 / 3080 al menos bajo mis testeos y las he tenido todas.

Para mi sorpresa antes de agenciarme la 3090ti recientemente estuve testando una 1660ti y la verdad que rinde fenomenal con oc muy cerca de la 1070.

Todo ello lo baso siempre en mis propios testeos que trato de hacer con el máximo rigor y siendo muy objetivo, ya que no me muevo por intereses y no arrimo la sardina al ascua que más calienta como si hacen algunas sites. Me fio mucho más de mis resultados que los de cualquier otra site por muy conocida que ésta sea.

Recuerdo aquellos testeos que hice para ti con el 2way sli de las Titan Black para tu blog hace años. Me lo pasé pipa haciendo pruebas.

Un saludo wendigo hace años que no te veía por aquí , me alegra leerte de nuevo.
Perdonad por el offtopic, pero a final de año quiero renovar el pc, sabéis cuando salen las raptor lake? Creo que se llama así la nueva cpu de intel.
pdriko31 escribió:Perdonad por el offtopic, pero a final de año quiero renovar el pc, sabéis cuando salen las raptor lake? Creo que se llama así la nueva cpu de intel.


Mr. Google dice que presentación finales de Septiembre y lanzamiento 17 Octubre.

Intel Raptor Lake se lanzarán el 17 de octubre, es decir, casi 3 semanas después de la presentación oficial durante el evento Innovation. En esta fecha, Intel lanzará sus CPUs de la serie K de la 13ª generación de Core «Raptor Lake-S» junto con las placas base de gama alta Z790.
DarkMessiah escribió:
pdriko31 escribió:Perdonad por el offtopic, pero a final de año quiero renovar el pc, sabéis cuando salen las raptor lake? Creo que se llama así la nueva cpu de intel.


Mr. Google dice que presentación finales de Septiembre y lanzamiento 17 Octubre.

Intel Raptor Lake se lanzarán el 17 de octubre, es decir, casi 3 semanas después de la presentación oficial durante el evento Innovation. En esta fecha, Intel lanzará sus CPUs de la serie K de la 13ª generación de Core «Raptor Lake-S» junto con las placas base de gama alta Z790.

Gracias Dark,pensaba pillarme la 12700k,pero ya me espero a la 13700k.
Namaskar escribió:@wwwendigo Yo también hice muchos testeos con la 980ti vs la 1070 / 1080 y diría que está entre ambas. Si se aprieta bien la 980ti sigue dando el callo. La mia subía a 1620mhz con una bios custom que cocine yo mismo.

Pasa un poco lo mismo con la 2080ti que está entre la 3070 / 3080 al menos bajo mis testeos y las he tenido todas.

Para mi sorpresa antes de agenciarme la 3090ti recientemente estuve testando una 1660ti y la verdad que rinde fenomenal con oc muy cerca de la 1070.

Todo ello lo baso siempre en mis propios testeos que trato de hacer con el máximo rigor y siendo muy objetivo, ya que no me muevo por intereses y no arrimo la sardina al ascua que más calienta como si hacen algunas sites. Me fio mucho más de mis resultados que los de cualquier otra site por muy conocida que ésta sea.

Recuerdo aquellos testeos que hice para ti con el 2way sli de las Titan Black para tu blog hace años. Me lo pasé pipa haciendo pruebas.

Un saludo wendigo hace años que no te veía por aquí , me alegra leerte de nuevo.

como te han cazado de nuevo Cilclito, si es que se te veia a leguas que eras tu con una cuenta clon, venga, que descanses una temporada hasta que vuelvas a la carga con otra cuenta clon [bye]
EMC2 está baneado por "Troll"
Estaba viendo este video, y que poco consumian la serie GTX900 no, comparado con los consumos de hoy en dia. Aunque tambien hay que decir que desde las GTX600 Nvidia hacia trampa debido a la potencia de su arquitectura respecto a la de AMD, Nvidia usaba los chips gama-media(GM204) para venderlos como gama-alta, la GTX 980 usaba el chip destinado para las GTX 960, por eso el consumo corresponde al de una gama media, eran versiones x80TI las que llevaban el chip gama-alta (GM200).

https://youtu.be/94EwxzqncAo
EMC2 escribió:Estaba viendo este video, y que poco consumian la serie GTX900 no, comparado con los consumos de hoy en dia. Aunque tambien hay que decir que desde las GTX600 Nvidia hacia trampa debido a la potencia de su arquitectura respecto a la de AMD, Nvidia usaba los chips gama-media(GM204) para venderlos como gama-alta, la GTX 980 usaba el chip destinado para las GTX 960, por eso el consumo corresponde al de una gama media, eran versiones x80TI las que llevaban el chip gama-alta (GM200).

https://youtu.be/94EwxzqncAo

y aun asi se comian con papas a AMD
Namaskar escribió:@wwwendigo Yo también hice muchos testeos con la 980ti vs la 1070 / 1080 y diría que está entre ambas. Si se aprieta bien la 980ti sigue dando el callo. La mia subía a 1620mhz con una bios custom que cocine yo mismo.

Pasa un poco lo mismo con la 2080ti que está entre la 3070 / 3080 al menos bajo mis testeos y las he tenido todas.

Para mi sorpresa antes de agenciarme la 3090ti recientemente estuve testando una 1660ti y la verdad que rinde fenomenal con oc muy cerca de la 1070.

Todo ello lo baso siempre en mis propios testeos que trato de hacer con el máximo rigor y siendo muy objetivo, ya que no me muevo por intereses y no arrimo la sardina al ascua que más calienta como si hacen algunas sites. Me fio mucho más de mis resultados que los de cualquier otra site por muy conocida que ésta sea.

Recuerdo aquellos testeos que hice para ti con el 2way sli de las Titan Black para tu blog hace años. Me lo pasé pipa haciendo pruebas.

Un saludo wendigo hace años que no te veía por aquí , me alegra leerte de nuevo.


kikomanco escribió:
Namaskar escribió:@wwwendigo Yo también hice muchos testeos con la 980ti vs la 1070 / 1080 y diría que está entre ambas. Si se aprieta bien la 980ti sigue dando el callo. La mia subía a 1620mhz con una bios custom que cocine yo mismo.

Pasa un poco lo mismo con la 2080ti que está entre la 3070 / 3080 al menos bajo mis testeos y las he tenido todas.

Para mi sorpresa antes de agenciarme la 3090ti recientemente estuve testando una 1660ti y la verdad que rinde fenomenal con oc muy cerca de la 1070.

Todo ello lo baso siempre en mis propios testeos que trato de hacer con el máximo rigor y siendo muy objetivo, ya que no me muevo por intereses y no arrimo la sardina al ascua que más calienta como si hacen algunas sites. Me fio mucho más de mis resultados que los de cualquier otra site por muy conocida que ésta sea.

Recuerdo aquellos testeos que hice para ti con el 2way sli de las Titan Black para tu blog hace años. Me lo pasé pipa haciendo pruebas.

Un saludo wendigo hace años que no te veía por aquí , me alegra leerte de nuevo.


como te han cazado de nuevo Cilclito, si es que se te veia a leguas que eras tu con una cuenta clon, venga, que descanses una temporada hasta que vuelvas a la carga con otra cuenta clon [bye]


¿Ciclito?

Joer, mira que hace tiempo que no ando enterado del tema por aquí y aún lo siguen baneando cada poco. [carcajad]


A ver, a mí la 980 Ti no diría que es mejor que la 1070, ni con OC a pesar de que ahí es fácil igualar o mejorar ligeramente a la 1070 con OC, a su vez. Pero coño, los 2 GB extra, una arquitectura algo más moderna (muy similar, pero con alguna actualización muy útil para APIs modernas), mejores codecs que Maxwell, consumo, etc.

Excepto para casos de OC extremo, la 980 ti y la 1070 se pueden considerar totalmente equivalente, incluso con OC, lo ganado por lo servido. Que puede llegar a sacar un poco si tienes una buena unidad, puede, pero a costa de consumos y BIOS que se saltan los límites impuestos a la gráfica, y no por que sí simplemente.

Sobre las otras no digo, pero sí sobre la 1660 ti, que básicamente es calcada a la 1070 pero con una ligera actualización arquitectónica, es un buen equivalente a pesar de sus 2GB de VRAM menos.
@wwwendigo sabes haciendo un poco offtopic y según lo que dices de las GTX 980 ti, GTX 1070 (que las tuve ambas) y la GTX 1660 Ti que básicamente se mueven en su rendimiento dentro del mismo margen y con sus diferencias y mejoras según generación, pero al final entregan una experiencia muy igualada.... y el punto es que veo y recuerdo que hay gente/usuarios/personas que toman esas rutas de "upgrade" y pues como que no veo una razon de peso del porque...porque al final tienes nuevo pero te rinde básicamente igual

Voy a hacer un ejercicio mental supongamos que una persona X entra al mundo del pc recien estuvieron disponibles serie 3000 y serie 6000 todos los modelos y se compra lo mejor en precio/rendimiento en ese momento para jugar entre 1080p a 2160p con 60fps en promedio

Creo que sabiendo ajustar iríamos asi:

Nvidia = RTX 3060 Ti
AMD = RX 6700 XT

ahora de cara a la nueva generación de graficas la idea es ir un escalón por encima para justificar el salto en rendimiento no mantener se en la misma gama/serie o buscar dentro de la nueva generación el rendimiento equivalente a lo que ya poseemos

mi punto es, que si realmente cambiamos hardware por hacer un upgrade que valga la pena partiendo desde XX60 o XX70 en 2 o 3 generaciones o si sale un buen descuento se llegara inevitablemente a los topes de gama, que si rente o no que si es necesario es discutible, pero tomando que por lo general la serie/gama XX70 vienen siendo equivalente al tope de gama de la generación anterior y pues visto lo visto ahí es donde está el punto dulce donde te puedes mover bien en la experiencia de juegos a distintas resoluciones y con buenos fps, según como se mire puede ser malo o bueno estar cambiando de hardware o incluso si esperas a que te pida cambio igual por la diferencia de precios entre gamas terminas gastando el mismo o más dinero

es más, siendo objetivos la forma es que se separan las gamas/series en una generación con respecto a la otra están pensadas para que igual sientas que debes cambiar de hardware ya sea que compres lo más top o lo precio/rendimiento igual vas a estar por detrás con un número que te indicara que ahora haciendo la equivalencia estas en un escalafón inferior....

se que a mucha gente no le gusta pensar en estas cosas, y que hay muchas maneras de justificar un "upgrade" y que cuando se tienen 60fps queremos llegar a 144fps y luego a 240fps y luego 360fps y es el cuento de nunca acabar como si la experiencia en 60fps ya no fuera lo suficientemente buena para la mayoría de mortales, lo mismo con las resoluciones, a veces entiendo y me quedo con las limitaciones de las consolas hablando de juegos... porque si a la final lo importante es jugar y no se desde cuando quedo y es más importante la performance que la experiencia de juego porque ya a partir de las consolas tenemos "mínimo aceptable" no es entrar en discusiones ni nada... es ser realistas y mirar cual es el aporte real de las RTX 4000 o las RX 7000 o serán otra generación de transición hasta que se tenga el hardware lo suficientemente potente para full raytracing... o llegara primero el juego en streaming al mismo nivel de jugar local
EMC2 está baneado por "Troll"
@kikomanco

Pues si eran mejores que las AMD consumo/potencia, y se debieron hacer de oro vendiendo chips de gama media a precio de gama-alta, de las generaciones más rentable para Nvidia sin sumar la epoca actual de inflancion en los precios.
JagerCrow escribió:@wwwendigo sabes haciendo un poco offtopic y según lo que dices de las GTX 980 ti, GTX 1070 (que las tuve ambas) y la GTX 1660 Ti que básicamente se mueven en su rendimiento dentro del mismo margen y con sus diferencias y mejoras según generación, pero al final entregan una experiencia muy igualada.... y el punto es que veo y recuerdo que hay gente/usuarios/personas que toman esas rutas de "upgrade" y pues como que no veo una razon de peso del porque...porque al final tienes nuevo pero te rinde básicamente igual

Voy a hacer un ejercicio mental supongamos que una persona X entra al mundo del pc recien estuvieron disponibles serie 3000 y serie 6000 todos los modelos y se compra lo mejor en precio/rendimiento en ese momento para jugar entre 1080p a 2160p con 60fps en promedio

Creo que sabiendo ajustar iríamos asi:

Nvidia = RTX 3060 Ti
AMD = RX 6700 XT

ahora de cara a la nueva generación de graficas la idea es ir un escalón por encima para justificar el salto en rendimiento no mantener se en la misma gama/serie o buscar dentro de la nueva generación el rendimiento equivalente a lo que ya poseemos

mi punto es, que si realmente cambiamos hardware por hacer un upgrade que valga la pena partiendo desde XX60 o XX70 en 2 o 3 generaciones o si sale un buen descuento se llegara inevitablemente a los topes de gama, que si rente o no que si es necesario es discutible, pero tomando que por lo general la serie/gama XX70 vienen siendo equivalente al tope de gama de la generación anterior y pues visto lo visto ahí es donde está el punto dulce donde te puedes mover bien en la experiencia de juegos a distintas resoluciones y con buenos fps, según como se mire puede ser malo o bueno estar cambiando de hardware o incluso si esperas a que te pida cambio igual por la diferencia de precios entre gamas terminas gastando el mismo o más dinero

es más, siendo objetivos la forma es que se separan las gamas/series en una generación con respecto a la otra están pensadas para que igual sientas que debes cambiar de hardware ya sea que compres lo más top o lo precio/rendimiento igual vas a estar por detrás con un número que te indicara que ahora haciendo la equivalencia estas en un escalafón inferior....

se que a mucha gente no le gusta pensar en estas cosas, y que hay muchas maneras de justificar un "upgrade" y que cuando se tienen 60fps queremos llegar a 144fps y luego a 240fps y luego 360fps y es el cuento de nunca acabar como si la experiencia en 60fps ya no fuera lo suficientemente buena para la mayoría de mortales, lo mismo con las resoluciones, a veces entiendo y me quedo con las limitaciones de las consolas hablando de juegos... porque si a la final lo importante es jugar y no se desde cuando quedo y es más importante la performance que la experiencia de juego porque ya a partir de las consolas tenemos "mínimo aceptable" no es entrar en discusiones ni nada... es ser realistas y mirar cual es el aporte real de las RTX 4000 o las RX 7000 o serán otra generación de transición hasta que se tenga el hardware lo suficientemente potente para full raytracing... o llegara primero el juego en streaming al mismo nivel de jugar local

a la noticia que se retrasan las RTX 4000 por mi estupendo, no tengo necesidad ninguna de cambiar mi RTX 3080 que es un tarjeton, de retrasarse al primer trimestre del 2023 no las veo saliendo como muy pronto hasta abril
JagerCrow escribió:Voy a hacer un ejercicio mental supongamos que una persona X entra al mundo del pc recien estuvieron disponibles serie 3000 y serie 6000 todos los modelos y se compra lo mejor en precio/rendimiento en ese momento para jugar entre 1080p a 2160p con 60fps en promedio

Creo que sabiendo ajustar iríamos asi:

Nvidia = RTX 3060 Ti
AMD = RX 6700 XT

Con la primera tendrias un problema con la resolución más alta en juegos con texturas HD y no podrias jugar al maximo. Da igual los fps que alcance si solo tiene 8GB de Vram. Incluso a 1080p con 8GB en juegos que reducen el detalle automaticamente tengo mis dudas. Incluso igual esos 10GB, desde luego no llegas a los requisitos minimos de juegos como el Far Cry 6.

Y me parece triste comprar una grafica para de primeras tener que ajustar detalle y no poder jugar a tope.

Yo cuenton con que las RTX 40 las anuncian en septiembre/octubre, lanzan la 4090 y todo lo demas va siendo escalonado hasta principio de 2023 y más alla. Esa teoria de en abril 2023 la encuentro sin sentido porque estas empresas cotizan en bolsa y las ventas no es lo primordial, es mantenerse arriba.
kikomanco escribió:a la noticia que se retrasan las RTX 4000 por mi estupendo, no tengo necesidad ninguna de cambiar mi RTX 3080 que es un tarjeton, de retrasarse al primer trimestre del 2023 no las veo saliendo como muy pronto hasta abril

No te pica el gusanillo del cacharreo? Yo después de 2 años me apetece meterle algo más cañero. Tengo también una RTX 3080 y va de locos para 1440p. En el 99% de los casos puedes rondar los 90 - 120fps en los juegos más exigentes aplicando en algunos casos DLSS o similares. La verdad es que es una locura lo que rinden pero de vez en cuando entro a ver qué nuevas tenemos con la futura RTX 4080 o 4090... [sonrisa] yo espero que no haya retrasos y en septiembre - octubre sepamos algo más.
Schencho escribió:
kikomanco escribió:a la noticia que se retrasan las RTX 4000 por mi estupendo, no tengo necesidad ninguna de cambiar mi RTX 3080 que es un tarjeton, de retrasarse al primer trimestre del 2023 no las veo saliendo como muy pronto hasta abril

No te pica el gusanillo del cacharreo? Yo después de 2 años me apetece meterle algo más cañero. Tengo también una RTX 3080 y va de locos para 1440p. En el 99% de los casos puedes rondar los 90 - 120fps en los juegos más exigentes aplicando en algunos casos DLSS o similares. La verdad es que es una locura lo que rinden pero de vez en cuando entro a ver qué nuevas tenemos con la futura RTX 4080 o 4090... [sonrisa] yo espero que no haya retrasos y en septiembre - octubre sepamos algo más.


se que no es para mi, y perdón yo me meto... pero si en unos meses yo llego a ver una RTX 3090 / 3090 TI en 400 dólares y en contradicción a todo lo que he dicho y a sabiendas de no necesitarla si tengo el dinero disponible y está la oferta yo la compro, cuando tuve la GTX 980 ti y la vega 64 puedo decir que daba cierta seguridad tener el tope de gama del momento pajazos mentales que se hace uno pero bueno

@Nomada_Firefox pues hombre realmente no se con respecto a las afirmaciones que haces y la verdad es ponerse a discutir sobre eso cuando al parecer dependiendo de cómo haga uno las pruebas, puede decir o darse razon para cualquier escenario, entonces lo dejo hay... pero lo que si se es que siguen siendo válidas para una buena experiencia de juego ahora y en el futuro cercano ósea no es que no pueda jugar con ellas
No tiene mucho sentido empresarialmente posponer tanto tiempo la siguiente generación cuando tienen que rentabilizar la inversión y cumplir con inversores.

La actual generación probablemente este amortizada y tiene que seguir girando la rueda, además tienen la competencia de su rival para este año con lo cual no creo que se relajen. Un retraso siempre es posible pero dudo que sea uno tan largo.

Saludos.
Chaquetero está baneado por "troll"
Que se retrasan ya es un hecho, a menos de un mes de su teórico lanzamiento que debería ser el 17 de septiembre, dos años después del lanzamiento de la anterior gama, Nvidia no ha dicho ni pío, ni AMD tampoco.

Ya veremos porque parece que se van al año que viene. Vamos que para toda esa gente que este esperando por la gama media/baja, 4060/4060 ti, aún faltan año y medio para que salgan.
nikocrazy escribió:No tiene mucho sentido empresarialmente posponer tanto tiempo la siguiente generación cuando tienen que rentabilizar la inversión y cumplir con inversores.

La actual generación probablemente este amortizada y tiene que seguir girando la rueda, además tienen la competencia de su rival para este año con lo cual no creo que se relajen. Un retraso siempre es posible pero dudo que sea uno tan largo.

Saludos.


Es seguro que es la generación más rentabilizada de la historia, con diferencia.
Si no me he equivocado mirando las rtx 2000 se presentaron el 20 de agosto y las rtx 3000 el 1 de septiembre. Al parecer Nvidia va a seguir en esta línea o sea que perfectamente aún pueden lanzarse en septiembre/octubre.
Que aún no se sepa nada salvo filtraciones es lo normal.

Es cierto que el silencio de los últimos días es sospechoso... Aunque las supuestas bajadas de precio indiquen que quieren limpiar stock .

Yo tengo una 3080 desde diciembre del 2020 y soy de los que tengo ganas de ver algo nuevo .

Pd: ¿De AMD se sabe algo?
JaviGabber escribió:Si no me he equivocado mirando las rtx 2000 se presentaron el 20 de agosto y las rtx 3000 el 1 de septiembre. Al parecer Nvidia va a seguir en esta línea o sea que perfectamente aún pueden lanzarse en septiembre/octubre.
Que aún no se sepa nada salvo filtraciones es lo normal.

Es cierto que el silencio de los últimos días es sospechoso... Aunque las supuestas bajadas de precio indiquen que quieren limpiar stock .

Yo tengo una 3080 desde diciembre del 2020 y soy de los que tengo ganas de ver algo nuevo .

Pd: ¿De AMD se sabe algo?


De AMD se sabe que hay un evento el 28 de agosto donde se supone se van a anunciar solo procesadores y estarán disponibles para compra el día 15 de septiembre, con respecto a graficas se dice que se anunciaran y llegaran antes de que se acabe el 3 trimestre de 2022 así que o se hace en simultanea o va ser en septiembre
JaviGabber escribió:Si no me he equivocado mirando las rtx 2000 se presentaron el 20 de agosto y las rtx 3000 el 1 de septiembre. Al parecer Nvidia va a seguir en esta línea o sea que perfectamente aún pueden lanzarse en septiembre/octubre.
Que aún no se sepa nada salvo filtraciones es lo normal.

Es cierto que el silencio de los últimos días es sospechoso... Aunque las supuestas bajadas de precio indiquen que quieren limpiar stock .

Yo tengo una 3080 desde diciembre del 2020 y soy de los que tengo ganas de ver algo nuevo .

Pd: ¿De AMD se sabe algo?


Bueno muy normal no es tampoco, mira zen4 que tambien sale en septiembre y salen novedades todas las semanas, fotos, tiendas que lo listan...., y no me refiero a rumores de un tipo en twitter si no a filtraciones reales

A ver es que la 3090 creo que salio un 15 de septiembre, suponiendo que la 4090 saliese ese mismo dia ya debería de estar circulando y cuando eso pasa lo normal es que el movimiento y las filtraciones aumenten, y aqui quitando al kopite que un dia dice una cosa y al otra la cambia poco mas se sabe

Y yo no digo que se vaya a retrasar, pero es raro realmente el poco movimiento que tiene esto, y respecto a amd es otra historia por que estas no salian en septiembre, amd dijo que primero zen4 y luego octubre o noviembre rdna3
JagerCrow escribió:se que no es para mi, y perdón yo me meto... pero si en unos meses yo llego a ver una RTX 3090 / 3090 TI en 400 dólares y en contradicción a todo lo que he dicho y a sabiendas de no necesitarla si tengo el dinero disponible y está la oferta yo la compro, cuando tuve la GTX 980 ti y la vega 64 puedo decir que daba cierta seguridad tener el tope de gama del momento pajazos mentales que se hace uno pero bueno

@Nomada_Firefox pues hombre realmente no se con respecto a las afirmaciones que haces y la verdad es ponerse a discutir sobre eso cuando al parecer dependiendo de cómo haga uno las pruebas, puede decir o darse razon para cualquier escenario, entonces lo dejo hay... pero lo que si se es que siguen siendo válidas para una buena experiencia de juego ahora y en el futuro cercano ósea no es que no pueda jugar con ellas

Teniendo una 3080 no salto a por una 3090 aunque bajen a 400€. Pasó lo mismo con las 2080 Ti vendiéndose a 600€ porque salía la serie 3000. Yo solo me planteo de una RTX 4080 para arriba, lo demás es poca ganancia aunque también sea "poca" inversión si es que esas 3090 bajasen a 400€.
14371 respuestas