[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Cuidado con nvidia que no todo es tan bonito como parece.

https://www.businessinsider.es/nvidia-v ... 1674?amp=1

Parece que estan recortando beneficios para invertir en infraestructuras para la IA y eso a los inversores no les mola mucho, ya que a corto plazo supone recibir menos dinero y a largo plazo no es algo seguro que esa inversion vaya a tener un retorno ya que los resultados que ha presentado google respecto a la IA no es la.que se esperaba.

Asi que todas nuestras teorias sobre la IA de nvidia puede que no sea tan buena como parece.
Eso te lo has inventado tu.....y déspues hablas que otros nos inventamos cosas.. [fiu] .. cuando hacen eso, el juego esta promocionado por la marca y se hace desde los tiempos de los romanos. Incluso ha habido casos bastante sonados como el Ashes of the Singularity.
Nomada_Firefox escribió:Eso te lo has inventado tu.....y déspues hablas que otros nos inventamos cosas.. [fiu] .. cuando hacen eso, el juego esta promocionado por la marca y se hace desde los tiempos de los romanos. Incluso ha habido casos bastante sonados como el Ashes of the Singularity.

Lo que tu digas campeon, no es como si los términos de dichos acuerdos estén disponibles de forma pública en sus webs para contacto con desarrolladores. [facepalm] [facepalm]
De verdad, si hablar sin informarse fuese un trabajo ya te podrías jubilar solo con tus mensajes en el foro.
adriano_99 escribió:
Nomada_Firefox escribió:Eso te lo has inventado tu.....y déspues hablas que otros nos inventamos cosas.. [fiu] .. cuando hacen eso, el juego esta promocionado por la marca y se hace desde los tiempos de los romanos. Incluso ha habido casos bastante sonados como el Ashes of the Singularity.

Lo que tu digas campeon, no es como si los términos de dichos acuerdos estén disponibles de forma pública en sus webs para contacto con desarrolladores. [facepalm] [facepalm]
De verdad, si hablar sin informarse fuese un trabajo ya te podrías jubilar solo con tus mensajes en el foro.

...
Metelo en ignorados y te haras un favor a ti mismo.
Editado por metalgear. Razón: flame
SECHI escribió:
adriano_99 escribió:
Nomada_Firefox escribió:Eso te lo has inventado tu.....y déspues hablas que otros nos inventamos cosas.. [fiu] .. cuando hacen eso, el juego esta promocionado por la marca y se hace desde los tiempos de los romanos. Incluso ha habido casos bastante sonados como el Ashes of the Singularity.

Lo que tu digas campeon, no es como si los términos de dichos acuerdos estén disponibles de forma pública en sus webs para contacto con desarrolladores. [facepalm] [facepalm]
De verdad, si hablar sin informarse fuese un trabajo ya te podrías jubilar solo con tus mensajes en el foro.


No se que ha dicho pero supongo que es el mimso personaje que tengo en ignorados, un consejo: no le hagas caso. Es un troll que solo mete mierda y provoca a todo el que puede en todos los hilos que participa.

Metelo en ignorados y te haras un favor a ti mismo.

Ah no, si lo conozco perfectamente, no lo meto en ignorados porque es divertido verle meter la pata xD
Es como la escena del actor secundario bob dándose de bruces con un rastrillo hasta el fin de los tiempos
...
Editado por metalgear. Razón: offtopic
...
Editado por metalgear. Razón: offtopic
...
Editado por metalgear. Razón: offtopic
katatsumuri escribió:@Sevilla FC las que se ajusten a tus necesidades

Configuración del controlador:

RTX Dynamic Vibrance: Esta función mejora el contraste y la saturación de los colores en tiempo real, haciendo que las imágenes se vean más vibrantes. Sin embargo, está desactivada en tu configuración actual.

RTX HDR: El HDR (High Dynamic Range) permite una gama más amplia de colores y niveles de brillo, ofreciendo una imagen más realista. Al igual que el anterior, también está desactivado en tu configuración.

CUDA-GPU: Aquí se indica la tarjeta gráfica que estás utilizando: una NVIDIA GeForce RTX 4080 SUPER. CUDA es una arquitectura de computación paralela de NVIDIA que permite a las aplicaciones utilizar la potencia de procesamiento de la GPU para tareas intensivas.

Nitidez de imagen: Esta opción aumenta la nitidez de los bordes en las imágenes, pero puede introducir artefactos si se exagera. Está desactivada en tu configuración.

Modo baja latencia: Reduce la latencia entre la acción del usuario y la respuesta en pantalla, lo que es especialmente útil en juegos. En tu caso, está desactivado.

Velocidad máxima de fotogramas: Esta opción limita la tasa de refresco máxima de la pantalla. Al estar desactivada, tu pantalla se refrescará a la tasa máxima que permita.

Tecnología del monitor: Indica que tu monitor es compatible con la tecnología G-SYNC de NVIDIA, que sincroniza la frecuencia de refresco de la pantalla con la tasa de fotogramas de la GPU para eliminar el tearing y stuttering.

Modo de control de energía: Define el equilibrio entre rendimiento y consumo energético de la tarjeta gráfica. En este caso, está configurado en "Normal".

Tamaño de la caché del sombreador: Esta opción afecta al rendimiento de la GPU, pero su valor óptimo depende de la aplicación y el hardware. En tu caso, se utiliza el valor predeterminado del controlador.

Sincronización vertical: Esta función sincroniza la frecuencia de refresco de la pantalla con la tasa de fotogramas de la GPU para eliminar el tearing. En tu caso, se utiliza la configuración de la aplicación 3D, lo que significa que cada juego o aplicación puede tener su propia configuración.

Realidad virtual - Supermuestreo de velocidad variable: Esta opción está relacionada con la realidad virtual y permite ajustar la resolución de la imagen en función de la velocidad de fotogramas. En tu caso, está desactivada.

Configuración global y configuración del programa:

Estas secciones te permiten configurar opciones más generales que afectan a todas las aplicaciones o a aplicaciones específicas.


Creo que en la nueva app de nvidia han quitado el streaming, menuda cagada


Gracias!, esta semana ire probando
Lo que tu digas campeon, no es como si los términos de dichos acuerdos estén disponibles de forma pública en sus webs para contacto con desarrolladores.

Al margen de la chuleria de mal gusto respondiendo. Esto es totalmente inventado. Nunca publican eso y todos conocemos algun titulo que funciona mejor en AMD que Nvidia y viceversa. Incluso los hubo muy sonados como Ashes of Singularity. Tambien hay una casa que lo hace mucho, Ubisoft dejandose ayudar por Nvidia o AMD dependiendo de quien apochine más.

El caso es que cuando desarrollan un juego buscan todo tipo de apoyos y las marcas lo hacen con hardware o soporte.

@Sevilla FC Todas esas opciones, en la App, solo valen para juegos que detecte. Los que no detecte usaran valores globales. Asi por ejemplo el RTX Vibrance se aplicara a todos los juegos no detectados por igual.
Una duda para ver si alguno ll sabe mejor que yo y si me he enterado bien o no.

Me ha dado por usar el Deep Learnibg.La verdad es que nunca le lresté atención.

Parece que majoraa de imagen ,se nota un poco.

Pero , que hace realmente?

Entiendo que , lo que hace es reescalar
de una resolución superior , y ajustarla a la resolución de tu monitor ,verdad?
Todo esto ,sin perder rendimiento en la resolución de tu monitor.

No sé ,noto la imagen como algo más detallada y "limpia".

Ni sé si lo he hecho bien .
En factor DSR , marco las dos casillas que me vienen en DL, la de 1.78 y 2.25 (4k).

En el juego pongo 3840x2160 ,y ahí es cuando entiendo que te hace el escalado, mejorando más texturas,.
Yo no veo pérdida aparente de rendimiento.Si la hay ,es muy similar a jugar sin DL.
Lo que sí veo ,es que me sube la ultilización de la GPU.

Sin embargo, si marca el factor heredado 4.00 (5120x2880) , aquí sí noto caída de frames notoria.

Qué diferencia hay entre escalado heredado y escalado DL?
Por lo que se ve ,en el DL no pierdes frames.

Luego o que no entiendo tampoco, es como funciona lo de la suavidad.
La tengo al 33% y se ve bien.Si la subo se empieza a ver todo más borroso.

También me da, que solo deja usarlo con pantalla completa ,no en modo ventana ,verdad?


Estoy muy liado o me he enterado bien del funcionamiento?
Cómo lo tenéis los que lo usáis?

Gracias de antemano,.La verdad es que había leído sobre ello ,pero nunca me ha dado por usarlo.
@hh1 Hace exactamente lo que dices, en un monitor de 1440p, te permite usar resoluciones mayores. El modo DL es un modo que solo aparece con las RTX y que se supone consume menos recursos. Y sí, algo de rendimiento pierdes. Depende tambien del PC que tengas. Yo cuando lo he usado en este PC, tampoco note gran cosa. Pero si lo usas con PC más ruin, si lo notas, sobretodo sino usas una RTX o por ejemplo con un RTX 3060 en un monitor 1080p que tengo yo.
Nomada_Firefox escribió:@hh1 Hace exactamente lo que dices, en un monitor de 1440p, te permite usar resoluciones mayores. El modo DL es un modo que solo aparece con las RTX y que se supone consume menos recursos. Y sí, algo de rendimiento pierdes. Depende tambien del PC que tengas. Yo cuando lo he usado en este PC, tampoco note gran cosa. Pero si lo usas con PC más ruin, si lo notas, sobretodo sino usas una RTX o por ejemplo con un RTX 3060 en un monitor 1080p que tengo yo.

Pues está genial,la verdad.
Yo creo que ,al menos en The Finals ,a penas palmo rendimiento, como sube el uso de gráfica ,lo compensa ,ya que antes no la usaba una mierda.

PD: vale ,mirado mejor ,pierdo unos 10 fps...no es mucho y se ve mejor.
sunlitandy escribió:Buenas!!!

Oferta o precio normal??

https://www.amazon.es/MSI-GeForce-4070- ... 563e39fc7d


Mirando histórico de precios en Amazon parece buena oferta, pero en mi caso al menos huyo de las que van con 2 ventiladores, manía personal. Siempre cojo las de 3. Pero a ver qué te dicen los expertos.
Ojo que las.4070 que han salido capadas en septiembre con gddr6 (sin X) no se diferencian en la caja con las normales, me da que ahora las van a colar sin q nos demos cuenta y picaremos pq están 30 euros más.baratas [mad]
ziu escribió:Ojo que las.4070 que han salido capadas en septiembre con gddr6 (sin X) no se diferencian en la caja con las normales, me da que ahora las van a colar sin q nos demos cuenta y picaremos pq están 30 euros más.baratas [mad]

Yo creo que aunque dijeron que era asi, tiene que ser falso en parte y donde trae el codigo de barras, tiene que decir que memoria trae. Lo mismo que sucedia antes con variantes de graficas.
Nomada_Firefox escribió:
ziu escribió:Ojo que las.4070 que han salido capadas en septiembre con gddr6 (sin X) no se diferencian en la caja con las normales, me da que ahora las van a colar sin q nos demos cuenta y picaremos pq están 30 euros más.baratas [mad]

Yo creo que aunque dijeron que era asi, tiene que ser falso en parte y donde trae el codigo de barras, tiene que decir que memoria trae. Lo mismo que sucedia antes con variantes de graficas.


A eso me refiero , tendrás q ver el código de barras o ver en la web las specs detalladas, me ha dado por mirar la de Amazon y efectivamente es laa versión capada sin X aunque tbn te dice q es de 8gb en lugar de 12!! :-? :

.2565 MHz de Boost Clock & 8 GB de VRAM GDDR6 (21 Gbps) & MSI Center extreme OC (2565 MHz
ziu escribió:Amazon y efectivamente es laa versión capada sin X aunque tbn te dice q es de 8gb en lugar de 12!! :-? :
[/quote]
Hay tiendas y tiendas. Amazon es la reina de la confusión, tiene un monton de productos falsos o mal descritos. Pero la verdad, no se, me cuesta pensar que en una tienda online de hardware informatico, no vayan a poner esos datos salvo por error que se puede hasta denunciar, pero generalmente ponen el tipo de memoria de la grafica y la versión.
pero quien se compra una 4070 normal ahora? si esta la super a 580 o asi, es de locos no cogerla

ahora es mejor esperar a ver las de 16GB cuando las presenten de serie 5000, que espero que no sigan con 12gb
Todo dependera del precio, una 4070 normal, incluso con GDDR6, si te la ponen más barata, seria infinitamente mejor que una 4060Ti, incluso que el modelo de 16GB.
Buenas tardes chicos, he estado monitorizando el uso de GPU de mi nueva 4080 Super y me he dado cuenta de que el uso de la misma gira en torno un 30%. Decir que juego a 1440P en monitor de 170 Hz. Tengo configurado la energía del sistema en alto rendimiento, y el uso de gráficos en la 4080S. Instalé los drivers con el DDU y puse los últimos drivers. No sé qué más pruebas realizar, ya que el juego no lo tengo a tope de settings y ni siquiera mantiene unos fps estables. Soy todo oidos.
boarone escribió:Buenas tardes chicos, he estado monitorizando el uso de GPU de mi nueva 4080 Super y me he dado cuenta de que el uso de la misma gira en torno un 30%. Decir que juego a 1440P en monitor de 170 Hz. Tengo configurado la energía del sistema en alto rendimiento, y el uso de gráficos en la 4080S. Instalé los drivers con el DDU y puse los últimos drivers. No sé qué más pruebas realizar, ya que el juego no lo tengo a tope de settings y ni siquiera mantiene unos fps estables. Soy todo oidos.


Si no supera el 30% o tienes mal conectado el pulpo de la alimentación que va a la GPU, o la fuente que tienes no da la potencia/ no es de muy buena calidad.
Que modelo exacto es de gráfica?
Yo después de revisar lo de las alimentación desinstalaria todos los drivers, volvería a instalar los drivers y la utilidad de la gráfica(afterburber o aurus si es gigabyte)
Miraria con el gpuz q le llega la potencia y estresaria a la GPU con el 3d Mark o algo parecido haber cuantos MHz y potencia te llega...
@ziu La fuente no es porque es nueva, una Seasonic de 850W con su conector ATX 3.0 y está conectada perfect. Puede que sean los drivers, voy a volver a desinstalar con DDU a ver si se ha quedado algún residuo. Tengo el Afterburner instalado y también lo miro por ahí. Lo único que no hice fue pasar el Furmark para estresar la gpu.

Edit: le he pasado un bench de FurMark y ni siquiera se pone por encima del 60% pego los resultados por aquí
https://www.gpumagick.com/scores/show.php?id=307140
boarone escribió:Buenas tardes chicos, he estado monitorizando el uso de GPU de mi nueva 4080 Super y me he dado cuenta de que el uso de la misma gira en torno un 30%. Decir que juego a 1440P en monitor de 170 Hz. Tengo configurado la energía del sistema en alto rendimiento, y el uso de gráficos en la 4080S. Instalé los drivers con el DDU y puse los últimos drivers. No sé qué más pruebas realizar, ya que el juego no lo tengo a tope de settings y ni siquiera mantiene unos fps estables. Soy todo oidos.

¿Al 30% jugando a que? ¿que rendimiento en fps sacas?
@Nomada_Firefox Warzone y DIablo IV, éste último con un 20% de uso de GPU. FPS en Warzone se mueve de 125 a 160 a su bola; y Diablo 170 constantes.
@boarone Formatea el PC de 0 y métele el W10 con las últimas actuaciones + Drivers Chipset + Nvidia y ya te debería de funcionar bien.

Esta semana me ha pasado lo mismo con la RTX 4070ti super y al final formateando el pc a W10 ya me está sacando todo el rendimiento que debería de dar.
Yo tengo la ultima versión de Windows y no he visto nada raro. De hecho he estado jugando al Star Wars Outlaws sin problemas de esa indole.

@boarone ¿Y iban mal? igual es que con esos juegos no iban a ir a más.
boarone escribió:@Nomada_Firefox Warzone y DIablo IV, éste último con un 20% de uso de GPU. FPS en Warzone se mueve de 125 a 160 a su bola; y Diablo 170 constantes.

Prueba la gráfica en juegos exigentes y no en esos, y menos ese diablo que dices que ya va a 170 constantes. Si tienes monitor 170hz y tienes vsync no te irá a más y será el vsync quien te limite.

No tienes otros juegos más exigentes? De esos que poniéndolo al tope vaya a muy pocos fps en las reviews (cyberpunk, Alan wake 2, etc.).

O de benchmark, prueba el de 3d Mark, aunque no recuerdo si el funmark era exigente (se supone que si pero de memoria ahora no recuerdo y lo recuerdo muy simple), aunque limitado a fps quizás estás en las mismas.

Otra cosa importante, qué CPU tienes? Por si te puede limitar en según qué casos. Y por cierto no descartes tema fuente porque sea nueva, eso no significa nada, al revés de hecho, podría ser defectuosa si no sabes si alguna vez llegó a funcionar bien.

Lo de instalar otra versión de Windows o formatear Windows es lo último que haría, antes hay muchas pruebas a hacer y soluciones a aplicar.
@Rvilla87

Tiene una 5600x algo de cuello de botella supongo q le tiene que hacer a la 4080 super, las memoria ddr4 q lleva ni idea:

https://www.gpumagick.com/scores/show.php?id=307140

Edito:

@boarone que placa tienes? Como sea pci 3.0 la mayoría am4) ya hemos encontrado el cuello de botella [+risas]
@ziu vale, ni fijé en el enlace... Pero si también está limitado a 170fps, no? Supongo que ese test tan sencillo los fps medios y los máximos es prácticamente lo mismo.

Para mi está claro que es un tema de limitación por vsync. Que desbloquee los fps quitando el vsync o que pruebe un juego o benchmark mas exigente que no llegue a 120fps ni siquiera y supongo que conseguirá que la gráfica vaya al 100%.
@Rvilla87 @ziu Efectivamente tengo un 5600X con una Asus TUF B550 Plus. Volviendo a desinstalar los drivers e instalar los drivers "automáticos" de nvidia, la GPU ha subido a un 65% de uso aprox.
boarone escribió:@Rvilla87 @ziu Efectivamente tengo un 5600X con una Asus TUF B550 Plus. Volviendo a desinstalar los drivers e instalar los drivers "automáticos" de nvidia, la GPU ha subido a un 65% de uso aprox.


Como comenta @rvilla87 desactiva el vsync , aunque se te muevan artefactos si no tienes gSync , no limitaras la gráfica y verás su potencial real...
Tengo una duda, antes los juegos me iban perfectos, los tengo limitados a 60 fps, y me van a esa velocidad rocosos, pero últimamente he notado que BG3 o GTA 5 no me pasan de 40 fps, cuando antes me iban perfectos.

He puesto el GPU-Z, y en el test que tiene, mi placa soporta el pci 3.0, pero en algunos momentos baja a 2.0

¿Por qué puede ocurrir esto?

He pasado algunos test, a ver si me podeis decir si los resultados van bien con mi equipo

Imagen

Imagen

Imagen


Un saludo
¿No hay hilo aun de la nueva serie? se están empezando ya a filtrar cosas y supuestamente quedan pocos meses
En Amazon están las 4060 de 8g a 296€, como la veis para 1080? Tengo un Ryzen 5 a 3600
FranciscoVG escribió:¿No hay hilo aun de la nueva serie? se están empezando ya a filtrar cosas y supuestamente quedan pocos meses

Hoy se a vuelto a rumorear subida de consumo
rumores de nuevo de que la 5070 seria de 12gb y 220W, bien por el consumo, pero 12gb, la abuela fuma.

Yo miraria la 5070ti si trae 16, sino mal fario
@GF3

Esto lo hacen todas las placas para ahorrar consumo, pasen de 4.0 a 2.0 o 1.1 si no hay carga, por eso está el botón al lado de "render test" para ponerlo al máximo.

Hablando de bus..

Se sabe si las rtx 5000 usarán el pci 5.0?

Yo y mucha gente tenemos placas con pci. 5.0 x16 y es una pena que estén desaprobechadas [looco]
No presto mucha atención al tema del hardware, pero ando un tiempo con intención de renovar mi 3060ti.

Mirando me he encontrado que muchas 3070ti están al mismo precio, o incluso superior, al de muchas 4070ti. Tiene alguna explicación?
MrGeeeorge escribió:Mirando me he encontrado que muchas 3070ti están al mismo precio, o incluso superior, al de muchas 4070ti. Tiene alguna explicación?

Pura estafa simplemente. Siempre sucede, quedan algunos modelos antiguos a precio desorbitado. Modelos que si las venden a algun incauto ganaran mucho y sino seguramente las usen para cubrir garantias.
@ziu

Es que lo de variar entre el 2.0 y el 3.0 lo hace pasando el render.

Un saludo
Viendo ese rumor de que una 5080 = 4090 x 1,1, se viene un salto parecido al que hubo entre la serie 2000 y la 3000?
NMansell92 escribió:Viendo ese rumor de que una 5080 = 4090 x 1,1, se viene un salto parecido al que hubo entre la serie 2000 y la 3000?


Si sacan la 5080 a 1,5K poco salto

Si la sacan a ≤1K, hablamos de otra cosa.
PSX22 escribió:rumores de nuevo de que la 5070 seria de 12gb y 220W, bien por el consumo, pero 12gb, la abuela fuma.

Yo miraria la 5070ti si trae 16, sino mal fario

Vamos que si se confirma la 5070 es la 4070 super por consumo y prestaciones,faltara saber si mejora el Ray o el dlss
chris76 escribió:
PSX22 escribió:rumores de nuevo de que la 5070 seria de 12gb y 220W, bien por el consumo, pero 12gb, la abuela fuma.

Yo miraria la 5070ti si trae 16, sino mal fario

Vamos que si se confirma la 5070 es la 4070 super por consumo y prestaciones,faltara saber si mejora el Ray o el dlss




Si la 5080 es una 4090 y la supera por 10%

La 5070 tiene que ser como una 4080super no? Pero con 12 no me lo explico, aver si las medias las van a mejorar poco.


Si la 5070 no es como minimo una 4070ti super, seria harta estafa si es una super no se ni para que la sacan, seria sacar lo mismo 2 veces
PSX22 escribió:La 5070 tiene que ser como una 4080super no?

Viendo lo que dicen de la 5080, que menos que 10% mas de potencia que la 4080 con 10% menos de consumo !!!!
12GB seria bastante bajón.
@654321


Pero no escalan igual gamas altas y medias

La 4090 fue mucho mas que 3090

Pero 4070 no fue mucho mas que 3070



Estos
Sinverguenzas quieren colorcar 12gb y dejar los 16 para la 5070ti que va valer 900€ o mas
PSX22 escribió:Pero no escalan igual gamas altas y medias

La 4090 fue mucho mas que 3090

Pero 4070 no fue mucho mas que 3070

Si resulta así, que se metan la 5070 por el culo !!!!!!!

Una generación pase, pero 2 generaciones seguidas que la gama no mejora, no me jodas !!!!

Pero claro, la 5070 igual trae DLSS 4.0 que multiplica los frames x4 ... o x8 [qmparto]
14352 respuestas
1284, 285, 286, 287, 288