HakiGold escribió:Si los rumores se cumple la RTX 5080 solo sería un 16% más potente que la 9070xt, la primera costando $1000 y la segunda entre los $500-600, AMD les haría bastante pupa.
Vandroy escribió:Pero porque todo el mundo esta entrando en panico con el tema de la resterizacion? Podemos ser un poco mas analiticos en las valoraciones? Los primeros resultados filtrados de estas tarjetas anuncian un incremento discreto en resterizacion pura ( entre 25 y 30% de incremento) peo un incremento mucho mas notable en ray tracing? Y? Esto es exactamente lo que esta generacion necesitaba. Los juegos hoy en dia sin ray tracing en las 4090 ya van a unos fps altisimos a 4K, hace falta un incremento muy grande en este aspecto? En cambio los ultimos juegos AAA de PC vienen todos con efectos RT, y los mas exigentes con la opcion de path tracing, que ahi si pone de rodillas a esta generacion... Coño, pues donde hacia falta trabajar para la siguiente esta claro qué era...
Teneis que olvidaros de valorar el HW de forma tradicional, ya no son maquinas de computacion donde la fuerza bruta es lo principal... Ahora vienen con un monton de elementos diferenciados dedicados a tipos de operaciones dedicadas muy especificas.
Hay que actualizar la teoria de como se fabrican las gpus actuales.
neox3 escribió:basterwol escribió:Por cuanto venderíais una 4090/4080/4070 RTX?
Dependerá del precio original, yo he vendido una 4090 que me costó 1600, en 1000... Si hubiese costado 1800 pues imagino que mínimo pediría 1100-1200.
Wallapop está plagado de 4090 a 1500, 1600 , flipados a 1800... Y ahí siguen, no se venden.
Es mejor venderla por un precio acorde, que comértela con patatas por avaricia. Yo a veces pienso que la gente realmente (que las pone a esos precios) no las quiere vender, es solo por si algun incauto pica.
Un saludo
HakiGold escribió:Cualquier que sabe un poco de arquitectura se rei ría de esos comentarios sin sentido técnico, básicamente es un damage control.
Ahora resultado que el rasterizado ya no es importante, la mejoras se notaran en RT por un montón de cosas que me invento......
Para la gente normal no me haría muchas ilusiones con estas GPU todo apunta refrito, al menos que nvidia se cas un AS en temas de IPC , el salto en rasterizado y RT será pequeño, por eso en la presentación vendieron los Frames inventados, para vender rendimiento.
ditifet escribió:
Con una de 650w de calidad le sobra, que manía con fuentes de chorrocientos mil watios, parece cuando salíeron las 4090 que los cuñados iba a por fuentes de 1200w
Otra cosa es que esté jodida la que tiene y por eso los fallos que tampoco lo tengo tan claro que venga de la fuente y no se la gráfica
Trumpeteer escribió:@metalgear @quimico2008 Cuando podáis pasad la escoba. El usuario yoyoduncan es el mismo que tarball Gracias
No es demasiado inteligente para disimular un poco y qué pocas luces para mandar privado con esa otra cuenta, cuando son el mismo. No te queda internet, chiquitín...
Utiliza hasta las mismas expresiones, no sabe disimular... pobre.
También es el mismo de estos otros 2 usuarios que baneasteis, me jugaría el cuello
hilo_ayudita-con-mesa-amber-en-linux-mint-22-manjaro-con-intel-gma-3100_2513102
orie29 escribió:Veis fiable este tipo de cables de 90 grados el conector, en este caso no es un adaptador es el cable directo con esa forma por parte de Corsair.
https://www.corsair.com/es/es/p/pc-components-accessories/cp-8920351/corsair-psu-90-12v-2x6-style-a-cable-cp-8920351
(no se si viable) usar ese cable de Corsair por ejemplo si tengo un espacio reducido para el cable de la 5080
AxelStone escribió:@SECHI repórtalo, eso no son formas de hablarle a nadie.
CositaES escribió:De este tío no me creo nada, solo me fío de Nate Gentile y de Tortilla Squad.
orie29 escribió:Veis fiable este tipo de cables de 90 grados el conector, en este caso no es un adaptador es el cable directo con esa forma por parte de Corsair.
https://www.corsair.com/es/es/p/pc-components-accessories/cp-8920351/corsair-psu-90-12v-2x6-style-a-cable-cp-8920351
(no se si viable) usar ese cable de Corsair por ejemplo si tengo un espacio reducido para el cable de la 5080
HakiGold escribió:
Tortilla?Nate? .
Hardware 360 del mundo de los youtubers era de los que más sabía de temas de hardware CPU y GPU tenía una base técnica decente.
Los demás Youtubers son mainstream no conocen mucho de temas técnicos, para temas técnicos más profundo ya tienes que irte a temas de blogs.
nose_ escribió:CositaES escribió:De este tío no me creo nada, solo me fío de Nate Gentile y de Tortilla Squad.
Pues entoces vas apañado si te crees al tal Nate
Trumpeteer escribió:Ya le banearon las cuentas. A ver lo que tarda en volver con nuevas.
MrKafka escribió:Hasta que no pongan el maldito conector por detrás, no habrá un avance significativo......anda que estar aún bregando con "espero que no me toque en el cristal templado".
Tamagami escribió:@Rvilla87 Como bien dices, la generacion de cuadros por IA ya no es una cosa de NVIDIA, lo busca tanto amd como intel en sus gpus.
Desde los inicios de DLSS los fans de AMD criticaron esos FALSOS FOTOGRAMAS duramente, y en cuanto vieron que AMD traía FSR callaron como putas.
Ahora critican versiones nuevas de DLSS que llegan donde AMD no llega.
El dia que AMD llegue callaran...
La cosa es que NVIDIA va 2 pasos por delante.
Trumpeteer escribió:ditifet escribió:
Con una de 650w de calidad le sobra, que manía con fuentes de chorrocientos mil watios, parece cuando salíeron las 4090 que los cuñados iba a por fuentes de 1200w
Otra cosa es que esté jodida la que tiene y por eso los fallos que tampoco lo tengo tan claro que venga de la fuente y no se la gráfica
Nada hombre, solamente NVIDIA, Corsair, PCMAG etc recomiendan al menos una 850W para la 5080, pero habrá que escribirles para decirles que los "HINJENIEROS" de EOL dicen que con una 650W vas sobrado y muchísimo mejor. Haced lo que queráis
https://www.corsair.com/us/en/explorer/ ... tion%20fan
https://www.corsair.com/us/en/explorer/ ... d-to-know/
PCGUIDE:
To select the best PSU for the RTX 5080, the first aspect you need to consider is its power requirement. Nvidia recommends an 850W PSU for this graphics card, so that is what you should be looking for.
https://www.pcguide.com/psu/guide/best-for-rtx-5080/
Lo que recomienda ASUS:
https://rog.asus.com/articles/guides/ho ... gaming-pc/
PcGuide: https://www.pcguide.com/psu/guide/best- ... %20quality.
etc
Koroku escribió:Buenas.
Tengo duda si aguanta mi fuente:
Tengo una fuente de alimentación Antec EDG650W 80plus gold que siempre me ha ido bien.
Un i9-9900k con 4 DIMMs de RAM DDR4, 2x16 + 2x8 GB
2 HDD de 3.5
1 HDD de 2.5
1 SSD de 2.5
1 NVMe Samsung 980 Pro
1 Lector de BluRay
1 Lector de tarjetas frontal
3 Ventiladores de la caja de 10 cm
2 ventiladores de 12cm para el disipador por aire de la CPU
Estoy con una 3070 que me esta dando pantallazos azules y quiero cambiarla por la 5070 Ti pero no se si la fuente de 650W llegaría bien.
¿pueden indicarme si podría ir con esa fuente? si no tendría que bajarme a la 5070
shilfein escribió:Solo he probado generación de frames (DLSS 3) en 4 juegos, y en todos lo quité casi al instante.
No puedo con los artefactos que genera, ni con el input lag.
Una decepción total que el principal punto de ventas de la nueva generación sea seguir por ese camino.
Trumpeteer escribió:ditifet escribió:
Con una de 650w de calidad le sobra, que manía con fuentes de chorrocientos mil watios, parece cuando salíeron las 4090 que los cuñados iba a por fuentes de 1200w
Otra cosa es que esté jodida la que tiene y por eso los fallos que tampoco lo tengo tan claro que venga de la fuente y no se la gráfica
Nada hombre, solamente NVIDIA, Corsair, PCMAG etc recomiendan al menos una 850W para la 5080, pero habrá que escribirles para decirles que los "HINJENIEROS" de EOL dicen que con una 650W vas sobrado y muchísimo mejor. Haced lo que queráis
https://www.corsair.com/us/en/explorer/ ... tion%20fan
https://www.corsair.com/us/en/explorer/ ... d-to-know/
PCGUIDE:
To select the best PSU for the RTX 5080, the first aspect you need to consider is its power requirement. Nvidia recommends an 850W PSU for this graphics card, so that is what you should be looking for.
https://www.pcguide.com/psu/guide/best-for-rtx-5080/
Lo que recomienda ASUS:
https://rog.asus.com/articles/guides/ho ... gaming-pc/
PcGuide: https://www.pcguide.com/psu/guide/best- ... %20quality.
etc
pinturito escribió:yo tengo un PC secundario con un 11600k y una 3080ti y perfecto con una Seasonic GC de 650W Gold..... le pienso meter la 4080 que tengo ahora y comprarme la 5080 para mi PC principal, si ha podido con un 3080ti, podra con una 4080 que tiene el mismo TDP.... y ya no digo con una 5070ti que consume menos....
Yo creo que con una fuente de calidad de 650W le va a dar de sobra para un 9900k con una 5070ti
Sicopro escribió:Pues yo creo que el MFG va a funcionar bastante bien, el input lag que añade es mínimo y con Reflex 2 más el Frame Warp debería ir bastante jugable en single players. Han solucionado muchos problemas de estelas y otras movidas en el nuevo DLSS para todas las series.
Yo creo que utilizándolo con DLSS en modo calidad va a dar un resultado bastante bueno, encima petas todos los settings en ultra y metes PT.
Por potencia bruta es imposible mover RT y sobre todo PT. Los juegos siguen avanzando y son más exigentes, hay que tirar de IA.
Quizás una RTX 7080 (2029) te pueda mover el Cyberpunk 2077 en ultra a 4K/60 FPS con PT y sin DLSS, un juego del año 2020.
PD: @SECHI No entiendo esa cebada tan basta contigo, creo que no le diste tampoco mucha caña. En cambio ahí tenemos al pobre @Rvilla87 esperando su dosis de amor.
Kroxy escribió:No he probado la generación de fotogramas de DLSS 3, pero sí el FG de AMD. En los juegos que lo implementan nativamente sin mods funciona perfectamente. Yo no soy capaz de encontrar artefactos ni noto un aumento en el input lag. Me pasé el Ghostrunner 2 con él y ahora estoy con Horizon Forbiden west y perfecto. Me extrañaría que FG de nvidia funcione peor.
Sicopro escribió:@pinturito
Claro que le da, si lo acabo de demostrar con la calculadora y eso es sobre el consumo máximo.Kroxy escribió:No he probado la generación de fotogramas de DLSS 3, pero sí el FG de AMD. En los juegos que lo implementan nativamente sin mods funciona perfectamente. Yo no soy capaz de encontrar artefactos ni noto un aumento en el input lag. Me pasé el Ghostrunner 2 con él y ahora estoy con Horizon Forbiden west y perfecto. Me extrañaría que FG de nvidia funcione peor.
Yo he probado las dos y funciona todavía mejor el de Nvidia. El de AMD también va bastante bien.
Eso de no poder jugar con FG por la latencia en juegos single player, me suena que es de esto:
Risas para mover eso sin IA (17-20 FPS) sin DLSS con PT.
Sicopro escribió:@pinturito
Es que visto en FPS parece poca cosa, pero cuando lo ves en porcentaje es otro cantar.
pinturito escribió:Sicopro escribió:@pinturito
Claro que le da, si lo acabo de demostrar con la calculadora y eso es sobre el consumo máximo.Kroxy escribió:No he probado la generación de fotogramas de DLSS 3, pero sí el FG de AMD. En los juegos que lo implementan nativamente sin mods funciona perfectamente. Yo no soy capaz de encontrar artefactos ni noto un aumento en el input lag. Me pasé el Ghostrunner 2 con él y ahora estoy con Horizon Forbiden west y perfecto. Me extrañaría que FG de nvidia funcione peor.
Yo he probado las dos y funciona todavía mejor el de Nvidia. El de AMD también va bastante bien.
Eso de no poder jugar con FG por la latencia en juegos single player, me suena que es de esto:
Risas para mover eso sin IA (17-20 FPS) sin DLSS con PT.
o sea, la 5090 lo mueve a 27 fps y la 4090 no llega ni a 20 fps, o sea le mete mas de un 50% de rendimiento puro sin ayuda de la IA, pero a algunos de por aqui no les parece suficiente y dicen que son las mismas tarjetas.... si es que te tienes que reir
Kroxy escribió:shilfein escribió:Solo he probado generación de frames (DLSS 3) en 4 juegos, y en todos lo quité casi al instante.
No puedo con los artefactos que genera, ni con el input lag.
Una decepción total que el principal punto de ventas de la nueva generación sea seguir por ese camino.
No he probado la generación de fotogramas de DLSS 3, pero sí el FG de AMD. En los juegos que lo implementan nativamente sin mods funciona perfectamente. Yo no soy capaz de encontrar artefactos ni noto un aumento en el input lag. Me pasé el Ghostrunner 2 con él y ahora estoy con Horizon Forbiden west y perfecto. Me extrañaría que FG de nvidia funcione peor.
@MrKafka si pones la gráfica en vertical te olvidas de todos esos problemas.
@SECHI En CP el path tracing no tiene modos de calidad, o lo activas o no lo activas, y una 4090 da unos 40 fps a 4k con dlss en calidad. Si lo pones en equilibrado ya te irás a unos 50 fps y con FG ya llegas a unos 100 fps.
https://youtu.be/-uI5LOmxtRA
Neo_Zell escribió:Señores, ya sé que no teneis una bola de cristal a mano, pero creeis que habra problemas de stock con las 5080?
Los hubo con la serie 4000? Cuando pille mi 3080 fue un "salvase quien pueda", claro que estaba en auge la mineria.
SECHI escribió:El RT tiene varias opciones de activación y de calidad, como le subas un poco esas opciones y actives PT adios rendimiento. Y hablamos de una 4090, una 5080 no va a llegar a 50fps segun que pongas y el multi frame va a partir de unos fps muy bajos (25-30fps) y en esos casos no se yo que resultado va a dar.
La esperanza que tengo es que ese magico modo rendimiento del dlss haga subir los fps y encima mejore tanto visualmente como sale en esos increíbles videos.
HakiGold escribió:pinturito escribió:Sicopro escribió:@pinturito
Claro que le da, si lo acabo de demostrar con la calculadora y eso es sobre el consumo máximo.
Yo he probado las dos y funciona todavía mejor el de Nvidia. El de AMD también va bastante bien.
Eso de no poder jugar con FG por la latencia en juegos single player, me suena que es de esto:
Risas para mover eso sin IA (17-20 FPS) sin DLSS con PT.
o sea, la 5090 lo mueve a 27 fps y la 4090 no llega ni a 20 fps, o sea le mete mas de un 50% de rendimiento puro sin ayuda de la IA, pero a algunos de por aqui no les parece suficiente y dicen que son las mismas tarjetas.... si es que te tienes que reir
De 20 fps a 27fps es un 35% no 50%.
Y claro sería las mismas tarjetas pero con más unidades de un poco de todo, la 5090 tiene 30% más de Cudas que la 4090 y ancho de banda.
De las 5080 para abajo , eso se reduce, sería lo lógico que la 5090 fuera la GPU con el mayor salto un 30%, ya que es la que tiene más de todo en aumento del chip.
Sicopro escribió:No tienes ni idea de como funciona el renderizado neural, es más no sabías ni lo que es un ASIC, ni me menciones.HakiGold escribió:Si los rumores se cumple la RTX 5080 solo sería un 16% más potente que la 9070xt, la primera costando $1000 y la segunda entre los $500-600, AMD les haría bastante pupa.
Acabas de soltar esa perla en el otro hilo, no hay nada más que añadir.