Panfrismix escribió:Está claro que la 3080 es un tarjetón y quien la compra la va a disfrutar como un loco. Por tanto decir que no merece la pena es una tontería y una sobrada.
Ahora bien, es casi tanta tontería como decir que la 3090 es solo para uso profesional. Vale que quieras buscarte una excusa para sentirte bien tras no poder o querer llegar a pagar la 3090... Pero las matemáticas no fallan, la 3090 tiene 10.496 núcleos mientras que la 3080 tiene 8704. Eso quiere decir que tiene nada menos que un 20% mas de potencia sobre el papel... y aparte la monstruosa cantidad de 24 gb de ram, Nada menos que 14 mas que la 3080.
Por tanto podéis pintarlo como queráis pero la 3090 se va a comer a la 3080 con patatas. En renderizado, en programitas de diseño, en uso profesional,... y espera que lo voy a decir... no quiero que nadie se sienta ofendido... se la va a comer en juegos.
wildchild_bcn escribió:Lemmiwinks escribió:Bio81 escribió:
los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos
@Wanderlei @Lemmiwinks
La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó
@josemurcia
antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato
Que a ti te apetece gastarte 1500 en una grafica? Perfecto, cada uno hace con su dinero lo que quiera, pero no digas que comprarte una 3070 o 3080 es tirar el dinero para acto seguido decir que la 3090 te va a dar un rendimiento para mas de cuatro años...
3090= mas de 4 años segun tus calculos
3080+4080=con eso tiras mas de 6 años
3070+4080+5080= cuanto tiras con esto? Mas de 7 años?
La 3090 si no eres creador de contenido, o no vas a hacer un uso mas profesional, es realnente lo que es tirar el dinero
Yo tenia guardados los dineros para una 3090, pensando que la diferencia de precios con la 3080 no seria tan grande (rollo 1000 y pico euros)
Pero es que con el precio de una 3090 te compras una 3080 y una futurible 4080 (y aun te sobra si vendes la 3080... antes de que anuncien las 4000 xD)
Yo al final voy a optar por comprar 3080 y ps5, y en su momento haré el cambio de 3080 por 4080 (que sera también mas potente que la 3090)
La 3090 en mi caso iba a ser por "tener la mas gorda", no creo que la fuera a aprovechar al maximo
Todo esto a falta de ver benchmarks...pero viendo las diferencias en Cores y mirando al pasado seguramente la 3090 sera un 20% mas potente que la 3080 a un precio casi un 100% mayor
ionesteraX escribió:elamos escribió:No acabo de entender como se puede ver mejor así que con la resolución nativa del monitor, por mucho filtro que tenga no deberia verse mas nitido que en nativo y si lo hace
Es por aplicarle un factor de nitidez a la imagen, es algo que se puede hacer sin el dlss y yo por ejemplo llevo haciendo muchos años aplicando reshades externos a los juegos para ganar calidad de imagen.
Panfrismix escribió:Está claro que la 3080 es un tarjetón y quien la compra la va a disfrutar como un loco. Por tanto decir que no merece la pena es una tontería y una sobrada.
Ahora bien, es casi tanta tontería como decir que la 3090 es solo para uso profesional. Vale que quieras buscarte una excusa para sentirte bien tras no poder o querer llegar a pagar la 3090... Pero las matemáticas no fallan, la 3090 tiene 10.496 núcleos mientras que la 3080 tiene 8704. Eso quiere decir que tiene nada menos que un 20% mas de potencia sobre el papel... y aparte la monstruosa cantidad de 24 gb de ram, Nada menos que 14 mas que la 3080.
Por tanto podéis pintarlo como queráis pero la 3090 se va a comer a la 3080 con patatas. En renderizado, en programitas de diseño, en uso profesional,... y espera que lo voy a decir... no quiero que nadie se sienta ofendido... se la va a comer en juegos.
lucer1 escribió:El tema es que aquí cada uno tiene que tener claro lo que quiere y a dónde puede llegar, yo seguramente con la 3070 iría bien pero sé que luego me iba a arrepentir de no haber invertido 200€ más y darle más tiempo de vida a la tarjeta porque yo también creo que meterle 8 gb y la memoria ddr6 normal es un poco justo.
Comprar lo que os apetecía y podáis y disfrutad que para eso las compramos.
Saludos
lucer1 escribió:
Dejad de amargar la existencia a la gente que venimos aquí a leer un rato e informarnos y que queremos una gráfica para jugar decéntemente y disfrutar de nuestro hobby en un pc y no en una consola.
Smoje escribió:Yo soy uno de la serie 1000 que no cambió y daré el salto como decía el vídeo del risitas jaja, dichosa tecnología...
parh escribió:Yo de momento esperare pacientemente a los benchmark que es lo que de verdad importa. Si se confirma que la 3090 es un 20-25% mas potente que la 3080, entonces descartada por mi parte porque el doble de precio para solo esa ganancia en potencia, me parece que no vale la pena.
Tambien esperare a ver que presenta AMD, porque no tengais la menor duda de que si Nvidia se ha puesto las pilas con la 3070/3080 es porque debe saber que AMD tiene algo digno que presentar.
Elevation_ph escribió:Hola, ¿alguno sabe si las RTX 30xx Founders Edition las pondrán a la venta en Amazon tambien? ¿o son exclusivas de la web de Nvidia?
Nunca en comprado en la de Nvidia, no tengo ni idea los métodos de pago y de envio.
Gracias
Eilex_D escribió:Vaya locura la imagen de la 3090 en la mini ATX xDDD
tigerscream escribió:jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.
La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.
Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.
Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.
Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.
Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.
No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.
ionesteraX escribió:El problema con AMD es que depende de las consolas para sacar sus gráficas, es decir que nunca saldran antes de las consolas para no opacar sus ventas...
ionesteraX escribió:parh escribió:Yo de momento esperare pacientemente a los benchmark que es lo que de verdad importa. Si se confirma que la 3090 es un 20-25% mas potente que la 3080, entonces descartada por mi parte porque el doble de precio para solo esa ganancia en potencia, me parece que no vale la pena.
Tambien esperare a ver que presenta AMD, porque no tengais la menor duda de que si Nvidia se ha puesto las pilas con la 3070/3080 es porque debe saber que AMD tiene algo digno que presentar.
El problema con AMD es que depende de las consolas para sacar sus gráficas, es decir que nunca saldran antes de las consolas para no opacar sus ventas, lo ideal hubiera sido que AMD sacara lo suyo como respuesta a la serie 30 de nvidia y esta a su vez sacara las versiones Ti de la 70 y 80 sumado a la versiones 60 y 50, si AMD no se mueve nvidia tampoco lo hara ya que solo estara haciendose competencia a si misma como pasa ahora con la serie 30 y 20.
Eso eso, ITX. Fallo mioZinv escribió:Eilex_D escribió:Vaya locura la imagen de la 3090 en la mini ATX xDDD
Peor...es una itx.
jiujinkai escribió:Yo lo que tengo es un cacao con la 3090, sería lo que es la titan o habrá una titan? Me huele raro eso.
Nowcry escribió:PilaDePetaca escribió:
Por favor, si es gracias a métodos como los del UE5 los que hacen que las consolas puedan manejar geometrías bestias y luces complejas sin problemas de falta de VRAM o ancho de banda, y es mas, si no fuese por el SSD PS5 ni podría tener RT, porque aunque no lo parezca, el ancho de banda y la VRAM necesario para hacer RT es una burrada (anda, y viendo los rendimientos de RT de las series 30xx, parecen no tener problemas de falta de VRAM)...
Para que te hagas una idea de lo que las nuevas tecnologías ofrecen, la demo de "marbles" deja lo que ha enseñado UE5 a la altura de un mario de NES (muy probablemente "marbles" ni lo puedan mover las consolas).
Por favor, antes de poner burradas que se informe la gente, que telita el hilo que llevamos.
No se que me estas diciendo con las consolas, en mi comentario las consolas ni entran. Te estoy diciendo que el método de los micropoligonos necesita toda la tubería gráfica ancha, Un I/O ancho una VRAM grande y ancha y una GPU potente, y un RT mas potente aun.
Deja un apartado sin que este bien y la habrás cagado.
Que tienen las RTX 3000:
Un I/O decente que puede compensarse con una mayor VRAM en caso de interrupciones o SSD de transmisión mas baja, una GPU muy bestia y una pequeña VRAM (en el caso de 3070 y 3080). Esta ultima arrastrara al resto de la GPU en un entorno de microsporidios y texturas de alta resolución.
Lo único que estoy diciendo es esperate a las versiones Ti o compra la 3090. Pero no la cagues comprando estas versiones por lo que se viene y que podremos disfrutar todos. Nadie te ha dicho que te compres una consola, solo que aguantes con lo que tienes hasta las versiones Ti porque las GPU actuales tienen ese lado estrecho claramente aposta.
No es que en Nvidia sean tontos, saben que en un entorno tradicional 4k aguantaran los próximos 2 años y después comenzaran a verse pequeñas cuando empecemos a ver los entornos de micropoligonos. En ese momento seguirán sin competencia por lo que iras a comprarles una nueva GPU por necesidad. o puedes esperar a las versiones Ti/Super, a que a la 3080 le metan 20 gb de GDDR y estar bien preparado para lo que se viene.
PD: La demo de marbles mola mucho, tecnológicamente esta bien pero no me a impresionado para nada. No ha sido un momento ooohhh si esto si que es Next Gen. Ese momento llegara cuando muestren nanite funcionando en una 3090 a tope de todo con RTX al maximo, ahi si que vamos a decir esto si que es Next Gen.
Hasta entonces solo queda estudiar y informarse en como no tirar el dinero. Puedes salir de este foro y pasarte por el de Nvidia, el de Beyond o cualquiera mas técnico y comprobar sus preocupaciones. O puedes seguir pensando que los demás somos tontos y solo decimos burradas. Evidentemente.........
adriano_99 escribió:
ionesteraX escribió:parh escribió:Yo de momento esperare pacientemente a los benchmark que es lo que de verdad importa. Si se confirma que la 3090 es un 20-25% mas potente que la 3080, entonces descartada por mi parte porque el doble de precio para solo esa ganancia en potencia, me parece que no vale la pena.
Tambien esperare a ver que presenta AMD, porque no tengais la menor duda de que si Nvidia se ha puesto las pilas con la 3070/3080 es porque debe saber que AMD tiene algo digno que presentar.
El problema con AMD es que depende de las consolas para sacar sus gráficas, es decir que nunca saldran antes de las consolas para no opacar sus ventas, lo ideal hubiera sido que AMD sacara lo suyo como respuesta a la serie 30 de nvidia y esta a su vez sacara las versiones Ti de la 70 y 80 sumado a la versiones 60 y 50, si AMD no se mueve nvidia tampoco lo hara ya que solo estara haciendose competencia a si misma como pasa ahora con la serie 30 y 20.
tigerscream escribió:@Filver @Gwyn El problema es que hace 2 días se rumoreaba que AMD hasta Noviembre no iba a presentarlas (al estilo de lo que ha hecho nVidia) y eso fue ya lo que a mi me empujó definitivamente a pillarme la 2080Ti, porque no quería plantarme en Enero aún sin GPU. Mi tope para comprarla era Noviembre y si AMD no dice nada hasta Noviembre me temo que las consolas no saldrán hasta finales de Noviembre igual que las GPU y eso implica que hasta Diciembre no será fácil de comprar y no es precisamente Diciembre un mes fácil para comprar porque es cuando casi todo suele agotarse... entonces ya nos íbamos casi con seguridad a enero para pillar buenos precios/stock, pero es que además eso concuerda con lo de las memorias que hasta enero/Febrero 2021 no estarán listas, por lo que nVidia no creo que saque las que tengan mas VRAM hasta ese entonces como pronto. Todo eso me hizo pensar en un paso intermedio y así esperar tranquilamente a ver que pasa con todo y cuando todo esté 100% claro, si merece la pena cambio la 2080Ti por una 3000 y si no, pues sigo como estoy.
Filver escribió:tigerscream escribió:@Filver @Gwyn El problema es que hace 2 días se rumoreaba que AMD hasta Noviembre no iba a presentarlas (al estilo de lo que ha hecho nVidia) y eso fue ya lo que a mi me empujó definitivamente a pillarme la 2080Ti, porque no quería plantarme en Enero aún sin GPU. Mi tope para comprarla era Noviembre y si AMD no dice nada hasta Noviembre me temo que las consolas no saldrán hasta finales de Noviembre igual que las GPU y eso implica que hasta Diciembre no será fácil de comprar y no es precisamente Diciembre un mes fácil para comprar porque es cuando casi todo suele agotarse... entonces ya nos íbamos casi con seguridad a enero para pillar buenos precios/stock, pero es que además eso concuerda con lo de las memorias que hasta enero/Febrero 2021 no estarán listas, por lo que nVidia no creo que saque las que tengan mas VRAM hasta ese entonces como pronto. Todo eso me hizo pensar en un paso intermedio y así esperar tranquilamente a ver que pasa con todo y cuando todo esté 100% claro, si merece la pena cambio la 2080Ti por una 3000 y si no, pues sigo como estoy.
Tanto AMD como las consolas van a salir antes de finales de noviembre, ni de coña se van a saltar el Black Friday, AMD me apuesto lo que sea a que sale en Octubre con la corresponiente rebaja de la gama 3000 por la bendita competencia.
Filver escribió:tigerscream escribió:@Filver @Gwyn El problema es que hace 2 días se rumoreaba que AMD hasta Noviembre no iba a presentarlas (al estilo de lo que ha hecho nVidia) y eso fue ya lo que a mi me empujó definitivamente a pillarme la 2080Ti, porque no quería plantarme en Enero aún sin GPU. Mi tope para comprarla era Noviembre y si AMD no dice nada hasta Noviembre me temo que las consolas no saldrán hasta finales de Noviembre igual que las GPU y eso implica que hasta Diciembre no será fácil de comprar y no es precisamente Diciembre un mes fácil para comprar porque es cuando casi todo suele agotarse... entonces ya nos íbamos casi con seguridad a enero para pillar buenos precios/stock, pero es que además eso concuerda con lo de las memorias que hasta enero/Febrero 2021 no estarán listas, por lo que nVidia no creo que saque las que tengan mas VRAM hasta ese entonces como pronto. Todo eso me hizo pensar en un paso intermedio y así esperar tranquilamente a ver que pasa con todo y cuando todo esté 100% claro, si merece la pena cambio la 2080Ti por una 3000 y si no, pues sigo como estoy.
Tanto AMD como las consolas van a salir antes de finales de noviembre, ni de coña se van a saltar el Black Friday, AMD me apuesto lo que sea a que sale en Octubre con la corresponiente rebaja de la gama 3000 por la bendita competencia.
Gwyn escribió:Filver escribió:tigerscream escribió:@Filver @Gwyn El problema es que hace 2 días se rumoreaba que AMD hasta Noviembre no iba a presentarlas (al estilo de lo que ha hecho nVidia) y eso fue ya lo que a mi me empujó definitivamente a pillarme la 2080Ti, porque no quería plantarme en Enero aún sin GPU. Mi tope para comprarla era Noviembre y si AMD no dice nada hasta Noviembre me temo que las consolas no saldrán hasta finales de Noviembre igual que las GPU y eso implica que hasta Diciembre no será fácil de comprar y no es precisamente Diciembre un mes fácil para comprar porque es cuando casi todo suele agotarse... entonces ya nos íbamos casi con seguridad a enero para pillar buenos precios/stock, pero es que además eso concuerda con lo de las memorias que hasta enero/Febrero 2021 no estarán listas, por lo que nVidia no creo que saque las que tengan mas VRAM hasta ese entonces como pronto. Todo eso me hizo pensar en un paso intermedio y así esperar tranquilamente a ver que pasa con todo y cuando todo esté 100% claro, si merece la pena cambio la 2080Ti por una 3000 y si no, pues sigo como estoy.
Tanto AMD como las consolas van a salir antes de finales de noviembre, ni de coña se van a saltar el Black Friday, AMD me apuesto lo que sea a que sale en Octubre con la corresponiente rebaja de la gama 3000 por la bendita competencia.
+1
Yo creo que @tigerscream has ido haciendo presunciones que poco a poco has ido dando por ciertas hasta llegar a tus propias conclusiones, y plantarte así en Enero
En cualquier caso, yo que estoy aguantando con una RX580, espero que estés muy equivocado, jeje
sitosnk escribió:ionesteraX escribió:parh escribió:Yo de momento esperare pacientemente a los benchmark que es lo que de verdad importa. Si se confirma que la 3090 es un 20-25% mas potente que la 3080, entonces descartada por mi parte porque el doble de precio para solo esa ganancia en potencia, me parece que no vale la pena.
Tambien esperare a ver que presenta AMD, porque no tengais la menor duda de que si Nvidia se ha puesto las pilas con la 3070/3080 es porque debe saber que AMD tiene algo digno que presentar.
El problema con AMD es que depende de las consolas para sacar sus gráficas, es decir que nunca saldran antes de las consolas para no opacar sus ventas, lo ideal hubiera sido que AMD sacara lo suyo como respuesta a la serie 30 de nvidia y esta a su vez sacara las versiones Ti de la 70 y 80 sumado a la versiones 60 y 50, si AMD no se mueve nvidia tampoco lo hara ya que solo estara haciendose competencia a si misma como pasa ahora con la serie 30 y 20.
nvidia ha adelantado la gama 3000 para que muchos de lo que esperaban comprarse una de las nuevas consolas se lo piensen, de hay tanta potencia y precios ajustados.
si fuera porque espera que amd saque algo bestial no mataría sus gráficas 2000 ahora, esperaría a eso bestial y mientras vendería su serie 2000.
mira que tengo una vega 56 y me encanta, pero esta política de amd de priorizar consolas antes que pc, como seguidor y jugador de pc me empieza a ser molesta ( y eso que tengo todas las consolas), han retrasado big navi para dar prioridad total y absoluta a las consolas y nvidia ha adelantado sus 3000, bajando precios y dando el máximo rendimiento para impedir que el pc gaming tenga una gran caída por las consolas.
que si, que esto son negocios, pero prefiero a quien apoya el negocio que mas me gusta, si amd sigue con esa política de dar prioridad total a las consolas me voy a pensar muy mucho comprarles algo que no sea una consola, que es lo que mas están apoyando, hablando de gaming.
una opinión subjetiva la mía, pero una mas
saludos
Lemmiwinks escribió:Bio81 escribió:adriano_99 escribió:Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....
los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos
@Wanderlei @Lemmiwinks
La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó
@josemurcia
antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato
Que a ti te apetece gastarte 1500 en una grafica? Perfecto, cada uno hace con su dinero lo que quiera, pero no digas que comprarte una 3070 o 3080 es tirar el dinero para acto seguido decir que la 3090 te va a dar un rendimiento para mas de cuatro años...
3090= mas de 4 años segun tus calculos
3080+4080=con eso tiras mas de 6 años
3070+4080+5080= cuanto tiras con esto? Mas de 7 años?
La 3090 si no eres creador de contenido, o no vas a hacer un uso mas profesional, es realnente lo que es tirar el dinero
ram escribió:https://www.coolmod.com/msi-geforce-rtx-3090-gaming-x-trio-24gb-gddr6x-tarjeta-grafica-precio
1619€.
tigerscream escribió:JAJAJAJA la cabra tira pal monte si, pero si miras mi historial mis presunciones pocas veces son monedas al aire, espero equivocarme porque yo también tengo ganas de ver que pasa al final, contra antes salga todo mejor, eso sí, yo ya me he metido 2080Ti en vena para bajar el mono porque últimamente era ya un come come tremendo.