[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

tigerscream escribió:Eso mismo dije yo, y SI, IKER de HW360 es pro AMD pero habrá que ver si como dicen por aquí es tan sencillo como cambiar un Raytracing nivel 2 por Raytracing nivel 7 (cambiar un dígito y ya) o por contra toca programar cuantos rebotes, cuantas sombras, cuanta densidad, cuanta incidencia, etc... etc... POR CADA ESCENA ... y aunque fuera tan sencillo como cambiar 4 dígitos de manera global sin tener que valorar cada escena, me apuesto algo a que el "son 5 minutos" luego se acaba transformando en test, debuging, correcciones por cambios inesperados (recordemos que la tecnología del Raytracing en gráficas de público general apenas está empezando a andar, las herramientas están en pañales aún en comparación con lo que se podría conseguir en un futuro no muy lejano) y NO ES NADA fácil programar Raytracing a estas alturas creo, porque puede provocar efectos indeseados y en lugar de quedar "mejor" hace que parezca artificial TOTAL. Para lograr un Raytracing en condiciones hoy en día es chungo de narices, solo hace falta mirar lo que ha ocurrido con las RTX y los juegos que lo han implementado.

Repito que es mi opinión, pero a mi me da que tirarán (como siempre) por el camino más fácil y si en consolas les funciona "digno" harán ports a PC al mismo nivel y a todo lo más se notará una mejora... INAPRECIABLE, porque estamos hablando de Raytracing... y eso solo hace que las escenas de iluminación sean más realistas... NADA MÁS. Esto significa que el brilli brilli parece más real, los reflejos, etc etc... pero no veo yo un salto potencial entre tener Raytracing AMD básico y que en PC rule con Nvidia en plan Maestro que se vea a simple vista.

Ahora bien... y esto está por ver, si AMD no consigue que funcione bien en consolas (probable también) acabará siendo de uso muy residual en contadísimos juegos y luego en los ports a PC veremos si la solución de Nvidia realmente es mejor que la actual y si además las herramientas permiten implementarlo de manera super fácil o no. Pues como en AMD sea chungo y no rule bien del todo y en Nvidia consigan que funcione bien pero cueste programarlo mucho tiempo... me veo los juegos con un Raytracing forzado al inicio del juego y luego en 1% aleatorio de escenas... TODO para poner la pegatinita de Raytracing incluido.

Dicho todo esto, también es cierto que a mi el Raytracing ni fu ni fa... prefiero que se centren en mejorar la eficiencia energética y potencia, si esta gen tampoco arranca o funciona en condiciones, que se dejen de esta chorrada, porque como dice en el vídeo, el problema de Nvidia es que han invertido demasiado en esto y está provocando (como es evidente) mayor coste de producción, mayor consumo y encima limitación de espacio para más CU orientados a procesamiento gráfico puro y duro. Si triunfan, OLÉ, pero como les salga mal, les puede salir muy caro el jueguecito del Raytracing.


Nvidia está apostando tan fuerte porque está convencida de que esto es el futuro.

Mira que yo no soy muy de los verdes, pero tengo que admitir que han tenido narices de tirarse a la piscina implementando los RT cores, a pesar del coste de rendimiento que supuso en Turing.

Sigo pensando que en Ampere el RT seguirá siendo algo testimonial. Salvo que el DLSS 3.0 sea la octava maravilla y todo ese rendimiento que les ahorra puedan meterlo en RT.

Por el bien de todos (menos de Nvidia) pues AMD ojalá dé con una fórmula resultona que sea mucho más eficiente.

cristiano.88 escribió:Lo de que Iker es pro AMD os lo sacáis de la manga no?


Mucho tiempo viéndolo. Aunque a mí me trae sin cuidado.

Prácticamente se "empalma" cada vez que habla de Ryzen. Y sí, todos sabemos y agradecemos que AMD le haya dado esa hostia de realidad a Intel desde 2017.

Y no puedo decir que Iker se alegre de que a Intel le vaya mal, pero cada vez que suelta una noticia de problemas en Intel se monta unas pelis de final de mundo que tela...

Cuando la realidad es que Intel tiene tantos recursos que se repondrá de una u otra forma.

Y ojo, que llevo montando AMD tanto en CPU como en GPU ya unos cuantos años. Antes de que me taches de nada xD
adriano_99 escribió:
PilaDePetaca escribió:
ayran escribió:Muy interesante



Tampoco dice nada nuevo el vídeo. AMD ha hecho una solución "inteligente" ya que reutiliza partes de la GPU que ya están, no utiliza unidades nuevas dedicadas y que encima ocupan espacio extra en el die. El problema que tiene es que requiere que todas las operaciones dependientes de raytracing sean dependientes de la cola de compute, por lo que hay que tener en cuenta (sobre todo en consolas por la penalización de 2 ciclos por instrucción al tener el front end hibrido de RDNA1, y ya veremos con que se presenta AMD en PC) que aunque en nVidia hay penalización por el RT porque hay periodos de parón, en AMD para cada instrucción del ciclo de RT tiene que consultar con la cola principal, y eso va a presentar una penalización mayor que lo que presenta en nVidia (y eso que en nVidia ya han optimizado un poco el asunto) porque hay que esperar 1 ciclo mínimo por cada consulta.

En resumidas cuentas, el enfoque de AMD ya se vió en los white papers que salieron allá por el 2018 y en aquel entonces ya se postulaba como una solución sobre todo a nivel de costes impresionante, pero no tan impresionante en relación a rendimiento sobre lo que había entonces en nVidia. Ahora con la serie 3xxx y si sale un DLSS 3.0, es muy probable que nVidia este mas de un escalón por encima de AMD en implementación y rendimiento en RT.

PD: Lo que dice en el video de la implementación por parte de los desarrolladoradores del RT carece de sentido absolutamente, ya que se pide el cálculo de intersecciones, independientemente de si se hacen por pasos o de golpe.

Exacto, la implementación de amd es mas barato de fabricar pero no ahorra trabajo ni hace a los desarrolladores hacer algo diferente a lo de nvidia.
Como he dicho una vez ya tienes el sistema meterle mas chicha para sacar provecho a las nvidia es cuestión de cambiar parametros.


Exactamente, nVidia ahora sólo tiene que empezar a pulirlo en cuanto a hardware se refiere. La implementación de nVidia aunque aumenta los costes y consumos a la larga es muy superior a lo que ha hecho AMD, ya que una puede optimizarse mientras que la otra siempre va a ser dependiente de las colas de procesamiento principales. Y con respecto a lo que dice al final del video, aunque está muy bien documentado, se nota que no tiene mucha idea de lo que al final hacen las unidades de aceleración de cálculo para RT y como el desarrollador codifica eso.
PilaDePetaca escribió:
adriano_99 escribió:
PilaDePetaca escribió:
Tampoco dice nada nuevo el vídeo. AMD ha hecho una solución "inteligente" ya que reutiliza partes de la GPU que ya están, no utiliza unidades nuevas dedicadas y que encima ocupan espacio extra en el die. El problema que tiene es que requiere que todas las operaciones dependientes de raytracing sean dependientes de la cola de compute, por lo que hay que tener en cuenta (sobre todo en consolas por la penalización de 2 ciclos por instrucción al tener el front end hibrido de RDNA1, y ya veremos con que se presenta AMD en PC) que aunque en nVidia hay penalización por el RT porque hay periodos de parón, en AMD para cada instrucción del ciclo de RT tiene que consultar con la cola principal, y eso va a presentar una penalización mayor que lo que presenta en nVidia (y eso que en nVidia ya han optimizado un poco el asunto) porque hay que esperar 1 ciclo mínimo por cada consulta.

En resumidas cuentas, el enfoque de AMD ya se vió en los white papers que salieron allá por el 2018 y en aquel entonces ya se postulaba como una solución sobre todo a nivel de costes impresionante, pero no tan impresionante en relación a rendimiento sobre lo que había entonces en nVidia. Ahora con la serie 3xxx y si sale un DLSS 3.0, es muy probable que nVidia este mas de un escalón por encima de AMD en implementación y rendimiento en RT.

PD: Lo que dice en el video de la implementación por parte de los desarrolladoradores del RT carece de sentido absolutamente, ya que se pide el cálculo de intersecciones, independientemente de si se hacen por pasos o de golpe.

Exacto, la implementación de amd es mas barato de fabricar pero no ahorra trabajo ni hace a los desarrolladores hacer algo diferente a lo de nvidia.
Como he dicho una vez ya tienes el sistema meterle mas chicha para sacar provecho a las nvidia es cuestión de cambiar parametros.


Exactamente, nVidia ahora sólo tiene que empezar a pulirlo en cuanto a hardware se refiere. La implementación de nVidia aunque aumenta los costes y consumos a la larga es muy superior a lo que ha hecho AMD, ya que una puede optimizarse mientras que la otra siempre va a ser dependiente de las colas de procesamiento principales. Y con respecto a lo que dice al final del video, aunque está muy bien documentado, se nota que no tiene mucha idea de lo que al final hacen las unidades de aceleración de cálculo para RT y como el desarrollador codifica eso.


Porque dices eso que esta en negritas ?

Podrias dar mas datos para entender, vamos que soy un completo ignorante en el tema y quisiera saber a que te refieres ?
Faxtron escribió:
PilaDePetaca escribió:Exactamente, nVidia ahora sólo tiene que empezar a pulirlo en cuanto a hardware se refiere. La implementación de nVidia aunque aumenta los costes y consumos a la larga es muy superior a lo que ha hecho AMD, ya que una puede optimizarse mientras que la otra siempre va a ser dependiente de las colas de procesamiento principales. Y con respecto a lo que dice al final del video, aunque está muy bien documentado, se nota que no tiene mucha idea de lo que al final hacen las unidades de aceleración de cálculo para RT y como el desarrollador codifica eso.


Porque dices eso que esta en negritas ?

Podrias dar mas datos para entender, vamos que soy un completo ignorante en el tema y quisiera saber a que te refieres ?


Lo digo porque cuando habla de que habrá mas optimización para lo que hay de AMD en vez de para lo de nVidia como las consolas son lo principal etc, es porque asume que el cálculo de RT se hace de una forma en uno y en otro de otra, cuando eso es totalmente falso, me explico:

Imaginemos que tenemos que hacer la operación "3x3", tu se la pides a la tarjeta gráfica como programador y le dices a la GPU "hazme 3x3". Una tarjeta te hace "3x3=9" porque tiene las tablas de multiplicar ya grabadas y la otra te hace "3+3+3=9" porque no tiene las tablas de multiplicar. Las dos llegan al mismo resultado utilizando métodos distintos, pero el programador no le está pidiendo de forma específica a una o a otra, el programador pone "hazme 3x3".

Y el Ray Tracing es lo mismo, tu buscas calcular como si dijesemos la trayectoria de un rayo, y las unidades de RT lo que hacen es que ese calculo lo hagan ultrarápido, lo que pasa es que una lo calcula de golpe y la otra a cachos, pero eso es algo que se hace automático, no es que el desarrollador vaya detras de la GPU diciendole "ahora esto, luego esto, y luego aquello", no, el desarrollador dice "aqui tienes X rayos, calculamelos que a mi me da la risa", luego cada tarjeta lo hace a su modo y punto.
Bueno, sobre el papel sí parece mejor la de nvidia pero pienso que sí que vamos a estar limitados por la menos potente quitando 4 juegos que sí se decidan a optimizar para nvidia. Y ya como las amd no tengan potencia ni para activarlo pues ni lo implementarán.

Así que parece que va a ser una lotería también, pagarás más por algo que ni sabrás si le darás el uso que esperas.

Yo al final la quiero para acabar de sacar provecho a mi monitor y poder ponerlo todo en calidad alta a 100fps pero más de 600-700 no quiero gastar... y si la gráfica no cumple porque hay que tirar de la gama alta intentaré no comprar nada si no cuesta eso.
A mi el RT me la trae floja, lo que quiero son graficazos, los reflejos con que lo pongan hasta ahora me vale, gráficos me refiero tipo la demo que presentó Sony, pff jugar con ese nivel o más tiene que ser la hostia,es verdad que con RT se tiene que ver de puta madre, pero tener que sacrificar fps a casco porro prefiero que sigan con los reflejos de de toda la vida pero con texturas,partículas, teselado, etc de infarto.
pdriko31 escribió:A mi el RT me la trae floja, lo que quiero son graficazos, los reflejos con que lo pongan hasta ahora me vale, gráficos me refiero tipo la demo que presentó Sony, pff jugar con ese nivel o más tiene que ser la hostia,es verdad que con RT se tiene que ver de puta madre, pero tener que sacrificar fps a casco porro prefiero que sigan con los reflejos de de toda la vida pero con texturas,partículas, teselado, etc de infarto.

El ray tracing o mejor dicho el path tracing es absolutamente necesario para llegar a tener gráficos fotorrealistas.
No solo se limita a reflejos también sombras, oclusión ambiental, como los colores del entorno afectan a la luz y cambian el ambiente, comos e ven los colores con poca luminosidad.
No puedes reducir el RT solo a reflejos porque no es tan simple.
La Nvidia GeForce RTX 3090/3080 Founders Edition ya cuenta con un certificado para llegar al mercado

https://elchapuzasinformatico.com/2020/ ... l-mercado/
Haber si la sacan rápido desde que la presenten
Joder, a ver si empieza esto a moverse, estoy a la espera de ver que presenta nvidia y amd para actualizar pc o pasarme a consolas, y no me quedan uñas!
https://nuevoperiodico.com/se-filtro-el ... -rtx-3090/

un conocido usuario que ya acerto otros años pone precio!
chrispro escribió:https://nuevoperiodico.com/se-filtro-el-precio-de-nvidia-geforce-rtx-3090/

un conocido usuario que ya acerto otros años pone precio!


Al final esto es un hobby para pudientes, la leche.
ayran escribió:No eran 1700?

Cada sitio dice lo que les sale de los
Imagen
Por mucho que se diga... Dudo que Nvidia sea capaz de sacarla por más de 1500.. ensambladoras a parte.. pero envidia lo dudo
A ver como las venden a ese sobreprecio con pandemia.
Ya empiezan a salir cosas interesantes..........
https://elchapuzasinformatico.com/2020/ ... s-rumores/

Las cosas en las casi nadie estaba pensando...........a más consumo, más calor y eso igual las hace problematicas. Igual no son la joya esperada.

A ver si va a resultar que los diseños custom no funcionan bien con estas graficas y que el unico bueno es esa cosa rara de nvidia que dicen cuesta ya una pasta.....
Bueno esperemos a que salgan y ya veremos si salen pata negra o no.

Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.
jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.

Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.


Parece que la 3080Ti y la 3090 serían tarjetas diferentes, por lo que se está viendo los últimos días.
La más potente... Pa casa xD

Por cierto, Nvidia nuuunca defrauda! Eso es asi
Gwyn escribió:
jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.

Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.


Parece que la 3080Ti y la 3090 serían tarjetas diferentes, por lo que se está viendo los últimos días.


Yo lo dije hace cosa de 1 mes creo, pero no lo dije muy convencido, al ver benchmarks de la 3080 20% superior a 2080ti, y por otro lado ver otros del 35% y 50%. Si solo están la 3080 y la 3080ti (3090) mucho cambio ha habido. Quizás la 3090 sea la Titan... lo digo de nuevo por decir. No sé ni como las llamarán, pero tampoco he visto fuentes que hablen sobre 3 modelos en lugar de 2.

Respecto al precio, debe ser duro para los que esperáis poder pillar una 3080 o una 3080ti (o 3090) el tema del precio de Nvidia. Sinceramente esa gama top es la que peor precio va a tener seguro (en los últimos 6 años se ha disparado cosa mala), no solo por ser la más cara, sino también porque no hay (ni creo que haya por el momento) competencia, lo cual le da barra libre sin necesidad de rectificar a Nvidia ¿porque? porque como en casi todo lo que se vende hoy día (coches, smartphones, TV, etc etc) los que la compran no tienen muchas veces limitación de presupuesto y buscan tener lo más de lo más, han quedado atrapados por el marketting que les hace sentir esa extraña sensación de ... si no lleva esto ya no lo quiero o si no es capaz de hacer tal cosa no me sirve... ¡y no es una crítica ojo! sencillamente somos personas y el marketting consigue su objetivo, vendernos esa falsa necesidad de querer comprarlo. Obvio no todo el mundo entra dentro de ese saco, pero si una gran mayoría que encima usa el PC de uvas a peras o para correr FIFA, Fornite o COD o un MMO... Gente caprichosa al fin y al cabo, porque para eso con una gama media vas que sobrado.

Sé que me pueden llover críticas por esto que estoy diciendo, pero no es eso lo que busco, quizás busco abrir un poco la mente a los que solo ven lo superficial y quedan un poco cegados por ese marketting. Realmente si Nvidia no vendiese suficientes 80ti bajarían los precios... pero todos sabemos que eso no va a ocurrir. La 80ti se ha convertido en una gama bien vendida porque venden lo suficiente (no es la más vendida, pero sí la que mayor beneficio sacan y la que mayor popularidad y deseo provoca). Yo he sido víctima (y lo sigo siendo) del consumismo actual, pero trato siempre de analizar bien las cosas desde un punto de vista global y objetivo. Pero siendo sinceros, cuando uno compra algo y lo tiene que vender antes que se devalúe demasiado (la sensación que tenía yo cuando veía más de 500 euros metidos en una GPU)... es porque vive en un mercado muy volátil, la informática y la tecnología son el caso más extremo quizás, pero espero algún día poder volver a estar tranquilo con una gráfica de 150 euros que me de igual si se devalúa o no y me permita estar a gusto jugando sin comerme la cabeza porque no rinde lo suficiente.

Yo busco poder jugar sin problemas, a ser posible en calidad alta o ultra, pero a un mínimo de 1080 a 60fps. Si no fuera porque me chiflan las oculus y no quería palmar 200 euros, no hubiera vendido mi 1080ti, es más, creo que hasta con menos me bastaría y me sobraría (pero con 150 euros no creo que me llegue para dejarme satisfecho). Entiendo que otros busquen más, pero a veces veo gente que habla de jugar a 4K, 120Fps, etc etc... y me pierdo. Yo he probado la experiencia y WOW si, es más espectacular, pero no veo tanta tanta diferencia de 1080 a 60 fps a 1080 a 120fps (en un monitor que lo soporte claro, uno de 144 hz por ejemplo) o de 1080 a 4K en un mismo monitor. Supongo será porque yo he vivido la experiencia de empezar con un monocromo y he experimentado los saltos brutales que había hace años y en comparación lo de ahora son pequeñeces. Sí, se nota la fluidez a leguas y Sí te permite mayor precisión en muchos juegos... pero es que no hay que ir siempre hasta lo mejor de lo mejor para poder disfrutar (aunque está en el ser humano metido a fuego el querer siempre tener más y más). Respeto a cada cual y estoy de acuerdo que es una afición muy molona. pica mucho y todo eso, pero si os dejaran un mes en una isla abandonada quizás veríais las cosas e otra manera al volver de semejante experiencia. Sé que lo del virus también puede llevar a ese pensamiento a más de uno (por desgracia, porque sería mejor poder llegar a ese pensamiento sin una desgracia) pero no hay que llegar a los extremos, ni por un lado ni por el otro.

Yo he conocido mucha gente Gamer y Wow, ves de todo. Gente super perfeccionista, gente obsesionada, casuals, etc... etc... pero no sé, esto al final es un hobby, no hay que obsesionarse tanto a veces con las cosas, no es bueno. Yo he tenido ya una 980ti y una 1080ti y aunque cuesta, voy a pisar el freno porque con la 2080ti se pasaron 3 pueblos ya. Yo conseguí la 980ti por 500 y la 1080ti por poco más, pero sin llegar a los 600. Me pongo a pensar y digo... ¿pero como es posible? Si yo antes no me compraba una gráfica de 300 euros ¡porque la veía cara! la GTX8800 fue muy tentadora para mi en su día pero nunca la tuve por eso. Siempre fui con gráficas de 150 a todo lo más. Poco a poco fui subiendo y mirad donde hemos terminado... emosido engañaos. Soy víctima del marketting de Nvidia a más no poder, pero voy a pararme aquí. 500 euros será mi tope y espero nunca pasar de ahí.

Siempre fue la CPU lo más caro de un ordenador (o al menos la parte que teóricamente mayor importancia tiene), pero ahora las GPU sobrepasan con creces a las CPU en muchos casos, diría que la mayoría de gamers tienen una GPU más cara que una CPU en su PC... y eso no tiene demasiado sentido si lo piensas fríamente. Incluso la teoría del cuello de botella con CPUs de gama alta de hace solo 4 o 5 años... Una cosa es cuello de botella y otra que no rinda igual que lo top de lo top... muchos quedarían sorprendidos si les pusieran 5 ordenadores y tuvieran que adivinar cual es cual cambiando solo la CPU sin ver el benchmark o los FPS en pantalla. Hay casos extremos que si se notan, pero haced la prueba vosotros mismos. Yo no he sido capaz de ver mucho cambio entre una CPU y otra usando la misma gráfica y el mismo PC, luego SI, pongo benchs y demás y lo veo claro, pero en la práctica... supongo que soy conformista con los 1080p 60fps y por eso no veo más allá. Hasta con mi actual GTX950 cutre puedo jugar decentemente a muchos juegos y eso me ha hecho reflexionar demasiado.

Todo esto lo digo por intentar que al menos algunos no se tiren de cabeza siempre a lo top a cualquier precio, aunque sé que eso es imposible de lograr... pero si Nvidia sacase una 3080ti a 1500$ y bajasen las ventas a las ya de por si bajas de la 2080ti, quizás SI bajarían de nuevo a los 900-1000 que deberían estar como mucho. Y lo digo en serio, me doy con un canto en los dientes si Nvidia saca la 3080ti por 1500$, porque son capaces de lanzarla más cara incluso.
Al final lo único que espero YO es que las 3060 y 3070 (las que más se venden al final) no suban tanto y acaben saliendo por precios más contenidos, confío que las consolas y AMD conseguirán frenar un poco el auge de precios de NVIDIA. Prefiero comprar una Nvida, no voy a decir que no, por mis experiencias previas, tanto en fiabilidad como en estabilidad y compatibilidad, siempre ha sido mejor en mi opinión, pero si de aquí a Noviembre (una vez haya salido RDNA2 y consolas) Nvidia sigue siendo demasiado cara, soy capaz de pillarme una AMD (como ya hice con Intel al pillarme un Ryzen).

Perdón por el tocho filosófico / moral pero a veces de buena mañana... en fin, con solo que una persona lo lea y reflexione sobre esto, me doy por contento, igual es mi manera de verlo y seguro muchos tendrán la suya distinta a la mía, pero el consumismo a veces se va un poco de madre y creo que la 80ti debería estar reservada SOLO a los millonarios o profesionales (pero Nvidia nos está metiendo a todos casi en ese saco).
Pues lo de la temperatura me parece bastante preocupante, parece que vamos a llegar al punto en unos años de que si no las pasas por agua no vas a poder tener una gama alta [facepalm]
esperemos q sea un rumor bulo pero si hay q estar atento a estas cosas
tigerscream escribió:
Gwyn escribió:
jiujinkai escribió:Bueno esperemos a que salgan y ya veremos si salen pata negra o no.

Respecto al precio pues parece que va cogiendo fuerza por todos los lares la 3080 ti 90 sobre unos 1400-1600 USD. como sea asi joder va a ser un palo enorme, en fin, si al menos el poder que tenga hace gala del precio pues se podria ver de esa forma.


Parece que la 3080Ti y la 3090 serían tarjetas diferentes, por lo que se está viendo los últimos días.


Yo lo dije hace cosa de 1 mes creo, pero no lo dije muy convencido, al ver benchmarks de la 3080 20% superior a 2080ti, y por otro lado ver otros del 35% y 50%. Si solo están la 3080 y la 3080ti (3090) mucho cambio ha habido. Quizás la 3090 sea la Titan... lo digo de nuevo por decir. No sé ni como las llamarán, pero tampoco he visto fuentes que hablen sobre 3 modelos en lugar de 2.

Respecto al precio, debe ser duro para los que esperáis poder pillar una 3080 o una 3080ti (o 3090) el tema del precio de Nvidia. Sinceramente esa gama top es la que peor precio va a tener seguro (en los últimos 6 años se ha disparado cosa mala), no solo por ser la más cara, sino también porque no hay (ni creo que haya por el momento) competencia, lo cual le da barra libre sin necesidad de rectificar a Nvidia ¿porque? porque como en casi todo lo que se vende hoy día (coches, smartphones, TV, etc etc) los que la compran no tienen muchas veces limitación de presupuesto y buscan tener lo más de lo más, han quedado atrapados por el marketting que les hace sentir esa extraña sensación de ... si no lleva esto ya no lo quiero o si no es capaz de hacer tal cosa no me sirve... ¡y no es una crítica ojo! sencillamente somos personas y el marketting consigue su objetivo, vendernos esa falsa necesidad de querer comprarlo. Obvio no todo el mundo entra dentro de ese saco, pero si una gran mayoría que encima usa el PC de uvas a peras o para correr FIFA, Fornite o COD o un MMO... Gente caprichosa al fin y al cabo, porque para eso con una gama media vas que sobrado.

Sé que me pueden llover críticas por esto que estoy diciendo, pero no es eso lo que busco, quizás busco abrir un poco la mente a los que solo ven lo superficial y quedan un poco cegados por ese marketting. Realmente si Nvidia no vendiese suficientes 80ti bajarían los precios... pero todos sabemos que eso no va a ocurrir. La 80ti se ha convertido en una gama bien vendida porque venden lo suficiente (no es la más vendida, pero sí la que mayor beneficio sacan y la que mayor popularidad y deseo provoca). Yo he sido víctima (y lo sigo siendo) del consumismo actual, pero trato siempre de analizar bien las cosas desde un punto de vista global y objetivo. Pero siendo sinceros, cuando uno compra algo y lo tiene que vender antes que se devalúe demasiado (la sensación que tenía yo cuando veía más de 500 euros metidos en una GPU)... es porque vive en un mercado muy volátil, la informática y la tecnología son el caso más extremo quizás, pero espero algún día poder volver a estar tranquilo con una gráfica de 150 euros que me de igual si se devalúa o no y me permita estar a gusto jugando sin comerme la cabeza porque no rinde lo suficiente.

Yo busco poder jugar sin problemas, a ser posible en calidad alta o ultra, pero a un mínimo de 1080 a 60fps. Si no fuera porque me chiflan las oculus y no quería palmar 200 euros, no hubiera vendido mi 1080ti, es más, creo que hasta con menos me bastaría y me sobraría (pero con 150 euros no creo que me llegue para dejarme satisfecho). Entiendo que otros busquen más, pero a veces veo gente que habla de jugar a 4K, 120Fps, etc etc... y me pierdo. Yo he probado la experiencia y WOW si, es más espectacular, pero no veo tanta tanta diferencia de 1080 a 60 fps a 1080 a 120fps (en un monitor que lo soporte claro, uno de 144 hz por ejemplo) o de 1080 a 4K en un mismo monitor. Supongo será porque yo he vivido la experiencia de empezar con un monocromo y he experimentado los saltos brutales que había hace años y en comparación lo de ahora son pequeñeces. Sí, se nota la fluidez a leguas y Sí te permite mayor precisión en muchos juegos... pero es que no hay que ir siempre hasta lo mejor de lo mejor para poder disfrutar (aunque está en el ser humano metido a fuego el querer siempre tener más y más). Respeto a cada cual y estoy de acuerdo que es una afición muy molona. pica mucho y todo eso, pero si os dejaran un mes en una isla abandonada quizás veríais las cosas e otra manera al volver de semejante experiencia. Sé que lo del virus también puede llevar a ese pensamiento a más de uno (por desgracia, porque sería mejor poder llegar a ese pensamiento sin una desgracia) pero no hay que llegar a los extremos, ni por un lado ni por el otro.

Yo he conocido mucha gente Gamer y Wow, ves de todo. Gente super perfeccionista, gente obsesionada, casuals, etc... etc... pero no sé, esto al final es un hobby, no hay que obsesionarse tanto a veces con las cosas, no es bueno. Yo he tenido ya una 980ti y una 1080ti y aunque cuesta, voy a pisar el freno porque con la 2080ti se pasaron 3 pueblos ya. Yo conseguí la 980ti por 500 y la 1080ti por poco más, pero sin llegar a los 600. Me pongo a pensar y digo... ¿pero como es posible? Si yo antes no me compraba una gráfica de 300 euros ¡porque la veía cara! la GTX8800 fue muy tentadora para mi en su día pero nunca la tuve por eso. Siempre fui con gráficas de 150 a todo lo más. Poco a poco fui subiendo y mirad donde hemos terminado... emosido engañaos. Soy víctima del marketting de Nvidia a más no poder, pero voy a pararme aquí. 500 euros será mi tope y espero nunca pasar de ahí.

Siempre fue la CPU lo más caro de un ordenador (o al menos la parte que teóricamente mayor importancia tiene), pero ahora las GPU sobrepasan con creces a las CPU en muchos casos, diría que la mayoría de gamers tienen una GPU más cara que una CPU en su PC... y eso no tiene demasiado sentido si lo piensas fríamente. Incluso la teoría del cuello de botella con CPUs de gama alta de hace solo 4 o 5 años... Una cosa es cuello de botella y otra que no rinda igual que lo top de lo top... muchos quedarían sorprendidos si les pusieran 5 ordenadores y tuvieran que adivinar cual es cual cambiando solo la CPU sin ver el benchmark o los FPS en pantalla. Hay casos extremos que si se notan, pero haced la prueba vosotros mismos. Yo no he sido capaz de ver mucho cambio entre una CPU y otra usando la misma gráfica y el mismo PC, luego SI, pongo benchs y demás y lo veo claro, pero en la práctica... supongo que soy conformista con los 1080p 60fps y por eso no veo más allá. Hasta con mi actual GTX950 cutre puedo jugar decentemente a muchos juegos y eso me ha hecho reflexionar demasiado.

Todo esto lo digo por intentar que al menos algunos no se tiren de cabeza siempre a lo top a cualquier precio, aunque sé que eso es imposible de lograr... pero si Nvidia sacase una 3080ti a 1500$ y bajasen las ventas a las ya de por si bajas de la 2080ti, quizás SI bajarían de nuevo a los 900-1000 que deberían estar como mucho. Y lo digo en serio, me doy con un canto en los dientes si Nvidia saca la 3080ti por 1500$, porque son capaces de lanzarla más cara incluso.
Al final lo único que espero YO es que las 3060 y 3070 (las que más se venden al final) no suban tanto y acaben saliendo por precios más contenidos, confío que las consolas y AMD conseguirán frenar un poco el auge de precios de NVIDIA. Prefiero comprar una Nvida, no voy a decir que no, por mis experiencias previas, tanto en fiabilidad como en estabilidad y compatibilidad, siempre ha sido mejor en mi opinión, pero si de aquí a Noviembre (una vez haya salido RDNA2 y consolas) Nvidia sigue siendo demasiado cara, soy capaz de pillarme una AMD (como ya hice con Intel al pillarme un Ryzen).

Perdón por el tocho filosófico / moral pero a veces de buena mañana... en fin, con solo que una persona lo lea y reflexione sobre esto, me doy por contento, igual es mi manera de verlo y seguro muchos tendrán la suya distinta a la mía, pero el consumismo a veces se va un poco de madre y creo que la 80ti debería estar reservada SOLO a los millonarios o profesionales (pero Nvidia nos está metiendo a todos casi en ese saco).

Llevas razón, uno no es más feliz con tener lo mejor, a mi me ha pasado con otras compras, no sólo con este hobby, se disfruta más del inicio de cualquier hobby comprando algo modesto que acabando con lo más top para luego venderlo y no sacarle el probecho y la experiencia no tan buena como la del inicio de una nueva afición.
WGP Kakashii escribió:esperemos q sea un rumor bulo pero si hay q estar atento a estas cosas

A mi no me extrañaria nada, porque ya ha sucedido otras veces, que los ensambladores hicieran un mal trabajo con la refrigeración para ahorrar costes y las tarjetas se hicieran polvo déspues de un tiempo de uso. Le paso a XFX, le paso a Club3D, le paso a EVGA y seguramente a muchos más.......en diferentes epocas de Nvidia.

Asi que yo esperaria no solo a reviews, sino a la gente usandolas. Aunque los problemas si existen, seran vistos pronto porque 98º de temperatura en la memoria no es algo que puedas ocultar facilmente.

@tigerscream. Entre los seres humanos el ver y querer suele ser uno de los más grandes males. No es mi caso, nunca he tenido ese problema ni el de la necesidad de seguir los habitos de los demas. XD

Yo tengo PC desde que existe el PC y si una cosa he aprendido, es simplemente no comprar lo mejor que puedas en un determinado momento porque como te subas al carro de oro, te va a costar bajar más de ahi y de propina va a perder el brillo mucho antes. Asi que con jugar a menos de un metro de distancia a 1080p con buena calidad tengo bastante.

Pero tampoco me importa en que se gasten los demas el dinero. Solo critico que con la gama 2000 se dijo que eran una sablada pero viendo todavia hace poco la lista de RMA en alemania de una sola tienda, me queda claro que mucha gente le ha dado palmaditas en la espalda a Nvidia. Asi que luego no se quejen, comprando no haces presión a una empresa. Es como los sindicatos quejandose de la reforma laboral déspues de que la han hecha............ :-|

Y sí, con esta gama yo esperaba más que a AMD, a Intel. No para hacer algo mejor, sino algo más barato, algo que sobretodo en la gama media hiciera bajar los precios.
A ver si esta nueva gen de gráficas supone de verdad un paso adelante.

La series 2000 se ha quedado un poco en tierra de nadie.. Con un Ray Tracing que le queda grande y encima le ocupa mucho espacio en el chip y por lo tanto apenas superan en potencia a la series 1000 y con un DLSS 2.0 que parece el futuro pero que apenas juegos lo soportan...

El problema de nvidia es que para mejorar el rendimiento tiene que hacer unos chips enormes para meter todo eso ya que ocupa mucho espacio.. y esos chips enormes necesitan mucho voltaje (+calor).

Veremos que tal las nuevas Radeon, que quieren hacer lo mismo pero con los componentes de toda la vida. XD
Yo me quiero pasar este ano a una TV 4k, a mi con poder jugar a 60fps y en calidad guapa con eso me vale, a dia de hoy ando con 1080 ti en tv 1080p 60 fps rocosos, ultritis y el tio mas feliz del mundo. si veo una subida de parra increible de la N pues me pensare si ve voy a la 3070. Lo unico que tengo claro es que quiero Nvidia, anteriormente he tenido AMD (creo His 280X) y no me gusto para nada la experiencia. Bueno tambien recuerdo que por aquella epoca tenia montado un fx 8530, vaya combo de la casa del terror.... A partir de ahi me cuesta mucho dar el salto a AMD, fue una experiencia muy amarga para mi.
VanSouls escribió:
jiujinkai escribió:Yo me quiero pasar este ano a una TV 4k, a mi con poder jugar a 60fps y en calidad guapa con eso me vale, a dia de hoy ando con 1080 ti en tv 1080p 60 fps rocosos, ultritis y el tio mas feliz del mundo. si veo una subida de parra increible de la N pues me pensare si ve voy a la 3070. Lo unico que tengo claro es que quiero Nvidia, anteriormente he tenido AMD (creo His 280X) y no me gusto para nada la experiencia. Bueno tambien recuerdo que por aquella epoca tenia montado un fx 8530, vaya combo de la casa del terror.... A partir de ahi me cuesta mucho dar el salto a AMD, fue una experiencia muy amarga para mi.

¿Que tal la Ñ en china? [hallow] :Ð


Lo llevo fatal es por el jodio teclado que lo tengo en Chino y me da pereza cambiar y buscar la Ñ.

Entre anos anda la cosa :)
yo estoy sin grafica ahora mismo tirando con una 960 asi q imagina las ganas q tengo q salgan jja, eso si espero q no les de por poner la serie 3080 normal a 1000 pavos pa ariba
jiujinkai escribió:Yo me quiero pasar este ano a una TV 4k, a mi con poder jugar a 60fps y en calidad guapa con eso me vale, a dia de hoy ando con 1080 ti en tv 1080p 60 fps rocosos, ultritis y el tio mas feliz del mundo. si veo una subida de parra increible de la N pues me pensare si ve voy a la 3070. Lo unico que tengo claro es que quiero Nvidia, anteriormente he tenido AMD (creo His 280X) y no me gusto para nada la experiencia. Bueno tambien recuerdo que por aquella epoca tenia montado un fx 8530, vaya combo de la casa del terror.... A partir de ahi me cuesta mucho dar el salto a AMD, fue una experiencia muy amarga para mi.



Píllate un Oled, y tendrás la mejor calidad de imagen y si quieres también altas tasas de refresco, la mía al tener limitación del Hdmi 2.0 a 120Hz se queda en 1080p, pero para jugar al F1 2020 y del estilo se agradece, para el resto 4k 60hz.
_________

Por otra parte el CEO de Nvidia va calentando motores.

https://elchapuzasinformatico.com/2020/08/jensen-huang-ceo-de-nvidia-promete-la-2a-mitad-de-ano-mas-asombrosa-de-la-historia-para-los-gamers/
WGP Kakashii escribió:yo estoy sin grafica ahora mismo tirando con una 960 asi q imagina las ganas q tengo q salgan jja, eso si espero q no les de por poner la serie 3080 normal a 1000 pavos pa ariba

Yo estoy igual que tu, estoy aguantando con una R9 280 y estoy deseando dar el salto a una grafica nueva. Lo que pasa que el lo que se escucha de tema consumos y temperaturas no me gusta, no se si en la 3060 que lancen se vera menos afectada por no ser tope de gama. Pero vamos, como se flipen me pillo una 1660 super por 200€ o la rtx 2060 que esta baratita por 280 y me espero a futuras generaciones mas asentadas. Al fin y al cabo el Raytracing es algo que todavia queda por ver como lo van a implementar en la mayoria de titulos. Lo que si me interesa es el DLSS y si seguiran dandole esa funcion a la gama 2000
Me hace gracia la gente... "no tengo grafica, estoy tirando con una 960,con una 980,etc",eso que es entonces? Una barra pan? El que no tiene gráfica soy yo, que SOLO estoy tirando del i7 4790k,na más.
Bueno, leyendo este anuncio del CEO de Nvidia https://elchapuzasinformatico.com/2020/ ... os-gamers/ , una cosa esta clara, tienen un miedo tremendo a las consolas.

Ademas es un mensaje para tontos del bote. Todo eso del PC sirve para más cosas suena a "la que nos va a caer encima". Si la gente necesitara el PC para pintar arte, todavia estarian con un simple 4 nucleos la mayoria de ellos y claramente no necesitas Ampere vendida a precio de oro.

En fin, como siempre los CEO no defraudan con sus anuncios babosones.

@pdriko31. ¿No tienes PC?
Los que esperan un salto "generacional" acojonante van listos ;p

4k, 120hz, poligonos a cascoporro, partículas hasta en la sopa, iluminación hyperealistas, ia de ensueño... mamma, que duro va a ser cuando suene el despertador ;p
Muy interesantes las palabras de Huang, denotan que realmente están atentos a lo que se les viene encima con AMD y las consolas... y PROMETE MARCHA!!! eso sí no me lo esperaba... o sea, él mismo admite que nos preparemos para lo mejor... cuando están a punto de presentar las consolas a precios de 500 euros aproximadamente, cuando Switch vende bien SI... pero lejos de PS4 por ejemplo y creo que aún más lejos cuando saquen la ps5 que apunta a que va a superar (al menos de salida) a PS4 porque esos 10 millones que tendrán listos antes de terminar el año muy posiblemente hasta se queden cortos... el hype con la ps5, su nuevo mando, el audio, los juegos, el precio, las VR nuevas y lo que trae bajo el brazo con PS4 puede hacer mucha pupa a XBOX (esperemos por el bien de todos que no sea así y que XBOX sigue dando guerra con algo que aún no conocemos, porque los 2 Tflops más de potencia no creo que den para mucho). Por no hablar del Raytracing que promete dará un salto gigante (esas palabras me suenan a hace 2 años con las RTX20XX). Estoy de acuerdo con él, veremos creo el mayor número de ventas de la historia, porque se juntan muchos factores que solo la crisis del COVID podría arruinar, pero espero que a estas alturas empiece a dejar de dar por saco de una vez con una vacuna o con lo que sea (que TODA la gente se ponga la XXXX mascarilla ayudaría, no es para tanto llevar eso hasta que se acabe la mierda de situación actual).

Yo voy hypeado a tope a tres bandas, Nvidia, AMD y consolas... el marketting de los Oo ha hecho su trabajo. Ahora solo falta que los precios de las consolas sean los 500 que parecen y que Nvidia no se columpie demasiado (al menos de la 3080 para abajo, porque la 3090 o 3080ti si o si dolerá, mínimo los 1200 de la 2080ti) y me deje pilar una 3070 sobre los 500, entonces sí sería como dice Juan y pasaría a la historia en ventas. Espero que el 1 de Septiembre no me lleve un chasco de nuevo con Nvidia con el tema de los precios, porque en rendimiento tengo pocas dudas, el Ray tracing no me quita el sueño y el calor de más... habiendo yo pasado por las Radeon HD x2 o R9 290X tampoco me parece que vaya a ser tan grave como para capar rendimiento, dudo que lleguen a ese nivel. Nvidia ya ha tenido en el pasado gráficas calentorras (como la 680) y ya sabe manejar eso y AMD parece que también, los 2 aprendieron bien la lección, espero no tener que llegar al agua SI o SI, yo creo que el sistema nuevo de disipación, los 3 conectores o los de 12 pins ya ponen de manifiesto que habrá más voltaje y más temperatura, pero esperemos no tarden mucho en reducir eso en las siguientes series o revisiones.

Ya huele a novedades por todas partes, esto pinta genial, está todo al caer por fin. Esperemos poder disfrutar pronto con todos estos bichos y que no nos atraquen por ello (al menos no demasiado, porque 500 euros no es moco de pavo).
Presumiblemente las nuevas rtx tendrían problemas de temperatura en la gddr6x....se viene otra oleada de space invaders??

https://hardzone.es/noticias/tarjetas-g ... ra-gddr6x/
Pues sí, esas declaraciones dan para pensar, pero como el CEO dice, la cosa se va a poner muy interesante y eso espero que beneficie al consumidor.
Pulet escribió:Presumiblemente las nuevas rtx tendrían problemas de temperatura en la gddr6x....se viene otra oleada de space invaders??

https://hardzone.es/noticias/tarjetas-g ... ra-gddr6x/
Nada que el horno no solucione.. quince minutos a 175 grados y rico rico
Ahora resulta que nvidia es tonta y no sabe hacer su trabajo. Van a sacar gráficas para tostar pan a 1500€ con una tecnología que no se va a aprovechar hasta dentro de 5 años. Todo muy lógico si, lo que no sé es cómo siendo tan tontos siguen siendo los reyes en PC.
@mante

Se le conoce como "damage control".

Con todo lo caras que puedan estar que ese es el único punto negativo que le veo a sus gráficas se que no van a defraudar.
@mante sólo tienes que ver la cantidad de rma que han tenido las rtx en sus inicios, cascaban que daba gusto, el control de calidad hoy en día lo hace el usuario..
Mendrolo escribió:Los que esperan un salto "generacional" acojonante van listos ;p

4k, 120hz, poligonos a cascoporro, partículas hasta en la sopa, iluminación hyperealistas, ia de ensueño... mamma, que duro va a ser cuando suene el despertador ;p

Pues sí. El poder de atracción del hardware sobre alguna gente suele ser muy potente pero la realidad es que los cambios generacionales han venido acompañados siempre de algun juego magnifico y yo no acabo de ver nada de eso. Basicamente estan todos programando con la tecnologia hecha 5 años atras con la florituras de turno. Nada que nos haga cambiar de PC a todos.

@mante. Pues se comenta desde hace un año que enmascararon los beneficios para que no caigan las acciones pero al final han ido cayendo. Tambien habia la noticia de que poner las graficas tan caras no les daba beneficios.

No me parecen cosas de sabios. Tampoco leer a un lame***** palabras muy del estilo de Trump. Para que os riais, os lo vuelvo a poner. XD
Imagen
@Nomada_Firefox si, lo que no tengo es gráfica porque la vendí hace 1 mes y a la espera de las ampere.
pdriko31 escribió:@Nomada_Firefox si, lo que no tengo es gráfica porque la vendí hace 1 mes y a la espera de las ampere.

Jo que valiente. Quedarse sin Pc en estas fechas que igual nos confinan a todos mañana mismo.........

Por curiosidad ¿cuanto te pagaron?
Laurita86 está baneado por "Troll"
El consumidor es tremendo.

Que una gama alta que antes costaba 500 euros ahora cuesta 1500? Da igual.

Que consumen el triple que las anteriores? Da igual.

Que mis medias de licra tienen más fiabilidad y durabilidad? Da igual.

Que nos tratan como a tontos dedicando la mitad de la potencia de la gráfica a una tecnología irrisoria que utilizan tres juegos? Da igual.

Tenéis razón, Nvidia lo está haciendo demasiado bien, podría vender una boñiga con ventiladores pegados y las siglas RTX serigrafiadas y la gente la compraría. Son demasiado buenos con el consumidor.
Nomada_Firefox escribió:
pdriko31 escribió:@Nomada_Firefox si, lo que no tengo es gráfica porque la vendí hace 1 mes y a la espera de las ampere.

Jo que valiente. Quedarse sin Pc en estas fechas que igual nos confinan a todos mañana mismo.........

Por curiosidad ¿cuanto te pagaron?

Si lo sé, he sido valiente [carcajad], tirando de los indies estoy, me pagaron 220€ por una gtx 1070.
Pulet escribió:@mante sólo tienes que ver la cantidad de rma que han tenido las rtx en sus inicios, cascaban que daba gusto, el control de calidad hoy en día lo hace el usuario..


Una tasa de un 5% de RMA en el peor de los casos no lo considero muy relevante que digamos.
@mante pues caían como moscas, pásate por el hilo de las rtx 2000...
31123 respuestas