[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Alguno sabe si se pueden reservar las 3080 ya en algun sitio?? o que pueda haber algun sitio donde hagan alguna promo de lanzamiento????

[beer]
@jorgeandmanson Un i5 de 4 núcleos con una 3080?

Primero actualiza el equipo
A ver, un procesador de 4 núcleos si se queda corto para las nuevas GPUs la verdad. Pero vamos, cualquier i7 decente creo que ya si que serviría.
Gwyn escribió:
Colorful35 escribió:El nda es hasta el 14, por otra parte nada más se pueda comprar la 3090 lo hago


Qué bien, por fin hay fecha. Aunque sea apenas 3 días antes del lanzamiento.

Fuente?

Saludos


Me lo ha dicho Toro tocho
Gwyn escribió:Vídeo interesante de Iker.

Explica de forma bastante básica Turing vs Ampere, para entender un poquito mejor el aumento de rendimiento.


Gracias por el video.
Menudo crack.
Me ha dejado claras muchas cuestiones y tranquilo en gran medida.
Justo hoy vendi en un comercio de segunda mano la 2080 ti aorus extreme por 481 euros.... ha sido la.ultima oportunidad que he tenido para poder no caer del todo en la desidia. Ya que en su día costó 1300. Pero claro. Hace ya 2 años. Iré mirando a ver qué modelo de ensamblador tiene mejor reloj/ventilación OC. O si esperar a las posibles Ti
... pero no volveré a caer en gastarme 1000 euros..
PD. Tengo Pcie 3.0 16x... a ver qué tal rinde. Me quedo más tranquil
salu2
battman80 escribió:De todos los que estais escribiendo por aqui, empiezo a pensar que ni el 50% va a comprar realmente una Ampere.
Entre eso y las cosas que lee uno por el hilo de la SX y el de la PS5, que por allí anda nuestro amigo "Nanite" animandoles la fiesta con los micropoligonos como si fuese el gurú de la ingenieria informatica (ya eso marca el nivel del usuario medio por esos hilos, que hay que ver la objetividad y las mesuras que utilizan [facepalm], pero dice el refran que en el pais de los ciegos el tuerto es el rey ...), uno empieza a perder de verdad la esperanza en la humanidad.

Lo digo porque me da la sensacion de que algunos, o muchos, estan por aqui por motivos que distan bastante de tener en la mano, o en la cartilla, 800 euros para ir a comprar el dia 17 una Ampere. O teniendolos, no tienen la mas minima posibilidad o intencion de ir a hacerlo. O eso o esque durante los proximos 12 meses Nvidia va a vender mas Amperes que Sony PS5s...
No se yo, no se [facepalm]

Una cosa es dudar del nivel de realismo y veracidad de Nvidia, otra dudar de si te vas a gastar el dinero y por el mismo dinero el año que viene va a salir algo un poco mejor y te van a cantar tonto pelao al salir de tu casa por no esperarte, como sino supiesemos que la tecnología avanza cada dia y a cada momento y por el mismo precio, en el futuro, siempre conseguiras mejores prestaciones. Ya ni siquiera las consolas son garantia de "durar" años sin que tu vecino tenga algo mejor que tu y eso no te deje dormir por las noches (que parece que es el verdadero problema de muchos...). Pero otra cosa es estar buscandole los tres pies al gato, o poniendo toda la fe y la esperanza, en que estas Ampere que parecen tan maravillosas, sean poco menos que un desastre, o una estafa, porque te jode que sean asi y Nvidia no se pegue un ostiazo de epoca frente a otras opciones, o simplemente sean tan carisimas que ni dios pueda comprarlas y quede claro que "tu opcion" es la mas chachi porque "por ese precio para todos tiene muxha potensia".

Me encanta esa gente que tiene la capacidad mental de convencerse asi mismo de que lo suyo es lo mejor, y sino lo es, igualmente ellos SÍ ven claramente que es lo mejor, y aunque les ofrezcas lo mejor, lo rechazan con tal de no dar su brazo a torcer (demencia, me parece que se llama), no se te ocurra intentar convencerlos con objetividad ni exactitud, pues la ciencia no tiene nada que hacer en el terreno de la fe, y la magia.

Lo siento, quienes comprendan de que hablo pues ya sabeis, y los que no, os pido disculpas, porque me canso ya de ciertas cosas.

Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio? Si sois el perfil de usuario de PC que le ha dado igual estar 9 años con una 960 o que se yo, que mas os da si la ampere de 500 o la de 700 rinda mas o menos? Aunque sea de carton os va a dar igual...salvo que penseis centraros "en serio" en el PC.

Los que no parais de decir que os vais a pillar una 3090, porque claro, a esa si que no podeis ponerle pega a la hora de defencer vuestro verdadero amor (enfermizo), porque se lo cepilla por todas partes...y ademas cumple el requisito de ser carisima y siempre podreis usar eso como argumento en contra, peeero, esa 3070 y esa 3080 tan "baratas" y tan "superiores"? Nahhh, esas seguro que no rinden, se quedan tiradas en dos años, o menos, no les caben los nanites dentro! A esos les digo que MIAU, uno ya es muy viejo, y antes que el cojo de un paso ya sabe que es cojo.

Y los que no sabeis si coger estas o esperar a ver si salen Tis o supers, porque al final os vais a comprar todo lo que vaya saliendo que sea un poco mejor, pues no lo dudeis tanto, pillar una de estas, y si despues sale una Ti, en un año, o en dos, cojones, ya habeis disfrutado todo ese tiempo, las revendeis, que siempre hay por debajo alguien interesado en pillar lo que a otros les sobra por el motivo que sea, y cogeis lo nuevo, y a seguir con la vida.

Y sino, pues a esperar hasta diciembre, por si AMD se saca la chorra, tiene gráficas que duplican el rendimiento (hablemos claros, los frames en los juegos tochos a 4k) de las nvidia por la mitad de dinero, y no pasa nada, ganamos todos, nos compramos Radeons, y a disfrutar de los videojuegos a todo tren. Eso si, asumid que si son AMDs de 500 euros, no les cabran dentro los nanites necesarios para los juegos "powa" a 4k y RT, para eso hará falta minimo una Radeon de 2000 euros, porque no van a tener tecnologia de micropoligonos con pesicola.


Bah, y perdon por no ser politicamente correcto, pero esque...esque... [facepalm]

Suerte a todos [beer]


Yo tengo claro de que tu si que eres el gurú, el gurú de tirar el dinero y insultar a base de ignorancia a toda la una comunidad.

Me hace aún más gracia que digas cómo si fuera ingeniero informático, cuando no sabes a lo que me dedico pero yo sí sé a lo que no te dedicas y es a la ingeniería informática, ni tampoco teleco en sistemas ni tampoco en desarrollo de sistemas.

Igual te dedicas a vender GPUs, o a vender cosas lo cual está claro que te beneficia tu comentario. Pero vamos es que no sabéis entender nada.

En un sistema de micropoligonos podrás seleccionar la resolución y los polígonos por pixel a renderizar y las texturas.

No es como ahora que pones un perfil ultra, muy alta, si ultra no cogía más de 6 GB de RAM pues no necesitabas más. En un sistema de micropoligonos podrás seleccionar cuántos polígonos en pantalla a cuánto más más realista puesto que los activos tienen demasiados polígonos para que la GPU pueda con ellos.

Asique la calidad de los micropoligonos no estará limitada a lo que el dev ponga en ultra, la calidad siempre podrá llevar al límite el sistema. Comprar una GPU con poca VRAM y mucha GPU limitará a la GPU considerablemente. Yo solo digo que hay que esperar si no quieres tirar el dinero. Qué en eso se te ve un experto.

Qué además sois los de siempre los del IO no sirve para nada en plan Sony se lo ha inventado . Y ahora todo el mundo con el IO a ver si dejáis de hacer el ridiculo. Hagámosle caso al vendedor a ayudarnos a tirar el dinero. Claro
LandStalker escribió:
Gwyn escribió:Vídeo interesante de Iker.

Explica de forma bastante básica Turing vs Ampere, para entender un poquito mejor el aumento de rendimiento.


Gracias por el video.
Menudo crack.
Me ha dejado claras muchas cuestiones y tranquilo en gran medida.
Justo hoy vendi en un comercio de segunda mano la 2080 ti aorus extreme por 481 euros.... ha sido la.ultima oportunidad que he tenido para poder no caer del todo en la desidia. Ya que en su día costó 1300. Pero claro. Hace ya 2 años. Iré mirando a ver qué modelo de ensamblador tiene mejor reloj/ventilación OC. O si esperar a las posibles Ti
... pero no volveré a caer en gastarme 1000 euros..
PD. Tengo Pcie 3.0 16x... a ver qué tal rinde. Me quedo más tranquil
salu2

Madre mía compañero, perder 800/900€ mi más sentido pésame, si alguno de aquí me hubiera echo caso cuando lo dije hubiera vendido su 2080ti por 900/1000€ yo mismo vendí mi gigabyte gaming oc 2080ti por 950€ a principios de junio y además lo dije en reiteradas ocasiones aquí, y en otra cosa que coincido contigo es que jamás me volveré a gastar 1300€ en una gráfica por qué luego la depreciación es brutal y pierdes mucha pasta por el camino, otro punto, si quieres una gráfica comprala Ya, esperar una 3080ti se puede ir perfectamente a junio/julio del año que viene (10 meses suele ser la ventana entre la X80 y X80Ti
@Nowcry
Parece ser que la API X storage de microsoft no va a ser implementada hasta algún punto de 2021 y aplicada a juegos hasta 2022, por lo que la RTX I/O no podría ser utilizada durante ese tiempo. Una pena.

Ha ocurrido algo parecido con las Primeras RTX. Microsoft tuvo que tener lista la API y desde entonces, han salido muy pocos juegos que usasen esa tecnología.
Eso sí, es probable que igual haga falta más vram para ciertos juegos venideros y el haber puesto esa cantidad es para haber hecho un lanzamiento más económico por razones de competencia con AMD, pero no lo sabremos hasta que veamos situaciones reales. De ahí la importancia de ser pacientes y esperar a las review en un par de semanas.
Con un 9900k de stock y 16 gb ram 3200 mhz la 3090 bien?
ddanield escribió:
PilaDePetaca escribió:
rap_dora escribió:
Estoy exactamente ante el mismo dilema.
Actualmente con mi 1060 de 6GB, y quiero dar el salto para jugar a 1080, no se si la 3070 o esperar a la 3060 a ver que tal.. Cierto es que tengo un monitor @144Hz, pero con la 3060 o 3070 no creo que sea problema 1080@144Hz (me vale algo menos, no tienen que ser rocosos ni nada)

¿Alguna opinion?


La 3060 tendrá muy probablemente el mismo rendimiento que una XsX, así que para 1080p no creo que tengas mucho problema, y es mas, si me apuras, si una posible 3050ti no saliese mal de precio, es probablemente la mejor opción a 1080 (tendría la potencia de una PS5, y con DLSS se podrían hacer cosas interesantes con ella), ya que veo la 3060 mas para 2k.


Espero que no lo tomes a mal no es mi intención, pero las consolas de la nueva generación no llegan a una placa 3060 ni por asomo, fijate en digital foundry que las comparan con la 2060/70 de ordenadores portatiles, o sea de menor calidad que una placa de video de cpu de escritorio, lo mismo que sus micros que son capados por ser micros de bajo rendimiento, con cualquiera de esas placas que se compre el amigo va de sobra y más para la generación que avecina, un saludo!


No hombre, no me lo tomo a mal, yo estoy poniendo el ejemplo de una 3060 porque mas o menos se sabe el rendimiento que van a tener tanto XsX como PS5. Por arquitectura llevan el mismo front end que RDNA1, así que el IPC puede variar como mucho un 5%, pudiéndose extrapolar su rendimiento comparado con las serie 50xx de AMD. Yo pondría su rendimiento en este gráfico mas o menos (cada > supone un 5%):

RTX 3080 >>>>>>> "Big Navi" (en el mejor de los casos, escalando 100% con una 5700XT) >>> RTX 3070 >>>> RTX 3060 >> XsX >>> RTX 3050ti >> PS5 (aprox. rendimiento entre 5700-5700XT) >>> RTX 3050

Y eso sin contar que Ampere le va a pasar como las AMD cuando pasaron a GCN, que conforme pase el tiempo y maduren los drivers van a subir de rendimiento bastante viendo la arquitectura que llevan.
@kikomanco
Si. Es una putada, de hecho me ofrecieron 1000 Xd.
Pero nadie se esperaba esto.
Lo bueno? Que he recuperado parte del capital. Ya que habrán muchos que ni puedan venderla (no será totalmente necesario, ya que van de puta madre)

LA PREGUNTA es... hay 2 / 3 ensambladores de renombre ya anunciando sus modelos primerizos.
Me he fijado en la GigaByte Eagle 3080 10 gb OC(los 719 que.tocan), LA GB Gaming OC.(casi 900) Y la ASUS Strix 3080 (casi 900).
Pero veo que los ventiladores no son tan novedosos. Aunque sí veo que almenos uno de ellos entra aire desde abajo. En cada una de ellas.

La cosa es..... FOUNDERS ED.?.... Cual será más fresquita y tendrá.más reloj.

Hay que estar a la que salte...
calloudiano escribió:
pdriko31 escribió:
calloudiano escribió:


No y menos a esa resolución, si fuera a 1080p a lo mejor.



Un desperdicio meterle una 3070/3080 a ese procesador, te va a dar +30fps menos que la misma gpu con un procesador reciente y caes en el error mas común del pc gaming, equipo descompensado y sus típicas consecuencias (stuttering, microparones) saltos de fps que ni el mejor gsync soluciona.

En pc la cadena es tan fuerte como el mas débil de sus eslabones.

Para nada,esta cpu aguanta de sobra una 2080ti para 1440p60fps,con la 3070 aguantará igualmente,te lo garantizo,hay infinidad de videos que lo demuestran,el error es creer que para sacar el rendimiento de una gpu hay que tener una cpu de ultima generacion,informate.
(mensaje borrado)
Pues en la tienda que todos sabemos Pcxxxxxx le han metido una subida a algunas 80/90., }:/
@Nowcry compañero, no eres el primero sabes?¿

A lo largo de los ultimos 30 años me he encontrado recurrentemente una y otra vez contigo. Por eso sé, sin miedo a equivocarme, que de entre tu y yo, el único que se está colando, eres tú.

No importa, porque pase lo que pase, tu seguiras en tus trece con respecto a lo que tu y yo sabemos, o en el peor de los casos, si resultase que se da una situacion de absoluta absurdez de diferencia en prestaciones, te cambiaras la chaqueta, como ya haces ahora mismo en un simple foro como este, y haras como si siempre hubieses estado posicionado en la postura ganadora.

Lo dicho, ya te he conocido muchas veces a lo largo de esta vida. Y como bien dices, no sabes a que me dedico, ni que formación, ni cuantas veces he visto esta misma película. Y sinceramente, es TAN SIMPLE y SENCILLO de comprender los motivos por los que no tienes razón en aquello que crees tenerla, que es de una pereza horrible seguir llevandote la contraria.

PS5 será una maquina maravillosa, haran falta pcs de 10000 euros, o de 3000, o quizá jamas haya uno, capaz de ofrecer en pantalla nada igual a lo que logre. Y aunque lo hubiese, igualmente jamas podran lograr ofrecer tantisima potencia técnica con tan poca base gracias a que es un sistema cerrado y la optimizacion que eso permite que hace que un hardware rinda el 250%, y se logran maravillas tecnicas que ni los mejores conjuntos de hardware pueden igualar, como GOW (aunque por ejemplo no tenga ni rastro de una oclusion ambiental decente), o ghosts (aunque la mayoria de las texturas secundarias de la escena sean mas planas y simples que el garabato de un niño pequeño) o Horizon (ah no, ese no, que ya ha salido en PC y los cabrones traidores de la desarrolladora dijeron que la config "mid", donde los parametros que mas peso tienen en la calidad visual estan bajo minimos, es el equivalente a PS4pro, aunque hasta ese dia, muchisimos, seguro que incluido tu, habriais defendido en charlas como está que gráficamente estaba al nivel de red dead 2 en pc a tope, por ejemplo).

En fin chico, que para ti la manzana gorda, llena de nanites y micropoligonos, que en el pasado fueron otras fantasias y tecnologías gancho o que simplemente se universalizan. Puedes creer en el dios que quieras, la fe es libre, y no le haces daño a nadie, como siempre digo, al único que puedes engañar, es a ti mismo, aunque eso resulte lamentable.

Por desgracia, no creo que tengamos ocasión de charlas dentro de 3 años, cuando los juegos en las consolas lloren por llegar a los 4k/60fps, usando un sinfin de recursos muleta que gente como tú justificará a muerte, mientras en el PC probablemente hasta ya esté "mal visto" no jugar a 4k y 120, o quien sabe, 8k/30 o más. Y va a dar igual si se usan micropoligonos, o piezas de lego. Que mira que hay cosas simples de entender, pero cuando uno se empeña en pegar la trompa al arbol de delante, es incapaz de dar dos pasos atras para tener conciencia de que delante tiene un bosque entero.

Dale las vueltas que quieras, pero yo sigo convencido que a ti te trae al pario las Ampere y los ampero, y que el motivo de tu presencia por este hilo es uno diferente, o bueno, en parte no, es "tomar el pulso" a la diferencia que pudiese haber con eso que tanto te gusta, y tanto miedo tienes que de resulte ser, otra vez, y van tres, un churro. Puede que me equivoque, puede que no me equivoque. La cuestión es que me da absolutamente lo mismo [+risas] . Y se te ha visto el plumero con lo de desperdiciar dinero jijijijij [sonrisa] ;) .

Venga, un abrazo.


[oki] [beer]


PD: y perdon al resto de compañeros, por estos comentarios fuera de lugar y del hilo. Por mi parte se han acabado, porque ya toma un cariz personal y eso es bastante estúpido. Asi que dejemoslo, y que Dios reparta gloria.

@PilaDePetaca ufff, como te vea esa escala uno que me se yo, te come! [qmparto] , sube esa PS5 hombre, no ves que va manejar los micropoligonos como ninguna otra maquina jamas antes, y eso la hace rendir por encima de la Big Navi si hace falta, que la lerda de AMD le ha dado a Sony una APU mejor que sus GPUS, pobreticos [sonrisa] [facepalm]

[beer]
Strait escribió:
Metalyard escribió:@francisco94 Ni puñetero caso, a día de hoy hasta mi CPU, un ryzen 7 1800X rinde genial con una 2080Ti

Sin preocupaciones [toctoc]



Tienes que tener en cuenta de que el 3700x no es referente en nada y que rinde aprox un 5%-10% menos que intel en todos los juegos.



De un 5% a un 10% solo en juegos y sin PCIe 4.0, pero 100 euros mínimo más caro y peor en productividad. Claro que si campeón, lo que no es referente de nada es la serie 10xxx de Intel.
Athor escribió:Pues en la tienda que todos sabemos Pcxxxxxx le han metido una subida a algunas 80/90., }:/
Ya ves tio, la asus rog strix 3090 oc, la han subido 120€, pero bueno como ya dijo un compañero paginas atras, se notaba que los precios eran simples posicionamientos momentáneos
@prison1287
Basicamente dice que las Founders van a 16 Ghz y las de otros ensambladores a 14?

Eso para la 3070, claro.

Yo estoy más focalizado en la 3080... me gustaría saber este tipo de detalles... contraproducentes, del resto de las tarjetas.
Tened en cuenta que algunos nos vamos a lanzar a la piscina...y sin flotador.. o quizás haya que esperar.

Me dijo un compañero que si esperabamos mucho, si las comprasen para minar.. subirian los precios...

Hay demasiadas incognitas.
prison1287 escribió:No se si alguien a puesto esto
https://elchapuzasinformatico.com/2020/ ... s-edition/

Lo han puesto antes pero ha pasado desapercibido XD

Yo ahora mismo ando con un 4770+ gtx 7702gb y tenía pensado dar el salto y seguramente lo haga (a las 3080 seguramente)...

Saludos
Sinceramente, despues de lo que ha pasado yo no esperaria a una 3080 ti... Porque igual al año siguiente a Nvidia le puede dar por volver a sacarse la chorra y reventar otra vez el mercado.
LandStalker escribió:@prison1287
Basicamente dice que las Founders van a 16 Ghz y las de otros ensambladores a 14?

Eso para la 3070, claro.

Yo estoy más focalizado en la 3080... me gustaría saber este tipo de detalles... contraproducentes, del resto de las tarjetas.
Tened en cuenta que algunos nos vamos a lanzar a la piscina...y sin flotador.. o quizás haya que esperar.

Me dijo un compañero que si esperabamos mucho, si las comprasen para minar.. subirian los precios...

Hay demasiadas incognitas.

Hombre mas que por lo de minar que a dia de hoy esta muerto, puesto que no se gana un duro minando, por los precios sale mejor comprar la moneda que te interese ahora que estan baratas y esperar o jugar con los cambios.
Yo me preocuparia por esto
https://elchapuzasinformatico.com/2020/ ... e-samsung/
prison1287 escribió:
LandStalker escribió:@prison1287
Basicamente dice que las Founders van a 16 Ghz y las de otros ensambladores a 14?

Eso para la 3070, claro.

Yo estoy más focalizado en la 3080... me gustaría saber este tipo de detalles... contraproducentes, del resto de las tarjetas.
Tened en cuenta que algunos nos vamos a lanzar a la piscina...y sin flotador.. o quizás haya que esperar.

Me dijo un compañero que si esperabamos mucho, si las comprasen para minar.. subirian los precios...

Hay demasiadas incognitas.

Hombre mas que por lo de minar que a dia de hoy esta muerto, puesto que no se gana un duro minando, por los precios sale mejor comprar la moneda que te interese ahora que estan baratas y esperar o jugar con los cambios.
Yo me preocuparia por esto
https://elchapuzasinformatico.com/2020/ ... e-samsung/


P*** consumismo voraz masivo. Nos anuncian escasez paara que vayamos como corderos en linea.
Lo peor es que puede ser cierto... tanta demanda.

Estaría bien que en el Hilo se vayan poniendo las Webs que vayan vendiendo modelos custom, o cuando la web de Nvidia vaya sacando stock.

Salu2
Pongo por aqui un vídeo tipo "como se hizo..." de la demo de "marbles" presentada en la confe de nVidia.



Es burrísimo lo que se puede ver en esta demo, deja en mantillas el reveal de UE5.
Nvidia ya a puesto en su web desde cuando las tendra disponibles
https://www.nvidia.com/es-es/geforce/gr ... wmfg_es-es
francisco94 escribió:¿En serio? Joder.. pero si se supone que el más "top" a dia de hoy es un 3900x, ahora me da cosa comprar una RTX 30xx

Metalyard escribió:@francisco94 Ni puñetero caso, a día de hoy hasta mi CPU, un ryzen 7 1800X rinde genial con una 2080Ti

Sin preocupaciones [toctoc]


Tú sin preocupaciones francisco94 y luego cuando veas que la CPU de turno se ahoga de vez en cuando con el juego de turno, le avisas a Metalyard para que él te preste su R7 1800X de principios del 2017 con el que va sobradísimo para jugar a tope de FPS [360º]

Imagen

Captura de pantalla de hace 5 minutos. Las cifras en rojo son porque se ha superado el 90% en caso de alguno de los core de la CPU y que los FPS están por debajo de 144 en caso de la GPU. La imagen habla por si sola pero ya aclaro que aunque en el gráfico del Administrador de Tareas no se aprecie, son muchas las ocasiones en las que alguno de los cores llega al 100% y limita a una RTX 2080 que da gusto. Todo a 1440p@144Hz en ultraMegaHighSettings. Y en unos mapas se nota más y en otro menos, solo he sacado una captura del primero que me ha cargado.

Y para no desvirtuar más el tema del hilo, aclarar que yo dije claramente que "Por mi experiencia yo he tenido algunos cuellos de botella", que no contradice la información que se muestra en el video que ha puesto Metalyard, porque ahí lo único que se muestra son los mínimos y la media pero no que se puedan producir bottlenecks en algún momento que es lo que yo he comentado desde el principio.
Laurita86 está baneado por "Troll"
...
Editado por metalgear. Razón: flame
Laurita86 escribió:Lo siento por los poseedores de una 2080ti, han pasado de tener lo último de lo último a una gama baja roñosa.

Comprar lo más caro en hardware suele tener estas consecuencias, por mucho que la gente se flipe y diga aquello de "las gráficas nunca bajan de precio".
Gama baja roñosa? jajaja, menudo troll estás hecho "Laurito" cierra la puerta al salir.
prison1287 escribió:Nvidia ya a puesto en su web desde cuando las tendra disponibles
https://www.nvidia.com/es-es/geforce/gr ... wmfg_es-es

Lo pusieron el mismo día que las presentaron xD.



Si esto es real... MADRE MIA

La de gente que las comprara sin saberlo... Madre miaaaaaaaaa. Yo no lo sabía, pero bueno, también es cierto que la 3070 no la voy pillar y por ende, no me informe.

Ya me estás acojonando con esta jugada si se repite en la 3080...
Que vamos ,tampoco la voy comprar que voy esperar a la Ti, pero en fin...WoW acabo de flipar mucho.

"Esta velocidad de memoria, junto a una interfaz de memoria de 256 bits, nos da un ancho de banda de 448 GB/s, el mismo que ofrece la GeForce RTX 2070, y lejos del ancho de banda de 512 GB/s que ofrece el modelo Founders Edition"

Jajaja que hijos de...
josemurcia escribió:
prison1287 escribió:Nvidia ya a puesto en su web desde cuando las tendra disponibles
https://www.nvidia.com/es-es/geforce/gr ... wmfg_es-es

Lo pusieron el mismo día que las presentaron xD.

ya lo e puesto por que mas arriba uno dice que deberian avisar cuando las pongan a la venta y por lo menos nvidia ya se sabe.
@Schencho Un cuello de botella no es precisamente algo que te pase de vez en cuando, es algo sostenido cada vez que juegas y más en un juego cpu dependiente como BfV :-|

Que tengas rascadas de vez en cuando pueden ser por varios factores, uno de ellos la temperatura de la cpu que te haga thermal throttling ( Que por tu captura veo que es bastante elevada) incluso puede ser debido al estado del servidor...

Por no hablar que cuanta más resolución juegue el compi, mejor aún, ya que más carga se llevará la gráfica y la cpu se quedará tomando birras ratataaaa

Y si, como ves en el benchmark que te he puesto, un 1800X del 2017 se maneja muy bien con una 2080Ti incluso a 1080P, y la cpu del compi es bastante mejor, así que la chorrada de que tenga que dejarle mi CPU no sé a que viene.
Metalyard escribió:@Schencho Un cuello de botella no es precisamente algo que te pase de vez en cuando, es algo sostenido cada vez que juegas y más en un juego cpu dependiente como BfV :-|

Que tengas rascadas de vez en cuando pueden ser por varios factores, uno de ellos la temperatura de la cpu que te haga thermal throttling ( Que por tu captura veo que es bastante elevada) incluso puede ser debido al estado del servidor...

Por no hablar que cuanta más resolución juegue el compi, mejor aún, ya que más carga se llevará la gráfica y la cpu se quedará tomando birras ratataaaa

Y si, como ves en el benchmark que te he puesto, un 1800X del 2017 se maneja muy bien con una 2080Ti incluso a 1080P, y la cpu del compi es bastante mejor, así que la chorrada de que tenga que dejarle mi CPU no sé a que viene.


@Schencho
@Metalyard
El trabajo extra de subir la resolución, se lo va llevar la gráfica, eso creo, ¿que lo sabemos todos no?

Pero no te olvides de que una gráfica necesita que el procesador le suministre una carga de información en un determinado tiempo, en otras palabras, si el procesador no suministra la suficiente información en ese lapso de tiempo que se requiera a la gráfica,el rendimiento se verá afectado.
Dicho esto, después de una capacidad de procesador "X" dicha capacidad no influye en el rendimiento de la grafica, pero si esta por debajo si

Sobre lo del 1800X, veré el vídeo ahora, pero como para recomendar su compra a día de hoy, yo, no lo haría.
Bastante loco de las custom 3070 con menor ancho de banda, habra que ir a por las founders como sea.
PilaDePetaca escribió:Pongo por aqui un vídeo tipo "como se hizo..." de la demo de "marbles" presentada en la confe de nVidia.



Es burrísimo lo que se puede ver en esta demo, deja en mantillas el reveal de UE5.


Hombre lo de UE5 es algo más realista y lo esperable en la Next Gen y eso de Nvidia no.

Por poner otro ejemplo de poco realista y en este de caso de Unreal.



En ambos casos pondrán a prueba todo lo que quieras pero si luego no vas a ver algo así...no me sirve de mucho.
d2akl escribió:



Si esto es real... MADRE MIA

La de gente que las comprara sin saberlo... Madre miaaaaaaaaa. Yo no lo sabía, pero bueno, también es cierto que la 3070 no la voy pillar y por ende, no me informe.

Ya me estás acojonando con esta jugada si se repite en la 3080...
Que vamos ,tampoco la voy comprar que voy esperar a la Ti, pero en fin...WoW acabo de flipar mucho.

"Esta velocidad de memoria, junto a una interfaz de memoria de 256 bits, nos da un ancho de banda de 448 GB/s, el mismo que ofrece la GeForce RTX 2070, y lejos del ancho de banda de 512 GB/s que ofrece el modelo Founders Edition"

Jajaja que hijos de...


Y por qué las custom tienen menor velocidad? Es por un bloqueo de Nvidia?, Abaratar costes las custom?
:-?
jiujinkai escribió:
d2akl escribió:



Si esto es real... MADRE MIA

La de gente que las comprara sin saberlo... Madre miaaaaaaaaa. Yo no lo sabía, pero bueno, también es cierto que la 3070 no la voy pillar y por ende, no me informe.

Ya me estás acojonando con esta jugada si se repite en la 3080...
Que vamos ,tampoco la voy comprar que voy esperar a la Ti, pero en fin...WoW acabo de flipar mucho.

"Esta velocidad de memoria, junto a una interfaz de memoria de 256 bits, nos da un ancho de banda de 448 GB/s, el mismo que ofrece la GeForce RTX 2070, y lejos del ancho de banda de 512 GB/s que ofrece el modelo Founders Edition"

Jajaja que hijos de...


Y por qué las custom tienen menor velocidad? Es por un bloqueo de Nvidia?, Abaratar costes las custom?
:-?


¿quizás temperaturas? ¿diferente PCB al usado en FE? Lo cierto es que faltan demasiadas cosas por conocer todavía y esta generación no está siendo como las demás en cuanto a misterios, hay demasiado en juego y todos están escondiendo cartas, solo están mostrando las cartas que les resultan imprescindibles. Espero podamos salir de dudas pronto con tantos temas que hay ahora mismo en el aire.
calloudiano escribió:El objetivo de los precios de AMPERE siempre fue ese, que los mindundis compren una serie 2000 o una 3070 en lugar de una ps5/xbox.


Que una Xbox, puede... Comparten público objetivo y hasta los juegos. Diría que los consumidores de Sony y también los de Nintendo son distintos y valoran más el software que las prestaciones de hardware.

Si Sony sacase todos sus exclusivos en PC... La cosa cambiaría, pero de momento para jugar a God of War, Uncharted, Last of Us o Spider-man... No te queda otra.
Mr.Threepwood escribió:
calloudiano escribió:El objetivo de los precios de AMPERE siempre fue ese, que los mindundis compren una serie 2000 o una 3070 en lugar de una ps5/xbox.


Si Sony sacase todos sus exclusivos en PC... La cosa cambiaría, pero de momento para jugar a God of War, Uncharted, Last of Us o Spider-man... No te queda otra.


Bueno... con Ps Now he jugado God of War Uncharted y Spiderman en pc; ya meterán el Last of Us 2

Leo el hilo con mucho detalle pues daré el salto cuando amd saquen los ryzen 4xxx (A día de hoy sigo con ddr3, imaginad xD) por el momento la nube me va cojonudo sin gráfica alguna [poraki]
Por favor, DEJAD DE DAR VISITAS Y DIFUSIÓN al Chapuzas.

No hacen más que coger cualquier cosa e interpretarla a su manera.

Dan por hecho lo de las memorias 14vs16gbps cuando en la fuente dicen claramente "This settles speculation around...".

Ahora mismo es el medio que más clickbaits mete. Y lo peor es que la gente traga cualquier mierda que venden solo porque esté en español.
Gwyn escribió:Por favor, DEJAD DE DAR VISITAS Y DIFUSIÓN al Chapuzas.

No hacen más que coger cualquier cosa e interpretarla a su manera.

Dan por hecho lo de las memorias 14vs16gbps cuando en la fuente dicen claramente "This settles speculation around...".

Ahora mismo es el medio que más clickbaits mete. Y lo peor es que la gente traga cualquier mierda que venden solo porque esté en español.

si miras las especificaciones en la pagina de pccomponentes veras que pone que los modelos anunciados en ella van a 14gbps y las founder van a 16 a si que eso de especulacion ya veremos por que a no ser que se hayan equivocado en estas tiendas podria ser que esa noticia fuera cierta .
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.coolmod.com/kfa2-geforce-rt ... ica-precio
@prison1287 así es compañero. Con un ancho de banda de 448 GB/s.
Vamos que las FE van a durar un suspiro...
prison1287 escribió:
Gwyn escribió:Por favor, DEJAD DE DAR VISITAS Y DIFUSIÓN al Chapuzas.

No hacen más que coger cualquier cosa e interpretarla a su manera.

Dan por hecho lo de las memorias 14vs16gbps cuando en la fuente dicen claramente "This settles speculation around...".

Ahora mismo es el medio que más clickbaits mete. Y lo peor es que la gente traga cualquier mierda que venden solo porque esté en español.

si miras las especificaciones en la pagina de pccomponentes veras que pone que los modelos anunciados en ella van a 14gbps y las founder van a 16 a si que eso de especulacion ya veremos por que a no ser que se hayan equivocado en estas tiendas podria ser que esa noticia fuera cierta .
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.coolmod.com/kfa2-geforce-rt ... ica-precio


La fuente dice que eso deja lugar a la especulación, mientras que el Chapuzas lo interpreta como le da la gana y lo da por confirmado.

Nada nuevo bajo el sol.
Laurita86 escribió:Lo siento por los poseedores de una 2080ti, han pasado de tener lo último de lo último a una gama baja roñosa.

Comprar lo más caro en hardware suele tener estas consecuencias, por mucho que la gente se flipe y diga aquello de "las gráficas nunca bajan de precio".

Gama baja roñosa una 2080 ti??? Estamos locos??? Si es una pedazo de grafica! Otra cosa es que vaya a salir una nueva generacion, y como siempre, esta va a ser mejor que la anterior y por ello bajan precios.
Y quien en su sano juicio dice que las graficas nunca bajan de precio?
Muchas inconcruencias en tu mensaje
Gwyn escribió:
prison1287 escribió:
Gwyn escribió:Por favor, DEJAD DE DAR VISITAS Y DIFUSIÓN al Chapuzas.

No hacen más que coger cualquier cosa e interpretarla a su manera.

Dan por hecho lo de las memorias 14vs16gbps cuando en la fuente dicen claramente "This settles speculation around...".

Ahora mismo es el medio que más clickbaits mete. Y lo peor es que la gente traga cualquier mierda que venden solo porque esté en español.

si miras las especificaciones en la pagina de pccomponentes veras que pone que los modelos anunciados en ella van a 14gbps y las founder van a 16 a si que eso de especulacion ya veremos por que a no ser que se hayan equivocado en estas tiendas podria ser que esa noticia fuera cierta .
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.pccomponentes.com/zotac-gam ... -8gb-gddr6
https://www.coolmod.com/kfa2-geforce-rt ... ica-precio


La fuente dice que eso deja lugar a la especulación, mientras que el Chapuzas lo interpreta como le da la gana y lo da por confirmado.

Nada nuevo bajo el sol.

Me recuerda a algunos compañeros de aqui que nos hablan como si no tuvieramos ni puta idea cuando ponemos en duda los rumores que han leido en mil paginas y ellos consideran 100% veridicos ratataaaa

No me afecta especialmente lo de las 3070 pero espero que sea un error de comunicación sin mas...seria muy sucio hacer una jugada asi

Lemmiwinks escribió:
Laurita86 escribió:Lo siento por los poseedores de una 2080ti, han pasado de tener lo último de lo último a una gama baja roñosa.

Comprar lo más caro en hardware suele tener estas consecuencias, por mucho que la gente se flipe y diga aquello de "las gráficas nunca bajan de precio".

Gama baja roñosa una 2080 ti??? Estamos locos??? Si es una pedazo de grafica! Otra cosa es que vaya a salir una nueva generacion, y como siempre, esta va a ser mejor que la anterior y por ello bajan precios.
Y quien en su sano juicio dice que las graficas nunca bajan de precio?
Muchas inconcruencias en tu mensaje

Ni caso...lleva todo el hilo provocando y trolleando
Es cierto que dicho sitio es pura noticia amarillista pensada para ganar seguidores. Pero hay que reconocer que la noticia de la memoria más da esa impresión.

Tambien me he fijado en algo que igual ya se comento. En la web de Nvidia pone para la 3070 https://www.nvidia.com/es-es/geforce/gr ... /rtx-3070/
Config. de memoria estándar GDDR6X de 8 GB

Me pregunto si ya hay dos modelos. Uno con GDDR6X y otro GDDR6. Es muy sospechoso. Y ya dije que con 13 variantes registradas, era muy facil que sucediera algo asi.
31123 respuestas