[HILO NEXT-GEN] Presentación Oficial -- Durango -- 21 de Mayo 19:00h

Dave338 escribió:Es que si tiran por un chip 8850 por decir algo, que el consumo de la tarjeta es de unos 130W, lo dejan en 60 o 70W como mucho.

Ya expliqué lo que pasa con la GTX680, que consume 200W y la GTX690 que lleva 2 cores de la 680 y el doble de memoria y consume 300W. Es decir 100W se los lleva la electrónica y 100W más o menos es lo que consume el chip y la memoria, que es lo que contaría para la consola, y seguro que le podrían ajustar el consumo algo más teniendo en cuenta lo de siempre, que no hay overclock posible y demáses...

Con una tarjeta de 130W el chip y memorias igual consumen 70 u 80 máximo ya de "estándar". Es perfectamente viable para una consola.

Lo que me mosquea de esas especificaciones de "Kryptos" es que ponga que tiene 2 cores. Ni aunque sean 2 núcleos steamroller o lo que sea, que lleva 4 unidades de ejecución de enteros, lo veo corto. Tendría que llevar al menos 4 núcleos, con 8 hilos, y más si las velocidades de reloj son bajas, por muy eficiente que sea.

salu2


No se podría rebajar tanto utilizando la serie Radeon HD 8000. Poniendo el mismo ejemplo que dijiste antes, en sus tiempos paso lo mismo con la serie GeForce 400 y la GeForce 500. Siendo ambas tecnologías basadas en Fermi, y con el mismo proceso de fabricación. Una GeForce GTX 580 es capaz de entregar un 20 % más de rendimiento, con un consumo de 6 W inferior que una GeForce GTX 480.

En el caso de la GeForce GTX 680, es una versión de Kepler de gama media, así que tiene muchísimo más margen de mejora Kepler de lo que en su día tuvo Fermi.

Por tanto no es de extrañar que veamos una mejora en la GeForce GTX 780 respecto a la GeForce GTX 680. De al menos un 40-55 % más de rendimiento y un consumo que ronde los 195 W o inferior. Con el mismo consumo van a aumentar el rendimiento drásticamente, y ahí si que van ya a exprimir al máximo la tecnología Kepler.

Si esto mismo lo llevamos a AMD, sucede tres cuartos de lo mismo.

Por un lado tenemos el modelo Radeon HD 7970 (3.8 TFLOPS), si lo comparamos con la Radeon HD 8970 (5.4 TFLOPS). Vemos que el aumento de rendimiento es también del 40-55 % y que el consumo se mantiene en 250 W o inferior. Esta mejora se produce utilizando la misma tecnología que en la serie Radeon HD 7000, así que es lo mismo que en el ejemplo anterior que puse con Kepler.

Si Xbox Next utiliza una GPU de la serie Radeon HD 8000, el margen de mejora en consumos será mínimo. En el caso que comente de la GPU Radeon HD 8850 que tiene un TDP de 130 W, lo podrían dejar como mucho en unos 100 W de TDP, ya que esa tecnología estará ya muy optimizada en cuanto al rendimiento por vatio. Si fuera una Radeon HD 7000 si que tendrían más margen de mejora, pero claro al final la terminarían convirtiendo en la practica en una Radeon HD 8000. Salvo que no aumenten rendimiento y quieran simplemente reducir consumo, en ese caso si seria factible dejar el consumo en los 70-80 W que mencionas, pero no alcanzarías los 3 TFLOPS ni de lejos.

Me parece que 100 W de TDP para la GPU de una consola que alcanzaría un rendimiento de 3 TFLOPS, ya es una barbaridad en cuanto a la optimización del consumo. Eso esta más petado de transistores que una patera de kulungueles. [carcajad]

Es una potencia casi 13 veces superior a la GPU de Xbox 360, si a eso le sumamos que la CPU puede ser incluso tres veces más potente que la de Xbox 360, pues nos ponemos en una consola que seria 16 veces más potente que Xbox 360. Con un consumo en términos generales muy cercano a la Xbox 360.

Te añado algo más de información por si queda algo confusa toda esta explicación. [360º]

Mira aquí tienes el análisis de la GeForce GTX 590, veras como no es tan excepcional respecto a la GeForce GTX 580, sobretodo si lo comparamos con la diferencia entre la GeForce GTX 680 y la GeForce GTX 690 (aunque también costaba 230 € menos que la GeForce GTX 690). Es lo que pasa cuando fuerzas a tope la arquitectura, al final el rendimiento por vatio no es tan bueno.

Fermi sudando: http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_590/
Kepler GK104 ligerito: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_690/

Esto mismo va a pasar cuando fuercen Kepler de verdad a tope, algo que se hará con la próxima serie GeForce 700. De hecho el TDP que se espera para la GeForce GTX 790 es de 350 W, otro monstruo al estilo de lo que fue la GeForce GTX 590. Ahí si que van a exprimir a fondo la arquitectura, aun así espero que no sea tan mala como en su día fue la GeForce GTX 590, dado que la arquitectura Kepler ha demostrado ser mejor que Fermi.

Lo que si podrían es pillar una Radeon HD 7850 y dejártela de 130 W a 60 W de TDP máximo. Claro que te quedarías con 1.8 TFLOPS.

Radeon HD 7850: http://www.gpureview.com/radeon-hd-7850-card-678.html

Es que fijate en la Radeon HD 8850, consiguen casi el doble de rendimiento con esos mismos 130 W.

Radeon HD 8000: http://es.wikipedia.org/wiki/Radeon_hd_8000

Estará a la altura en rendimiento de una GeForce GTX 670, pero encima con un rendimiento por vatio superior.

GeForce GTX 670: http://www.gpureview.com/show_cards.php?card1=669&card2=
Especificaciones Radeon HD 8850: http://videocardz.com/34981/amd-radeon-hd-8870-and-hd-8850-specifiation-leaked

Igual de potente que una GeForce GTX 670 y con un consumo de 40 W menos. Casi nada si tenemos en cuenta que la GeForce GTX 670 es una de las mejores graficas de la historia, al menos en cuanto a relación calidad precio, y también por consumo.

Nota 9.7: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_670/33.html

PD: Te habras dado cuenta que la GeForce GTX 690 no es más que un par de GeForce GTX 670 ligeramente más optimizadas. De hecho la GeForce GTX 690 da el rendimiento de un par de GeForce GTX 670 de referencia. La GeForce GTX 670 tiene un TDP de 170 W x2 = 340 W. Casi el mismo TDP que la GeForce GTX 690 (300 W).

SLI GeForce GTX 670: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_670_SLI/10.html
Creo que con la 690 te confundes Tarabas, lo que lleva son 2 chips 680 en SLI, no los de la 670.

Cuando el SLI no funciona rinde como una 680, un pelín por debajo porque me imagino que le habrán reducido un pelín los clocks, pero casi iguales.
En el análisis de anandtech lo dicen, que es la más rápida cuando funciona el SLI y cuando no (aludiendo a que rinde prácticamente como la 680 single)

GTX 690 Stream Processors 2 x 1536

Por lo que te decía que si en una tarjeta que consume 200W le añaden otro nucleo 680 y 2gb de ram y consume solo 100W más, por ahí ronda lo que consumiría la integración en consola como mucho... con una tarjeta de 130 como será la 8850, seguro que es bastante menos.

salu2
oestrimnio escribió:
NosFEndy escribió:
Natsu escribió:Tu juegas poco a con consolas no? por que la oclusión ambiental, la profundidad de campo y tantos otros efectos de postproceso están en las consolas actuales desde hace....años... y no me voy a molestar en enumerarte los juegos que hacen uso de ellos que me tiraría toda la mañana XD XD


Hombre pero no me compares la calidad de esos efectos en los juegos de consola que apenas se notan con los de pc , por que yo llevo jugando con consolas desde 2007 y nunca he notado esos efectos , en las next gen esos efectos se veran como realmente deben verse no como se ven en las chapuzas de ps3 y xbox360.. y a todo eso habra que sumarle 1080p + 60fps + AA , por eso habra juegos que no iran a 60fps sobre todo los mas exigentes , no veo yo a la proxima xbox moviendo el motor de square enix el luminous engine a 1080 y 60fps manteniendo un buen AA etc.. ira a 30fps y gracias y que a mitad de gen no capen los juegos... ya que la tecnologia avanza muy deprisa.. y veremos


La xbox360 es del año 2005, no pretenderás compararla con los efectos que puede crear el hardware de los PCs actuales.
:-|


pues para poner esos efectos a esa calidad... mejor no haber puesto nada , hubiera preferido ganar en frames , AA o resolución..



Dave338:

esque la 680 y la 670 basicamente son la misma tarjeta , solo las diferencia los 192 cuda core que tiene de mas la 680 , y una 670 con overclock de fabrica en algunos casos es mas rapida que la 680 de stock
Dave338 escribió:Creo que con la 690 te confundes Tarabas, lo que lleva son 2 chips 680 en SLI, no los de la 670.

Cuando el SLI no funciona rinde como una 680, un pelín por debajo porque me imagino que le habrán reducido un pelín los clocks, pero casi iguales.
En el análisis de anandtech lo dicen, que es la más rápida cuando funciona el SLI y cuando no (aludiendo a que rinde prácticamente como la 680 single)

GTX 690 Stream Processors 2 x 1536

Por lo que te decía que si en una tarjeta que consume 200W le añaden otro nucleo 680 y 2gb de ram y consume solo 100W más, por ahí ronda lo que consumiría la integración en consola como mucho... con una tarjeta de 130 como será la 8850, seguro que es bastante menos.

salu2


Las tres GPU son muy parecidas puesto que utilizan el GK104. Cuando me refería a que la GeForce GTX 690 equivale a un SLI de GeForce GTX 670 es por el rendimiento que ofrecen ambas. Es cierto que esta basada en la GeForce GTX 680, puesto que al igual que esta tiene 192 cuda cores más que la GeForce GTX 670, pero el reloj de la GeForce GTX 690 funciona a la misma velocidad que el de una GeForce GTX 670. En un aspecto tiene más similitud con la GeForce GTX 680, y en el otro con la GeForce GTX 670.

Pero el rendimiento que ofrece es el mismo que un SLI de GeForce GTX 670, es más si te fijas en el link que te pase en el post anterior (el ultimo), puedes ver que están igualadas en las diversas comparativas. Dan unos FPS clavados, de hecho en algunos videojuegos sale ganando el SLI de GeForce GTX 670, en otros el SLI de GeForce GTX 680, y en otros la GeForce GTX 690.

NVIDIA GeForce GTX 670 SLI is an amazing pixel-crunching solution. Priced at around $800, or 20% cheaper than NVIDIA's Kepler flagship GeForce GTX 690, the solution is found to be just 2% slower. Since the GTX 690 performs near-identical to GTX 680 SLI, the inference carries on: it's just 2% slower while being 20% cheaper. As a result, the two other costlier solutions are smoked in the price/performance equation.


Es decir que el milagro no esta tanto en que la GeForce GTX 690 sea capaz de mover eso con 300 W de TDP, puesto que el SLI de GeForce GTX 670 hace lo propio con 340 W de TDP, y costando la friolera de un 20 % menos. Apenas ganas un 2 % de rendimiento y una rebaja de TDP de 40 W con la GeForce GTX 690. Para más inri las graficas duales tienen muchísimo menos margen de overclocking; te estoy comparando diseños de referencia, pero si nos vamos a una GeForce GTX 670 DirectCU II TOP (20 € más cada una) se mea en la GeForce GTX 690, (10 % más de rendimiento y encima te ahorras pasta). [carcajad]

La que queda muy mal parada es la optimización de la GeForce GTX 680 (es lo que intentaba hacer ver al compararla con la GeForce GTX 670). Por eso para mi no es un buen ejemplo compararla en consumo con la GeForce GTX 690. Al menos no en plan de decir que tiene un TDP de 300 W mientras que el SLI de GeForce GTX 680 se dispara hasta los 390 W de TDP, no me parece literalmente extrapolable.

Donde esta el fallo de la GeForce GTX 680 para que consuma tanto si la comparamos con sus hermanas más próximas. Pues esta en la frecuencia de la GPU, ese aumento de frecuencia que tiene respecto a la GeForce GTX 670 y 690 es lo que la hace tan tragona. Eso si apenas le aporta un mínimo aumento en el rendimiento, sobretodo si comparamos en SLI o Dual. Aun en GPU monocore puedes sacarle un 7 % más de rendimiento (pagando 100 € más). [carcajad]

Frecuencia GTX 670: http://www.nvidia.es/object/geforce-gtx-670-es.html#pdpContent=2
Frecuencia GTX 680: http://www.nvidia.es/object/geforce-gtx-680-es.html#pdpContent=2
Frecuencia GTX 690: http://www.nvidia.es/object/geforce-gtx-690-es.html#pdpContent=2

Ya te digo que no puedes respecto a una GPU que este medianamente optimizada bajarle el TDP en un 50 % como sugieres y mantener el mismo rendimiento. Salvo claro esta en un caso puntual como el que citaste, pero como ya comente en el post anterior. No es el caso de lo que podemos esperar de una Xbox Next con una GPU Radeon HD 8850 o similar.
Tarabas escribió:...
Me parece que 100 W de TDP para la GPU de una consola que alcanzaría un rendimiento de 3 TFLOPS, ya es una barbaridad en cuanto a la optimización del consumo. Eso esta más petado de transistores que una patera de kulungueles. [carcajad]...


Hay rumores que hablan de que la GPU para la futura xbox es el chip más grande creado por AMD, un bicho de más de 450mm2; que por rumores no sea... XD

Soy bastante ignorante en el tema, pero yo apostaría a que la GPU de la futura xbox tendrá caractarísticas a medio camino entre la actual y la siguiente generación, como ya hicieron con la xbox1 y la xbox360. Digo yo que al ser padres de las directX, bien pueden preveer (casi forzar) los pasos inmediatos de la industria.
oestrimnio escribió:
Tarabas escribió:...
Me parece que 100 W de TDP para la GPU de una consola que alcanzaría un rendimiento de 3 TFLOPS, ya es una barbaridad en cuanto a la optimización del consumo. Eso esta más petado de transistores que una patera de kulungueles. [carcajad]...


Hay rumores que hablan de que la GPU para la futura xbox es el chip más grande creado por AMD, un bicho de más de 450mm2; que por rumores no sea... XD

Soy bastante ignorante en el tema, pero yo apostaría a que la GPU de la futura xbox tendrá caractarísticas a medio camino entre la actual y la siguiente generación, como ya hicieron con la xbox1 y la xbox360. Digo yo que al ser padres de las directX, bien pueden preveer (casi forzar) los pasos inmediatos de la industria.



[mad] Si eso es cierto por diox que le metan un buen sistema de refrigeración [mad]
Y yo sigo pensando que estás mezclando churros con merinas. No creo que sea nada comparable las gráficas de PC a lo que luego usen en la xbox, aunque cojan una arquitectura ya existente como punto de partida para crearla.
oestrimnio escribió:Hay rumores que hablan de que la GPU para la futura xbox es el chip más grande creado por AMD, un bicho de más de 450mm2; que por rumores no sea... XD


Por curiosidad, de donde sale ese rumor en concreto? Creo que me lo he perdido...
Natsu escribió:
oestrimnio escribió:
Tarabas escribió:...
Me parece que 100 W de TDP para la GPU de una consola que alcanzaría un rendimiento de 3 TFLOPS, ya es una barbaridad en cuanto a la optimización del consumo. Eso esta más petado de transistores que una patera de kulungueles. [carcajad]...


Hay rumores que hablan de que la GPU para la futura xbox es el chip más grande creado por AMD, un bicho de más de 450mm2; que por rumores no sea... XD

Soy bastante ignorante en el tema, pero yo apostaría a que la GPU de la futura xbox tendrá caractarísticas a medio camino entre la actual y la siguiente generación, como ya hicieron con la xbox1 y la xbox360. Digo yo que al ser padres de las directX, bien pueden preveer (casi forzar) los pasos inmediatos de la industria.



[mad] Si eso es cierto por diox que le metan un buen sistema de refrigeración [mad]


Hombre, supongo que si la frecuencia no es disparatada, el calor se debería "repartir/disipar" bien... es un decir. :-?

No recuerdo muy bien donde lo había leido, pero por aquí dicen algo, pero ojo, es un rumor nada contrastado.
http://opa-ages.com/forums/topic/65545-xbox-3-chip-450-mm2-the-biggest-gpu-amd-ever-made/
Valve: el PC competirá con las próximas consolas cara a cara.

Prevé que diversos fabricantes lancen sistemas con Steam preinstalado.



Gabe Newell, presidente de Valve, cree que, a partir del año que viene, los fabricantes de PC competirán con los de consolas frente a frente, lanzando sistemas que se conectarán a la televisión y que ejecutarán servicios dedicados a videojuegos como Steam.

En declaraciones efectuadas Kotaku durante la ceremonia de los VGA 2012, Newell, tras destacar el gran interés mostrado por los usuarios hacia la iniciativa "Big Picture" de Steam (que permite disfrutar plenamente de este servicio en televisores), afirmó que "en general, pienso que la mayoría de clientes y desarrolladores encontrarán que [un PC] es un escenario mejor para ellos, ya que no tendrán que pensar en '¿por qué están mis amigos en el salón, por qué son las fuentes de vídeo de mi salón diferentes a los de los demás?' En cierto sentido, esperamos unificar esos escenarios." Y añadió que Valve "lo hará pero también otra gente. Ciertamente nuestro hardware consistirá en un escenario muy controlado. Si quieres más flexibilidad, siempre puedes comprarte un PC de uso más general (...) Lo bueno del PC es que gente diferente puede probar soluciones diferentes, y los clientes pueden encontrar aquellas que funcionen mejor para ellos."


Fuente: Meristation


Si esto es cierto, Microchof se tendra que poner las pilas con los precios digitales....
Para mi son buenas noticias, todo lo que sea competencia nos beneficia...

P.D: Muy interesante todo lo que estais hablando sobre consumos y graficas... de lo que se entera uno leyendo estos hilos ;)
Ufff y que lo digas, tanto microsoft como el resto. Valve puede hacer mucho daño.
Mira que os está obsesionando que metan gráficas estilo 7970, procesadores de alta gama etc.. que nooooo que no va a ser el caso!!! Es que no se repite ni por asomo el salto de "128 bit" (ya sabéis, la generación pasada, que si, que se no son 128 bit, no me vengáis con un palo a meterlo en los ojos xd) Antes era el salto de 480P a 1080P (me refiero a las tv) pero ahora no, la resolución va a ser la misma y en una consola ésto ya se puede conseguir con una consola de 250€ con una simple apu, o con algo similar... Van a ir todas a por consumo, a bajos costes, a que perduren los componentes y no se hagan tantos rmas y a ganar dinero desde el primer día. Las costosas inversiones, los inventos tipo Cell y sistemas complejos no se van a ver más.
djohny24 escribió:Mira que os está obsesionando que metan gráficas estilo 7970, procesadores de alta gama etc.. que nooooo que no va a ser el caso!!! Es que no se repite ni por asomo el salto de "128 bit" (ya sabéis, la generación pasada, que si, que se no son 128 bit, no me vengáis con un palo a meterlo en los ojos xd) Antes era el salto de 480P a 1080P (me refiero a las tv) pero ahora no, la resolución va a ser la misma y en una consola ésto ya se puede conseguir con una consola de 250€ con una simple apu, o con algo similar... Van a ir todas a por consumo, a bajos costes, a que perduren los componentes y no se hagan tantos rmas y a ganar dinero desde el primer día. Las costosas inversiones, los inventos tipo Cell y sistemas complejos no se van a ver más.


Pues los datos filtrados/rumores no dicen eso, aunque bueno si tu sabes mas que nosotros informanos...
djohny24 escribió:Mira que os está obsesionando que metan gráficas estilo 7970, procesadores de alta gama etc.. que nooooo que no va a ser el caso!!! Es que no se repite ni por asomo el salto de "128 bit" (ya sabéis, la generación pasada, que si, que se no son 128 bit, no me vengáis con un palo a meterlo en los ojos xd) Antes era el salto de 480P a 1080P (me refiero a las tv) pero ahora no, la resolución va a ser la misma y en una consola ésto ya se puede conseguir con una consola de 250€ con una simple apu, o con algo similar... Van a ir todas a por consumo, a bajos costes, a que perduren los componentes y no se hagan tantos rmas y a ganar dinero desde el primer día. Las costosas inversiones, los inventos tipo Cell y sistemas complejos no se van a ver más.

algo me he perdido del mundo real???

PD: Tu firma ya no vale no? :p
No hace falta ser predicador ni tener informaciones para saber que van a ser conservadores. Los tiempos cambian. Tiempo al tiempo.

P.D Mi firma no es una frase mía, es una frase de esas épicas :P
djohny24 escribió:No hace falta ser predicador ni tener informaciones para saber que van a ser conservadores. Los tiempos cambian. Tiempo al tiempo.

P.D Mi firma no es una frase mía, es una frase de esas épicas :P

Yo tampoco soy predicador, pero ya te digo yo de antemano que de eso NADA...
mas de uno flipará...
solo te diré que se está llevando a cabo una restructuración totalmente nueva para la zona Xbox en el E3
el próximo año ya no dejarán andar como pedro por su casa los dias antes al evento,andar y ver como va quedando el interior de la feria,etc etc...y lo veo normal lo que van a exponer
lo que aun no se sabe es donde se hará la presentación si en el teatro de siempre o en algun lugar especial para ese dia

ya diré algo en cuanto lo sepa [bye]
Mandame un mp para tenerlo reflejado a ver quien tiene razón jajaja

En serio, con una apu rediseñada tendrían el triple de potencia. Y no es ni mucho menos descabellado.
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
Xsato7 escribió:
djohny24 escribió:Mira que os está obsesionando que metan gráficas estilo 7970, procesadores de alta gama etc.. que nooooo que no va a ser el caso!!! Es que no se repite ni por asomo el salto de "128 bit" (ya sabéis, la generación pasada, que si, que se no son 128 bit, no me vengáis con un palo a meterlo en los ojos xd) Antes era el salto de 480P a 1080P (me refiero a las tv) pero ahora no, la resolución va a ser la misma y en una consola ésto ya se puede conseguir con una consola de 250€ con una simple apu, o con algo similar... Van a ir todas a por consumo, a bajos costes, a que perduren los componentes y no se hagan tantos rmas y a ganar dinero desde el primer día. Las costosas inversiones, los inventos tipo Cell y sistemas complejos no se van a ver más.


Pues los datos filtrados/rumores no dicen eso, aunque bueno si tu sabes mas que nosotros informanos...


Sus datos son los de siempre, intentar reducir el chiste llamado wiiu...esto es como el famoso refran "mal de muchos consuelo de tontos", es preocupante lo que muchos quieren que hangan para tener argumentos futuros

La xbox720 era el año pasado a los que nos pasaron info que ya lo dije aqui, unas 10 veces pa gen actual...y asi va a ser

PD: por cierto, siempre apareces cuando dan un toque de atencion o banean a fenix XD
Tu tienes una manía persecutoria conmigo que no te la puedes contener. No estoy aquí ni para promover "wii u" ni nada similar. Me estoy empezando a cansar.

P.D en el spoiler. A ver si los moderadores por fin ponéis de manifiesto vuestra autoridad, que ya va siendo hora de que retoméis el rumbo.

Estoy ya cansado y harto de ver como la gente simplemente se dedica a echar mierda encima de otra gente, voy a borrar mi usuario y participación en éste foro por culpa de gente como ésta. Prefiero perder mis votos positivos, aportaciones y demás y me llevo conmigo lo primeros años que fueron los mejores y los amigos que hice desde entonces. Doy de baja de forma inmediata porque en vista que los reportes y pedidas de respeto no sirven de nada, ójala ésto llegue a más personas.
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
djohny24 escribió:Tu tienes una manía persecutoria conmigo que no te la puedes contener. No estoy aquí ni para promover "wii u" ni nada similar. Me estoy empezando a cansar.

Que no se te olvide, en los DOS unicos hilos que hemos coincidido el perseguidor como dices YA era asiduo a ellos...si dices las mismas cosas que en el otro hilo digo yo que no es raro esperar las mismas respuestas

Me hace gracia que de nuevo los demas estemos obsesionados con cierto tema y los del estandarte de "no se puede, no es viable, todas van a sacar dinero desde dia uno" no esteis obsesionados con eso, entre tu y yo, si una multinacional no gana miles de millones desde el dia uno, me es indiferente

Siento que proclames otra vez tu autoexpulsion, no puedo con el veletismo, si me banean me da igual, eso si que miren IPs y clones anda
Ah que banearon a fenix? Ya decia yo que no se le veia por aqui por demasiado tiempo...

pd, joder de todos los foros


Y no es por nada pero no tiene nada que ver el estilo de escribir de uno y otro, vamos fenix es bastante peculiar, si tuviera un clon cantaria.
indigo_rs está baneado por "saltarse el ban con un clon"
alanwake escribió:
djohny24 escribió:No hace falta ser predicador ni tener informaciones para saber que van a ser conservadores. Los tiempos cambian. Tiempo al tiempo.

P.D Mi firma no es una frase mía, es una frase de esas épicas :P

Yo tampoco soy predicador, pero ya te digo yo de antemano que de eso NADA...
mas de uno flipará...
solo te diré que se está llevando a cabo una restructuración totalmente nueva para la zona Xbox en el E3
el próximo año ya no dejarán andar como pedro por su casa los dias antes al evento,andar y ver como va quedando el interior de la feria,etc etc...y lo veo normal lo que van a exponer
lo que aun no se sabe es donde se hará la presentación si en el teatro de siempre o en algun lugar especial para ese dia

ya diré algo en cuanto lo sepa [bye]


Estaremos a la espera :)
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
http://m.xataka.com/consolas-y-videojue ... los-juegos


Esto es lo que le hace falta a muchos que no terminan de dar el salto a PC
escalibur009 escribió:
Xsato7 escribió:
djohny24 escribió:Mira que os está obsesionando que metan gráficas estilo 7970, procesadores de alta gama etc.. que nooooo que no va a ser el caso!!! Es que no se repite ni por asomo el salto de "128 bit" (ya sabéis, la generación pasada, que si, que se no son 128 bit, no me vengáis con un palo a meterlo en los ojos xd) Antes era el salto de 480P a 1080P (me refiero a las tv) pero ahora no, la resolución va a ser la misma y en una consola ésto ya se puede conseguir con una consola de 250€ con una simple apu, o con algo similar... Van a ir todas a por consumo, a bajos costes, a que perduren los componentes y no se hagan tantos rmas y a ganar dinero desde el primer día. Las costosas inversiones, los inventos tipo Cell y sistemas complejos no se van a ver más.


Pues los datos filtrados/rumores no dicen eso, aunque bueno si tu sabes mas que nosotros informanos...


Sus datos son los de siempre, intentar reducir el chiste llamado wiiu...esto es como el famoso refran "mal de muchos consuelo de tontos", es preocupante lo que muchos quieren que hangan para tener argumentos futuros

La xbox720 era el año pasado a los que nos pasaron info que ya lo dije aqui, unas 10 veces pa gen actual...y asi va a ser

PD: por cierto, siempre apareces cuando dan un toque de atencion o banean a fenix XD


¿No podrias dejar de flamear aunque solo fuese por un dia?

Que manera de joder los hilos con puyas absurdas que no vienen a cuento.
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
Por mp, que veo no me tienes en ignorados como presumias
Tarabas escribió:En el caso que comente de la GPU Radeon HD 8850 que tiene un TDP de 130 W, lo podrían dejar como mucho en unos 100 W de TDP


Casi 3 teraflops por 100W y a un precio que se presume bastante bajo, estaria muy bien.

Si acaban yendo por unas specs mas conservadoras y solo le meten 1,8/2 teraflops (como se decia en aquel documento filtrado), me sentiria muy decepcionado teniendo en cuenta las tarjetas graficas que saldran el año que viene.
escalibur009, si tienes algún problema con algún usuario, lo resuelves, lo ignoras, o te callas. Y te apunto una infracción por andar picando a djohnny24 absurdamente.
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
En fin, que poquito me queda...
Entonces 2 teraflops o acercandose serian muy decepcionantes, ajam. La verdad que si, especialmente si sale a 500€. Si sale a 300€ estara mas que en su precio imagino.

Si no recuerdo mal 2 TF era 360 x8 o algo asi, no?
central98 escribió:Entonces 2 teraflops o acercandose serian muy decepcionantes, ajam. La verdad que si, especialmente si sale a 500€. Si sale a 300€ estara mas que en su precio imagino.

Si no recuerdo mal 2 TF era 360 x8 o algo asi, no?


A mi me da igual el precio, si tienen que sacarla a 600 euros y con ello tiene 3 teraflops o mas, por mi bien. Prefiero que tenga mas potencia para aguantar los 7/10 años de ciclo que no que tiren por algo mas conservador.

2 TF son 8 veces la potencia de la 360, si.
central98 escribió:Entonces 2 teraflops o acercandose serian muy decepcionantes, ajam. La verdad que si, especialmente si sale a 500€. Si sale a 300€ estara mas que en su precio imagino.

Si no recuerdo mal 2 TF era 360 x8 o algo asi, no?


x10
Para mover el samaritan no se necesitaban 3 TFLOPS?.

Y otra para Alanwake: aunque no digas o no puedas contar... Tu sabes lo que va a traer (en potencia), la xbox?. De verdad va a ser puntera.?.
the_god escribió:x10


x8

Para mover el samaritan no se necesitaban 3 TFLOPS?.


No, segun Epic teoricamente se necesitan 2,5 TF, o lo que es lo mismo, 10 veces la potencia de la 360.

Tanto Epic como SquareEnix con sus demos tecnicas le estaban diciendo sutilmente a MS y Sony que quieren consolas con almenos 2,5 teraflops.
Absolute Terror escribió:
the_god escribió:x10


x8

Para mover el samaritan no se necesitaban 3 TFLOPS?.


No, segun Epic teoricamente se necesitan 2,5 TF, o lo que es lo mismo, 10 veces la potencia de la 360.

Tanto Epic como SquareEnix con sus demos tecnicas le estaban diciendo sutilmente a MS y Sony que quieren consolas con almenos 2,5 teraflops.


Es que como la nueva máquina no pueda permitir (por cuestión de potencia) un salto gráfico (y de ideas) por lo menos ajustado a lo visto en samaritan y final fantasy ..., va a decepcionar bastante (al menos a los aficionados).

No se, no me creo que el salto no sea al menos como la gen anterior...
aldeanovitano escribió:Para mover el samaritan no se necesitaban 3 TFLOPS?.

Y otra para Alanwake: aunque no digas o no puedas contar... Tu sabes lo que va a traer (en potencia), la xbox?. De verdad va a ser puntera.?.

ojalá lo supiera [carcajad]
pero lo poco que se es que veremos cambios muy significativos,entre ellos la I.A. a partir de nuevas IP
sobre hard y siendo sincero poco se [hallow] ,pero como dije hace dias no sueltan prenda, y si no sueltan a gente muy ligada a la empresa,ya ni te cuento a mi XD XD XD
Absolute Terror escribió:A mi me da igual el precio, si tienen que sacarla a 600 euros y con ello tiene 3 teraflops o mas, por mi bien. Prefiero que tenga mas potencia para aguantar los 7/10 años de ciclo que no que tiren por algo mas conservador.

2 TF son 8 veces la potencia de la 360, si.

Hombre y por mi, y como si suben de ahi un poco mas aun. Pero ahi ya hablamos de pedirles cosas que no son viables con el mercado por cubrir el sueño de unos pocos. Se exige hasta donde es viable, y esta mas o menos dicho que rondara el x10, y cuadra con que lo que es esperable que es que en su version basica no pase los 400€. Y dudo que de ahi se vaya mucho la cosa.

Eso si, hay que poner las mismas exigencias a todas las compañias.
central98 escribió:
Absolute Terror escribió:A mi me da igual el precio, si tienen que sacarla a 600 euros y con ello tiene 3 teraflops o mas, por mi bien. Prefiero que tenga mas potencia para aguantar los 7/10 años de ciclo que no que tiren por algo mas conservador.

2 TF son 8 veces la potencia de la 360, si.

Hombre y por mi, y como si suben de ahi un poco mas aun. Pero ahi ya hablamos de pedirles cosas que no son viables con el mercado por cubrir el sueño de unos pocos. Se exige hasta donde es viable, y esta mas o menos dicho que rondara el x10, y cuadra con que lo que es esperable que es que en su version basica no pase los 400€. Y dudo que de ahi se vaya mucho la cosa.

Eso si, hay que poner las mismas exigencias a todas las compañias.


El caso es que realmente el año que viene habran tarjetas graficas con 4 teraflops que seran mas baratas de lo que cuesta hoy una GTX 680. Si quisieran podrian tener una potencia similar sin encarecer escandalosamente el precio. Otra cosa es que prefieran tener mayor rentabilidad por cada venta y obten por specs mas modestas.

Lo de tu puya a Wii U final, solo decir que yo exijo potencia a la compañia que quiero, lo que hagan las demas ya es cosa suya.

Y tambien es cosa de los demas las consolas que decidan comprar, preocuparme/mofarme de lo que compren los demas no entra en mis intereses, prefiero preocuparme de ser feliz con mi eleccion.
El diseño general de la nueva xbox tiene que estar cerrado ya hace tiempo. Habra cosas modificables dentro de los componentes ya contratados y diseñados, como velocidades y cantidades, y ya esta. Hablar de tarjetas que salen el año que viene que podrian hacer x es tonteria, porque no van a descartar lo que tengan y lanzar una nueva en 2014 con otro diseño y acuerdos. Eso sin entrar siquiera en la otra discusion de inviabilidades de consumos precios y demas. Osea que eso de si quisieran a la hora de la verdad no tiene nada de si quisieran. Y MS como siempre ha hecho vendera por debajo de coste y apurando el hard/coste al maximo, es poco probable que de repente hagan lo contrario cuando saben lo que se espera de ellos y les ha funcionado bien hasta ahora.

Tu exiges potencia a la compañia que quieres, efectivamente, a unas si fueran x8 es muy decepcionante, y si otras demuestran de momento x0.8 no pasa nada y es valido. De la misma forma que si los demas deciden hacerlo con todas y no solo con las que no son nintendo, pueden hacerlo igual y habra que aguantarse, asi son las cosas. Lo que hagan los demas es cosa suya, pero si lo hacen contra otra me molesto.
He visto una lista de lanzamientos para el próximo año y me parece desolador que para 360 el único exclusivo sea Gears of War Judment. PS3 tenía a ojo hablo unos 7-8 exclusvios y otros tanto para Wii U (lo de esta última es más lógico).

Vaya que la nueva Xbox casi seguro la lanzan en 2013 y PS4 a finales de 2014. Me imagino que estarán centrados de lleno en desarrollar para la próxima consola. No me imagino que llegará 2014 con tan pocos exclusivos para 360 y la nueva sin salir, cada mes que pasará iría en contra de ellos.
Yo creo que llevará una gráfica de esas que habláis de 4 teraflops.

Las compañías habrán mostrado lo que tienen para un futuro en tarjetas gráficas a Microsoft y la Xbox llevará una de ese estilo seguro.

Ya lo hicieron con la 360 y sus shaders unificados y edram.
[plas]
Absolute Terror escribió:El caso es que realmente el año que viene habran tarjetas graficas con 4 teraflops que seran mas baratas de lo que cuesta hoy una GTX 680. Si quisieran podrian tener una potencia similar sin encarecer escandalosamente el precio. Otra cosa es que prefieran tener mayor rentabilidad por cada venta y obten por specs mas modestas.


Un poco más Absolute, salvo que al final decepcionen las series GeForce 700 y Radeon HD 8000 (que no lo harán), lo que podemos esperar esta más próximo a los 5 TFLOPS monocore. En dual seguramente lleguen a los 10 TFLOPS. Deberían salir en el segundo trimestre de 2013, así que antes del verano están aquí.

Lo realmente importante no es solamente la salida de la serie GeForce 700 y Radeon HD 8000. También hay que tener en cuenta que a mediados del 2014 (aproximadamente entre seis a ocho meses después de la salida de Xbox Next), saldrá la serie GeForce 800 (Maxwell) y Radeon HD 9000 (ambas con nueva arquitectura), lo que supondrá uno de los mayores saltos de la historia en cuanto al rendimiento de una GPU. Ya que volverán nuevamente a bajar el proceso de fabricación, esta vez de los 28 nm (actuales), hasta los 20 nm que tendra Maxwell. Así que podrán duplicar el número de transistores que tendrá la GeForce GTX 780, la cual se espera que tenga unos 7 billones de transistores (similar a Big Kepler). Así que de Maxwell podemos esperar más de 14 billones de transistores.

Lo que no se es si darán el salto en dos fases como con Kepler, en plan sacar primero una serie tipo GeForce 600 de gama media, y luego sacar la serie GeForce 700 que es la gama de alto rendimiento con tecnología Kepler. Si lo hacen en dos fases, no veremos el verdadero potencial de Maxwell hasta la serie GeForce 900, la cual saldría a mediados del año 2015.

Imagen

Puedo dar algunos datos en base al roadmap que publico Nvidia hace ya más de un año (es el roadmap actualizado a 2014). Esperan alcanzar una potencia con Maxwell de gama alta monocore de aproximadamente 15 TFLOPS (GeForce GTX 880 o 980), y en dual de 30 TFLOPS (GeForce GTX 890 o 990). Aunque no se si veremos toda esta potencia a mediados de 2014, o si no se vera todo el potencial hasta mediados de 2015 (sacarlo en dos series es más rentable). Yo opino que lo harán en dos fases como con Kepler (tal vez me equivoque), y lo que veremos de Maxwell a mediados de 2014 serán graficas monocore de 7.5 TFLOPS (GeForce GTX 880), y dual de 15 TFLOPS aproximadamente (GeForce GTX 890).

Con lo cual necesitamos unas consolas realmente muy potentes si queremos que el desarrollo multiplataforma aproveche toda esta tecnología puntera que esta a la vuelta de la esquina. Sino la industria evolucionara muy lentamente, y no solo en aspectos gráficos, ya que la potencia también sirve para abrir las puertas a videojuegos innovadores.

No me extraña que se estén frotando las manos en Valve con Steam. [carcajad]

Por si son un poco liosas estas cifras lo pondré en las veces que representa la potencia de la GPU de Xbox 360.

Esto es si sacan Maxwell en dos series como Kepler (lo más probable):

Monocore: GeForce GTX 680 = 13 veces. Dualcore: GeForce GTX 690 = 24 veces. Fecha: Actualmente.
Monocore: GeForce GTX 780 = 20 veces (aproximadamente). Dualcore: GeForce GTX 790 = 38 veces (aproximadamente). Fecha: Segundo trimestre de 2013.
Monocore: GeForce GTX 880 = 31 veces (aproximadamente). Dualcore: GeForce GTX 890 = 60 veces (aproximadamente). Fecha: Tercer trimestre de 2014.
Monocore: GeForce GTX 980 = 62 veces (aproximadamente). Dualcore: GeForce GTX 990 = 120 veces (aproximadamente). Fecha: Segundo trimestre de 2015.

Esto es si sacan Maxwell en una sola serie:

Monocore: GeForce GTX 680 = 13 veces. Dualcore: GeForce GTX 690 = 24 veces. Fecha: Actualmente.
Monocore: GeForce GTX 780 = 20 veces (aproximadamente). Dualcore: GeForce GTX 790 = 38 veces (aproximadamente). Fecha: Segundo trimestre de 2013.
Monocore: GeForce GTX 880 = 62 veces (aproximadamente). Dualcore: GeForce GTX 890 = 120 veces (aproximadamente). Fecha: Tercer trimestre de 2014.

Obviamente los nombres de las series son provisionales (aunque probables), la potencia y las fechas también son bastante fiables. No hay más que ver el roadmap, o leer las filtraciones y los comunicados oficiales.

PD: Por fin llegue a 200 mensajes. [plas] [qmparto]
mucho juego se a pasado de este año al q vienen y poco exclusivo hay( a no ser q saquen algo sin anunciar) pero vamos se nota q ya estan preparandose para la nueva generacion, esta lleva ya mucho tiempo y alargarla tampoco seria bueno para ellos
central98 escribió:El diseño general de la nueva xbox tiene que estar cerrado ya hace tiempo. Habra cosas modificables dentro de los componentes ya contratados y diseñados, como velocidades y cantidades, y ya esta. Hablar de tarjetas que salen el año que viene que podrian hacer x es tonteria, porque no van a descartar lo que tengan y lanzar una nueva en 2014 con otro diseño y acuerdos. Eso sin entrar siquiera en la otra discusion de inviabilidades de consumos precios y demas. Osea que eso de si quisieran a la hora de la verdad no tiene nada de si quisieran. Y MS como siempre ha hecho vendera por debajo de coste y apurando el hard/coste al maximo, es poco probable que de repente hagan lo contrario cuando saben lo que se espera de ellos y les ha funcionado bien hasta ahora.

Tu exiges potencia a la compañia que quieres, efectivamente, a unas si fueran x8 es muy decepcionante, y si otras demuestran de momento x0.8 no pasa nada y es valido. De la misma forma que si los demas deciden hacerlo con todas y no solo con las que no son nintendo, pueden hacerlo igual y habra que aguantarse, asi son las cosas. Lo que hagan los demas es cosa suya, pero si lo hacen contra otra me molesto.


El diseño general nunca esta cerrado hasta que se comienzan a construir las consolas. La Xbox 360 ya sufrio un cambio muy importante a ultima hora, como fue el de doblar la memoria ram.

Y por supuesto cuando una tecnologia se sabe que va a llegar al mercado es porque ya funciona y ya es posible fabricarla, ergo tarjetas graficas que salieran a principios del 2013 seria viable incluirlas en las nuevas consolas que saldrian a finales del mismo año.

Sobre lo otro que dije que tanto te preocupa (a ti y a escalibur) hasta tal punto de retocerlo todo hasta el absurdo para poder seguir soltando puyas, voy a hacer un ultimo inciso (no merece la pena debatir este tema y menos hacerlo en un hilo que no esta creado para tal fin) y ya ignorare cualquier otro tipo de puya o provocacion al respecto. Y lo pongo en spoiler porque probablemente al resto de foreros que vienen a leer noticias o informacion sobre la nueva Xbox les importe un pimiento la obsesion que tengais algunos con la Wii U y por ende conmigo por atreverme a defenderla.

Sobre tu puya, central, primero debes saber que yo no soy un loco de la potencia, porque si lo fuera ni me preocuparia en mirar la potencia que tienen las consolas, ya que por definicion siempre son superadas por el hardware de PC. Pero ni yo lo soy ni tu tampoco lo eres, porque si aplicaramos tu logica en cuanto a la coherencia se refiere, no podria gustarte ninguna consola que no tuviera exactamente la misma potencia que el ordenador mas potente del mercado. Segun tu concepcion, debes pedirle siempre a todo lo mismo, si yo quiero una Ibanez de 8 cuerdas tengo que exigir que las Les Paul tambien tengan 8 cuerdas o de lo contrario estare siendo incoherente. No puede simplemente gustarme que haya diversidad de modelos o sencillamente que mi preferencia en cuanto a la Ibanez sea la de tener 8 cuerdas y que mi preferencia en cuanto a la Xbox sea la de tener cuanta mas potencia mejor, aunque luego pueda coger una Wii U o una PS Vita y disfrutarlo (sin necesidad de pedirles que tengan 3 teraflops de potencia).

El problema de base es que algunos os valis de la potencia como justificacion "objetiva" para criticar a la Wii U, cuando la potencia no es mas que un aspecto de la consola que puede ser importante o no dependiendo del contexto.

Cada cual puede desde su subjetividad, sus preferencias y sus necesidades valorar cada consola como le de la gana, por ello no puedes decir (o si, pero es absurdo) que si quiero que la Xbox nueva sea potente eso significa que no puede darme igual que la Wii U no lo sea, primero porque son dos propuestas diferentes precisamente en buena parte por la potencia distinta que van a tener y segundo porque querer que una consola sea potente no significa querer que el resto de consolas sean clones.

A mi la Wii U de momento no me interesa, pero puede pasar que un dia me interese por comprarla, si ese dia llega y la compro, ten por seguro que no sera por su potencia (si, se puede comprar una consola mirando mas alla de su potencia). Eso es lo bonito del mercado, que tienes diferentes opciones; consolas potentes, ordenadores mucho mas potentes y consolas menos potentes, cada cual tiene donde elegir y todos salimos ganando, excepto algunos que pareceis obsesionados con que haya una consola que sea menos potente y con lo "estafa" que dicha consola constituye. Y sobretodo estais obsesionados con recordarnoslo todos los dias, aunque sea en forma de puyas en hilos que no tienen nada que ver aprovechando el mas minimo comentario para daros pie.

Si quieres puedes seguir con tu cruzada, puedes seguir machacando con lo mismo, buscandole los tres pies al gato, descontextualizando para provocar y poder seguir hablando de tu libro, pero ten en cuenta que si ignoro a escalibur cuando lo hace, tambien te ignorare a ti cuando lo hagas (y no me refiero a ponerte en ignorados, que esa parte escalibur parece no haberla entendido). Aqui se viene a hablar de la nueva Xbox, no hace falta que traigais artificialmente a debate mediante puyitas pseudopersonales a esa consola que tanto odiais y que tanta rabia os da que haya gente que la defienda y que la disfrute.
Como curiosidad (lo que hace el aburrimiento). Si la Xbox Next sale el 28 de Noviembre de 2013, y el cambio generacional no se vuelve a producir hasta 8 años después de su fecha de salida (como paso con Xbox 360), nos pondríamos en el 28 de Noviembre del 2021.

El roadmap de las GPU seguiría evolucionando de esta forma (el nombre de las series las pondré desde Maxwell en orden ascendente). No voy a meter de por medio la variable del grafeno, ni de la molibdenita... Etc. Ya que el silicio no lo van a abandonar hasta llegar al menos a los 8-10 nm. Asumo dos series por cada proceso de fabricación, tal y como se hizo con Fermi, Kepler... Etc. Las veces más potente es respecto a la GPU de Xbox 360. Pese a que la Ley de Moore ya no es tan precisa, la seguiré utilizando.

Monocore: GeForce GTX 1080 = 84 veces (aproximadamente 20 TFLOPS). Dualcore: GeForce GTX 1090 = 160 veces (aproximadamente 38 TFLOPS). Fecha: Segundo trimestre de 2016. Einstein 16 nm.
Monocore: GeForce GTX 1180 = 150 veces (aproximadamente 36 TFLOPS). Dualcore: GeForce GTX 1190 = 290 veces (aproximadamente 70 TFLOPS). Fecha: Tercer trimestre de 2017. Big Einstein 16 nm.
Monocore: GeForce GTX 1280 = 275 veces (aproximadamente 66 TFLOPS). Dualcore: GeForce GTX 1290 = 520 veces (aproximadamente 124 TFLOPS). Fecha: Segundo trimestre de 2018. ??? 12 nm.
Monocore: GeForce GTX 1380 = 500 veces (aproximadamente 120 TFLOPS). Dualcore: GeForce GTX 1390 = 960 veces (aproximadamente 230 TFLOPS). Fecha: Tercer trimestre de 2019. ??? 12 nm.
Monocore: GeForce GTX 1480 = 940 veces (aproximadamente 225 TFLOPS). Dualcore: GeForce GTX 1490 = 1800 veces (aproximadamente 432 TFLOPS). Fecha: Segundo trimestre de 2020. ??? 10 nm.
Monocore: GeForce GTX 1580 = 1720 veces (aproximadamente 412 TFLOPS). Dualcore: GeForce GTX 1590 = 3300 veces (aproximadamente 792 TFLOPS). Fecha: Tercer trimestre de 2021. ??? 10 nm.

La Nueva Xbox 1440 se estrena el 28 de Noviembre de 2021. Vamos a seguir hasta forzar al máximo el límite del silicio convencional.

Monocore: GeForce GTX 1680 = 3175 veces (aproximadamente 762 TFLOPS). Dualcore: GeForce GTX 1690 = 6000 veces (aproximadamente 1440 TFLOPS). Fecha: Segundo trimestre de 2022. ??? 8 nm.
Monocore: GeForce GTX 1780 = 5800 veces (aproximadamente 1392 TFLOPS). Dualcore: GeForce GTX 1790 = 11000 veces (aproximadamente 2640 TFLOPS). Fecha: Tercer trimestre de 2023. ??? 8 nm.

Limite del silicio alcanzado, nos hemos quedado en un máximo de 2640 TFLOPS con una GPU dualcore. Eso es la mitad de la potencia necesaria para alcanzar gráficos fotorealistas, ya que se sitúan en unos 5000 TFLOPS. No será posible con el silicio por tanto alcanzar los gráficos fotorealistas, será necesario algún otro tipo de material. Ese material seguramente termine siendo la molibdenita, ya que según los últimos avances esta resultando un material más adecuado que el grafeno a la hora de fabricar transistores. Aunque sea cual sea el material que utilicen, da la casualidad de que estas estimaciones que estoy haciendo concuerdan con las que hicieron en el MIT y en IBM, así que no deben ir muy desencaminadas. Ya sé que dije que no iba a meter de por medio la variable del silicio ni de la molibdenita, pero quiero seguir hasta llegar a los gráficos fotorealistas, de modo que me retracto. [carcajad]

Adiós al silicio en el 2024: http://alt1040.com/2011/09/grafeno-electronica-2024

Monocore: GeForce GTX 1880 = 10500 veces (aproximadamente 2520 TFLOPS). Dualcore: GeForce GTX 1890 = 20000 veces (aproximadamente 4800 TFLOPS). Fecha: Segundo trimestre de 2024. ??? 4 nm.
Monocore: GeForce GTX 1980 = 19500 veces (aproximadamente 4680 TFLOPS). Dualcore: GeForce GTX 1890 = 36000 veces (aproximadamente 8640 TFLOPS). Fecha: Tercer trimestre de 2025. ??? 4 nm.

Con un overclock moderado ya se alcanzarían los 5000 TFLOPS con una GPU monocore. Así que la tecnología debería permitir en el año 2025 obtener gráficos fotorealistas, tal vez incluso antes, ya que realmente no se puede calcular cual será el salto que se produzca al cambiar el silicio por otro material diferente. Probablemente sea mayor de lo que dice la Ley de Moore.

También concuerdan estas estimaciones que hice con lo que comento Tim Sweeney, que espera que se alcance esta potencia en unos 10 a 15 años, justamente alrededor del año 2025.

Epic Tim Sweeney sobre potencia fotorealista: http://www.chw.net/2012/02/epic-games-los-juegos-foto-realisticos-requeriran-gpus-de-5000-teraflops/
Epic Tim Sweeney sobre fechas del fotorealismo: http://nivel22.com/epic-games-graficos-totalmente-realistas-llegaran-10-o-15-anos/

Si las generaciones consoleras no se alargan tanto como esta ultima, la próxima Xbox Next podría ser la antepenúltima consola antes de alcanzar los gráficos fotorealistas. Ahí se acabaría ya el debate sobre la mejora grafica, ya que alcanzarían el limite. Con lo cual con el tiempo hasta Nintendo tendrá algún día gráficos punteros (que golpe bajo), aunque sea con una generación de retraso, pero también llegaran al fotorealismo. [qmparto]

En una escala seria algo así: Xbox 360 (2005) >>> Xbox 720 (2013) >>> Xbox 1440 (2019) >>> Xbox 1880 (2025) fotorealista.

Después de todo las tradicionales generaciones consoleras solían durar de media 6 años, y no los 8 años que va a durar la actual generación. Ya se llevaron la bronca de las thirds por alargar tanto esta generación, así que no creo que repitan la experiencia, o al menos no deberían hacerlo.
Tarabas escribió:Como curiosidad (lo que hace el aburrimiento). Si la Xbox Next sale el 28 de Noviembre de 2013, y el cambio generacional no se vuelve a producir hasta 8 años después de su fecha de salida (como paso con Xbox 360), nos pondríamos en el 28 de Noviembre del 2021.

El roadmap de las GPU seguiría evolucionando de esta forma (el nombre de las series las pondré desde Maxwell en orden ascendente). No voy a meter de por medio la variable del grafeno, ni de la molibdenita... Etc. Ya que el silicio no lo van a abandonar hasta llegar al menos a los 8-10 nm. Asumo dos series por cada proceso de fabricación, tal y como se hizo con Fermi, Kepler... Etc. Las veces más potente es respecto a la GPU de Xbox 360. Pese a que la Ley de Moore ya no es tan precisa, la seguiré utilizando.

Monocore: GeForce GTX 1080 = 84 veces (aproximadamente 20 TFLOPS). Dualcore: GeForce GTX 1090 = 160 veces (aproximadamente 38 TFLOPS). Fecha: Segundo trimestre de 2016. Einstein 16 nm.
Monocore: GeForce GTX 1180 = 150 veces (aproximadamente 36 TFLOPS). Dualcore: GeForce GTX 1190 = 290 veces (aproximadamente 70 TFLOPS). Fecha: Tercer trimestre de 2017. Big Einstein 16 nm.
Monocore: GeForce GTX 1280 = 275 veces (aproximadamente 66 TFLOPS). Dualcore: GeForce GTX 1290 = 520 veces (aproximadamente 124 TFLOPS). Fecha: Segundo trimestre de 2018. ??? 12 nm.
Monocore: GeForce GTX 1380 = 500 veces (aproximadamente 120 TFLOPS). Dualcore: GeForce GTX 1390 = 960 veces (aproximadamente 230 TFLOPS). Fecha: Tercer trimestre de 2019. ??? 12 nm.
Monocore: GeForce GTX 1480 = 940 veces (aproximadamente 225 TFLOPS). Dualcore: GeForce GTX 1490 = 1800 veces (aproximadamente 432 TFLOPS). Fecha: Segundo trimestre de 2020. ??? 10 nm.
Monocore: GeForce GTX 1580 = 1720 veces (aproximadamente 412 TFLOPS). Dualcore: GeForce GTX 1590 = 3300 veces (aproximadamente 792 TFLOPS). Fecha: Tercer trimestre de 2021. ??? 10 nm.

La Nueva Xbox 1440 se estrena el 28 de Noviembre de 2021. Vamos a seguir hasta forzar al máximo el límite del silicio convencional.

Monocore: GeForce GTX 1680 = 3175 veces (aproximadamente 762 TFLOPS). Dualcore: GeForce GTX 1690 = 6000 veces (aproximadamente 1440 TFLOPS). Fecha: Segundo trimestre de 2022. ??? 8 nm.
Monocore: GeForce GTX 1780 = 5800 veces (aproximadamente 1392 TFLOPS). Dualcore: GeForce GTX 1790 = 11000 veces (aproximadamente 2640 TFLOPS). Fecha: Tercer trimestre de 2023. ??? 8 nm.

Limite del silicio alcanzado, nos hemos quedado en un máximo de 2640 TFLOPS con una GPU dualcore. Eso es la mitad de la potencia necesaria para alcanzar gráficos fotorealistas, ya que se sitúan en unos 5000 TFLOPS. No será posible con el silicio por tanto alcanzar los gráficos fotorealistas, será necesario algún otro tipo de material. Ese material seguramente termine siendo la molibdenita, ya que según los últimos avances esta resultando un material más adecuado que el grafeno a la hora de fabricar transistores. Aunque sea cual sea el material que utilicen, da la casualidad de que estas estimaciones que estoy haciendo concuerdan con las que hicieron en el MIT y en IBM, así que no deben ir muy desencaminadas. Ya sé que dije que no iba a meter de por medio la variable del silicio ni de la molibdenita, pero quiero seguir hasta llegar a los gráficos fotorealistas, de modo que me retracto. [carcajad]

Adiós al silicio en el 2024: http://alt1040.com/2011/09/grafeno-electronica-2024

Monocore: GeForce GTX 1880 = 10500 veces (aproximadamente 2520 TFLOPS). Dualcore: GeForce GTX 1890 = 20000 veces (aproximadamente 4800 TFLOPS). Fecha: Segundo trimestre de 2024. ??? 4 nm.
Monocore: GeForce GTX 1980 = 19500 veces (aproximadamente 4680 TFLOPS). Dualcore: GeForce GTX 1890 = 36000 veces (aproximadamente 8640 TFLOPS). Fecha: Tercer trimestre de 2025. ??? 4 nm.

Con un overclock moderado ya se alcanzarían los 5000 TFLOPS con una GPU monocore. Así que la tecnología debería permitir en el año 2025 obtener gráficos fotorealistas, tal vez incluso antes, ya que realmente no se puede calcular cual será el salto que se produzca al cambiar el silicio por otro material diferente. Probablemente sea mayor de lo que dice la Ley de Moore.

También concuerdan estas estimaciones que hice con lo que comento Tim Sweeney, que espera que se alcance esta potencia en unos 10 a 15 años, justamente alrededor del año 2025.

Epic Tim Sweeney sobre potencia fotorealista: http://www.chw.net/2012/02/epic-games-los-juegos-foto-realisticos-requeriran-gpus-de-5000-teraflops/
Epic Tim Sweeney sobre fechas del fotorealismo: http://nivel22.com/epic-games-graficos-totalmente-realistas-llegaran-10-o-15-anos/

Si las generaciones consoleras no se alargan tanto como esta ultima, la próxima Xbox Next podría ser la antepenúltima consola antes de alcanzar los gráficos fotorealistas. Ahí se acabaría ya el debate sobre la mejora grafica, ya que alcanzarían el limite. Con lo cual con el tiempo hasta Nintendo tendrá algún día gráficos punteros (que golpe bajo), aunque sea con una generación de retraso, pero también llegaran al fotorealismo. [qmparto]

En una escala seria algo así: Xbox 360 (2005) >>> Xbox 720 (2013) >>> Xbox 1440 (2019) >>> Xbox 1880 (2025) fotorealista.

Después de todo las tradicionales generaciones consoleras solían durar de media 6 años, y no los 8 años que va a durar la actual generación. Ya se llevaron la bronca de las thirds por alargar tanto esta generación, así que no creo que repitan la experiencia, o al menos no deberían hacerlo.


Muchos TFLOPS, pero cuantos se aprovecharán de verdad?
Tarabas escribió:Como curiosidad (lo que hace el aburrimiento). Si la Xbox Next sale el 28 de Noviembre de 2013, y el cambio generacional no se vuelve a producir hasta 8 años después de su fecha de salida (como paso con Xbox 360), nos pondríamos en el 28 de Noviembre del 2021.

El roadmap de las GPU seguiría evolucionando de esta forma (el nombre de las series las pondré desde Maxwell en orden ascendente). No voy a meter de por medio la variable del grafeno, ni de la molibdenita... Etc. Ya que el silicio no lo van a abandonar hasta llegar al menos a los 8-10 nm. Asumo dos series por cada proceso de fabricación, tal y como se hizo con Fermi, Kepler... Etc. Las veces más potente es respecto a la GPU de Xbox 360. Pese a que la Ley de Moore ya no es tan precisa, la seguiré utilizando.

Monocore: GeForce GTX 1080 = 84 veces (aproximadamente 20 TFLOPS). Dualcore: GeForce GTX 1090 = 160 veces (aproximadamente 38 TFLOPS). Fecha: Segundo trimestre de 2016. Einstein 16 nm.
Monocore: GeForce GTX 1180 = 150 veces (aproximadamente 36 TFLOPS). Dualcore: GeForce GTX 1190 = 290 veces (aproximadamente 70 TFLOPS). Fecha: Tercer trimestre de 2017. Big Einstein 16 nm.
Monocore: GeForce GTX 1280 = 275 veces (aproximadamente 66 TFLOPS). Dualcore: GeForce GTX 1290 = 520 veces (aproximadamente 124 TFLOPS). Fecha: Segundo trimestre de 2018. ??? 12 nm.
Monocore: GeForce GTX 1380 = 500 veces (aproximadamente 120 TFLOPS). Dualcore: GeForce GTX 1390 = 960 veces (aproximadamente 230 TFLOPS). Fecha: Tercer trimestre de 2019. ??? 12 nm.
Monocore: GeForce GTX 1480 = 940 veces (aproximadamente 225 TFLOPS). Dualcore: GeForce GTX 1490 = 1800 veces (aproximadamente 432 TFLOPS). Fecha: Segundo trimestre de 2020. ??? 10 nm.
Monocore: GeForce GTX 1580 = 1720 veces (aproximadamente 412 TFLOPS). Dualcore: GeForce GTX 1590 = 3300 veces (aproximadamente 792 TFLOPS). Fecha: Tercer trimestre de 2021. ??? 10 nm.

La Nueva Xbox 1440 se estrena el 28 de Noviembre de 2021. Vamos a seguir hasta forzar al máximo el límite del silicio convencional.

Monocore: GeForce GTX 1680 = 3175 veces (aproximadamente 762 TFLOPS). Dualcore: GeForce GTX 1690 = 6000 veces (aproximadamente 1440 TFLOPS). Fecha: Segundo trimestre de 2022. ??? 8 nm.
Monocore: GeForce GTX 1780 = 5800 veces (aproximadamente 1392 TFLOPS). Dualcore: GeForce GTX 1790 = 11000 veces (aproximadamente 2640 TFLOPS). Fecha: Tercer trimestre de 2023. ??? 8 nm.

Limite del silicio alcanzado, nos hemos quedado en un máximo de 2640 TFLOPS con una GPU dualcore. Eso es la mitad de la potencia necesaria para alcanzar gráficos fotorealistas, ya que se sitúan en unos 5000 TFLOPS. No será posible con el silicio por tanto alcanzar los gráficos fotorealistas, será necesario algún otro tipo de material. Ese material seguramente termine siendo la molibdenita, ya que según los últimos avances esta resultando un material más adecuado que el grafeno a la hora de fabricar transistores. Aunque sea cual sea el material que utilicen, da la casualidad de que estas estimaciones que estoy haciendo concuerdan con las que hicieron en el MIT y en IBM, así que no deben ir muy desencaminadas. Ya sé que dije que no iba a meter de por medio la variable del silicio ni de la molibdenita, pero quiero seguir hasta llegar a los gráficos fotorealistas, de modo que me retracto. [carcajad]

Adiós al silicio en el 2024: http://alt1040.com/2011/09/grafeno-electronica-2024

Monocore: GeForce GTX 1880 = 10500 veces (aproximadamente 2520 TFLOPS). Dualcore: GeForce GTX 1890 = 20000 veces (aproximadamente 4800 TFLOPS). Fecha: Segundo trimestre de 2024. ??? 4 nm.
Monocore: GeForce GTX 1980 = 19500 veces (aproximadamente 4680 TFLOPS). Dualcore: GeForce GTX 1890 = 36000 veces (aproximadamente 8640 TFLOPS). Fecha: Tercer trimestre de 2025. ??? 4 nm.

Con un overclock moderado ya se alcanzarían los 5000 TFLOPS con una GPU monocore. Así que la tecnología debería permitir en el año 2025 obtener gráficos fotorealistas, tal vez incluso antes, ya que realmente no se puede calcular cual será el salto que se produzca al cambiar el silicio por otro material diferente. Probablemente sea mayor de lo que dice la Ley de Moore.

También concuerdan estas estimaciones que hice con lo que comento Tim Sweeney, que espera que se alcance esta potencia en unos 10 a 15 años, justamente alrededor del año 2025.

Epic Tim Sweeney sobre potencia fotorealista: http://www.chw.net/2012/02/epic-games-los-juegos-foto-realisticos-requeriran-gpus-de-5000-teraflops/
Epic Tim Sweeney sobre fechas del fotorealismo: http://nivel22.com/epic-games-graficos-totalmente-realistas-llegaran-10-o-15-anos/

Si las generaciones consoleras no se alargan tanto como esta ultima, la próxima Xbox Next podría ser la antepenúltima consola antes de alcanzar los gráficos fotorealistas. Ahí se acabaría ya el debate sobre la mejora grafica, ya que alcanzarían el limite. Con lo cual con el tiempo hasta Nintendo tendrá algún día gráficos punteros (que golpe bajo), aunque sea con una generación de retraso, pero también llegaran al fotorealismo. [qmparto]

En una escala seria algo así: Xbox 360 (2005) >>> Xbox 720 (2013) >>> Xbox 1440 (2019) >>> Xbox 1880 (2025) fotorealista.

Después de todo las tradicionales generaciones consoleras solían durar de media 6 años, y no los 8 años que va a durar la actual generación. Ya se llevaron la bronca de las thirds por alargar tanto esta generación, así que no creo que repitan la experiencia, o al menos no deberían hacerlo.

Muy buen roadmap hasta que has llegado al cambio de silicio a grafeno, el salto que se producirá ahí sera bestial; estamos hablando de que samsung ya consiguio hacwr funcionar un prototipo de procesador basado en grafeno a 100 GHz de los 500 GHz teóricos que se prometieron con la llegada del grafeno, eso supondra un salto nunca visto...

Un saludo ^^
Natsu escribió:100Ghz [mad]

Me equivoque ya van por 300 GHz, http://www.muycomputer.com/2012/05/19/s ... ta-300-ghz

Un saludo ^^
cheyen2008 escribió:
Natsu escribió:100Ghz [mad]

Me equivoque ya van por 300 GHz, http://www.muycomputer.com/2012/05/19/s ... ta-300-ghz

Un saludo ^^


Y cuanto consume esa bestia??
Mamaun escribió:
cheyen2008 escribió:
Natsu escribió:100Ghz [mad]

Me equivoque ya van por 300 GHz, http://www.muycomputer.com/2012/05/19/s ... ta-300-ghz

Un saludo ^^


Y cuanto consume esa bestia??

Ni idea pero son prototipos que tarde o temprano se convertiran en algo comercial así que no creo que mucho...
EDITO: He estado mirando y creo que tus calculos estan mal, el superordenador mas potente del mundo alcanza 1024 teraflops, osea un petaflop, y me estas diciendo que esas gráficas alcanzan 5000 teraflops? Ese superordenador costo 133 millones de dolares... xD Creo que tus calculos estan un poquito mal...
EDITO: El más potente del mundo son 20 petaflops, pero repito esos calculos ojala fuera asi pero me parece muy exgarado....
http://gizmologia.com/2012/10/titan-sup ... ente-mundo
25655 respuestas