› Foros › Multiplataforma › General
Nuhar escribió:Ese gif de lherre de donde es?
Polyteres escribió:colets escribió:Qué bueno lo de los shaders, gracias Polyteres.
Una pregunta, viendo el PDF, sé que es de hace tiempo y da la impresión de que se llevaron el motor de PS3 y se encontraron con algunos problemillas, supongo que también cosa de ser de los primeros en empezar con la nueva consola.
¿A qué se refieren con los spinlocks y que hay que evitarlos?Be nice to the OS thread scheduler and avoid spinlocks
Buenas gente. En el post morten hablan del sistema de planificación de tareas q tiene su motor el cual han portado directamente del de Ps3 pq creen q es el mas adecuado. Usan uno de los núcleos como "jefe de la orquesta" q es el q va repartiendo las distintas tareas en los demas nucleos, uno manda/ordena/organiza y los demás hacen lo q se les dice. Eso lo han mantenido y les da buenos resultados, de hecho, han aumentado el código paralizado para obtener mejor rendimiento del sistema.
En Ps3 se pueden usar spinlocks para sincronización por la propia arquitectura del CellBE, es decir espera activa. Guerrilla dice q no es lo mas adecuado para cualquier sistema multiprocesador y que en este caso hay q evitarlo.
Cuando tienes una tarea/hebra q tiene q bloquearse por algún motivo (tienes un semáforo o está intentando acceder a una sección crítica, o simplemente tiene q esperar por cualquier motivo de sincronización), puedes usar espera activa, esto es, tener dicha hebra en un bucle ocioso, no haciendo nada, tan solo comprobando una condición, ocupando la CPU pero no haciendo trabajo productivo. Esto se hace por ejemplo para tareas en las q es mejor esperar d esta forma antes q llamar al planificador del SO para que bloquee la hebra, la encole, haga cambio de contexto...metes una sobrecarga q a lo mejor es tan alta q es mejor hacer espera activa y tener el procesador parado en vez de montar todo el tinglado pq al final perderás mas tiempo/ciclos.
El CellBE, por su arquitectura, supongo q la mejor solución es usar espera activa en vez de tener q quitar el ejecutable del SPE, salvar el estado (escribir el contenido de la Local Store local en la memoria principal) y meter un nuevo .elf con el código de la nueva tarea, traerte los datos que sean necesarios... Mejor tener el SPE esperando para sincronizarse (mediante mailboxes por ejemplo) con espera activa pq te saldrá mas a cuenta.
Sin embargo en el pdf dice q la planificación de hebras a nivel del SO es muy rápida y q merece la pena usar dicha planificación en vez de hacer espera activa y tener dicho nucleo de CPU parado sin hacer nada.takeda escribió:Un atraco, que parece que sabes de lo que hablas, ¿ves alguna limitación para que a partir del uso de 14 CUs el rendimiento 'para graficos' de las demas CUs que se usen caiga? (esta el debate calentito en GAF sobre esto )
Si está "balanceado" no tiene porqué. Tienes una memoria muy muy rápida que va a surtir de datos a esa GPU tragona, un alto numero de ROPs (de hecho yo creo q tiene de sobra), un diseño equilibrado en su planificación...pq iba un aumento de CUs a significar una ganancia de rendimiento menor al "normal esperado"?.
Otra cosa es q tengas una memoria un poco lenta, q tus ROPs no den a basto para procesar todo lo q le envian tus CUs...y q encima le metas mas CUs... Lo único q harás aumentando el número de CUs será aumentar el numero de ciclos q tienen dichas CUs paradas. Habrá un aumento de rendimiento pero no el esperado. Cuando aumentas algo en una GPU tienes q aumentar todo de forma solidaria para que alguna parte no lastre al resto y hayas hecho una tonteria.
En el caso de XboxOne, quizás un aumento en el número de CUs no suponía un aumento sustancial debido a los cuellos de botella q se crearían pq acabarías saturando la memoria (metes mas TMUs para acceder a texturas al meter mas CUs y ademas tienes 2 CUs mas pidiendo datos) o las ROPs (motivo similar al de antes) por lo q tus CUs estarían paradas esperando y por tanto no habrías hecho nada.
Aumentar la frecuencia de la GPU, aumenta "todo" un poquito. No solo las CUs (puedes hacer mas operaciones) tb aumentas la velocidad a la q procesan tus ROPs por lo q has hecho un aumento "solidario" de todo el conjunto. Como tampoco has aumentado mucho la tasa de relleno de texturas (has subido solo 53Mhz la velocidad, no has aumentado el numero de TMUs), no tendrás un impacto importante en la memoria.
Resumiendo: tener 18 CUs viendo el resto del conjunto no penaliza.
Un saludo.
Muchas gracias Polyteres, creo que ya sé lo que es "spinlock"
Respecto a lo de Ryse: en esta presentación de Autodesk hay bastante "chicha": sólo hablan de Marcus con 150k polígonos. Lo que sí han dicho es que los personajes tienen un rigging muy similar, en un punto también hablan dl numero de joints en la cara según sea el LOD.
Quizá lo más importante de ese vídeo para Crytek, en cuanto a método de trabajo, haya sido el cambio a Maya y el externalizar ciertos recursos.
http://www.youtube.com/watch?v=VYr980beuIQ
lherre escribió:Cyborg_Ninja escribió:lherre escribió:Yo creo que ya hemos visto ese nivel de fidelidad esta generación en cuanto a los modelados y animaciones (sobre todo por parte de quantic dream). Está bien, pero no veo nada que me diga que hay un cambio generacional en ese aspecto.
(no me estoy metiendo con el gameplay ni nada por el estilo solo dando mi opinión sobre esos modelados).
Hombre no se como te ibas a meter con el gameplay si no han enseñado nada.
Sobre lo de los modelados mira pero.. animaciones? de Quantic Dream? si las animaciones de Heavy Rain son normalitas tirando para malas, tanto faciales como las del cuerpo, yo cada vez que veia a Ethan bajar las escaleras me descojonaba, parecia robocop.
Yo a nivel de modelados si lo veo bastante por encima de lo que tenemos actualmente. Sobre todo por el nivel de detalle y el texturizado, pero bueno, opiniones.Nah en serio, estoy perdido o esto es el hilo de next gen de multiplataforma? Se podrá hablar de cualquier juego no? Pues eso. Si no te interesa no hablas de el, y ya se mpezará a hablar de alguno que te guste. Dale tiempo a la mañanita.
El pobre debe soñar conmigo, cada vez que posteo aparece al instante y me salpica con su bilis.
Cuando baja escaleras es parte no jugable?
Si me dices en qué ves superior ese modelado y animaciones a estos te lo agradezco. Ambas real time y no jugables.
, joder si el gif que has puesto se folla a cualquier cosa mostrada en la next gen xD
lherre escribió:Es que yo no he dicho nunca qu esea gameplay, como tampoco lo es el de quantum break.
O yo me pierdo o no entiendo a qué os referís con gameplay, para mi gameplay es todo lo que no sean cutscenes, mi gif es de una cutscene en real time, obviamente no jugable, pero ya digo lo mismo que con quantum break.
Rebunloided escribió:Buenas.
Me he estado mirando los gifs y ambos videos del gameplay de MGSV de PS4 y One y no veo diferencias, no sé qué ojo biónico tiene la gente para decir que "x" chorradilla es mejor en One. Yo los veo calcados.
Lo único que me pegó un bofetón de lo cantoso, y pasa en ambas versiones, es que las sombras de unos árboles aparecieron de la nada.
Eso sí, el gameplay me ha encantado.
tiku escribió:lherre escribió:Es que yo no he dicho nunca qu esea gameplay, como tampoco lo es el de quantum break.
O yo me pierdo o no entiendo a qué os referís con gameplay, para mi gameplay es todo lo que no sean cutscenes, mi gif es de una cutscene en real time, obviamente no jugable, pero ya digo lo mismo que con quantum break.
Yo te he entendido a la primera, mercader, por eso tampoco entiendo que ahora se saque a la Ellen Page en "gameplay" cuando no hablabas de eso xD
lherre escribió:Es que yo no he dicho nunca qu esea gameplay, como tampoco lo es el de quantum break.
O yo me pierdo o no entiendo a qué os referís con gameplay, para mi gameplay es todo lo que no sean cutscenes, mi gif es de una cutscene en real time, obviamente no jugable, pero ya digo lo mismo que con quantum break.
PD: los videos de uncharted están subidos de vueltas, es in-engine pero dopado.
Lo que es una pena es que teniendo blu-ray en ps3 no se curren los videos-custcenes en esta y dejan el mismo video que en 360 que honestamente dan pena de lo comprimidos que están. Ahí tenéis el diablo 3 por ejemplo donde hasta en pc son la misma mierda de video cuando si por algo se distingue blizzard es por las cgi's de caersete los huevos al suelo.
Creo que el único o casi el único donde están los videos sin comprimir es en el FF13 de ps3 (no se si el 13-2 igual).
Artist (NeoGAF) escribió:
Nib95/Artist (NeoGAF) escribió:
Nib95/Artist (NeoGAF) escribió:
Cyborg_Ninja escribió:Yo pienso que Ubi deberia empezar a cortarse un poco con mostrar gameplays vitaminados y luego downgradearlos. Y no, no es culpa del hardware, hablo de esto:
http://www.youtube.com/watch?v=mqnAbRpyqfI
El Far Cry 3 que enseñaron en el E3 fue downgradeado hasta en la version PC. Y a WD le va a pasar exactamente lo mismo.
juan19 escribió:Hago un copy&paste de otro post interesante de Herebus de Hypebeyond.
...............................................
Herebus.
Algun dato interesante de Latencias y Graficas de GAF de Ambas consolas.
En cuanto a la RAM::
Un par de capturas con las cuales cada uno puede hacer sus propias cuentas del consumo extra que supone la RAM de PS4 con respecto a la XBOX One. Pero a priori chips de 4Gbits de DDR3 consumen unos 1.5v y los 4GBits de GDDR5 consumen 1.6v. No veo una diferencia abrumadora, en el calor quizá, aunque tambien lo dudo. En términos de GDDR5 la cosa ha mejorado y bastante de ahí, que muchas tarjetas se esten lanzando a ponerla como sugus ...
Por cierto ya que estamos se puede ver las diferencias de Latencias que se consiguen ya.
GDDR5 con CAS máximos de 22, y DDR3 con CAS máximos de 13 en el caso de 1833Mhz que es de lo que habla la captura de arriba.
No creo que ni PS4 tenga memorias con latencias máximas serán altas pero no máximas porque hablamos de que corre no a 6 o 7GHz sino a 5,5Ghz.
En cambio en este caso Elpida (y recuerdo que actualmente ya es parte de MICRON) y con datos de 2013, fabrica memorias DDR3 certificadas a 1833 Mhz y que tienen latencias de 13s como máximo
Es de suponer que la latencia de la DDR3 de XBOX ONe que corre a 2133Mhz sean por tanto algo mayores.
GRAFICAS (Comparativas) provienen de GAF
GRAFICA 1Artist (NeoGAF) escribió:
En el caso de XBOX One, se ha tomado en cuenta que la GPU siendo como es Bonaire tiene la opcion de tratar 2 Primitivas por Ciclo de Reloj, (eso es lo que indica la columna Roja PRIM RATE). Y se ha tomado como referencia los 140/150GBps de Ancho de Banda de Media que puede dar la eSRAM.
A nivel de computación se ha tomado con valido los datos de 2 ACEs y 8 colas de ejecución. (16 registros de ejecución)
En el caso de PS4, en computacion NO sé si han tomado en cuenta los 8 ACE y 8 colas de ejecucion (64 registros de ejecución).
En ambas consolas y por motivos obvios se salta la columna de Performance dado que no hay Benchmarks.
En cuanto a las conclusiones se puede apreciar como los valores mas interdependientes con el Rendimiento (Performance), son y por orden de mas importantes a menos:
1º Computación
2ºTexturizado,
3ºPixel FillRate / Memory Bandwith
4º Prim Rate.
Grafica 2Nib95/Artist (NeoGAF) escribió:
En esta otra gráfica es igual que al anterior, solo que cambiando el valor del Ancho de Banda de XBOX One, al ancho al pool principal de RAM es decir 68GBps.
Grafica 3Nib95/Artist (NeoGAF) escribió:
Relacion entre el Rendimiento y numero de ALUs o Stream Processors y por tanto al numero de CUs (Compute Units)
Salu2
Rebunloided escribió:Yo lo siento mucho pero Herebus ya no se toma en serio ni él mismo. Le contestan e ignora los hilos tras dejar sus tocho mierdas, se burlan de sus respuestas en otros foros que le conocen...
Peor forero, mejor persona.
Rebunloided escribió:Yo lo siento mucho pero Herebus ya no se toma en serio ni él mismo. Le contestan e ignora los hilos tras dejar sus tocho mierdas, se burlan de sus respuestas en otros foros que le conocen...
Peor forero, mejor persona.
A cada video que pasa empeora.
Por cierto, le han cambiado la cara al protagonista con respecto a los primeros videos.
Rebunloided escribió:chorizito escribió:Rebunloided escribió:Yo lo siento mucho pero Herebus ya no se toma en serio ni él mismo. Le contestan e ignora los hilos tras dejar sus tocho mierdas, se burlan de sus respuestas en otros foros que le conocen...
Peor forero, mejor persona.
No hay nada mejor que desacreditar a alguien que intenta explicar las cosas para los demas, segun datos oficiales dados por la propia MS, en cambio, idolatrais a la gente que crea conspiraciones judeomasonicas con datos de misterxmedia por que fomentan la doble GPU, etc etc.
esta curiosa la cosa
Habló de putas la tacones.
Creo que lo de idolatrar no soy yo quien lo hace
chorizito escribió:
Me la bufa considerablemente que utilices una frase hecha pero ni yo te he dicho nada ni merezco que se insinue que soy una puta, report y corriendo
Nuhar escribió:Por favor, eh, seamos todos serios.
A mixtermedia no le da credibilidad nadie, ni el mismo creo que se la dé. No generalizeis con tal de intentar tener la razón.
Si alguien lo ha hecho responderle a nivel personal.
Herebus como tantos otros toma los datos que le interesan para contrastar información, eso es así pese a quien le pese. Esto no quita para que ps4 sea mas potente que la Xbox one, simplemente que al igual que se rebate cosas "positivas" de xbox one tambien se puede rebatir las "negativas".
Yo como no puedo rebatir me callo y espero a que los juegos digan la verdad o sino un benchmark en condiciones, no sobre especulaciones de hardware de pc.
seguramente ni has leido el post , prefieres entrar y , soltar tu bilis y ensuciar el foro con ellla.
juan19 escribió:Hago un copy&paste de otro post interesante de Herebus de Hypebeyond.
...............................................
Herebus.
Algun dato interesante de Latencias y Graficas de GAF de Ambas consolas.
En cuanto a la RAM::
Un par de capturas con las cuales cada uno puede hacer sus propias cuentas del consumo extra que supone la RAM de PS4 con respecto a la XBOX One. Pero a priori chips de 4Gbits de DDR3 consumen unos 1.5v y los 4GBits de GDDR5 consumen 1.6v. No veo una diferencia abrumadora, en el calor quizá, aunque tambien lo dudo. En términos de GDDR5 la cosa ha mejorado y bastante de ahí, que muchas tarjetas se esten lanzando a ponerla como sugus ...
Cyborg_Ninja escribió:No hay que generalizar. Yo no me creo nada por ejemplo de Misterxflipado ni creo en gpus dedicadas ni crossfires ni nada por el estilo, pero eso no va a invalidar que Herebus es un fanboy de mucho cuidado. En los tiempos de PS360 intentaba vender la moto con tochos infinitos de que PS3 seria ampliamente superior a X360 y esta era una Xbox 1.5.
Rumor que haya salido positivo de PS4 aun en fuentes discutibles se las a creido tal cual, tocho inside aunque luego se hayan desmentido, rumor negativo de One si que era altisimamente creible como el tema del downclock de la GPU y segun el era practicamente imposible que hicieran un overclock, rumor positivo de One (precisamente el de las frecuencias) rebuscaba lo que pudiera para invalidarlo. En resumen,
Por ejemplo en un hilo reciente en el que se confirmaba el upclock de la CPU a 1,75 Ghz hizo el damage control mas bestia en años, intentando dar explicaciones que nadie se creia de que esa ventaja del 10% de la CPU era lo mismo que nada, hace poco tambien hizo una intervencion muy simpatica en un hilo de Ryse haciendo un ridiculo tremendo poniendo imagenes de Beyond a resoluciones estratosfericas y bullshots descaradas diciendo que son "ingame direct feed", y en los post en si se veia una bilis que daba hasta verguenza ajena por que la gente alababa el modelado de Ryse.
Herebus no se va a cortar en inventar, tergiversar, omitir y manipular la informacion para tener la "mejor situacion" para cualquier consola Playstation. Pero claro, habla con terminos "tecnicos", pone imagenes de GPUs de AMD de Google y con eso es suficiente aunque diga sandeces para dar y tomar.seguramente ni has leido el post , prefieres entrar y , soltar tu bilis y ensuciar el foro con ellla.
Tu no eres el mas indicado para hablar de bilis campeon. Que esto si que se llama ver la paja en el ojo ajeno y no la viga en el propio. Me he fijado que es muy frecuente que insinues a los demas fanatismos y bilis pero me parece que no te das cuenta de que eres peor que muchos.
Y la muestra de ello es bien simple. Alguien se mete con X forero de GAF que diga lo que quieres oir o el propio Herebus y sacas las uñas en el acto. Si algo me hace gracia es foreros como tu que no tienen mucha idea pero ven a alguno hablando en plan "techie" aunque sea un fanatico descarado pero como habla bien de su compañia favorita pues...
silenius escribió:juan19 escribió:Hago un copy&paste de otro post interesante de Herebus de Hypebeyond.
...............................................
Herebus.
Algun dato interesante de Latencias y Graficas de GAF de Ambas consolas.
En cuanto a la RAM::
Un par de capturas con las cuales cada uno puede hacer sus propias cuentas del consumo extra que supone la RAM de PS4 con respecto a la XBOX One. Pero a priori chips de 4Gbits de DDR3 consumen unos 1.5v y los 4GBits de GDDR5 consumen 1.6v. No veo una diferencia abrumadora, en el calor quizá, aunque tambien lo dudo. En términos de GDDR5 la cosa ha mejorado y bastante de ahí, que muchas tarjetas se esten lanzando a ponerla como sugus ...
Desde cuando voltaje es consumo? La diferencia de consumo entre DDR3 y GDDR5 es grande (no sabria decirte cuanto, recuerdo haber visto en Beyond3d lo que consumia algunos modulos) pero no es algo abismal.
lherre escribió:Los 133 GB/s que el ingeniero de MS asegura como "real world numbers" son conseguidos bajo una operación muy específica, no en general.
"in real-life scenarios it's believed that 133GB/s throughput has been achieved with alpha transparency blending operations (FP16 x4)."
Nuhar escribió:Por favor, eh, seamos todos serios.
A mixtermedia no le da credibilidad nadie, ni el mismo creo que se la dé. No generalizeis con tal de intentar tener la razón.
Si alguien lo ha hecho responderle a nivel personal.
Herebus como tantos otros toma los datos que le interesan para contrastar información, eso es así pese a quien le pese. Esto no quita para que ps4 sea mas potente que la Xbox one, simplemente que al igual que se rebate cosas "positivas" de xbox one tambien se puede rebatir las "negativas".
Yo como no puedo rebatir me callo y espero a que los juegos digan la verdad o sino un benchmark en condiciones, no sobre especulaciones de hardware de pc.
lherre escribió:Simplemente respondía a eloskuro.
Este es el quote exacto del ingeniero:"in real-life scenarios it's believed that 133GB/s throughput has been achieved with alpha transparency blending operations (FP16 x4)."
Creo que hay poco más que añadir que no se sepa de antes. Ps4 es más potente sobre el papel y en números reales. Hay poco que debatir sinceramente. Simplemente MS detalla sus datos algo más su modelo y como Kinect es algo clave en cómo se ha pensado la arquitectura de la consola.
"The same discussion with ESRAM as well - the 204GB/s number that was presented at Hot Chips is taking known limitations of the logic around the ESRAM into account. You can't sustain writes for absolutely every single cycle. The writes is known to insert a bubble [a dead cycle] occasionally... one out of every eight cycles is a bubble so that's how you get the combined 204GB/s as the raw peak that we can really achieve over the ESRAM. And then if you say what can you achieve out of an application - we've measured about 140-150GB/s for ESRAM.
"That's real code running. That's not some diagnostic or some simulation case or something like that. That is real code that is running at that bandwidth. You can add that to the external memory and say that that probably achieves in similar conditions 50-55GB/s and add those two together you're getting in the order of 200GB/s across the main memory and internally."
colets escribió:Nuhar escribió:Por favor, eh, seamos todos serios.
A mixtermedia no le da credibilidad nadie, ni el mismo creo que se la dé. No generalizeis con tal de intentar tener la razón.
Si alguien lo ha hecho responderle a nivel personal.
Herebus como tantos otros toma los datos que le interesan para contrastar información, eso es así pese a quien le pese. Esto no quita para que ps4 sea mas potente que la Xbox one, simplemente que al igual que se rebate cosas "positivas" de xbox one tambien se puede rebatir las "negativas".
Yo como no puedo rebatir me callo y espero a que los juegos digan la verdad o sino un benchmark en condiciones, no sobre especulaciones de hardware de pc.
Hombre nadie, nadie...Echa un vistazo a las últimas páginas del hilo de One: vuelven a salir a la palestra las teorías del susodicho. Incluyendo segunda GPU, arquitectura Hawaii, los shaders que usa killzone y sacar de ahí la cuenta de CUs aprovechables, etc. Y ha habido usuarios que lo dan como información veraz y confirmada. Aunque es cierto, son bastante menos que los que se lo toman como una fuente de rumor y diversión.
Si incluso ha vuelto a salir el "voy a escalar imágenes de chips como me sale del cimbrel"
Pero vamos, como cualquier información que salga en foros: pasa al cajón de "ya veremos" y si hay confirmación oficial, pues era verdad o no. Aunque últimamente ya no está el tema ni para fiarte de las noticias con fuente de las propias compañías...
lo digo a ojo por los juegos mas que nada.
Shuhei Yoshida, el presidente de Sony Computer Entertainment Worldwide Studios, ha hablado con los aficionados a través de su propio Twitter para contestar a las dudas sobre algunas incidencias que se habían registrado en las demostraciones públicas de PlayStation 4 llevadas a cabo dentro de sus conferencias.
En el caso del cuelgue de Assassin's Creed IV: Black Flag durante el E3, declaró lo siguiente: "Se trató de que tanto el sistema como el videojuego estaban en desarrollo, y no testeados a fondo", comentó Yoshida.
En el del Tokyo Game Show, por su parte, hubo una demostración en la que faltó respuesta en un momento con el mando de la propia PlayStation 4, lo que el ejecutivo atribuye a "interferencias wireless en la platea".
El vicepresidente corporativo de Microsoft, Phil Spencer, no cree que haya tiempo suficiente para que un estudio indie ponga alguno de sus títulos en Xbox One en el momento del lanzamiento de la consola.
Microsoft ha recibido cientos de aplicaciones para participar en el llamado programa Independent Developers Xbox, mediante el cual los estudios indie aceptados recibirán dos kits de desarrollo gratuitos para Xbox One. Sin embargo, no hay tiempo material suficiente para que alguno de estos estudios tengan preparado un juego para el lanzamiento de la consola.
"No creo que sea realista ver a desarrolladores entrar a este programa, hacer un juego y que lo acaben lanzando el 22 de noviembre. Es razonable esperar a primeros de 2014 para ver llegar los primeros juegos", explica.
Desde la compañía creen que cuentan con una línea de títulos de lanzamiento muy llamativa como Dead Rising 3, Assassin´s Creed IV o Call of Duty: Ghosts.
Cyborg_Ninja escribió:Eso lo pone en el analisis de DF lherre? es que o estoy cegato o no lo leo. Esto es lo que he leido:"The same discussion with ESRAM as well - the 204GB/s number that was presented at Hot Chips is taking known limitations of the logic around the ESRAM into account. You can't sustain writes for absolutely every single cycle. The writes is known to insert a bubble [a dead cycle] occasionally... one out of every eight cycles is a bubble so that's how you get the combined 204GB/s as the raw peak that we can really achieve over the ESRAM. And then if you say what can you achieve out of an application - we've measured about 140-150GB/s for ESRAM.
"That's real code running. That's not some diagnostic or some simulation case or something like that. That is real code that is running at that bandwidth. You can add that to the external memory and say that that probably achieves in similar conditions 50-55GB/s and add those two together you're getting in the order of 200GB/s across the main memory and internally."
No estoy diciendo que mientas ni mucho menos pero es en este a lo que te refieres?
Rebunloided escribió:Yo lo siento mucho pero Herebus ya no se toma en serio ni él mismo. Le contestan e ignora los hilos tras dejar sus tocho mierdas, se burlan de sus respuestas en otros foros que le conocen...
Peor forero, mejor persona.
Edito para ampliar aún más mi respuesta, y es que desde que en Junio empezara a poner sus habituales tochos sobre la next gen, ha llegado a contradecirse unas cuantas veces, algún que otro forero hasta se lo ha recordado, pero él ya ni aparece.