A que se parece mas un procesador de x360 (a que se asemeja mas)

No es cuestión de convencer, hombre, aqui solo estamos dando nuestros distintos puntos de vista y datos.

Solo decirte un par de cosas, cuanto más grande, más lento. Impepinable.

No hay bus entre la caché y el microP propiamente dicho... la caché está en la propia area de integración (integrada); los buses a caché ya están obsoletos, y de ahí es porque dan tanto rendimiento, en vez de buscar la info a las memos, se ahorra un buen paseito y la tiene justo al lado.

Es normal que cada SPE tenga su propia caché L1, y la L2 sea compartida para todos, puesto que esto es lo que se viene haciendo desde que se comenzó la tecnología MultiCore.

Como dato curioso al que inició el post, que comentaba haber leido que iba en realidad a 9.6 Ghz... Intel ha anunciado el primer chip con 80 cores... quiere esto decir que si el microP corre a 3Ghz, tendremos en total ... 240 Ghz ??
me referia al bus de la grafica, entre el procesador grafico y la memoria de esta. El bus entre cache y nucleo, existia con la L2, porque montaban a esta fuera del procesador.
Y tienes razon cuanto mas grande mas lento (pasa por no leer jeje), pero el mega de cache de la 360 como esta repartido?? porque la de nivel 2 siempre tiende a ser mas grande que la de nivel 1, por lo que tu dices de la velocidad. de todas formas que la de nivel dos sea mas grande creo k no es malo, al contrario. en la de nivel 1 seguramente si.
zodak escribió:me referia al bus de la grafica, entre el procesador grafico y la memoria de esta. El bus entre cache y micro antes existia con la de nivel 2, porque montaban fuera del procesador.
Y tienes razon cuanto mas grande mas lento (pasa por no leer jeje), pero el mega de cache de la 360 como esta repartido?? porque la de nivel 2 siempre tiende a ser mas grande que la de nivel 1, por lo que tu dices de la velocidad. de todas formas que la de nivel dos sea mas grande creo k no es malo, al contrario. en la de nivel 1 seguramente si.


El mega de caché se lo reparten entre los 3 cores y la GPU, que puede leer y escribir directamente en la caché (MEMEXREPORT). Divide y ya lo tirnes [looco]
se van aclarando las cosas, pero ahora me gustaria saber algo de la GPU, tengo entendido que tiene 10 MB de memoria eDram, se que es una memoria de apoyo, pero para que sirve? porque al parecer se puede prescindir de ella
Denbrough escribió:se van aclarando las cosas, pero ahora me gustaria saber algo de la GPU, tengo entendido que tiene 10 MB de memoria eDram, se que es una memoria de apoyo, pero para que sirve? porque al parecer se puede prescindir de ella


Resumiendo todo muy escuetamente, lo que hace es ahorrar un ancho de banda bestial, permitiendo con ese ahorro utilizar otros efectos.
Lástima que nadie a día de hoy sepa usar el tilling correctamente para la aplicación del MSAA.
Actualmente existen dos tipos principales de memoria: SRAM (Static RAM) y DRAM (Dinamic RAM), a diferencia de las segundas, las primeras son más voluminosas y se emplean con frecuencia en el interior de los procesadores.

Las eDRAM (Embedded Dynamic Random Access Memory) es una combinación de ambas, que adopta la velocidad de las SRAM y el tamaño compacto de las DRAM .
Intel como siempre serán los primeros en preparar sus servidores con dichas memorias estimados para el 2008.
"pixmedial.net"
no se para que sirve pero la llevan casi todas las consolas (ps2, gamecube...).
entonces en pc no se usan todavia no?
creo que Ps3 no lleva eDram por eso he dicho que "al parecer se puede prescindir de ella" supongo que no llevara por el tema del Cell quizas o no se
http://es.wikipedia.org/wiki/Ps3#Especificaciones
o por lo menos no lo he visto aqui, seguire indagando en el tema haber si me entero bien que es la eDram

EDIT: En todos mis posts parece que este poniendo 360 por encima de Ps3 es un error que entiendo por la manera en que lo he escrito pero no es asi, solo quiero estar informado por que me encantan estos temas y me gusta mucho. No creo que nadie se aya sentido ofendido.
Si no recuerdo mal cuando salio la 360 lo de la memoria embedida era una revolucion por parte de Ati, deecho siempre ha sido un punto a favor para los que dicen que 360 es mas potente q PS3.
PaVoLo escribió:Como dato curioso al que inició el post, que comentaba haber leido que iba en realidad a 9.6 Ghz... Intel ha anunciado el primer chip con 80 cores... quiere esto decir que si el microP corre a 3Ghz, tendremos en total ... 240 Ghz ??


El creador del post, osea yo, no cree eso de los multicore, comento que este post es una rama que salio de otro post que fue cerrado (era otra tematica) y doy las 3 posturas que se dieron, no estoy deacuerdo con eso de 3,2Ghzx 3 = a 9,6Ghz. Sin mas comentarlo,

La cosa va gustando mucho, el tema de procesadores mas o menos ya esta quedando claro entre opiniones de unos y rebatidas de otros.

Me gustaria seguir el tema, pero ampliandolo tambien a las grafica, que pensais de la grafica de x360, esas instruccionesque se supone sn desconocidas, creeis que son futuras intrucciones para una posible actualizacion a direct x 10?

Sobre la ps3, que pensais de su gafica (personalmente me parecio una chapucilla querer hacer unas graficas con chips cell, y estas no fueron aceptadas por la gan mayoria de programadores, llamar a envidia, y meterle una 7800 mejorada algo.

No se, seguir el hilo de procesador relacionadolo con grafica... estaria bien, que opinion os da, que creeis?

Una cosita mas, se comenta por este hilo, que ps2 o las consolas de la anterior generacion, se apollan mas en graficas que en proceaadores... No estoy eacuerdo con eso, o no coincide con lo que hasta el moneto e leido, en el caso de xbox bien, game cube vale, pero ps2.... la grafica de ps2 desde el momento de su salida dejo mucho que deser, efectos grficos o mejoras como el antialising que se llevavan usando en pc desde hace algun tiempo esta grafica no era capaz de renderizarlos (aceptablmente rapido), creo que la magia de las consolas a sido y sera el sistema cerrado, tienes una consola limitada, con sus recursos, exprimiras un hardware que puede ser una puta mierda, al 100% dando unos resultados que con pc-s 3 veces mas potentes nunca veras, el pc es dinamico, que el juego pide mucho, lo optimizamos???, no, que le meta el usuario mas ram, o unagrafica o procesador nuevos.

Es una cosa a tener en cuenta en las consolas y en su potencia y rendimiento,m las ganas de exprimir el hardware de los programadores.
yo hasta que no vea el direct x10 en la 360 no me lo creo, ya que el procesador de la grafica, el R500, se monta en graficas ati de pc que son esclusivas del direct x 9. todavia ninguna grafica que yo sepa soporta dx10. Yo la cambie el otro dia, y me trae el R580+ (es la X1950XT 512) que en teoria es superior al de la 360 y mas moderno, y tampoco voy a poder meterle el dx10 cuando salga... creo que nos va a tocar gastar duros para ver correr el dx10. :-( saludos
y es verdad que la velocidad de cada nucleo no se suma asi directamente, aunk en rendimiento real a plena carga podria ser casi equivalente (casi).
Yo pondría la mano en el fuego diciendo que microsoft va a sacar una versión DX10 para 360; y podréis instalar DX10 tranquilamente para correrlo, otra cosa es que lo aprovecheis con vuestras gráficas de ahora. El problema de DX es que da unas instrucciones que las gráficas que vayan saliendo deben soportar por hardware para ir a pleno rendimiento, si no la soportan deben emularlas para aprovecharlas, pero con pérdidas en el rendimiento.
Pero que pasa si solo destinamos DX10 a una sola gráfica (digamos, el sentido contrario)? Pues que en vez de decir "que las gráficas se adapten a DX10", diríamos "que DX10 se adapte a la gráfica". Consecuencia: yo creo que tendremos un DX10 360 edition que vendrá con alguna actualización.

Zodak, un programa dividido en tantos threads como cores, bien hecho y tal, se puede lograr un aumento del rendimiento de un 90%, te lo digo desde la experiencia y comparándolo con HyperThreading (que logra a pleno pulmón un 30%) y con un DualCore. A lo mejor al haber tantos cores se baja algo el %, pero no deja de ser algo bastante sustancial (siempre que se programe bien claro).
Buenas...

Haber si os puedo hechar una mano (que tal vez me falte, XD, por que no tengo ni idea).

Por lo que tengo entendido, la eDram es una placa de memoria enganchada a la tarjeta grafica que le permite hacer efectos de postprocesado, sin tener que pasarlos por la targeta grafica o por el procesador. Para poder aprovecharla necesitas tener el juego estructurado para esa plataforma en concreto. En Gears Of War con el UE 3.0 modificado (Gemini) no se podian usar efectos de postprocesado por que no tenia integrado el Tilling (como han comentado unos posts mas atras) y al intentar utilizar la eDram sin eso, provocaba errores. Teoricamente si tienes un motor que utilize tilling y eDRAM<="eDRAM die includes additional logic for color, alpha blending, Z/stencil buffering, and anti-aliasing" Sacado de Wikipedia [ingles], los costes de Z-Buffering+Alpha Blending+4xFSAA (FullScreen Anti-Aliasing) serian bajisimos, dejando a la tarjeta grafica y al procesador libre de esa carga, y pudiendo aprovechar ese extra en fisica/ia/cualquier otra cosa que pueda necesitarlo . Falta ademas, añadirle el soporte de Shaders Unificados que tiene X360(que entran en DX10) que la grafica de PS3 no soporta, teniendo la primera 48 pipelines de proposito general (pueden ser pixel/vertex shaders) y PS3 tiene 24 pixel pipelines y 8 vertex pipelines.
Un apunte -> El Tilling lo que hace es dividir la pantalla en pedazos pequeños, y aplicarles postprocesados (que es para lo que esta la eDRAM). En fin, que una cosa y la otra estan complementados.

Luego lo que comentabais de que Cell es mas potente que Xenon para física y IA. Existen modelos actuales tanto de Ati como de Nvidia en asociacion con Havok/PhysX para poder utilizar motores de física gestionados por potencia sobrante de tarjeta grafica con apoyo del procesador. Si esto ultimo se aplica a ambas plataformas pueden tener un apoyo extra moviendo "situaciones complicadas" (aunque ahora mismo no veamos nada especialmente fuerte en ese sentido).

Sobre la potencia, si mal no recuerdo el procesador de PS3 son un Procesador principal (PPE, Power Processing Element) y 7 esclavos (SPE, Synergistic Processing Elements), (el octavo no se utiliza, esta en caso de que alguno de los demas no funcionase) yendo a 3,2 Gh'z el conjunto (ademas es asimetrico el procesador), en X360 son 3 cores simetricos cada uno a 3,2 GH'z, funcionando en paralelo. Uno de ellos tiene control sobre el dashboard (que en X360 funciona todo el tiempo detras del juego, por la guia y tal). Mencionar que se pierde tambien una parte de potencia por que ninguna de las dos tiene hardware de sonido, si no que lo hacen por software en ambos casos.

En cuestiones de memoria utilizada por el dashboard en ambas consolas, podeis mirar este texto: Texto sobre memoria RAM reservada para subprocesos. Me gustaria poner esto en contexto, si, la fuente es un trabajador de microsoft, pero el blog es propio, no de microsoft. Ademas, si os dignais a leer el texto, no se le presupone una inclinacion personal a joder a Sony o su PS3. Extraer del texto que el sistema operativo de X360 ocupa unos 32 MB de RAM para funcionar, el de PS3 ronda sobre los 60-70MB.

Mas cosas, la RAM de PS3 ya sabeis que es mas rapida que la de X360 (256X.DR/256GDDR3 vs GDDR3). El problema (que desconozco, me muevo por suposiciones) que encuentran es los cuellos de botella que los Buses puedan provocar. Otro factor añadido es que en X360 la grafica/procesador puede disponer de toda la RAM si es necesario, mientras que en PS3 la cosa queda dividida en 256/256, pero me parecio haber leido que existia una manera de hacer esa division mas flexible, pero en fin, que ni puedo justificarlo ni puedo afirmarlo, ¬_¬. (Sobre esto ultimo, leyendo el texto que he enlazado antes, parece ser que hay 256 reservados a la grafica, y los otros 256 quedan para al procesador, pero en caso de que sea necesario el RSX (la grafica de PS3) puede acceder a toda la memoria RAM).

Bueno, os dejo el ladrillo, espero no haberla liado mucho (ni haber liado a nadie con mis lios,xD). [+risas] .

Salu2...

PD: Pavolo, a lo que te refieres es que es posible que exista una API de DX10 modificada para que funcionase (al menos de manera parcial, o en todo caso emulada) sobre X360? Tengo entendido que no entra en las especificaciones de DX10 la targeta grafica de la X360 (al menos de manera parcial), pero si lo que dices puede valer, se emulan las funciones que queden fuera (o se modifican...) y a tirar millas...
solo el RSS tiene acceso a toda la Ram el Cell solo tiene acceso a sus 256MB el proble radica en que las velocidades son diferentes
Buenas...

Aps, xD. Vale, ya me he aclarado de algo al menos,XD. Voy a modificar el post anterior.

Salu2...

ED: [Despues de haber leido el post de debajo a este] A pues la verdad es que estaria muy bien si MS sacase ventaja de eso. Pero tal vez suponga un impedimento de cara a los programadores, no se si me explico. Si tienes un estandar como el DirectX lo ideal seria ceñirse a el, pero lo que estabamos comentando sera hacer modificaciones al API, de manera que si los programadores quisieran hacer la misma cosa en PC y en X360, deberian aprender dos maneras de hacerlo, y por eso digo que tal vez suponga un impedimento.

ED2: Pensandolo friamente, si MS hiciese esas modificaciones, sabiendo a priori que la estructura de la tarjeta grafica que lleva la X360 se estandarizase (shaders unificados y tal) podria sacar aun mas ventaja, por que tal vez ganarian rendimiento las tarjetas graficas de sobremesa y ademas los programadores tendrian dos vias para hacer lo mismo (segun la potencia de la tarjeta montada...)... En fin, que me estoy haciendo ollas solo,xD.
The Ninja:

efectivamente, el API se podría modificar bien parcial o totalmente para que fuese exclusivo de 360(sólo para una tarjeta, solo habría que modificar el cuerpo de los PROC/FUNC; no crees?):
por qué no habría que hacerlo?? Estando ya todo el trabajo hecho, todo el dinero en desarrollo invertido en una API para Windows, adaptarlo especialmente para una tarjeta gráfica no es un coste sustancial en este sentido, provocando una mejora gráfica "asi por la cara" y que el programador tenga mayores facilidades a la hora de crear juegos (y esta ayuda es importante, ya que he leido varias veces que programar para ps3 no es fácil).
A mi me pareceria del genero tonto sr microsoft los creadores de los DX10 que llevan desarrollando años, y sacar una consola que no utilice estas ventajas... puede que emule algunas instrucciones para sr compatible 100% (a costa de rendimiento?)no lo se....

Como nos gustaria ver ese cryengine2 en nuestra blanquita con todas sus funciones....
Mas arriba comentais que no tienen hard de audio, es verdad esto??

Puede ser un error muy grande montar hard de audio?? En este caso que % de procesado puede requerir calcular el sistema de audio?
Buenas...

Yo la verdad es que conocia el dato, pero no se cuanto cuesta a nivel de rendimiento. Piensa que eso es relativo al juego, cada desarollador establece un tanto por ciento a generar el sonido, asi que es muy variable.

Salu2...
Denbrough escribió:Segun manual de Xbox360 de garantia
Xbox360 -> 1MB de memoria cache de L2
Ps3-> 512 KB caché en el PPE o núcleo principal, 256 KB caché en cada SPE
GPU RSX desarrollado por NVIDIA y SCE

Segun wikipedia. Lo de los SPE no lo sabia y por eso he preguntado, siendo el procesador de Ps3 "mejor" porque tenia menos, pero al parecer es mas, porque cada SPE tiene su propia memoria


Es que los SPE mientras trabajen con su cache perfecto, pero para acceder a un dato que este fuera de esos 256 Kb tiene que acceder a la RAM a traves del PPE y es una penalización que te cagas.

Yo creo que para tareas muy concretas y que "entren" en un SPE pues perfecto, pero como tenga que acceder a la ram ... no lo veo claro.

A mi me parece mas pensado el sistema de cores iguales que monta X360. Si ya es jodido sacar rendimiento a sistemas multicore, no me quiero imaginar lo que debe ser en PS3. Por algo sera que los juegos de X360 que usan los 3 cores se cuentan con una mano.
en decir que la 360 ya tocò techo..?? no entiendo..leo y leo en otras webs que la 360 ya no podrà con màs...son ignorantes. o es el marketing de el "dios todo poderoso chip CELL, a mo y señor sodomizador"?
kibito28 escribió:en decir que la 360 ya tocò techo..?? no entiendo..leo y leo en otras webs que la 360 ya no podrà con màs...son ignorantes. o es el marketing de el "dios todo poderoso chip CELL, a mo y señor sodomizador"?

Que va que va, la 360 aun no ha tocado techo, aun nos quedan por ver cosas increibles en ambas consolas
Denbrough escribió:Que va que va, la 360 aun no ha tocado techo, aun nos quedan por ver cosas increibles en ambas consolas


¿Seguro? ya estoy un poco acojonado. Un saludo [snif]
Segurísimo ¬¬ qué consola conoceis que al año de salir ya tenga el tope en gráficos? La super nes llegó a tener gráficos 3D, y empezó mostrando gráficos de nes.

Además, seguro que la mayoría de Unidades Funcionales de la 360 siguen intactas, los programadores han de conocer todos los recovecos para programarlos, y esto lleva su tiempo. Ponerse de acuerdo y aprovechar los 3 cores, optimizar código... son cosas que se hacen con el tiempo, y conforme más código esté hecho (recordad, modularización, el trabajo de hoy sirve para mañana), más calidad veremos en los juegos conforme pase el tiempo, invirtiendo menos dinero.

Esto es aplicable a todas las consolas.

Por cierto, con respecto al DX10 de nuevo, no es más difícil para el programador, es al contrario, más fácil; DX10 nos proporciona herramientas para trabajar a más alto nivel sin reparar en cosas más simplistas, dando buenos resultados.
Por ejemplo, imaginad tener que dibujar una linea en ensamblador de 360, en código es la abstractísimo y llevaría su tiempo, a pesar de que iría súper rápido y súper optimizado.
En DX10, con poner DrawLine(); ya tenemos la linea, a costa de un poquitín de rendimiento (casi inapreciable).

Además, los mismos juegos basados en DirectX de PC serían portables más fácilmente, ya que lo único que se diferenciaría de un DX a otro es en el cuerpo de las funciones y procedimientos (transparente al programador); las cabeceras siguen siendo las mismas. De ahí a que el coste sea muy bajo, ya que adaptar DX a una sola tarjeta gráfica es reescribir el código teniendo en cuenta solo esa gráfica, y como las ideas ya están desarrolladas y el código fuente está ahi... No se si veis como va la cosa. Sería una tontería no portarlo.
Sólo 2 aclaraciones.

1) La traducción de thread literal es hilo, y su nombre específico es "proceso ligero". Nunca vas a ver subproceso en ningún libro sobre el tema. Básicamente es un mini-proceso con una pila que, normalmente, ejecuta una función en particular (aunque podría ejecutar varias o todo un programa). Al igual que comparte todas las variables globales del proceso que le haya llamado, cosa que no sucede con procesos hijos engendrados por fork().

2) La memoria caché es la única memoria con la que trabaja el procesador.

Procesador <==> Cache L1 <==> Cache L2 <==> Memoria principal(RAM)

Ése esquema es el que se tiene corrientemente. El funcionamiento es:
El procesador quiere leer la linea de memoria que está en la posición 0x00FF, se la pide a la caché. Si la caché la tiene se la manda y sino notifica lo que se denomina un "fallo de caché" y hace el mismo procedimiento llamando a la de nivel 2. La memoria de nivel 2 realizará lo mismo, y de no encontrarlo acudiría ya a memoria principal(RAM).
(Todo ésto separando instrucciones de datos, pero creo que el funcionamiento ha quedado claro).
Por eso es MUY importante el tamaño y velocidad de la caché, al igual que su organización, ya que es el módulo de memoria real con el que la cpu va a trabajar.

Un saludo :)
Joder...sois unos maquinillas.

Yo me quedé en el transpondedor del contínuo y la junta de la trócola.

jeje

Salu2
AlbertoMESSEL, es que esos detalles son muy importantes en cuanto a la evaluación del hardware.
La gente se cree que un pentium4 a 3Ghz es parecido a un AMD a 3Ghz (por ejemplo), y éso no es así debido a las etapas de segmentación con las que trabajan intel y amd (20 y 10, respectivamente) y que tienen distintas penalizaciones por salto. Luego se equiparan en otras cosas, pero desde el estudio teórico AMD es mejor. Lo siento, pero es así. xDDDD

El Cell es un supercomputador. Tiene 1 núcleo principal y 7 u 8 mini-núcleos podríamos decir (que de mini tienen poco pero para comparar). Por cierto, el cell de ps3 viene con 1 núcleo deshabilitado del cell por motivos de "tolerancia de fallos", ya que en las lineas de producción decidieron hacerlo para que salieran menos chips defectuosos.
La cuestión es que si cada mini-núcleo (SPE) tiene 256 KB de memoria propia y lo que les mandas hacer está TODO ahí, ok. Perfecto. A toda ostia. Pero como tenga que salir a buscar más cosas porque el espacio se quede pequeño (véase Inteligencia Artificial, que dicen es uno de los mayores handicaps de PS3) tiene que utilizar un bus hasta memoria que es compartido por los 7 núcleos. A organizar que se ha dicho. Éso ni es cómodo para programar (sólo se ha hecho en computación científica, jamás en videojuegos que es un tema bastante bastante distinto) ni puede que sea una gran revolución en cuanto a rendimiento.

Ya iremos viendo lo que pasa.

La xbox360 tiene 3 núcleos con multihilo (2 hilos por núcleo). Mayor memoria caché y, hasta ahora, es un procesador de carácter más general (trata mejor procesos con enteros que con punto flotante, "al contrario" que Cell cuyo problema es la sincronización).

Todo depende de quién programe. :D

Saludos
zodak escribió:por potencia ps3, por rendimiento sin duda xbox 360, de que sirve que tenga tanta capacidad de proceso, si luego la memoria va a paso burra. Todo tiene que estar mas igualado, sino la velocidad real va a ser la del componente mas lento. Por ejemplo, te compras el mayor pepino de ordenador que puedas encontrar, pero le pones un hdd por ID de toda la vida; hasta que no tengas cargado en ram y en cache la informacion, la velocidad de ese equipo, la determina el disco duro, asique el procesador se queda mirando mientras... no se creo que soni a metido la pata un poco... ademas, sube el coste montar ese procesador desproporcionado.

Que quieres decir que no se va a poder aprovechar toda la potencia del Cell y el RSX?Donde tiene los cuellos de botella la PS3?
Probablemente al 100% no se podrá aprovechar el Cell en la PS3. El Cell se aprovechará en sistemas de proceso científico, de hecho por eso Folding sacó una versión de su programa para PS3.

El cuello de botella podría producirse en el acceso a memoria. La memoria en sí ya es bastante lenta en proporción a un procesador, y más aún para el Cell. Pero si encima tienes que sincronizar 7 núcleos para que accedan de manera ordenada, el cuello se hace bastante serio.

Como dije antes, Cell es óptimo para aplicaciones que carguen en cada núcleo sus 256KB de memoria, o en caso peor que sólo uno supere esa necesidad. Si varios de ellos (y no digamos si son los 7) tienen que acceder a memoria tendrán que estar muchísimo tiempo esperando, muchísimo en proporción a su velocidad. Por eso los programadores se quejan del diseño asimétrico del Cell, porque hay que coordinar tanto todos los procesos que el diseño del juego va a pasar a ser una optimización del sistema. Y eso es lo que muchas compañías no terminan de atreverse a hacer.

El RSX sí que se aprovechará al 100%, imagino, pero no deja de tener 256 MB de memoria. Juegos como gears of wars, que presumen de utilizar en torno a los 400MB, creo, para gráficos no podrán realizarse en ps3. Aparte, otro dato más: la memoria de la cpu y la de la gráfica en ps3 están separadas (256 para ambas) mientras que en xbox360 es unificada (512 para los 2). Viendo hacia donde están yendo los tiros en las arquitecturas de pc's se podría decir que la segunda opción es bastante más acertada. Sobre todo porque evitas que cada frame que la cpu "diseñe" y tenga que enviar a la gráfica tenga que ser copiado a su memoria, ya que ambas lo comparten.

Todo ésto es teórico. De ahí a la práctica las cosas pueden cambiar, y de hecho lo hacen, muchísimo.

Un saludo
77 respuestas
1, 2