Bench i9 9900K vs i9 8700K vs Threadripper vs RyZEN: La controversia [nuevo bench]

1, 2, 3, 4
Bueno, pues si lo único que le quedaba al 9900k, que era la punta de rendimiento en ipc no es real, no queda ningún motivo para no tirar de Ryzen hasta dentro de mucho tiempo, porque 2019 parece aún peor que este para Intel.
CFL-R = Coffee Lake Refresh

Imagen

Al menos en Meltdown V3 y 5 la aquitectura no esta afectada, aunque en las demas variantes y Spectre sigue requiriendo de solucion externa en el UEFI y sistema operativo.

https://www.anandtech.com/show/13400/in ... k-review/2


Imagen

¿Y como afecta Spectre/Meltdown al i9 9900K?

Desde Phoronix se dieron a la tarea de ver cuantio afecta al rendimiento los bugs que siguen sin corregir, lo que serian las variantes Spectre version 2 y 4 y Meltdown.

Imagen


En la compilacion, entre un 3-6%
Imagen


En java ~3%
Imagen


En PostgreSQL igual 3%
Imagen


En manejo de la momoria si que afecta
Imagen


Y por ultimo en algunas actividades del sistema operativo [gnu/linux]

Imagen

Imagen

Imagen

Imagen




https://www.phoronix.com/scan.php?page= ... ctre&num=1
ImagenIntel Core i9 9900K Spectre Mitigation Benchmarks
Written by Michael Larabel in Software on 31 October 2018


The performance cost is down with at least no longer needing Kernel Page Table Isolation (KPTI) for Meltdown and also the L1TF/Foreshadow patches, but depending upon your workloads, the mitigations for the other Spectre vulnerabilities can still be costly. At least with forthcoming Cascade Lake parts, Intel has in-silicon mitigations coming for Spectre Variant Two (no more Retpolines needed).




El costo de rendimiento se ha reducido y al menos ya no es necesario para la Kernel Page Table Isolation (KPTI) para Meltdown y tampoco los parches L1TF/Foreshadow, pero dependiendo de sus cargas de trabajo, la mitigación de las otras vulnerabilidades de Specter puede ser costosa. Al menos con las próximas partes de Cascade Lake, Intel tiene mitigaciones en el silicio [el chip] que vienen para Spectre V2.



.
Tengo el espiritu del cacharreo en mi .... no se si cambiar mi 8700k por un 9900k o 9700k o algo en x299 o un amd se que algo presentan el martes pero no se si saldra dentro de poco o quedarme quieto con mi actual pc y disfrutar de la 2080ti que me tiene que enviar coolmod si me la envia algun dia ,.....
Yo el i9 9900k me lo pillaré dentro de unos años cuando se me quede corto el i5 8600k. [fumando] [fumando]
Yo tengo montado desde hace unos dias el 9900k y la verdad es que va basatnte bien. Pensaba que despues de haber leido todo lo que lei se calentaria mas pero al menos por ahora es razonablemente fresco en modo "gaming" y con "un poco de OC.

Muy contento con la compra. Ademas no se si sera cosa mia o que pero sobretodo en el Cod Op4 y el OW, e notado algo de ganancia y soltura. Sobretodo en el Cod, casi como 20fps o asi. Aunque tambien teng que decir que mi configuracion es un poco rara y es posible que antes con el 8700k y e sli tuviera cuello. o no se. a lo mejor es que el juego esta mejor optimizado para las nucleos. no sabria decir, pero vamos es el único juego en el note algo asi de primera impresión.
Intel anuncia un evento a puertas cerradas, solamente para la prensa selecta y que se realizara el 11 de diciembre.

https://www.anandtech.com/show/13546/in ... ember-11th

Intel Architecture Summit/Event
En el pequeño evenmto exclusivo, la gfente de intel hablaran de la vision futura de la compañia mostrando informacion de proximas arquitecturas de procesador junto con su portafolio de productos venideros para el mercado casero y profesional.

Especulan que se podrian presentar sus proyectos en GPU e IA, incluso podria ser la presentacion oficial a los medios del Raja Koduri; anterior jefe de RTG en AMD, actual jefe del departamento de desarrollos graficos de intel.



De nuevo con gamer nexus
https://www.gamersnexus.net/guides/3389 ... ation-z390



.


.
dCrypt escribió:Pero vamos a ver, ¿es que AMD no hace lo mismo?


Perdón por la autocita, pero como no encuentro nada en el foro, ya os adelanto que no me equivocaba en dos cosas:

- AMD es tan tramposa como Intel
- En el foro, por alguna misteriosa razón, no se va a hablar mal de AMD

https://elchapuzasinformatico.com/2018/ ... -a-nvidia/
https://wccftech.com/amd-radeon-mi60-re ... -not-used/

Ahora voy a contar los días que pasen hasta que alguien en este foro reclame que se boicotee a AMD por estas prácticas.

Saludos.
Haz el favor de leer bien los artículos, comparan el rendimiento en FP32. Estas gráficas ni se esperan en otra cosa que no sean datacenters, porque fuera de eso las de nVidia les meten una buena paliza en software que aproveche los tensor cores.
Mr.Gray Fox escribió:Haz el favor de leer bien los artículos, comparan el rendimiento en FP32. Estas gráficas ni se esperan en otra cosa que no sean datacenters, porque fuera de eso las de nVidia les meten una buena paliza en software que aproveche los tensor cores.


Los he leído. No es el punto. El punto es que AMD ha "trucado" los benchs para que su GPU parezca competitiva frente a nVidia. O me he perdido algo, o en el foro se defiende a AMD cuando hace lo mismo por lo que se critica a Intel.

BTW, no sé dónde ves software que aproveche los tensor cores, si no es en un [sic]datacenter[/sic]

Saludos.
dCrypt escribió:
dCrypt escribió:Pero vamos a ver, ¿es que AMD no hace lo mismo?


Perdón por la autocita, pero como no encuentro nada en el foro, ya os adelanto que no me equivocaba en dos cosas:

- AMD es tan tramposa como Intel
- En el foro, por alguna misteriosa razón, no se va a hablar mal de AMD

https://elchapuzasinformatico.com/2018/ ... -a-nvidia/
https://wccftech.com/amd-radeon-mi60-re ... -not-used/

Ahora voy a contar los días que pasen hasta que alguien en este foro reclame que se boicotee a AMD por estas prácticas.

Saludos.



No hace falta llamar al boicot, seguramente nadie del foro tiene intencion de comprar ninguna Mi60.
dCrypt escribió:
Mr.Gray Fox escribió:Haz el favor de leer bien los artículos, comparan el rendimiento en FP32. Estas gráficas ni se esperan en otra cosa que no sean datacenters, porque fuera de eso las de nVidia les meten una buena paliza en software que aproveche los tensor cores.


Los he leído. No es el punto. El punto es que AMD ha "trucado" los benchs para que su GPU parezca competitiva frente a nVidia. O me he perdido algo, o en el foro se defiende a AMD cuando hace lo mismo por lo que se critica a Intel.

BTW, no sé dónde ves software que aproveche los tensor cores, si no es en un [sic]datacenter[/sic]

Saludos.



No, parece que no los has leído.

I don't think you understand the accuracy difference. Every additional bit *doubles* the number of unique values a format can store - so if we were talking about integers, 16 bits gives you 65,536 unique values... And 32-bit gives you 4,294,967,296 unique values. The difference in accuracy is *huge*.

Of course, we're talking about floats, not ints. Floating point formats work by having two parts: an exponent, and a fraction (note: 1 bit is also reserved for holding the sign, but that's constant for all float types). It's basically a binary variant of scientific notation. Each part has a fixed number of bits in it though, which means that the range of valid values for both parts will be *smaller* for 16-bit floats.

This means that not only are 16-bit floats significantly less accurate, but they are also not even capable of storing the same range of values to begin with. If you require the processing of numbers larger than 65504 (largest possible 16-bit float), you're out of luck. 32-bit's largest possible value is roughly 3.402823466*10^38.

The difference is so vast that to say 16-bit is even acceptable is in many cases naive at best. And I haven't even given you the figures for accuracy yet! The fractional part of a 16-bit floating point number is 10 bits wide (11 bits accuracy, kinda, but the first of those 11 bits is assumed to be '1'), giving it log10(2^11) decimal (base 10) digits of accuracy. That's approximately 3.3 digits, so at best 4 digits of accuracy. Compare that to 32-bit floats, which have 23 bits (24 with the implied bit) of accuracy - or about 7.2 decimal digits of precision. That is more than twice as many digits.

Nobody in their right mind ever uses 16-bit floats *unless* they know with absolute certainty that their data will get turned into something only needing about 3 digits of precision. Since most displays use 8-bit (0-255) signals, 16-bit floats in the range of 0.0-1.0 are a great way to calculate things like the final values for colors of pixels. However, even then the precision is unacceptable for complex lighting and color space conversion calculations, so really they're only useful for *output* values.

Tensor cores, of course, have 32-bit output values... But only 16-bit input values. This makes them absolutely worthless for the vast majority of use cases, especially those where any amount of precision is important.


No justifico esa prueba, pero venir a soltar la mierda pasados ya unos cuantos días de ese bench y encima en gráficas que no van orientadas a cálculos rápidos sino precisos.

Desconozco cómo funcionan los tensor cores ya que no tengo nada parecido con lo que poder probar, por eso me fío de comentarios como estos, que hacen sencillo entender la importancia de cálculos en FP32 y FP16. Y si se evalúa únicamente la capacidad en FP32 y no en FP16+FP16 (como hacen los tensor cores), pues seguramente de un resultado acorde al benchmark.
DaNi_0389 escribió:No hace falta llamar al boicot, seguramente nadie del foro tiene intencion de comprar ninguna Mi60.


No, no, si yo no pido boicotear a nadie, sólamente ser coherente con la denuncia de amaño, trampa, estafa, competencia desleal, prácticas abusivas, etc. Como muestra, varios botones. De este mismo hilo.

paco_man escribió:Las dos mienten en este tipo de pruebas, pero Intel además de mentir te intenta estafar.

Mr.Gray Fox escribió:Precios abusivos desde hace años, basura de refrigeración, cambio de socket "porque yo lo valgo", tácticas mafiosas respecto a vulnerabilidades... No sé, creo que son motivos de sobra.

Zeph escribió:Todas las compañias intentan mostrar aquellas pruebas donde su producto es el mas favorable, ignorando aquellas pruebas donde su producto queda peor parado respecto a la competencia. PERO lo que ha hecho INTEL ha sido como poner a dos atletas a correr los 100 metros, pero al corredor de AMD le ha partido una pierna antes y encima le ha colgado un pedrusco de 100 kilos, aun sabiendo que no va a tener ningun problema al ganar la carrera. Todos sabemos que el i9 va a ser el mejor procesador para juegos (si quieres pagar lo que piden), no le hacia falta en ningun momento partirle la pierna al atleta ni ponerle un pedrusco. Se ha pasado de la raya, literalmente, ha querido ESTAFAR.

Saoren escribió:El problema, no es ser Fanboy de ninguna marca. Es estar quemado de las practicas 'poco eticas' (por decirlo ediucadamente) de una empresa que en el mejor de los casos, lo unico que hace es busca de qué manera lucrarse al minimo coste posible. [...]Y si merece algo, es un buen escarmiento por perpetuar las politicas que todos conocemos: cambios de socket por gusto, poca o nula inversion en investigacion, politicas abusivas rozando el limite legal, etc etc etc.


...

@Mr.Gray Fox,

Mr.Gray Fox escribió:No, parece que no los has leído.[...]Desconozco cómo funcionan los tensor cores


Si no sabes cómo funcionan los tensor cores, lee un poquito.

AMD themselves escribió:Regarding the comparison – our footnotes for that slide clearly noted the modes so no issues there. Rationale is that FP32 training is used in most cases for FaceID to have 99.99%+ accuracy, for example in banking and other instances that require high levels of accuracy. – AMD


Reléelo (el artículo) y responde después con criterio.

Por cierto, aún no he leído nada en contra de esta práctica de AMD.

Saludos.
dCrypt escribió:Si no sabes cómo funcionan los tensor cores, lee un poquito.


No he necesitado programar nada usando tensor cores, ni creo que lo necesite en mi vida ya que la gran parte de lo que hago tira de CPU. Pero bueno, te haré caso y me leo las especificaciones publicadas por la propia nVidia.

The matrix multiply inputs A and B are FP16 matrices, while the accumulation matrices C and D may be FP16 or FP32 matrices.


Básicamente, la multiplicación de matrices en FP16 dará un resultado FP16 (lo cual es normal) o FP32. El problema aquí radica en que usando FP16 para obtener un FP32, obtienes un FP32 de menor precisión.

En el caso que atañe a la noticia, usar los tensor cores para reconocimiento de imagen será rápido, pero no preciso. Como bien se mencionaba en un comentario del propio artículo, a la hora de filtrar un gran número de caras será rápido usar los tensor cores pero si quieres distinguir dos caras que tengan rasgos similares es donde se va a la mierda esa ventaja porque literalmente no puedes convertir 2 FP16 en un FP32 sin pérdida de información. Por eso usar los tensor cores no sirve para nada en un caso de este estilo, se dejan fuera de la prueba y se realiza utilizando los componentes que ambas gráficas tienen. ¿Es ético? Depende, si aclaran que es para reconocimiento facial donde queda demostrado que el uso de los tensor cores es muy situacional no le veo el problema. ¿Podrían haberlo puesto en grande? Pues hubiera sido un detalle. Pero ni tú ni yo ni nadie del foro se va a comprar una Mi60, y la gente a la que van dedicadas este tipo de soluciones saben de sobra si les merece la pena o no. Si ahora viene intel/AMD diciendo que su nuevo procesador rinde un 200% comparado con la gama anterior no se lo va a creer nadie, porque tenemos asumido cierto conocimiento sobre la materia. Pero eso lo ve un aficionado (como nosotros) y flipa en colores con la potencia.

Reléelo (el artículo) y responde después con criterio.


El artículo me lo he leído 3 veces ya, y no entra en ningún tipo de detalle excesivamente técnico, por lo que es difícil perderse nada. Igual el que tiene que revisar sus criterios eres tu, exigiendo que te ofrezcamos disculpas por un powerpoint. Esto me suena al típico niño al que le echan la bronca por quemar la casa y se queja diciendo que a su hermano no le dicen lo mismo por haber roto un vaso. Mal de muchos como dicen.

Y todo esto lo escribo desde un PC con una 1700X+GTX1080, mi anterior PC tenía un 3570K+GTX970 y el otro anterior una E7400+GTX470. Fanboyismos a otro, por favor.
Nadie te ha tachado de Fanboy. Y te andas por las ramas. El punto es que AMD ha usado el benchmark en su beneficio, como Intel. Y nadie sale a despotricar. ¿Es lícito? ¿Es más realista? da lo mismo. La discusión no se inició en esos términos.

Saludos.
dCrypt escribió:Nadie te ha tachado de Fanboy. Y te andas por las ramas. El punto es que AMD ha usado el benchmark en su beneficio, como Intel. Y nadie sale a despotricar. ¿Es lícito? ¿Es más realista? da lo mismo. La discusión no se inició en esos términos.

Saludos.



¿Es ético? Depende, si aclaran que es para reconocimiento facial donde queda demostrado que el uso de los tensor cores es muy situacional no le veo el problema. ¿Podrían haberlo puesto en grande? Pues hubiera sido un detalle.


Revisa esa comprensión lectora.
Y vuelta la burra al trigo.

Es irrelevante si los tensor cores son importantes o no. Es un benchmark de referencia. AMD ha desactivado características de la competencia para que el benchmark le salga más favorable a AMD. Punto.
A que viene esto en un hilo de CPUs?
exter escribió:A que viene esto en un hilo de CPUs?


Bueno, según lo veas. El hilo va de controversia en benchmarks. Alguien (@dCrypt) apuntó que de controversia nada, que en EoL no se habla nunca mal de AMD, y que lo que se le achacaba como malas prácticas a Intel en AMD ni se menciona. Mi nuevo post de ayer lo viene a demostrar (según yo lo entiendo) ahora en la figura del ofendido y en el segmento de GPUs profesionales.

Saludos.
dCrypt escribió:
exter escribió:A que viene esto en un hilo de CPUs?


Bueno, según lo veas. El hilo va de controversia en benchmarks. Alguien (@dCrypt) apuntó que de controversia nada, que en EoL no se habla nunca mal de AMD, y que lo que se le achacaba como malas prácticas a Intel en AMD ni se menciona. Mi nuevo post de ayer lo viene a demostrar (según yo lo entiendo) ahora en la figura del ofendido y en el segmento de GPUs profesionales.

Saludos.


Bench i9 9900K vs i9 8700K vs Threadripper vs RyZEN

Abrid un hilo para las GPUs y que la gente opine.
exter escribió:
dCrypt escribió:
exter escribió:A que viene esto en un hilo de CPUs?


Bueno, según lo veas. El hilo va de controversia en benchmarks. Alguien (@dCrypt) apuntó que de controversia nada, que en EoL no se habla nunca mal de AMD, y que lo que se le achacaba como malas prácticas a Intel en AMD ni se menciona. Mi nuevo post de ayer lo viene a demostrar (según yo lo entiendo) ahora en la figura del ofendido y en el segmento de GPUs profesionales.

Saludos.


Bench i9 9900K vs i9 8700K vs Threadripper vs RyZEN

Abrid un hilo para las GPUs y que la gente opine.


Te dejas el resto del título:
Bench i9 9900K vs i9 8700K vs Threadripper vs RyZEN: La controversia [nuevo bench]


Y el OP empieza así:

"Y vaya controversia que ha provocado la publicacion de los benchmarks [...]"


El hilo va de controversias, no de CPUs.
dCrypt escribió:
El hilo va de controversias, no de CPUs.


No va de controversias "en general", va de esa en concreto de las CPUs en el lanzamiento del 9900K y los bench de Principled Technologies.

Abre un nuevo hilo, con la controversia que quieras, pero ensuciar este con cosas de GPU's presentadas 1 mes más tarde no me parece lógico.

Ahora, si va de un pique que tuvisteis y lo pones aquí porque necesitas que te den la razón y sentirte mejor, ahi ya no entro.
exter escribió:
dCrypt escribió:
El hilo va de controversias, no de CPUs.


No va de controversias "en general", va de esa en concreto de las CPUs en el lanzamiento del 9900K y los bench de Principled Technologies.


[sarcasmo]Bueeeeeno, (en parte) ya vas entrando en razón.[/sarcasmo] Ya que reconoces que sí va de controversia, yo reconozco que también va de CPUs. Apelo al Sr. @TRASTARO, en calidad de OP, para que juzgue si continuar con las controversias o sacarlas a un hilo aparte.

Aún sigo sin ver críticas a AMD en esta cuestión. Encendidos comentarios se han vertido contra Intel por lo mismo.

Saludos.
Si, un hilo aparte por favor, porque @exter tiene toda la razon en cuanto a que este hilo se origino por la controversia concreta de los resultados y metodica de 'Principled Technologies'.
dCrypt escribió:[sarcasmo]Bueeeeeno, (en parte) ya vas entrando en razón.[/sarcasmo]



Literalmente solo vienes aquí a comentar que solo tú tienes la razón. Que gran aporte el tuyo.
@Mayban36
El el 90% de las ocasiones en sus comentarios siempre hace movidas del estilo :-|
AMD RyZEN R7 2700X e Intel i7 5960X a la misma velocidad de 4.2GHz y con sus 16 hilos, contra el i9 9900K a ~5GHz con 16 hilos tambien, ¿como cambiaria la grafica siguiente con los tres procesadores a la misma frecuencia?

FPS en Battlefield V.
Imagen

https://www.guru3d.com/articles-pages/b ... rks,4.html
yo si voy a tirar de un threadripper, es que con lo que rinde casi igual que la 1080ti en blender y maya, y con las nuevas actualizaciones de ambos programas para renderizar usando cpu y gpu al mismo tiempo seria como tener un sli de 1080ti, en rendering por su puesto vuelvo a recalcar, y más si me armo un sli de 1080ti más un threadripper, seria un salto increible, mis renders pasarian de 10horas a solo 3 horas. o 5 si me pongo a renderizar con una 1080ti y dejo libres 4 nucleos y me pongo a jugar con la 1080ti sobrante mientras espero que renderize. [plas]

Esto será el mejor profit de la vida.
@TRASTARO

Donde pone que está con raytracing? Incluso en la página anterior pone que no está la opción
You can choose DX12, still missing, however, are GeForce RTX related option
Cierto, errata mia, BFV tendra el soporte hasta que pasen dos cosas:
- Una actualizacion de windows
- Y la actualizacion que publicaran del juego posterior a la actualizacion requerida de windows.

Entonces la version ¿alfa o beta? donde mostraban RT ¿que fue?
Yo tengoun 9900k y estoy bastante contento con el! no lo estrujo mucho porque no quiero tener mucha temperatura pero lo tengo funcionando a 4.9oc adaptativo all cores y la verdad! que de procesador va sobrao para jugar que es lo que yo hago.
179 respuestas
1, 2, 3, 4