Desmontando mitos

Hace tiempo que voy leyendo ciertas creencias que son falsas y me he propuesto que entre todos las desmontemos. Por
Ejemplo, afirmaciones verdaderas que contradicen muchas creencias:

- Tu pc no puede con un monito 4k, mejor 1440 144hz.
La resolucion 4k (3840x2160) 60fps equivale en potencia de procesamiento de la gpu a el mal
llamado 2k (2560x1440) 135fps o a ultrawide “2k” (3440x1440) 100fps

- Mi procesador consume poquisimo, tengo un tdp de 65w.
El tdp en un chip es un indice que indica la cantidad maxima de calor que genera, que aunque se mide en watts no tiene nada que ver con su consumo energetico, por ejemplo, un ryzen 3700x tiene un tdp de 65w pero de consumo energetico maximo sobrepasa los 200w.

- Mi fuente Mars Gaming Vulcano 750W puede con todo y va genial.
Una fuente de alimentacion no siempre da los watts que indica, las genericas y las baratas normalmente un 30% menos de lo indicado, ademas de tener pocos o ningun sistema de proteccion, valores de tension inconstantes…

- Mi juego pide 12gb de vram, en 2021 no pueden tener menos memoria.
Los videojuegos reservan una cantidad de ram de video, cuanta mas haya mas reservaran, esto no indica que sea la que consume realmente.

- Le cambie la pasta grafica a mi cpu, xo siguen los problemas.
La pasta termica, ni se degrada tan rapido como muchos creen, ni ofrece tanta diferencia de temperaturas. Es recomendable cambiarla cada año par de años pero no hace milagros, puede mejorar la temperatura entorno al 10% como mucho.

Os animo a poner mas.
Añado la siguiente:

Mito: Para jugar a 4K es necesario el procesador mas rapido y caro del mercado porque si no va ir fatal el juego y va a hacer de cuello de botella a la GPU.

Realidad: A mayor resolucion, menos afecta la potencia de la CPU en la tasa de fps.
esami escribió:Añado la siguiente:

- Para jugar a 4K es necesario el procesador mas rapido y caro del mercado porque si no va ir fatal el juego y va a hacer de cuello de botella a la GPU.


Todo lo contrario, cuanto mayor sea la resolución, menos le afecta a la CPU.
@Mayban36 si correcto, pero es un hilo de desmontando mitos (Frases que parecen verdad pero que no lo son) (o al menos asi lo he entendido yo) [beer]
esami escribió:@Mayban36 si correcto, pero es un hilo de desmontando mitos (Frases que parecen verdad pero que no lo son) (o al menos asi lo he entendido yo) [beer]


Cierto es, pero pensaba que habia que poner el mito desmontado [angelito]
Si, puede llevar al error, mejor poner el mito y la realidad, ahora lo edito.
MITO: No te cojas una AiO premontada porque son un riesgo, la bomba hace mucho ruido y disipa mejor uno de aire
Realidad, no todas las AiO hacen ruido (las marcas Nfortec, Tacens, etc claro que si, hay otras que no hacen NADA de ruido la bomba, Corsair H110/otras corsair, algunas NZXT, MSI MAG, etc.. (Acabo de hacer la prueba con mi corsair H110 y me da 18,4dB en idle y 29dB jugando y es por la gpu), está ya demostrado por ejemplo que el Arctic Liquid Freezer II 240 disipa mejor que el famoso Noctua DH15)
@VanSouls el problema de esa RL es que no dura tanto como el Noctua, ni tiene el mismo servicio de atención post-venta, por algún grado menos, yo por lo menos no la recomendaría, salvo para quienes les gusten las RL por la estética o tal.

Saludos.
- Mito: Es recomendable hacer tus reparaciones en una tienda de informática, pues son profesionales y nunca te darán gato por liebre ni intentarán metértela.

- Realidad: [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
javier español escribió:@VanSouls el problema de esa RL es que no dura tanto como el Noctua, ni tiene el mismo servicio de atención post-venta, por algún grado menos, yo por lo menos no la recomendaría, salvo para quienes les gusten las RL por la estética o tal.

Saludos.

Imagen

Sigamos con el hilo please [bye]
- Mi GPU es mejor que la tuya porque tiene 2GB de memoria y la tuya 1GB.

Error. Más VRAM no significa más potencia y mucho menos más rendimiento. Una Nvidia 9600GT de 512MB es más potente que una Nvidia GT8200 de 2GB.
Mayban36 escribió:
esami escribió:Añado la siguiente:

- Para jugar a 4K es necesario el procesador mas rapido y caro del mercado porque si no va ir fatal el juego y va a hacer de cuello de botella a la GPU.


Todo lo contrario, cuanto mayor sea la resolución, menos le afecta a la CPU.



[burla2] Pues para 1080p pedían un 8700k a 59fps y para 2160p pedían el 3950x como recomendación.

Benzo escribió:«GOD OF WAR PARA PC REVELA SUS REQUISITOS
Requisitos recomendados (1080p a 30 FPS)
    SO: Windows 10 64 bit (versión 1809)
  • CPU: Intel 8400 o AMD Ryzen 5 2600
  • GPU: Nvidia GTX 1060 (6 GB) o AMD RX 570 (4 GB)
  • RAM: 8 GB
  • Almacenamiento: 70 GB SSD

Requisitos ultra (4K a 60 FPS)
[list]SO: Windows 10 64 bit (versión 1809)
[*]CPU: AMD Ryzen 9 3950X
[*]GPU: Nvidia GTX 3080 (10 GB) o AMD RX 6800 XT (16 GB)
[*]RAM: 16 GB
VanSouls escribió:
javier español escribió:@VanSouls el problema de esa RL es que no dura tanto como el Noctua, ni tiene el mismo servicio de atención post-venta, por algún grado menos, yo por lo menos no la recomendaría, salvo para quienes les gusten las RL por la estética o tal.

Saludos.

Imagen

Sigamos con el hilo please [bye]

Yo me refería a la Arctic Liquid Freezer II 240 que comentaste en el mensaje anterior al mío, de todos modos, eso ocurre en muchas RL, incluso en esa Corsair que has puesto en el enlace también, solo hay que googlear un poco y ver la cantidad de problemas que dan. Por experiencia propia (me dedico al mantenimiento de equipos) hace unos años se empezaron a poner mucho de moda y muchos clientes me pedían que les pusiera una RL, a día de hoy casi todos han vuelto a la refrigeración por aire, tanto por ruidos como fallos en las bombas, etc... además que la mayoría de la gente no hace OC, aquí por este foro puede ser diferente, la mayoría son gamers y usuarios domésticos, pero en las empresas de OC cero patatero, no se pueden permitir que en cualquier momento hayan problemas de temperaturas, cuelgues, etc... y perder datos, tiempo, etc...

Saludos.

Edit: que tu H110 la tengas tiempo y no te haya dado problemas hasta el momento, pues muy bien, me alegro por tí, pero solo hay que hacer una búsqueda en google con los términos "Corsair H110 problem" y mira si salen resultados, y lo mismo se aplica a la inmensa mayoría de RL AIO: https://www.google.es/search?q=corsair+ ... =927&dpr=1

Con un Noctua HH-D15 como mucho se puede estropear un ventilador, que con una RL también se pueden estropear los ventiladores y son bastante peores que los Noctua, además de las bombas, obstruirse el radiador o el circuito, se pierde el líquido con el tiempo, etc...
Mi peocesador consume poquisimo, tengo un tdp de 65w.
El tdp en un chip es un indice que indica la cantidad maxima de calor que genera, que aunque se mide en watts no tiene nada que ver con su consumo energetico, por ejemplo, un ryzen 3700x tiene un tdp de 65w pero de consumo energetico maximo sobrepasa los 200w.


Esto no lo sabía, pues vaya engaño. Ahora no sé que puede gastar mi Xeon de 130w tdp
Varía por el speedstep

Es como los altavoces.
Ponen 1000w pmpo y lo mismo distorsionan a la mínima, hay que mirar que ponga RMS para hacerse una idea. Si alguien sabe explicarse holgadamente de estas cosas, bienvenido sea.
esami escribió:Añado la siguiente:

Mito: Para jugar a 4K es necesario el procesador mas rapido y caro del mercado porque si no va ir fatal el juego y va a hacer de cuello de botella a la GPU.

Realidad: A mayor resolucion, menos afecta la potencia de la CPU en la tasa de fps.


Siempre he pensado esa afirmación es un mito y me explico. No es que afecte menos, es que los fps "objetivo" bajan cuanto más subes la resolución. A mayor resolución, el factor limitante suele ser la gpu y no la cpu.

Es decir, si tu cpu a 1080p solo puede darte 200fps, a 4k va a seguir dandote como maximo 200fps, la diferencia es que a 4k, posiblemente tu gpu no pueda escupir esos 200fps que a 1080p sobrepasa con creces.
Mito: Los ssd mejoran el rendimiento del PC ya que al cargar más rapido, gestiona mejor la información
Realidad: los ssd no mejoran nada el rendimiento de un PC, simplemente el tiempo de carga de los elementos necesarios para funcionar
PD: fui víctima de esto. Me pille un m2 sn750 black western digital para "solo" ahorrarme tiempos de carga. Que ya solo por eso si que merece la pena. Pero 0 rendimiento
@fulfidor

Bueno es como la ram, tener 32gb o 128gb ddr4 no te hara mas rápido pero podrás tener mas espacio para maniobrar en los proyectos.

En ssd.... realmente se podrías tirar el pc con 2 hdd distribuyendo windows en un hdd y aplicaciones en otro hdd, el problema radica de un cuello de botella físico, el cabezal no puede estar leyendo y copiando en dos sitios a la vez.

Solo tienes que ver los ordenadores que montan algunos centros de enseñanza fp con un hdd 500gb + 4gb ram.

(inviables para tener funcionado windows 10 + VMware con debían + ubuntu.

[snif] [poraki] Se petan porque windows 10 necesita un poco mas de 1,5gb para funcionar y entre las dos maquinas te dan 2gb ram con lo cual si o si estas tirando de ram virutal sata2 de un mecánico del 2009


///
Ahora en juegos, la saga forza horizon se recomienda tenerlo instalado un ssd, aunque sea malo porque de estar en un mecánico el juego sufre de rascadas de fps en hdd 5400rpm
@Wookiee exacto! la gente cree que por poner 4k la cpu va a rendir más o algo con lo de que el peso recae sobre la GPU y lo que pasa realmente es que la GPU va a llegar al tope antes que la cpu.

Lo mismo va a dar una CPU básica con uno top si el básico te da para 100fps y el top 200 pero la GPU no puede más de 60
@uchi23a pues tengo instalado el Forza Horizon 5 en el hdd y va perfecto. Eso sí, tarda un minuto en cargar.
Con Windows 10 si que hay que tenerlo en un ssd si o si por que sino tienes el problema del uno al 100% constantemente. Yo, hasta que me compre el ssd tenía el Windows update capado y todos los procesos que no se que hacían pero ralentizaban un montón.
Los ssd pueden no ser esenciales para w10, pero hay que desactivar todos los procesos inecesarios. La putada es que no se desactivan haciendo click en un menú. Hay que ir a "servicios"
Para mi el mayor mito de hace años fueron los de "con un i5 sobrado", ahora hoy en día esos 4c/4t son nada y los i7 por lo menos se defienden. Yo en su día elegí al 5820k por encima de un 6700k y sigo pensando que fue la mejor decisión que tome.

Otro que también se veía mucho por este foro era lo de las "configs equilibradas" con algunas GPU que eran mucho para ciertas CPU o viceversa, como si por ejemplo no pudieras disfrutar de una RTX 3080 con un Ryzen 3600.
Mito: Necesito alcanzar 144fps para jugar a 144hz.

Realidad: Puede que cuando salieron los primeros monitores a 144hz tuviera sentido para evitar el lag entre el monitor y la tarjeta grafica, no obstante es poco probable mantener una tasa estable por lo que seguramente el lag te lo comias igual.

Pero a dia de hoy no se si habra un monitor de 144hz que no soporte Gsync, Freesync o Gsync Compatible que es un Freesync siendo compatible con Gsync. Y con dicha tecnologia el monitor iguala los hz a los fps evitando el lag, cosa que se nota en escenas con bastante movimiento y cambios de camara, evitando rasgados de graficos más que nada.

Asi que toda la idea de tienes que alcanzar los 144fps solo sirve para que estes desperdiciando tu hardware y actualizandolo cada poco para mantener esas cifras. Totalmente innecesario.
Mito: "espérate y no te compres todavía una GPU de la serie RTX 3000, que recién lanzadas están muy caras y en poco tiempo van a bajar de precio que no veas..." (En este mismo foro vi muchos comentarios como ese o parecidos)

Otro mito: "como voy muy justo de dinero, de momento me compro la placa más barata con solo 2 slots para la RAM y le pongo solo 1 módulo hasta que más adelante ahorre y le compro otro igual para que vayan en Dual Channel." (Luego pasa el tiempo y no encuentra otro módulo de la misma referencia en tiendas, o se compra otro diferente porque el que tiene es más caro y claro, luego no son compatibles porque no tienen los mismos chips internos, ni las mismas latencias, uno es Single Rank y el otro Dual Rank, etc... y no los puede configurar en Dual Channel porque tiene inestabilidades y no se explica por qué "¡si son de la misma frecuencia!")

Saludos.
javier español escribió:Otro mito: "como voy muy justo de dinero, de momento me compro la placa más barata con solo 2 slots para la RAM y le pongo solo 1 módulo hasta que más adelante ahorre y le compro otro igual para que vayan en Dual Channel." (Luego pasa el tiempo y no encuentra otro módulo de la misma referencia en tiendas, o se compra otro diferente porque el que tiene es más caro y claro, luego no son compatibles porque no tienen los mismos chips internos, ni las mismas latencias, uno es Single Rank y el otro Dual Rank, etc... y no los puede configurar en Dual Channel porque tiene inestabilidades y no se explica por qué "¡si son de la misma frecuencia!")

Saludos.



Este me recuerda a: me voy a comprar una placa base con sli/crossfire para en un futuro poner una segunda tarjeta grafica. Y la realidad es que nunca te comprabas una segunda tarjeta, porque ya salia la soguiente generacion y tu teorico sli daba menos rendimiento que una actual.
Mito: "Siempre hay que tener los controladores actualizados a la última versión."

Realidad: No siempre es así. Especialmente con los controladores gráficos; lo recomendable es quedarse en la versión que mejor funcione, y actualizar sólo si en las notas de la versión indican explícitamente que mejorará el rendimiento de nuestro modelo.
Mito: Poned filtros de polvo en todas las entradas y salidas de aire de la caja o se os ensuciará.

Realidad: Si pones filtros en las salidas, evitas que el polvo salga de tu caja.

*Este lo pongo porque lo aprendí hace poco y llevaba haciéndolo mal unos siglos.
Fleishmann escribió:Mito: Poned filtros de polvo en todas las entradas y salidas de aire de la caja o se os ensuciará.

Realidad: Si pones filtros en las salidas, evitas que el polvo salga de tu caja.

*Este lo pongo porque lo aprendí hace poco y llevaba haciéndolo mal unos siglos.

Buenas compañero, es que los filtros se deben poner en las rejillas de entrada de aire, para que entre menos polvo del exterior de la caja, no en las rejillas de salida, ahí interesa que haya el mejor flujo de aire posible, así se evacúa antes el calor también, no solo es por el tema del polvo, no sé dónde lo habrás leído, pero es que es de cajón. ;)

Saludos.
@javier español

Si, igual más que un mito es una subnormalidad mía, jejeje
Fleishmann escribió:@javier español

Si, igual más que un mito es una subnormalidad mía, jejeje

No hombre, yo no he dicho eso para nada, además que en más de un sitio lo he leído también y no ahora, sino hace ya muchos años. ;)

Saludos.
Dfx escribió:Para mi el mayor mito de hace años fueron los de "con un i5 sobrado", ahora hoy en día esos 4c/4t son nada y los i7 por lo menos se defienden. Yo en su día elegí al 5820k por encima de un 6700k y sigo pensando que fue la mejor decisión que tome.

Otro que también se veía mucho por este foro era lo de las "configs equilibradas" con algunas GPU que eran mucho para ciertas CPU o viceversa, como si por ejemplo no pudieras disfrutar de una RTX 3080 con un Ryzen 3600.

Eso mismo decían con el famoso FX8350, decían que no rendían, y que era mejor el i5 2500, y que en juegos iba mejor.
Ahora 2021, muchos juegos actuales el FX rinde como un i7 3770, que costo la mitad.
Hasta hace poco tuve un i5 4690, cuando se me estropeo el Ryzen 2700, estuve con el i5 y iba a pedales en mi uso cotidiano cosa que con el FX8350 no pasaba, y ya te aseguro, la diferencia entre el FX8350 y el i5 4690 no hay color, el FX8350 en multitarea se lo come con patatas.
El FX8350 me costo 156€ y no me arrepiento de su compra, esa cosa se defiende que te cagas.
kevin! escribió:
Dfx escribió:Para mi el mayor mito de hace años fueron los de "con un i5 sobrado", ahora hoy en día esos 4c/4t son nada y los i7 por lo menos se defienden. Yo en su día elegí al 5820k por encima de un 6700k y sigo pensando que fue la mejor decisión que tome.

Otro que también se veía mucho por este foro era lo de las "configs equilibradas" con algunas GPU que eran mucho para ciertas CPU o viceversa, como si por ejemplo no pudieras disfrutar de una RTX 3080 con un Ryzen 3600.

Eso mismo decían con el famoso FX8350, decían que no rendían, y que era mejor el i5 2500, y que en juegos iba mejor.
Ahora 2021, muchos juegos actuales el FX rinde como un i7 3770, que costo la mitad.
Hasta hace poco tuve un i5 4690, cuando se me estropeo el Ryzen 2700, estuve con el i5 y iba a pedales en mi uso cotidiano cosa que con el FX8350 no pasaba, y ya te aseguro, la diferencia entre el FX8350 y el i5 4690 no hay color, el FX8350 en multitarea se lo come con patatas.
El FX8350 me costo 156€ y no me arrepiento de su compra, esa cosa se defiende que te cagas.


Yo era de los que defendía los FX como procesadores más futuribles que los i3 y i5 de la época:



Y lo cierto es que el FX8350 casi se asemeja a un i7(de la epoca) hoy en día en rendimiento, con juegos donde los supera y juegos donde se queda un poco por debajo. Que sus núcleos les faltaba potencia, pues vale, pero lo cierto es que 8 núcleos han alimentado a toda la pasada generación de consolas y en PC con las mejoras de multihilo se ha notado finalmente que es mejor procesador. Les ha costado mucho a los desarrolladores deshacerse del lazo de Intel y dejar de centrarse en el IPC.

Ya me dirás un procesador que con los FX8320 costaban literalmente 100€, contra procesadores de 200~300€.
Mito:-Nvidia Gsync es la mejor tecnologia de juego y acaba con todos los problemas de sincronizacion de imagen.
Falso:
-Gsync por si mismo(sin otras configuraciones como vsync rapido,modo ultra baja latencia o nvidia reflex) añade latencia aunque menor a vsync,una persona que juegue habitualmente a un juego competitivo notara que el juego no va totalmente en tiempo real teniendo desventaja antes oponentes,por lo tanto no es una tecnologia competitiva.
-La tecnologia Gsync por si misma no acaba con todos los problemas de sincronizacion de imagen siendo obligatorio (quiza no en todos los casos) activar vsync,es posible tener tearing(desgarro de pantalla) si no se activa vsync.


-Mito:Los procesadores actuales de intel son "tostadoras" (testeado generacion 8-9 y 12 con AIO nzxt kraken x62).
Falso:
- la temperatura de la cpu en mayor medida dependera del uso de la cpu,si es cierto que si hay un uso 100% de la cpu en una cpu caliente alcanzara temperatura,pero para un uso en juegos donde seguramente no supere el 60% de uso no es cierto con una buena disipacion no habria problema.
Cuanto mas años pasen y esa cpu vaya haciendo mas cuello de botella elevando el uso de la cpu en juegos mayor sera la temperatura.

-Mito:La memoria ram de altos mhz es plug and play gracias a XMP.
Falso:
La memoria ram de altos mhz en la mayoria de casos es ram overclock,en 2 ocasiones en mi experiencia y habiendo leido 2 comentarios de otras personas en internet,al activar xmp el voltaje de la controladora de memoria interna de la cpu(no confundir con el voltaje de la memoria ram 1.20-1.35v) puede manejarse indebidamente metiendo mas voltaje del necesario para correr esa memoria ram,por ejemplo de stock la controladora funcionar a 1.050V activar xmp para usar los mhz de la memoria y XMP meter 1.3V a la controladora de memoria de la cpu cuando en la realidad(es un supuesto) esa memoria puede ser que corriese a 1.1V,osea 0.05V añadido,no 0.25V añadido.
Por lo tanto es necesario un minimo conocimiento para manejar ram(tampoco mucho) para comprobar que al activar xmp el voltaje es correcto.
Rocker0990 escribió:-Mito:Los procesadores actuales de intel son "tostadoras" (testeado generacion 8-9 y 12 con AIO nzxt kraken x62).
Falso:
- la temperatura de la cpu en mayor medida dependera del uso de la cpu,si es cierto que si hay un uso 100% de la cpu en una cpu caliente alcanzara temperatura,pero para un uso en juegos donde seguramente no supere el 60% de uso no es cierto con una buena disipacion no habria problema.
Cuanto mas años pasen y esa cpu vaya haciendo mas cuello de botella elevando el uso de la cpu en juegos mayor sera la temperatura.


Esto en concreto se aplica a TODOS los procecesadores(Incluidos los FX que todo el mundo llamaba hornos), excepto los Pentium D, los únicos que se podían llamar tostadoras por su pésimo rendimiento [carcajad]
Con todos mis respetos, no sé de dónde sacas esos "mitos" y esas "afirmaciones", que no me parecen acertadas, precisas ni correctas.

Además, de lo que hablas en tu post yo no lo denominaría "mitos" ni "creencias".

Saludos.
dCrypt escribió:Con todos mis respetos, no sé de dónde sacas esos "mitos" y esas "afirmaciones", que no me parecen acertadas, precisas ni correctas.

Además, de lo que hablas en tu post yo no lo denominaría "mitos" ni "creencias".

Saludos.


Pues los saco de los años que llevo leyendo foros de informatica y diferentes afirmaciones de la gente que escribe en ellos. Que no te parecr acertado, preciso o correcto?
javier español escribió:Mito: "espérate y no te compres todavía una GPU de la serie RTX 3000, que recién lanzadas están muy caras y en poco tiempo van a bajar de precio que no veas..." (En este mismo foro vi muchos comentarios como ese o parecidos)

Otro mito: "como voy muy justo de dinero, de momento me compro la placa más barata con solo 2 slots para la RAM y le pongo solo 1 módulo hasta que más adelante ahorre y le compro otro igual para que vayan en Dual Channel." (Luego pasa el tiempo y no encuentra otro módulo de la misma referencia en tiendas, o se compra otro diferente porque el que tiene es más caro y claro, luego no son compatibles porque no tienen los mismos chips internos, ni las mismas latencias, uno es Single Rank y el otro Dual Rank, etc... y no los puede configurar en Dual Channel porque tiene inestabilidades y no se explica por qué "¡si son de la misma frecuencia!")

Muy buenos. :)
colado escribió:Pues los saco de los años que llevo leyendo foros de informatica y diferentes afirmaciones de la gente que escribe en ellos. Que no te parecr acertado, preciso o correcto?


Mito: Persona o cosa a la que se atribuyen cualidades o excelencias que no tiene.
Creencia: Idea o pensamiento que se asume como verdadero.

Creo que confundes los términos, porque cualquier frase que aportas como "creencia" puede ser cierta, y cuando hablas de "desmontar mitos" presupones que no lo son. "Mito" y "creencia" no son sinónimos. Quizá "creencia falsa".

- Tu pc no puede con un monito 4k, mejor 1440 144hz.
La resolucion 4k (3840x2160) 60fps equivale en potencia de procesamiento de la gpu a el mal
llamado 2k (2560x1440) 135fps o a ultrawide “2k” (3440x1440) 100fps


Esto no es una creencia falsa o mito, es una frase genérica que en muchos casos no tiene por qué ser falsa ni necesitar ser desmontada. Lo que yo entendería como creencia: "Para un mejor rendimiento, mejor 1440@144hz que un monitor 4k"
El "desmontaje" no es correcto: hablas de ancho de banda de la señal (aprox 500mpix/seg), la potencia de procesamiento de un juego depende de muchos otros factores, del juego, de los cuellos de botella, etc.

- Mi procesador consume poquisimo, tengo un tdp de 65w.
El tdp en un chip es un indice que indica la cantidad maxima de calor que genera, que aunque se mide en watts no tiene nada que ver con su consumo energetico, por ejemplo, un ryzen 3700x tiene un tdp de 65w pero de consumo energetico maximo sobrepasa los 200w.


Tampoco es una creencia, o tal y como está formulada no es una creencia. Lo que yo entendería como falsa creencia: "Un procesador con un TDP de 65w consume 65w", que podría ser puntualizable pero no necesariamente falsa.
La respuesta es muy burda y, creo (opinión personal, puede que no tenga todos los datos) incorrecta. Primero, porque el Ryzen 3700x he visto tests donde se menciona que consume máximo 90w (200w puede ser el equipo completo???). TDP y consumo energético es equivalente, no diferente. Además, me refiero a la definición de TDP de Intel:

https://www.intel.es/content/www/es/es/ ... ssors.html

"TDP significa potencia de diseño térmico, en vatios, y se refiere al consumo de alimentación en la carga teórica máxima." Es decir, sí es una predicción del consumo real, en full load, siempre y cuando se respeten los parámetros del fabricante (no OC, no mejoras de la placa, etc). Esta definición es de 2019, puede que ya no sea válida para los nuevos procesadores de este fabricante. Desconozco la definición de TDP de AMD, podría diferir y entonces el "desmontaje" es totalmente inexacto, dependería de la interpretación del TDP.

- Mi fuente Mars Gaming Vulcano 750W puede con todo y va genial.
Una fuente de alimentacion no siempre da los watts que indica, las genericas y las baratas normalmente un 30% menos de lo indicado, ademas de tener pocos o ningun sistema de proteccion, valores de tension inconstantes


Bueno, como creencia, podría aceptarlo. Sin embargo, la respuesta no está alineada con la creencia. Sin embargo, este punto es el que considero más alineado con el topic y más preciso, aunque añadiría falta de fiabilidad, controles de calidad insuficientes, etc.

- Mi juego pide 12gb de vram, en 2021 no pueden tener menos memoria.
Los videojuegos reservan una cantidad de ram de video, cuanta mas haya mas reservaran, esto no indica que sea la que consume realmente.


Acepto esto como creencia. La respuesta sin embargo no es precisa: depende del juego y su configuración, y habría que referir a los requisitos mínimos del fabricante.

- Le cambie la pasta grafica a mi cpu, xo siguen los problemas.
La pasta termica, ni se degrada tan rapido como muchos creen, ni ofrece tanta diferencia de temperaturas. Es recomendable cambiarla cada año par de años pero no hace milagros, puede mejorar la temperatura entorno al 10% como mucho.


Tampoco veo dónde está la creencia. Podría ser: "Cuando cambie la pasta térmica [que no gráfica] a mi CPU solucionaré los cuelgues", por ejemplo.
La respuesta es incorrecta: ni es necesario cambiarla cada 1-2 años ni tiene por qué mejorar la temperatura un 10%. Hay que cambiarla cuando se note degradación (depende del material, fabricante, temperatura, cantidad de tiempo en full load, tiempo desde la aplicación, ...) y qué mejor forma que hacerlo simplemente cuando las temperaturas no sean las adecuadas.
Además, la respuesta no está alineada con el "mito": yo aportaría una respuesta en el sentido de diagnosticar con cabeza los problemas de cuelgues. O incidir en que cambiar o aplicar correctamente la pasta térmica implicaría únicamente un impacto en una reducción de las temperaturas, no en "problemas" así, en general.

Saludos.
A ver, cuando cree este hilo, no contaba con hacerlo super tecnico y super preciso, ya que cada creencia falsa da para hacer un hilo propio. Intento explicarlo de forma coloquial y amena.

Respecto a los puntos que discrepas:

- Evidentemente entran muchos mas factores que la cantidad de pixeles por segundo que procesa una gpu, pero a grandes rasgos es asi.

- El tdp (thermal desing power), como su propio nombre indica, habla del diseño termico del chip, evidentemente, para producir calor en un chip, se necesita consumo electrico y por ende, estan relacionados. Otra cosa es que sea lo mismo, que no lo es, y es mas, nunca coincide. Es mas, no se si es problema de traduccion, pero la propia intel dice que “ Cuál es el propósito de TDP?
El propósito de definir TDP es proporcionar a los diseñadores/integradores de sistemas un objetivo de potencia para ayudar en la selección de soluciones térmicas adecuadas.” Como ves, habla de soluciones termicas, no de soluciones de eleccion de alimentacion energetica.
Y en intel es mas acusao incluso la diferenca de tdp con el de consumo electrico.

- Respecto al ultimo punto, me refiero a que hay muchos usuarios que piensa que cambiando la pasta termica se van a solucionar todos sus males, visto en este mismo foro en multitud de ocasiones.

Pido disculpas si no es lo suficientemente preciso, como he dicho, pretendo que sea algo ameno de leer y de desmontar diferentes convencimientos.
Hombre, no pidas disculpas por que yo sea crítico, mi ánimo es mejorar el foro, no criticar las iniciativas de los compañeros. Tómalo como una recomendación para mejorar el planteamiento del hilo.

Saludos.
fulfidor escribió:Mito: Los ssd mejoran el rendimiento del PC ya que al cargar más rapido, gestiona mejor la información
Realidad: los ssd no mejoran nada el rendimiento de un PC, simplemente el tiempo de carga de los elementos necesarios para funcionar
PD: fui víctima de esto. Me pille un m2 sn750 black western digital para "solo" ahorrarme tiempos de carga. Que ya solo por eso si que merece la pena. Pero 0 rendimiento


eso era asi hasta hace poco , pero algunos juegos modernos si necesitan de un SSD para funciona correctamente , como por ejemplo el Horzon Zero dawn , lo tenia intslado en un HDD y en el black friday me pille un 970 evo plus y el cambio fue radical a mejor desapareciendo por completo los tirones que tenia cuando estaba en el HDD.

salu2
@dCrypt Teniendo en cuenta que la mayoría de "mitos y creencias" que se exponen aquí son los típicos que repiten de boca en boca "el pueblo" que cuando los buque para ver su veracidad solo se va a quedar con 1 frase(O igual 3 palabras), así que haciendo una respuesta de 5 parrafos solo hará que esa mayoría de gente que busca literalmente pase de leer.

Son respuestas pequeñas e incompletas, pero al menos quien lo lea se quedará con lo mínimo de "No es cierto", quee supongo que es lo que quiere este hilo.
Un teclado mecánico es más fiable que uno de membrana.

Que se lo digan a los que se han dejado un dineral en el Corsair o el Razer de turno y al cabo de unos meses empiezan a no registrar pulsaciones, a tener dobles pulsaciones, a ver cómo se le borran las leyendas... Luego, en la tienda del barrio tienen un Logitech de membrana de menos de 10€ que recibe horas y horas al día de teclas aporreadas y, aunque algunas estén literalmente machacadas, ahí siguen funcionando.
alguna vez se escucha fuente de muchos watios consume mas ,
nirvana17 escribió:alguna vez se escucha fuente de muchos watios consume mas ,

Y eso es correcto, si está muy sobredimensionada respecto a lo que consuman los componentes, depende del modelo en concreto de fuente que sea, pero normalmente si el consumo de los componentes está por debajo del 20% de la potencia que la fuente sea capaz de suministrar apróximadamente, las fuentes pierden bastante eficiencia y consumen más.

Dicho esto, tampoco es que eso sea algo muy exagerado normalmente, depende de la cantidad de horas de uso del equipo, pero si p.ej. es para un servidor que vaya a estar enchufado 24/7 y el consumo del equipo fuera muy bajo, pues si se pusiera una fuente exageradamente sobredimensionada en potencia, pues sí, se notaría en el recibo de la luz más que si se pusiera una fuente más ajustada en potencia a lo que consuma realmente el equipo.

Saludos.
@javier español la curva de eficiencia en las fuentes de muchos watios y calidad hace que ese consumo en niveles bajos sea anecdótico o irrelevante.

Otra cosa es que compres una fuente de las de incendio asegurado y tenga una eficiencia pésima.
Dfx escribió:@javier español la curva de eficiencia en las fuentes de muchos watios y calidad hace que ese consumo en niveles bajos sea anecdótico o irrelevante.

Otra cosa es que compres una fuente de las de incendio asegurado y tenga una eficiencia pésima.

Pues por ponerte un ejemplo, una Corsair RM1000X no es una fuente de baja calidad y mira la curva de eficiencia que tiene en cargas bajas: https://www.tomshardware.com/reviews/co ... y-review/2

Imagen

Y mira lo que dije:
javier español escribió:
nirvana17 escribió:alguna vez se escucha fuente de muchos watios consume mas ,

Y eso es correcto, si está muy sobredimensionada respecto a lo que consuman los componentes, depende del modelo en concreto de fuente que sea, pero normalmente si el consumo de los componentes está por debajo del 20% de la potencia que la fuente sea capaz de suministrar apróximadamente, las fuentes pierden bastante eficiencia y consumen más.

Dicho esto, tampoco es que eso sea algo muy exagerado normalmente, depende de la cantidad de horas de uso del equipo, pero si p.ej. es para un servidor que vaya a estar enchufado 24/7 y el consumo del equipo fuera muy bajo, pues si se pusiera una fuente exageradamente sobredimensionada en potencia, pues sí, se notaría en el recibo de la luz más que si se pusiera una fuente más ajustada en potencia a lo que consuma realmente el equipo.

Saludos.
@javier español por eso te digo que hagas el cálculo que supone 50 a 100w entre el 84 y 90% eficiencia, a lo sumo estás hablando de 1w, irrelevante. Ya que las de menor potencia también tienen su curva en esos rangos.
Dfx escribió:@javier español por eso te digo que hagas el cálculo que supone 50 a 100w entre el 84 y 90% eficiencia, a lo sumo estás hablando de 1w, irrelevante. Ya que las de menor potencia también tienen su curva en esos rangos.

Para nada es lo mismo en una fuente de 1000W que en una de 300W, en la de 1000W la mayor pérdida de eficiencia se produce a partir de unos 200W de consumo hacia abajo, en una fuente de 300W se produciría a partir de unos 60W de consumo hacia abajo. Lee bien lo que escribí, que ya dije que en general eso no supondría gran cosa, pero depende del tipo de equipo y las hora de uso, un servidor que esté encendido 24/7, si tiene una eficiencia muy mala por estar muy sobredimensionada, no sabría decirte cuantos W serían de diferencia, pero seguramente batante más de 1W como dices, y a la larga se notaría en el consumo seguro.

En la imagen que puse se ve claramente la brutal caída de eficiencia que hay por debajo del 20% de la capacidad de la fuente más o menos, cuánto puede suponer eso en W, pues dependerá del consumo del equipo, etc... pero solamente 1W nada más como dices, me da a mi que no. Para un usuario particular, que no tenga muchas horas al día encendido el equipo, ni que creo que tenga una fuente tan sobredimensionada, pues seguramente no suponga mucha diferencia, pero para una empresa que tenga muchos equipos encendidos 24/7, si no se mira bien la eficiencia puede suponer un buen pico a la larga en el recibo de la luz.

Saludos.
Mito: el overclock se carga la cpu y la placa al forzar voltajes, además disminuye la vida del procesador

Falso: lo que se carga los transistores de la CPU es una mala disipación del calor, no el overclock
@javier español en 60w la diferencia de eficiencia respecto a una 1000w igual es del 5 a 10% en el peorisimo de los casos. A no ser que seas un paranoias de las facturas 3 a 6w no son nada.

Y esto en un caso extremisimo de necesitar 300w y montar una 1000w, porque lo más normal son equipos que irían bien con 600 o 700 que han montado más "por si", y ahí sí la diferencia es de anécdota.
49 respuestas