hay algún limite a la mejora de la potencia del hardware?

sagunto1234 está baneado por "clon de usuario baneado"
Hace 10 años, los usb tenian mucha menos capacidad, los procesadores mucho mas lentos, las memorias ram eran mucho más pequeñas...

Digamos que va creciendo la capacidad/velocidad pero...¿llegará un momento donde nos quedaremos atascados?
Va por temporadas, ahora mismo hay un gran atasco con los procesadores, desde los sandy.

Aparte, el mercado evoluciona debido a intereses comerciales, es decir si sacan una nueva tecnologia estudian cuando es el mejor momento de implementarla para que de las mayores ganancias, como si tienen que pasar 20 años con ello en el trastero.
El factor limitante de la potencia del hardware (CPU/GPU) es la temperatura.

Hace muchos años se pronosticaron PCs mucho más rápidos y potentes que los actuales, pero no se tuvo en cuenta el factor de la temperatura.

Si os fijáis en las competiciones de OC, suelen ganar los que tienen mejores métodos de disipación de calor.
sagunto1234 está baneado por "clon de usuario baneado"
catenaccio escribió:El factor limitante de la potencia del hardware (CPU/GPU) es la temperatura.

Hace muchos años se pronosticaron PCs mucho más rápidos y potentes que los actuales, pero no se tuvo en cuenta el factor de la temperatura.

Si os fijáis en las competiciones de OC, suelen ganar los que tienen mejores métodos de disipación de calor.



pero ese limite no se puede combatir con mejores ventiladores o con materiales mas resistentes?

gracias
@ntuan escribió:Va por temporadas, ahora mismo hay un gran atasco con los procesadores, desde los sandy.

Aparte, el mercado evoluciona debido a intereses comerciales, es decir si sacan una nueva tecnologia estudian cuando es el mejor momento de implementarla para que de las mayores ganancias, como si tienen que pasar 20 años con ello en el trastero.



Para mí, desde Sandy Bridge lo único que han hecho ha sido potenciar un poco lo que había... Me parece que de un I7 2600 a el último I7 de última hornada ''apenas'' hay un 30% más de rendimiento, y según en qué... Y eso que ya han pasado 5 años...

Yo estoy esperando a que vuelva a haber otro salto generacional de verdad en los CPU para renovar mi PC por completo...

Yo opino que Intel no pega un gran salto de verdad porque AMD está hundida


Las gráficas igual, AMD sacando refritos hasta este año o el pasado, me parece... Y Nvidia por lo que tengo entendido este año también ha pegado otro saltito tecnologico.
El limite es el coste y el nicho de mercado que haya.
Si hay mercado y competencias no hay limites, si no hay mercado ni competencia todo es limite y un poco de mejora de vez en cuando.
sagunto1234 escribió:
catenaccio escribió:El factor limitante de la potencia del hardware (CPU/GPU) es la temperatura.

Hace muchos años se pronosticaron PCs mucho más rápidos y potentes que los actuales, pero no se tuvo en cuenta el factor de la temperatura.

Si os fijáis en las competiciones de OC, suelen ganar los que tienen mejores métodos de disipación de calor.



pero ese limite no se puede combatir con mejores ventiladores o con materiales mas resistentes?

gracias


De hecho se combate con ventiladores y/o refrigeración líquida en los PCs de sobremesa.. Pero el problema hoy en día son los portátiles y las tablets/móviles, que tienen una capacidad de disipación muy limitada, y el calor acaba generando la muerte prematura de algunos de sus componentes
sagunto1234 escribió:Hace 10 años, los usb tenian mucha menos capacidad, los procesadores mucho mas lentos, las memorias ram eran mucho más pequeñas...

Digamos que va creciendo la capacidad/velocidad pero...¿llegará un momento donde nos quedaremos atascados?

No. De hecho, la evolución del hardware simplemente se está gestionando; que es una forma de decir que nos están administrando la velocidad con la que se suministran las nuevas tecnologías.

Dicho ésto, habría que preocuparse mucho más en la pésima gestión que gran parte del software actual hace del hardware, que poner el balón en tejado éste último; dicho así puede parecer una barbaridad, pero que a poco que se piense tiene bastante lógica.
llevamos anclados al ostracismo tecnologico varios años, pero mas que por el hardware, es por el software.
Los lenguajes de programacion usados no son nada eficientes...

Hasta que no aparezca algun genio que nos haga ver la luz en el campo de los lenguajes de programacion, pues seguiremos con este avance lento y extenuante.
Si bien en los ultimos años se ha progresado bastante con el cloud computing, en realidad, en los ultimos 10 años el salto tecnologico deberia haber sido muchisimo mas alto.
sagunto1234 está baneado por "clon de usuario baneado"
Ñomo escribió:
sagunto1234 escribió:Hace 10 años, los usb tenian mucha menos capacidad, los procesadores mucho mas lentos, las memorias ram eran mucho más pequeñas...

Digamos que va creciendo la capacidad/velocidad pero...¿llegará un momento donde nos quedaremos atascados?

No. De hecho, la evolución del hardware simplemente se está gestionando; que es una forma de decir que nos están administrando la velocidad con la que se suministran las nuevas tecnologías.

Dicho ésto, habría que preocuparse mucho más en la pésima gestión que gran parte del software actual hace del hardware, que poner el balón en tejado éste último; dicho así puede parecer una barbaridad, pero que a poco que se piense tiene bastante lógica.



gracias, dentro de poco abriré un hilo que hablará sobre el mercado de la informatica: si el estado es el que dice qué hay que producir, si es el capitalismo, si hay oligarquia,etc... ¿será interesante?
Ingalius escribió:llevamos anclados al ostracismo tecnologico varios años, pero mas que por el hardware, es por el software.
Los lenguajes de programacion usados no son nada eficientes...

Hasta que no aparezca algun genio que nos haga ver la luz en el campo de los lenguajes de programacion, pues seguiremos con este avance lento y extenuante.
Si bien en los ultimos años se ha progresado bastante con el cloud computing, en realidad, en los ultimos 10 años el salto tecnologico deberia haber sido muchisimo mas alto.



Yo pienso eso mismo. Mas que potencia, nos hace falta lenguajes mas potentes.

En cualquier hace tiempo que parece que la tecnología no avanza.
Bueno, el silicio tiene un limite, tanto en disipacion de calor como en tamaño de fabricacion y numero de transistores. Y ese limite ya esta muy cerca, por eso estan intentando ampliarlo reduciendo el tamaño, ahora mismo en 14nm, otros trucos como ampliando ancho de banda, mas memoria cache...
El proximo salto importante sera hacia los procesadores cuanticos o hacia los procesadores fabricados con biomateriales.
sagunto1234 escribió:
Ñomo escribió:
sagunto1234 escribió:Hace 10 años, los usb tenian mucha menos capacidad, los procesadores mucho mas lentos, las memorias ram eran mucho más pequeñas...

Digamos que va creciendo la capacidad/velocidad pero...¿llegará un momento donde nos quedaremos atascados?

No. De hecho, la evolución del hardware simplemente se está gestionando; que es una forma de decir que nos están administrando la velocidad con la que se suministran las nuevas tecnologías.

Dicho ésto, habría que preocuparse mucho más en la pésima gestión que gran parte del software actual hace del hardware, que poner el balón en tejado éste último; dicho así puede parecer una barbaridad, pero que a poco que se piense tiene bastante lógica.



gracias, dentro de poco abriré un hilo que hablará sobre el mercado de la informatica: si el estado es el que dice qué hay que producir, si es el capitalismo, si hay oligarquia,etc... ¿será interesante?


Pues no.
Quien decide los tiempos en los que lanzan los avances, como en cualquier otro negocio, es la empresa que fabrica el producto cuando tiene el monopolio del producto.
Actualmente son Intel y Nvidia las que marcan los tiempos para asi maximizar los beneficios... ni estado, ni "capitalismo", ¿oligarquia?... venga va....
Si la cosa sigue asi, en plan de "explotar" el mercado al maximo, pues veremos como dentro de no mucho se suman actores secundarios al negocio, y entonces quizas si veremos avances mas significativos.
sagunto1234 está baneado por "clon de usuario baneado"
alguna opinion mas?
Vamos por partes (Resumen)

1) El mayor retraso hoy en día es como dicen el Software (Lenguajes de programación con un rendimiento pésimo (algunos mucho peor que otros)) pero es que crear un lenguaje versátil y potente es una tarea casi imposible por la enorme cantidad de trabajo y de mentes brillantes que requeriría (si alguien se piensa que algo así puede hacerlo una persona en su casa va listo).

2) Al contrario de lo que muchos creen la realidad es que ya estamos llegando al limite de lo que la tecnología digital basada en el silicio puede dar (al ritmo actual alcanzaremos ese limite en la década de 2020 probablemente en 2025-2027) (en el mejor de los casos optimizando/reduciendo otros componentes del PC podríamos alargar la decadencia 10 años más hasta 2035 y que seguramente sera lo que se haga puesto que 2020 tecnológicamente hablando lo tenemos ya encima) ten en cuenta que la "Unidad mínima indivisible de Materia" es el ÁTOMO (No puedes fabricar nada que requiera menos de un Átomo pues es la unidad mínima de cualquier elemento de la Tabla periódica. Todo el desarrollo electrónico del planeta esta basado en el silicio (hay sustitutos (Oro, Galio, Germanio) y el material que paga fuerte son los grafenos pero son caros y difíciles de producir por el momento) por lo que actualmente estamos con el silicio que ya esta llegando a su limite Actualmente cada soldadura de los transistores tiene tan solo 28 átomos de silicio y el limite teórico en el cual un transistor no puede reducirse más (no puedes soldar con menos de un Átomo (unidad indivisible de materia recuerdas) es de 5 nm por debajo de eso es imposible integrar los transistores al circuito eléctrico de la placa base.
Hacer transistores más pequeños que estos requerirá usar elementos distintos del silicio que tuvieran un radio atómico más pequeño, o el uso de partículas subatómicas (como electrones o protones) como transistores.


Radio Atómico de los elementos (comparar con la tabla de abajo para los que no os sepáis la "Sagrada Tabla" de memoria [+risas] (El silicio se representa por "Si" y es el décimo cuarto (14) elemento en la tabla

Imagen


Tabla Periódica

Imagen



Así pues salvo que se halle la forma de hacer asequible el grafeno (o los otros materiales arriba comentados) o que se pueda utilizar las partículas subatómicas como transistores en un plazo máximo de 20 años (si no en 10 años) habremos llegado al limite.
Este es el motivo por lo que ahora ya no se aumenta la potencia tan rápido como antes (reducir más nm es jodido pues estamos al limite), fabricar a menos nm requiere muchas más inversión maquinas más precisas lo que encarece el coste (aparte de que no puedes reducir mucho más) y por otro lado antes menos nm era sinónimo de disminución de consumo y aumento de potencia y fíjate si estamos llegando al limite de lo que el Silicio puede hacer que ya disminuir de 22nm a 14nm apenas a incrementado la potencia un misero 5% y estudios científicos dicen que a partir de los 7nm incluso de perderá rendimiento por interacciones atómicas (siempre refiriéndonos al Silicio).

Según Bob Colwell, el nodo de 5 nm será el fin de la Ley de Moore (y estudios más recientes como digo sitúan esa cifra en los 7nm y no en los 5nm)
https://en.wikipedia.org/wiki/Bob_Colwell

Así pues los esfuerzos desde hace años se centran en optimizar (en lugar de reducir porque ya no puedes sacar más de donde no hay) entiéndase entre comillas "intel hyper-threading", "AMD Simultaneous multithreading (SMT)", Dx12, Vulkan ect...

Articulo de la revista Nature (una de las revistas más prestigiosas sobre ciencia a nivel internacional)
http://www.nature.com/news/the-chips-ar ... aw-1.19338

Saludos
15 respuestas