› Foros › Noticias › Tecnología
Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.
Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.
Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.
Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.
Türme escribió:Que se lo pongan a la NX, a la NX
Netacrawler escribió:Tomax_Payne escribió:Como mola, que teniendo la tecnologia de 7, nos hagan pasar por 2 o 3 antes para "amortizar" el desarrollo.
Al final, siguiendo la linea del bajo consumo, nos pegamos otros 10 años con las baterias de litio.
Claro, por que los ingenieros e investigadores no comen, ni sus familias tampoco
eR_pOty escribió:para cuando se comercialice nintongo habra sacado ya 49 consolas y 300 amiibos despues de la NX
Netacrawler escribió:Claro, por que los ingenieros e investigadores no comen, ni sus familias tampoco
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.
Benzo escribió:
Antes de que los 7nm lleguen a nuestras vidas deberemos pasar por los chips de 10nm. Intel tiene previsto lanzar sus primeros procesadores basados en esta tecnología a finales de 2016 o inicios de 2017.
SashaX escribió:Benzo escribió:
Antes de que los 7nm lleguen a nuestras vidas deberemos pasar por los chips de 10nm. Intel tiene previsto lanzar sus primeros procesadores basados en esta tecnología a finales de 2016 o inicios de 2017.
Como me tocan los ***** éstas cosas.
eboke escribió:Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.
Venía a citarla
Para el que no la conozca: https://es.wikipedia.org/wiki/Ley_de_Moore
¿Qué es la ley de Moore?
El 19 de abril de 1965, la revista Electronics publicó un documento elaborado por Gordon Moore en el que él anticipaba que la complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable. Conocida como la ley de Moore, su predicción ha hecho posible la proliferación de la tecnología en todo el mundo, y hoy se ha convertido en el motor del rápido cambio tecnológico. Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Además de proyectar cómo aumenta la complejidad de los chips (medida por transistores contenidos en un chip de computador), la ley de Moore sugiere también una disminución de los costos.
Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.
mmiiqquueell escribió:Señor Ventura escribió:¿Nos acercamos al fin de la ley de moore?, ¿que futuro nos espera?.
La ley de moore ya esta obsoleta, el mismo lo menciono en 2010, que ya no servia, ya en 2005 se supero (Intel itanium 2).
Eso demuestra que en realidad podrian haber superado esta ley desde antes que existiriera pero se dieron cuenta que era una buena forma para sacar el dinero a la gente. Podrian superar la cantidad de transistores mucho mas del doble pero nunca pasara, porque?, podrian sacar un procesador con una cantidad bestial de transistores que podria durar muchos años hasta el proximo modelo que duplicara o triplicara o quien sabe esa cantidad, entonces con la ley de moore limitan esa cantidad por debajo de ese limite y eso les permite que en vez de sacar un procesador cada 10 años sacar uno cada año que apenas mejora con el anterior y asi en vez de vender 1000 millones de procesadores en esos 10 años vendereran 1000 millones por cada año que sacas esos procesadores y por lo tanto ganaras 10 veces más. Parece de pelicula pero me parece la forma mas adecuada de pensar de una empresa. Igual que las consolas siempre estan por debajo de los PCs pero quizas es a porposito para sacar modelos Slim y nuevas consolas mas antes y sacar el dinero mas facilmente, como caso de Nintendo con la kk de New 3DS. O caso del PC para que tantas graficas y procesadores si con uno de hace muchos años de lo mas potente aun te sirve para muchos juegos como es mi PC que tiene un i5 de 3º Gen y una GTX660 que eso tiene ya sus años y aun tira muchos juegos actuales en Ultra. O caso de los Smartphone que cada 3 meses sale modelo nuevo y la gente inmediatamente compra. Asi vamos, asi vamos que nos sacan el dinero como quieren, si realmente no fueran a sacarnos el dinero sacarian un producto de calidad que no necesitaria salir nada nuevo en muchos años. Windows lo mismo, cada cuanto salia un Windows y ahora cada 2 años tenemos uno nuevo encima y no me extrañaria que llegue el dia en que nos salga uno nuevo como en linux, que por lo menos linux es gratuito.
Paranoico? puede, pero sabéis que es verdad.
Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD
xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..
Saludos
mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD
Señor Ventura escribió:Lo que decía iba en el sentido de que les ha costado un triunfo bajar a 7nm desde 14nm, y todo depende de que la forma de fabricar los nuevos transistores permita bajar bastante de esos 7nm. Hasta entonces, supongo que ya se estará trabajando para encontrar la nueva tecnología de miniaturización, pero es que llegará un día en que esta no llegue a tiempo, y además será carísima de producir.
El futuro de los chips de silicio acabará pasando por hacerlos mas grandes, en vez miniaturizar los transistores, porque esto empieza a dar síntomas de llegar al límite de su tecnología. ¿No se iba a saltar al grafeno porque permitía mas miniaturización y resistencia al calor?.xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..
Saludos
O sea, que es peor de lo que me pensaba. Ya hemos llegado al límite de esta tecnología, y el día menos pensado nos cuentan que de 7nm no bajamos.mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD
Bueno... entonces, ¿el grafeno para cuando?.
En 7nm cuántos electrones caben??
lobitoloco escribió:En 7nm cuántos electrones caben??
En 7nm caben muchísimos electrones.
si hablas de átomos, la cosa cambia. Los electrones son muchooooo más pequeño.
radio atómico Silicio: 0.137 nm
Radio del electrón: 2,81×10-6 nm
xavierll escribió:Señor Ventura escribió:Lo que decía iba en el sentido de que les ha costado un triunfo bajar a 7nm desde 14nm, y todo depende de que la forma de fabricar los nuevos transistores permita bajar bastante de esos 7nm. Hasta entonces, supongo que ya se estará trabajando para encontrar la nueva tecnología de miniaturización, pero es que llegará un día en que esta no llegue a tiempo, y además será carísima de producir.
El futuro de los chips de silicio acabará pasando por hacerlos mas grandes, en vez miniaturizar los transistores, porque esto empieza a dar síntomas de llegar al límite de su tecnología. ¿No se iba a saltar al grafeno porque permitía mas miniaturización y resistencia al calor?.xavierll escribió:La ley de Moore no es una ecuación matemática ni ley física. Es mas bien un postulado empírico. Y más que cumplirse yo diría que los fabricantes se empeñan (O esfuerzan según se vea) en que se siga cumpliendo. El supuesto fin de la ley estaba en que la técnica de nanolitografía con la que se fabrican los chips utiliza una longitud de onda que "en principio" no debería de poder ser más pequeña que unos 13nm. A falta de leer cómo lo han conseguido exactamente realmente parece toda una hazaña y normal que se dejasen tantísimo dinero..
Saludos
O sea, que es peor de lo que me pensaba. Ya hemos llegado al límite de esta tecnología, y el día menos pensado nos cuentan que de 7nm no bajamos.mmiiqquueell escribió:Hay una ley que no me acuerdo de su nombre y llevo buscandola ahora no se cuantos minutos y no doy con ella que es la limitacion de velocidad, que a medida que aumentan los transistores la velocidad aumentara cada vez menos hasta llegar a un limite donde se quedara estancado. Bueno esa ley se rompio con el grafeno ya que el silicio ahora mismo da igual cuantos transistores metan como ya no se pueden reducir mas de los 7nm (es decir el procesador de IBM es el limite) pues sera lo mas rapido que podran ir los transistores de silicio, pero el grafeno se puede reducir más y rompe la ley esta que digo donde se han alcanzado hasta los 500GHz de velocidad y fue creado por si si si , IBM tambien. Todo lo consigue siempre IBM, y si son tan buenos como es que no voe a nadie usar ningun producto suyo? xD
Bueno... entonces, ¿el grafeno para cuando?.
Yo lo veo aún para lejos, al menos comercialmente. Básicamente porque ya hablaríamos de un ordenador cuántico y en ese caso la pregunta que muchos se hacen es: Realmente necesitamos un ordenador cuántico? Realmente necesitamos, la gente de a pie, tanta potencia de cálculo?? A mí sólo se me ocurren procesadores así para cosas como que todos los coches se conduzcan solos, análisis del tráfico, tiempo, etc en tiempo real.. Investigación de virus, simulación de aviones, etc. No veo para qué una persona necesite un ordenador con Xpetaflops teniendo en cuenta que necesitaría algo para refrigerarlo (Con la tecnología actual) y que sería inmensamente caro.. Estamos como hace 50 años. Todo suena demasiado futurista y seguramente hasta dentro de unos 40-50 años no veremos nada parecido y la industria seguirá creciendo en busca de chips con mejores rendimientos de consumo, procesadores multinúcleo y sobretodo en una optimización mejor del software para este. Está claro que aún nos cuesta pensar en chips con miles de núcleos (Fabricables con la tecnología actual) y ese será el gran reto previo al ordenador cuántico.
Un saludo
Señor Ventura escribió:Todo indica a eso, que ya no se miniaturiza mas, sino que se se van a empezar a sumar nucleos a las cpu's como si no hubiera un mañana (que además no es figurado, es real xD).
Entonces, el futuro inmediato pasa por emplear la misma tecnología a 7nm con muchos núcleos, o que de repente nos dicen que la tecnología de grafeno está preparada, y volvemos a empezar la rueda.
La cuestión es cuánto tiempo vamos a estar con los apaños en 7nm hasta que tengamos una tecnología que verdaderamente lo sustituya.
P_AKER escribió:
Un tal Bill Gates dijo en su día que un ordenador no necesitaría más de 640kb de RAM. Da igual cuanta potencia ofrezcan los ordenadores futuros, programamos tan mal que nos faltará siempre potencia o memoria.
El uso de varios procesadores tambien añade problemas, a más procesadores menor mejora se aprecia. Tampoco hay mucho software que pueda aprovecharlos, ojo, no sólo que no se puedan paralelizar, es que tampoco lo necesitan. Ordenadores de cientos de CPUs hace eones que existen pero para tareas muy concretas que encima han de programarse ad-hoc. Ni es un mundo nuevo, ni es la panacea.
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?
para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.
Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".
yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.
Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.
Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....
Einishi escribió:Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?
para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.
Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".
yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.
Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.
Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....
Solo paso a escribir porque este fue un muy buen comentario que es difícil de creer que este en eol.
Saludos.
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?
para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.
Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".
yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.
Actualmente diria que lo que limita la tecnologia en todos los aspectos, son precisamente las leyes fisicas que conocemos... lo de los 300.000km/sec es un gran problema logistico actualmente, y mientras no salga algun "lumbreras" por ahi que ilumine los proximos cinco siglos con alguna brillantez que explique lo que es la gravedad, y como pasarsela por el arco del triunfo (algo asi a lo que hacemos con la electricidad desde hace muchos años y que nos ha permitido llegar al desarrollo tecnologico actual) estaremos destinados al ostracismo tecnologico en el que vivimos.
Pensad que estamos en la edad de piedra tecnologicamente hablando... ¿alguien se puede imaginar donde puede estar, tecnologicamente hablando, una civilizacion inteligente que haya desarrollado su primero ordenador hace... ¿600 años? ¿4000 años? ¿50.000 años? ¿1 millon de años? ¿30 millones de años?
Que sera lo normal en el universo... que los dinosaurios se extinguieron hace 65millones de años, la tierra se formo hace 4000 millones de años... que la tierra y el sol se han formado de los restos de la explosion de otra estrella, que nacio, vivio, y exploto....
titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.
Klonoa del Viento escribió:Lo que no termino de entender es, si se está "experimentando" con los 7nm, y la tecnología actual mas avanzada ya ha llegado a los 14nm...
¿Que pasa con las APU de 20nm que AMD estaba preparando el año pasado, y que supuestamente iban a empezar a fabricarse este año para PS4 Slim?
titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.
Y por lo que veo por aquí, hay muchos que necesitan lo más nuevo en procesadores para usar whatsapp, y jugar al angry birds...
yeye2 escribió:titofla escribió:Quien dice que 7nm es el límite?
El límite estará a nivel molecular, o incluso atómico.
Y por lo que veo por aquí, hay muchos que necesitan lo más nuevo en procesadores para usar whatsapp, y jugar al angry birds...
El limite real con la tecnologia de hoy creo que lei que era 3nm-1nm por temas de interaccion entre atomos, dado que nos acercamos a un limite donde hay que empezar a tener encuenta las fuerzas a nivel atomico y la interaccion entre atomos , que como curiosidad tienen un radio de entre 0.2- 0.5 nm.
En ese estado el silicio tendra que dejar paso a una tecnologia desconocida actualmente, esto sera para 2040 aprox si todo sigue como ahora.
info by wikipedia etc...
xavierll escribió:
Te invito a que investigues un poco más sobre física del estado sólido de semiconductores porque lo que dices es más conspiranóico que cierto. Nadie duda de la existencia de la obsolescencia programada pero en el caso de la fabricación de chips la física cambia a medida que se disminuye el orden de magnitud.. Conseguir que la puerta de un transistor sea de 7nm, si sabes cómo va suena casi a ciencia ficción.. Las condiciones que se necesitan para investigar algo así son brutales.. Pensadlo friamente, 7 nanómetros.. Estamos hablando algo mucho más pequeño que un virus, una bacteria o una célula.. Algo del orden del adn y de "pocos" átomos.. En 7nm cuántos electrones caben??
Saludos
Señor Ventura escribió:
Bueno... entonces, ¿el grafeno para cuando?.
Ingalius escribió:antes de hablar de "ordenadores cuanticos", deberiamos pensar ¿que es un ordenador cuantico? ¿para que sirve un ordenador cuantico?
para un mono es mucho mas util una rama de madera, que le sirve para sacar hormigas de un hormiguero y alimentarse, que un ordenador con un programa para realizar graficas de integrales para calcular areas.
Basicamente porque el cerebro del mono no tiene la capacidad para comprender lo que son las matematicas, lo que es una integral, ni para que sirve calcular un area. Ni tiene la capacidad para entenderlo ahora, ni la tendra nunca.
Pues algo asi nos pasa a los humanos, con lo que llamamos "fisica cuantica".
Sabemos que "existen" una serie de "cosas" a nivel de "ondas". Pero no sabemos ni lo que son esas "cosas", ni para que "son", ni que "hacen", ni porque lo "hacen"...
al igual que un mono, si le pones un ordenador delante, es consciente de su existencia, al cabo del tiempo asocia que al dar golpes en "esa cosa" con muchos botones, pasan otras "cosas" en la pantalla... con mas tiempo de investigacion, el mono puede llegar a asociar, patrones extremadamente sencillos preprogramados al pulsar determinadas teclas... como que aparezcan una determinada letras en la pantalla o dibujos...
incluso, si le das un ordenador, que al pulsar una determinada combinacion de teclas, el ordenador "fabrique" un plato de comida, el mono, tarde o temprano, seguramente acabe por saber "hacer" un plato de comida con la maquina.
Pero de ninguna manera tiene la capacidad cerebral para comprender que es esa maquina, como funciona, o como "replicarla".
yo no estaria muy seguro de que lleguemos a ser capaces de desarrollar eso que la gente llama "ordenadores cuanticos"... tampoco se muy bien cual es la necesidad de un "ordenador cuantico" para nosotros hoy por hoy.