"Acerca la imagen. Mejora. Es él". Sin duda las técnicas de mejora fotográfica de series como CSI son tan fantásticas como las cámaras de vigilancia multiángulo y las reconstrucciones holográficas de las escenas de un crimen, pero Google Brain está un poco más cerca de lograr esa famosa despixelización que hasta ahora parece estrictamente restringida a la pequeña pantalla y alguna que otra película inadvertidamente próxima al género de la ciencia ficción.
Puesto que no es posible generar información visual fidedigna a partir de una fotografía sin apenas detalles (el refranero lo señala más sucintamente; de donde no hay no se puede sacar), investigadores de Google Brain, que supone junto a DeepMind parte de la iniciativa de Alphabet para desarrollar sistemas de aprendizaje profundo, han utilizado dos redes neuronales para componer imágenes extraordinariamente parecidas a las originales a partir del examen de fotos visualmente similares, tomando archivos a gran resolución y reduciéndolos a 8 x 8 píxeles para compararlos.
Una vez realizadas las comparaciones necesarias, una implementación de PixelCNN analiza la imagen y trata de añadir detalles inexistentes en el original para generar una composición sorprendentemente parecida. Los análisis realizados por los ingenieros de Google Brain han tomado como modelos de referencia rostros humanos (es evidente que esta tecnología sería de gran utilidad para identificar personas o mejorar retratos a muy baja resolución) y dormitorios (que se caracterizan por un elevado nivel de abstracción).
Los resultados obtenidos por Google Brain no llegan a ser perfectos, pero según se explica en un documento publicado por los investigadores, el 10% de los observadores humanos eran incapaces de distinguir la imagen generada artificialmente mediante técnicas predictivas de aquella tomada con una cámara (ground truth). Como referencia, los investigadores de Google señalan que alcanzar un 50% hubiera supuesto engañar totalmente a los sujetos.
Las personas interesadas en saber más acerca de esta tecnología pueden descargar el documento original (en inglés) desde este enlace.
Puesto que no es posible generar información visual fidedigna a partir de una fotografía sin apenas detalles (el refranero lo señala más sucintamente; de donde no hay no se puede sacar), investigadores de Google Brain, que supone junto a DeepMind parte de la iniciativa de Alphabet para desarrollar sistemas de aprendizaje profundo, han utilizado dos redes neuronales para componer imágenes extraordinariamente parecidas a las originales a partir del examen de fotos visualmente similares, tomando archivos a gran resolución y reduciéndolos a 8 x 8 píxeles para compararlos.
Una vez realizadas las comparaciones necesarias, una implementación de PixelCNN analiza la imagen y trata de añadir detalles inexistentes en el original para generar una composición sorprendentemente parecida. Los análisis realizados por los ingenieros de Google Brain han tomado como modelos de referencia rostros humanos (es evidente que esta tecnología sería de gran utilidad para identificar personas o mejorar retratos a muy baja resolución) y dormitorios (que se caracterizan por un elevado nivel de abstracción).
Los resultados obtenidos por Google Brain no llegan a ser perfectos, pero según se explica en un documento publicado por los investigadores, el 10% de los observadores humanos eran incapaces de distinguir la imagen generada artificialmente mediante técnicas predictivas de aquella tomada con una cámara (ground truth). Como referencia, los investigadores de Google señalan que alcanzar un 50% hubiera supuesto engañar totalmente a los sujetos.
Las personas interesadas en saber más acerca de esta tecnología pueden descargar el documento original (en inglés) desde este enlace.
me ganaron el post cawento
Lo pensamos casi todos fijo XD
[beer] [beer] [beer] [looco] [looco] [looco] [looco]
Es un poco mas que eso, estas cosas suelen funcionar en base de hacer la operación inversa, en este caso pixelar fotos de prueba millones de veces, hasta que aprenden a "despixelar" tomando como referencia lo aprendido pixelando. No se si me explico. Es inventar en base a una cantidad ínfima de datos y una experiencia previa; mas o menos como los artistas que dibujan retratos robot.
Bukkaaaaaaakeeeeeeee