Google desarrollara tecnología novedosa de IA para convertir fotos borrosas en full HD

Hasta ahora, la restauración de fotografías viejas era un trabajo estrictamente para un buen diseñador gráfico con grandes conocimientos y habilidades con programas de edición de fotos como Photoshop.

Pero no contábamos con los avances de Inteligencia Artificial que lo han convertido en una impresionante disciplina que ya no está restringida únicamente a laboratorios de cómputo, ahora podemos encontrar servicios en internet gratuitos que pueden hacer este trabajo sin la intervención de un experto.

Ahora podemos convertir fotografías muy antiguas, posiblemente de nuestros tatarabuelos, a imágenes que parecen haber sido sacadas con un smartphone. Las fotos pixeladas tampoco son un problema para la inteligencia artificial que no solamente renueva partes, también las crea para formar una sola imagen.

El coloreado y hasta la animación de imágenes estáticas han sido otros de las herramientas que también están causando el mismo revuelo, pero esta vez nos enfocaremos a ver cómo podremos restaurar de forma automática esas fotos pixeladas, borrosas y antiguas.

El sitio de MyHerigate sin duda es la más popular para hacer este trabajo, pero por experiencia puedo decir que no es tan impresionante como menciona la publicidad, pues las fotos apenas y han tenido un leve cambio, muy lejos de considerarla de alta resolución.

Por eso Google ha visto una excelente oportunidad en este servicio que ha sido muy bienvenido por todos, y ha hecho que su departamento interno de inteligencia artificial empezara a hacer avances en esta tecnología para lograr mejores resultados.

LEER
ILOVEPDF. Herramienta gratuita perfecta para convertir nuestros archivos en PDF

Google AI comparte los resultados usando la técnica de modelos de difusión

En el blog oficial de Google AI, el científico investigador, que además es ingeniero de software en Google Research, Jonathan Ho, ha compartido este verano los avances de su equipo con relación a esta nueva tecnología que Google planea exponenciar y dominar.

En su publicación, Ho menciona que esta tecnología es bastante compleja, pues para que el software logre realizar una síntesis de la imagen de forma automática y «natural», se requiere de una lista de tareas que no son predeterminadas, sino que utilizan aprendizaje automático.

El aprendizaje automático o Learning Machine (ML) prácticamente es una rama de la inteligencia artificial que le otorga a las máquinas la capacidad de aprender por sí solos, y para Google eso representa considerar toda una gama de aplicaciones que tendrán sus propios desafíos en cuestiones de diseño.

Uno de estos procesos que deben perfeccionar es la superresolución (Super-resolution imaging) que está constituido por una serie de técnicas y algoritmos que se conjugan entre sí para aumentar la resolución espacial de imágenes.

Desde luego, el alcance que Google desea tener no solamente se enfocará en reparar fotografías viejas de la familia, también pretende mejorar los sistemas de imágenes médicas que se utilizan para detectar anomalías en el cuerpo humano.

LEER
Las mejores Apps para el cuidado de nuestras mascotas

Otra técnica que se agregaría a la fórmula sería un generador de imágenes adicionales de clase, que consiste en un modelo «entrenado» específicamente para generar imágenes prototipo a partir de una etiqueta de clase de entrada.

Estas etiquetas de clase, consiste en ponerle literalmente una etiqueta para clasificar las imágenes que vaya recolectando, a modo de poder ordenarlas, organizarlas y segmentarlas, para utilizarlas como modelos al momento de realizar el proceso de restauración.

A modo de ejemplo, si nuestra imagen del puente de San Francisco está demasiado dañada o borrosa para realizar la labor, esta tecnología buscaría en su biblioteca de imágenes todas las fotos del mismo puente (etiquetadas como «puente de San Francisco») para utilizarla como referencia o modelo para rellenar los huecos en nuestra foto.

Actualmente ya existen tareas que se dedican a la síntesis de imágenes utilizando modelos como el GAN, VAE y otros modelos automáticos más agresivos, pero han sido descargados por el equipo de Google debido a que presentan algunos problemas cuando se tratan de «entrenarlos» para que sinteticen muestras de alta calidad junto con otros datos.

Un ejemplo es el GAN que tiende a tener problemas e inestabilidades al momento de entrenarlos, terminando colapsando, mientras que otros modelos automatizados tienden a sintetizar bastante lento.

La Difusión de Modelos propuesta en 2015 ha traído la atención de Google gracias a su gran estabilidad al momento de entrenarlo, y anteriormente ya ha dado grandes resultados en la generación imágenes y audio.

LEER
Los mejores documentales de la plataforma Netflix (I)

Este modelo de difusión funcionan de una forma muy peculiar, corrompiendo los datos al momento de aprender, haciendo que la imagen se vuelva prácticamente ruido gaussiano (algo así como el ruido gris que se ve en los televisores cuando no hay señal), luego de «destruir» la imagen, empieza un proceso que revierte todo el proceso mientras arregla la imagen.

Esta tecnología está compuesta por diferentes procesos que trabajan en equipo y se interconectando como si de una red neuronal se tratase

Finalmente Google ha presentado la que sería una técnica que fusiona dos enfoques que por primera vez superan todos los límites en cuanto a síntesis de imágenes para modelos de difusión: Super-Resolución

La Super-Resolución utiliza el refinamientos repetidos (SR3) y modelos de síntesis condicionada por clases o también conocido como modelos de difusión en cascada (CDM).

Con este nuevo enfoque han podido demostrar que cuando se unieron los modelos de difusión con otras técnicas de aumento de datos muy específicos, se pueden obtener resultados impresionantes que superan con creces las tecnologías actuales como el GAN antes mencionado.

La Super-Resolución (SR3) toma la imagen de entrada (una foto de baja pixelada) y empieza a desmoronar la foto hasta convertirlo en puro ruido como antes mencionamos, pasando por el proceso de reconstrucción bastante avanzado que termina mejorando la imagen.

LEER
Te enseñamos como es una smarthome por dentro

Este modelo puede entrenarse (gracias al Machine Learning) utilizando procesos de corrupción de imágenes, que al convertirse en puro ruido, empieza a agregar pixeles en alta resolución de forma gradual, así que en el proceso podemos ver cómo el ruido gris empieza a desvelar la nueva imagen de forma gradual hasta obtener la foto nítida.

Se espera que tenga un entrenamiento a gran escala donde el SR3 pueda lograr resultados cada vez más importantes donde pueda restaurar imágenes complejas como rasgos faciales y naturales de entre 4 a 8 veces mejorada a comparación de la foto original.

Cabe recordar que para esto deben ocurrir un montón de procesos que no pueden ocurrir en un orden específico, es decir, como en un juego de ajedrez que va por turnos, sino que deben de apilarse y funcionar en conjunto, de ahí la importancia de los métodos de «cascada».

Con esto, podría mejorarse una imagen compleja de un rostro humano de una resolución de 64×644, a una de 256×256, y cuando entre en acción el modelo de superposición este pasará a una resolución de 1024×1024.

Pero eso no es todo, además del modelo SR3 que ya es impresionante en sí, también incluirán técnicas de aumento de datos, también llamado aumento de acondicionamiento que promete mejorar aún más la calidad de la imagen final.

LEER
Las mejores apps para descargar torrents en Android

Y es aquí donde resalta el equipo de Google que para lograr esta clase de tecnología no basta con los datos de una sola foto, la original que está incompleta por así decirlo, también la necesidad de contar con otros tipos de datos con los modelos para generar una imagen completa.

Conclusión

El equipo de Google cree dar finalmente con una técnica innovadora, el SR3 y el CDM, que es capaz de coleccionar y maniobrar toda clase de técnicas para obtener un resultado prometedor.

Sin embargo, mencionan que esto es apenas el comienzo a algo mucho mayor, por lo que no pararán hasta explorar los límites de los modelos para poder resolver toda clase de problemas al momento de generar modelos y así atacar varias formas de degradación de las imágenes, desde fotos pixeladas, hasta una foto rayada o borrada por el tiempo, por ejemplo.

No solo estamos ante la cura a los males de las fotos viejas de la familia, también en el sector de salud podría potenciar la capacidad de detectar y tratar enfermedades desde imágenes como las capturadas en tomografías.

Posiblemente también ayuden en el campo de la astronomía al momento de generar imágenes captados por los telescopios espaciales como el Hubble y los robots de exploración rover  para obtener imágenes mucho más nítidas de lo que hay más allá de nuestro planeta.

LEER
Instagram, fundamental saber quién no nos sigue

La antropología también podría verse beneficiada con la construcción de imágenes basadas en modelos para restaurar pinturas o grabados incompletos por los años y así poder descifrar más de nuestro pasado, simplemente los beneficios son muchos.

¿El amarillo es lo mismo aquí y en China? Descubren que tu idioma puede cambiar tu percepción de los colores

Antes de los freidores de aire, estas freidoras de agua con aceite dominaron las cocinas