Comprueba si una persona existe mirándola a los ojos

Curiosidades
hace 7 meses

¿Cuál de estos rostros es real? Estás en un programa de televisión presentado por un robot, y esa es la pregunta final que puede hacerte ganar 1 000 000 de dólares. Haces zum y alejas las imágenes, mueves la cabeza y eliges una de las cuatro fotos. Unos minutos más tarde descubrirás si esa es la elección correcta, pero antes, el robot anfitrión te dice que hay una forma legítima de distinguir un maniquí, y el secreto está en los ojos. Si los amplías, te darás cuenta de que las pupilas de las personas que no existen en realidad tienen un aspecto algo extraño. La mayoría no son redondas, y tienen que ser casi circulares en los adultos sanos reales.

Los investigadores diseñaron una herramienta para extraer los contornos de las pupilas de las fotos y comprobar si tienen forma elíptica. La probaron con éxito en 2000 imágenes, de las cuales el 50 % eran rostros reales y el 50 % restante fueron curados artificialmente. Parece que la tecnología que hay detrás todavía no entiende del todo la anatomía del ojo humano. Este fallo podría ayudar a proteger al mundo del uso malintencionado de fotos de aspecto realista para engañar y mentir a la gente en las plataformas de las redes sociales. Las fotos humanas inexistentes se crearon usando GAN, es decir, Redes Generativas Antagónicas por sus siglas en inglés. En el 2014, el Dr. Ian Goodfellow, investigador de IA, decidió crear un modelo de aprendizaje profundo que fuera capaz de generar datos falsos. Funcionaría usando dos redes neuronales que competirían entre sí.

La tarea de la primera red sería generar imágenes falsas usando un conjunto de datos existente. La tarea de la segunda red sería ver la diferencia entre las imágenes reales y las falsas. Ambas aprenderían la una de la otra. Cuanto mejor fuera la primera en la generación de imágenes, mejor sería la segunda en la identificación de esas fotos generadas de las reales. El Dr. Goodfellow tuvo esa idea mientras salía con sus amigos. En cuanto llegó a casa, escribió un código para ello, y funcionó desde el primer intento. Hay muchas preocupaciones sobre la difusión de datos falsos por parte de las GAN. Pero estas pueden usarse y ser útiles para la generación de objetos en 3D, la creación de personajes de dibujos animados, la generación de nuevas poses humanas para sitios web de compras en línea, la edición de fotos, la conversión de fotos en emojis, la traducción de texto a imágenes [Triángulo grande naranja rectángulo mediano azul círculo pequeño rojo], y muchas otras funciones similares.

La tecnología es cada vez mejor en la creación de rostros humanos realistas. Sigue aprendiendo de sus propios errores, por lo que cada vez es más difícil distinguir una imagen falsa de una real. Hay una función conocida como transferencia de estilo que permite al sistema procesar diferentes fragmentos de la imagen por separado. Esto significa que puede tomar una forma de cara y un peinado determinados y mezclarlos de forma más realista. Pero en caso de que tengas dudas de que la foto de alguien que ves en Internet sea real, puedes revisar si hay ciertas pistas. Las fotos generadas por GAN, especialmente las más antiguas, son a veces ligeramente asimétricas. El pelo está borroso solo en un lado, y un arete o algunos otros accesorios están solo en un lado.

También se pueden notar mechones de pelo desconectados en la cara o en otra parte, o tener la sensación de que se ha pintado con un pincel enorme y pintura acrílica. Se siente demasiado recto, tiene un halo extraño o incluso una decoloración fluorescente. También es bastante difícil para los algoritmos crear unos lentes perfectamente simétricos y de aspecto realista. Podría haber un desajuste en los estilos de armazón en el lado derecho y el izquierdo. El armazón también podría estar torcido. Los algoritmos también podrían equivocarse en el número o la orientación de los dientes y basarse en ejemplos de dientes desde diferentes ángulos. Podría haber un tercer diente central diminuto y otras rarezas dentales. El fondo también podría delatar una imagen falsa. También está generada por la misma tecnología, pero sin prestarle tanta atención. Podría consistir en estructuras y patrones extraños como formas cubistas caóticas o parecer una fotografía dividida.

A veces se nota que algo no está bien con la ropa de tu nuevo conocido en línea. La cara puede estar impecable, y el atuendo también, pero un extraño abrigo de invierno no encaja con el entorno y los tonos tropicales. Los algoritmos de la generación anterior también dejaban manchas brillantes que parecían salpicaduras de agua y que podían aparecer en cualquier parte de la imagen, pero sobre todo entre el pelo y el fondo. Puedes ver montones de retratos generados por computadora en sitios web especiales. También hay uno para gatos que no existen con miles de caras de gatos irreales. Otra página permite ver fotos de departamentos que no existen realmente. Las redes neuronales también son capaces de generar videos en los que se mezclan las caras y los cuerpos de diferentes personas.

Hay un algoritmo que puede adivinar nuevos ángulos de visión a partir de una sola foto. Rastrean los rasgos faciales de referencia, como los ojos, la nariz y los labios, y generan nuevas fotos a partir de una. Toman las múltiples imágenes resultantes y las añaden a un video. De este modo, podemos ver cómo sería Mona Lisa en un video, moviéndose y con un aspecto más realista que nunca. A mucha gente le preocupa que este tipo de tecnología se utilice con fines mezquinos para crear videos de personas a las que se quiera echar barro. Pero los investigadores ven esta tecnología aplicada a las videoconferencias, los juegos multijugador y la industria de los efectos especiales. Victor Riparbelli, director general y cofundador de la empresa de software Synthesia, cree que podría llevar el cine a un nuevo nivel. Las versiones generadas por computadora de los actores pueden ser tan perfectas que no se distinguirían de los humanos reales.

Cuando probaron esta tecnología, bastaron de 3 a 4 minutos para crear un modelo digital de un actor hablando a la cámara. Recuerda cómo se mueve la cara y puede recrearla. De vuelta al estudio de televisión, el robot presentador dice que es hora de saber si has ganado 1 000 000 de dólares por decir la única foto de un humano real de entre 3 imágenes generadas por GAN. Y... ¡acertaste! Hay confeti por todas partes y la noticia sorpresa: ¡obtienes el premio extra de pasar un día con un robot realista! Cada día son más y más realistas. Hablan y caminan como nosotros, e incluso tienen una amplia gama de emociones. Estás seguro de que después de un día aún puedes notar la diferencia.

El primer robot que puedes elegir es el primer androide conductor que se presentó al mundo en Japón en el 2014. Leyó un segmento en la televisión en directo y luego se retiró al Museo Nacional Miraikan de Ciencia Emergente e Innovación de Tokio. Ahí, ayuda a los visitantes y recoge datos para estudios sobre la interacción entre humanos y robots. Su hermana menor, Erica, ha dado un paso más y ha recibido un poco de carisma auténtico de sus creadores. Está conectada a un sistema informático que escanea constantemente a la persona. Capta la dirección del rostro humano y la expresión facial y puede entender quién es la persona. Puede mantener una conversación adecuada con los humanos sobre diversos temas. Erica puede mover sus rasgos faciales, el cuello, los hombros y la cintura de forma independiente. Recientemente, Erica fue elegida para un papel principal en una película de ciencia ficción. Recibió un entrenamiento adecuado para el papel. Sus creadores tuvieron que simular sus movimientos y emociones mediante sesiones individuales para enseñarle a controlar la velocidad de los movimientos y desarrollar su propio carácter.

BINA48 es un robot humanoide de Hanson Robotics modelado a partir de la esposa de uno de sus creadores. Pasaron más de cien horas recopilando todos sus recuerdos, sentimientos y creencias. En el 2017, BINA48 se convirtió en el primer robot en inscribirse y completar con éxito una clase de nivel universitario en California. Ha viajado por todo el mundo, apareciendo en varios programas de televisión. Sophia es probablemente el proyecto más famoso de Hanson Robotics y su robot más avanzado de tipo humano. Se ha convertido en el primer robot en obtener la ciudadanía de un país real: Arabia Saudita. También es la primera robot embajadora de la innovación para el Programa de las Naciones Unidas para el Desarrollo. Tiene un amplio espectro de emociones y puede expresarlas a través de sus rasgos faciales y de los gestos de sus brazos y manos. Habla en conferencias por todo el mundo y es una auténtica celebridad.

Y el último robot que puedes elegir es Douglas, llamado por sus creadores Autonomous Digital Human. Está siendo desarrollado por Digital Domain, la empresa que está detrás de los efectos visuales de algunas de las películas más famosas. Se supone que Douglas rompe las barreras entre humanos y máquinas, hablando con facilidad y naturalidad y cambiando de cara como un camaleón. Douglas debería ser una gran ayuda para las empresas que necesitan responder a las preguntas de los clientes o asistirles en tareas repetitivas. Eliges a Douglas para ayudar a probarlo científicamente y dejar el estudio con tu nuevo amigo robot.

Comentarios

Recibir notificaciones
Aún no hay comentarios. ¡Puedes ser el primero!

Lecturas relacionadas