Post Format

Esta IA que puede hacer videos falsos podría ayudar a terminar con la “realidad” tal y como la conocemos.

Leave a Reply

Cualquiera que esté preocupado por la capacidad de las inteligencias artificiales (IA) para imitar la realidad es probable que esté preocupado por la última oferta de Nvidia: una IA de traducción de imágenes que casi con toda seguridad te hará dudar de todo lo que ves en línea.

En octubre, Nvidia demostró la capacidad de una de sus IA para generar imágenes inquietantemente realistas de personas completamente falsas. Ahora, la compañía de tecnología ha producido uno que puede generar videos falsos.

La IA hace un trabajo sorprendentemente decente de cambiar el día en la noche, el invierno en el verano y los gatos domésticos en guepardos (y viceversa).

La mejor (¿o la peor?) De todas, la IA lo hace todo con mucho menos entrenamiento que los sistemas existentes.

Al igual que la IA generadora de cara de Nvidia, esta IA de traducción de imágenes utiliza un tipo de algoritmo llamado red de adversarios generativos (GAN).

En un GAN, dos redes neuronales trabajan juntas esencialmente trabajando una contra la otra. Una de las redes genera una imagen o video, mientras que la otra crítica su trabajo.

Por lo general, un GAN requiere una gran cantidad de datos etiquetados para aprender a generar sus propios datos. Por ejemplo, un sistema necesitaría ver pares de imágenes que muestran cómo era una calle con y sin nieve para generar una imagen por sí misma.

Sin embargo, esta nueva traducción de imágenes de IA, desarrollada por los investigadores de Nvidia Ming-Yu Liu, Thomas Breuel y Jan Kautz, puede imaginarse cómo sería una versión de una calle cubierta de nieve sin siquiera verla en realidad.

Liu le dijo a The Verge que la investigación del equipo se comparte con los equipos de productos y clientes de Nvidia, y aunque dijo que no podía comentar sobre qué tan rápido o en qué medida se adoptaría la IA, sí notó que hay varias aplicaciones potenciales interesantes.

Confiando en tus propios ojos.

“Por ejemplo, rara vez llueve en California, pero nos gustaría que nuestros autos sin conductor funcionen correctamente cuando llueve”, dijo.

“Podemos usar nuestro método para traducir las secuencias de conducción soleadas de California a las lluviosas para entrenar nuestros autos que conducen por sí mismos”.

Más allá de tales aplicaciones prácticas, la tecnología también podría tener otras. Imagine poder ver cómo se vería su futuro hogar en pleno invierno cuando compra casas, o cómo se verá un posible lugar de bodas al aire libre en el otoño cuando las hojas cubren el suelo.

Dicho esto, esa tecnología también podría tener usos nefastos. Si se adopta ampliamente, nuestra capacidad de confiar en cualquier video o imagen basada únicamente en lo que nos dicen nuestros ojos se vería enormemente disminuida.

Las pruebas en video podrían volverse inadmisibles en la corte, y las noticias falsas podrían ser aún más prevalentes en línea ya que los videos reales no se pueden distinguir de los generados por la inteligencia artificial.

Por supuesto, en este momento, las capacidades de esta IA están limitadas a unas pocas aplicaciones, y hasta que llegue a manos de los consumidores, no tenemos forma de decir cómo afectará a la sociedad en general.

Por ahora, solo podemos esperar que el potencial de esta tecnología incite discusiones sobre IA y regulación adecuada porque, claramente, el impacto de IA va más allá del mercado de trabajo.

Este artículo fue publicado originalmente por Futurism.

0

Leave a Reply

Required fields are marked *.