Post Format

Nueva Inteligencia Artificial escribe artículos con “Fake News” plausiblemente creíbles

Leave a Reply

En un intento por evitar que las noticias falsas generadas por inteligencia artificial se difundan a través de Internet, un equipo de científicos construyó un algoritmo de inteligencia artificial que crea lo que podría ser la noticia falsa escrita por un robot más creíble hasta la fecha, basada en nada más que un encabezado escabroso.

El sistema, GROVER, puede crear artículos de noticias falsos y engañosos que son más creíbles que los escritos por humanos, según una investigación compartida con el servidor de preimpresión ArXiv el miércoles, y también detectarlos.

«Encontramos que los mejores discriminadores actuales pueden clasificar noticias falsas neuronales de noticias reales escritas por el hombre con 73% de precisión, asumiendo el acceso a un nivel moderado de datos de entrenamiento«, dijeron los investigadores.

Escribí en el papel. «Contra la intuición, la mejor defensa contra Grover es Grover, con un 92% de precisión«. En otras palabras, el algoritmo es aparentemente capaz de detectar noticias falsas escritas por IA mejor que cualquier otra herramienta existente. Pero en las manos equivocadas, GROVER podría llenar Internet con propaganda peligrosa y desinformación.

Haciendo noticias falsas para combatirlas

Para ayudar a evitar que se apoderen las noticias falsas, los científicos de la Universidad de Washington que crearon a GROVER en su investigación anuncian que planean lanzar la herramienta al público, una gran diferencia con el equipo de OpenAI que se negó a lanzar la versión completa de su algoritmo similar, GPT-2.

El algoritmo puede analizar más aspectos de un artículo de noticias que otras herramientas, que incluyen no solo el cuerpo del artículo, sino también el título, el nombre de la publicación, el nombre del autor y otros detalles que podrían indicar un juego sucio.

Pero esa atención al detalle también significa que alguien podría usar GROVER para crear sus propias noticias falsas. El estudio demuestra la facilidad con la que GROVER puede producir un artículo de noticias que afirme falsamente que las vacunas están vinculadas al trastorno del espectro autista, por ejemplo, escrito en los estilos distintivos de medios de noticias específicos como The Washington Post, TechCrunch, The New York Times y Wired.

Las personas que leen los artículos de GROVER los encontraron más convincentes que los escritos por humanos, según el estudio. La IA escribio al estilo de la sección de ciencia de The NYT, GROVER generó no solo un titular, sino también el nombre de un autor y la apertura de un artículo de noticias que atribuye un vínculo entre las vacunas y el autismo a los científicos de la UC San Diego y el gobierno federal:

Refinando la producción

Aquellos que han sido vacunados contra el sarampión tienen una probabilidad más de cinco veces mayor de desarrollar autismo, investigadores de la Escuela de Medicina de la Universidad de California San Diego y los Centros para el Control y Prevención de Enfermedades informan hoy en el Journal of Epidemiology and Community Health.

En otro ejemplo, los investigadores demuestran cómo GROVER puede refinar su producción a lo largo del tiempo para que coincida mejor con una publicación específica. Lo alimentan con un titular sobre las vacunas que causan autismo y le dicen que coincida con el estilo de Wired.

GROVER usa ese título para escribir un artículo completo, luego regresa y refina el título para que se vea como algo que publicaría Wired. Los investigadores también incluyeron otros artículos falsos en el estilo de The Washington Post que afirman que Donald Trump había sido acusado en base a nuevas pruebas del Informe Mueller:

Los científicos admiten que lanzar GROVER al mundo podría ser peligroso, pero sostienen que sigue siendo la mejor línea de defensa contra la propaganda algorítmica, incluso la creada por GROVER.

0

Leave a Reply

Required fields are marked *.