El problema de las noticias falsas no es nuevo. Organizaciones señalan que el fenómeno, en ocasiones respaldado por gobiernos, se extiende años atrás. Pero, también es innegable que la democratización de herramientas habilitada por el Internet y la digitalización ha acelerado el proceso. Conforme la tecnología avanza, ya no son solo simples textos. Material complejo, como videos e imágenes, puede ser falsificado fácilmente gracias a la Inteligencia Artificial (IA), publicó Merca 2.0.
Algunas compañías tratan hacen su mejor esfuerzo para limitar la tendencia. Adobe anunció un nuevo proyecto de desarrollo, una investigación conjunta con la Universidad de California Berkley. Las dos organizaciones han creado una IA capaz de detectar imágenes y fotografías que hayan sido manipuladas por programas como Photoshop. El programa es capaz de detectar, con 99 por ciento de exactitud, modificaciones realizadas con la herramienta Liquify.
Liquify es comúnmente utilizada para hacer alteraciones menores a retratos, e incluso cambiar la expresión facial de las personas. Según Adobe, la herramienta de IA también es capaz de sugerir correcciones para revertir la imagen a su forma original. Pero esta capacidad todavía no está bien desarrollada. La marca reconoce tanto el valor creativo que representan sus productos como los problemas éticos que pueden causar en el tema de las fake news.
IA: el reto entre alteración y corrección
Varias compañías están retándose en el desarrollo de IA, tanto para la creación como la detección de contenido falso. Una unidad de investigación de Samsung presentó hace algunas semanas un programa capaz de “dar vida” a fotografías o retratos en pintura. Por su parte, Facebook trabaja ardua (y creativa)mente en sistemas capaces de monitorear el contenido tóxico en su plataforma. Incluso la industria del cine está haciendo uso de estos programas.
Pero la iniciativa de Adobe resalta un problema fundamental de la IA. La producción de contenidos falsos se ha refinado tanto, que incluso están teniendo repercusiones de seguridad nacional. Al mismo tiempo, es particularmente difícil desarrollar software capaz de detectar estas falsificaciones. Y es que muchos sistemas de este tipo entrenan autónomamente. Es decir, se enseñan a sí mismos a hacer la tarea que están tratando de realizar.
Para leer la nota completa, da clic aquí
Se suicida adolescente enamorado de chatbot y su madre demandará a empresa de IA
La empresa Character.ai recibirá la querella de la mujer
Por Redacción
Ciudad Juárez es… The Number 2!
Justo debajo de Torreón, Coahuila, Ciudad Juárez se encuentra en la segunda posición como la ciudad más fea de México, de acuerdo a un análisis de Inteligencia Artificial
Por Redacción
Demandan medios de EU a OpenAI
la IA debe su éxito arrollador en parte al trabajo de otros, indican abogados de los periódicos
Por Redacción
Va Meta contra la desinformación en línea
Etiquetará cualquier contenido realizado con Inteligencia Artificial
Por Redacción