Ciencia y Tecnología
El impacto de la IA en las elecciones globales es por ahora «limitado», señala un estudio
Ginebra, 20 dic (EFE).- Un estudio de la Escuela Politécnica Federal de Lausana (EPFL) ha concluido que aunque los contenidos creados con inteligencia artificial (IA) han demostrado ser un arma de desinformación masiva en campañas electorales, su impacto en los resultados por el momento es «marginal» y «limitado».
Para llegar a esta conclusión, los investigadores analizaron el uso de material creado mediante IA en varios comicios celebrados este año, como los deepfakes (vídeos que parecen mostrar personas reales) en las elecciones presidenciales de Estados Unidos o los avatares falsos de figuras políticas fallecidas en las legislativas indias.
Los resultados mostraron que estos contenidos habían tenido un impacto «marginal» en las campañas, sin suponer ninguna novedad o variación en los resultados de éstas.
Sin embargo, el estudio sí que encontró que el uso de estos contenidos degradó el entorno informativo de estos países, aumentando los sentimientos de polarización y desconfianza hacia los partidos políticos, las autoridades y los medios de comunicación.
Según el comunicado de la institución educativa, los expertos consideran que esto se debe fundamentalmente a la ausencia de marcos que regulen la industria de la IA en estos países, lo que ha permitido que estos contenidos circulen libremente a través de las redes sociales.
También concluyen que muchas campañas políticas aprovechan este vacío regulatorio para utilizar la técnica del «microtargeting» que, a partir de los datos de perfiles, IA y chatbots, transmite mensajes personalizados y emocionales sin aportar información que demuestre que provienen de fuentes fiables.
Este tipo de «microtargeting», alertan, debe analizarse y supervisarse mejor, especialmente cuando se utiliza para dirigirse a población «especialmente vulnerable», como los votantes jóvenes.
«Tenemos que concienciarles de los riesgos asociados a las noticias falsas y darles recursos para verificar las fuentes de la información que reciben», afirmó el director del grupo de procesamiento de señales multimedia de la EPFL y responsable del estudio, Touradj Ebrahimi.
Otro estudio recientemente publicado por la misma universidad demuestra que una de las IA más utilizadas actualmente, los grandes modelos de lenguaje como Chat-GPT, presentan fallas que permiten que aquellos que quieran usarlos con fines propagandísticos maliciosos puedan producir contenido tóxico, difundir información errónea o respaldar actividades dañinas.
Para frenar estas prácticas, el grupo dirigido por Ebrahimi está desarrollando varios sistemas de detección y rastreo de contenidos falsos.
Uno de ellos consiste, por ejemplo, en la implementación de un formato de foto estándar en los medios de comunicación denominado JPEG Trust, el cual permite verificar la autenticidad de las imágenes desde el momento de su creación hasta su publicación.
Sin embargo, advierten, para que estas herramientas sean útiles también será fundamental que los Estados introduzcan regulaciones internacionales y exijan mayores responsabilidades a los medios de comunicación por la difusión de estos contenidos maliciosos.
-
Saludhace 3 días
California declara emergencia para contrarrestar y atender los contagios de la gripe aviar
-
Políticahace 21 horas
Trump nombra como embajador ante la Santa Sede al presidente de CatholicVote
-
Políticahace 3 días
Migrantes piden protección a alcalde de Nueva York por «miedo» al segundo mandato de Trump
-
Localeshace 2 días
Policía de Raleigh estrenó forma de patrullar
-
Crimen y Justiciahace 4 días
Detienen a 14 personas en complejo de viviendas relacionado con Tren de Aragua en Colorado
-
Culturahace 4 días
El Festival de Cannes da un emotivo homenaje a Marisa Paredes
-
Vida y Esparcimientohace 21 horas
Nueva York se tiñe de colores, brillo y esplendor para las festividades navideñas en 2024
-
Localeshace 2 días
El oeste de NC fue invisible hasta el paso de Helene