Inteligencia Artificial, ¿amenaza para la integridad electoral? (I)
Escrito por Patricia Lozano SanabriaA propósito de las recientes elecciones en Argentina, la Red de Inteligencia Colaborativa publicó un informe por demás interesante para los tiempos que corren: Integridad electoral frente al tsunami de IA. El enfoque del estudio es cómo una democracia puede preservar la integridad electoral digital, entendida como “el conjunto de garantías técnicas, jurídicas y éticas destinadas a preservar la autenticidad, la fiabilidad y la equidad de los procesos electorales en entornos digitales”. Se trata de un reto nada menor. ¿Hasta dónde debe una democracia restringir la influencia de las nuevas tecnologías, destacadamente la Inteligencia Artificial (IA), en los procesos electorales? ¿Se trata de controles democráticos o de trampas autoritarias?
La cuestión es relevante para las democracias por diversos factores. El desarrollo de la IA y su uso se han acelerado en cuestión de meses. ¿Cómo revolucionan estas tecnologías los procesos electorales? ¿Con qué fines se está utilizando? Vale decir que el estudio es crítico al respecto, ya que destaca diversas consecuencias perniciosas relacionadas con la manipulación de la opinión pública y la desinformación.
Una de las consecuencias nocivas que refiere el estudio son las “cámaras de eco”, mismas que son resultado de la hiper personalización de los algoritmos construidos con base en las interacciones y preferencias de los usuarios-consumidores en el entorno digital. Las redes sociales, las búsquedas en internet o las respuestas de la IA tienden a priorizar resultados cercanos a nuestros intereses y posturas. Esto limita la comunicación y el debate público al reducir el contacto con puntos de vista distintos a los nuestros, generando “burbujas informativas” que nos excluyen de un rango más amplio de opiniones.
Otro ejemplo negativo, quizá más evidente y conocido, es la proliferación de “gemelos digitales” y deepfakes. Esto se refiere a la generación de videos, audios o imágenes falsas generados con IA. Al imitar la voz o el rostro de figuras públicas, casi a la perfección, estas herramientas tienen la capacidad de afectar la percepción ciudadana, debido a la dificultad de distinguir la información verídica de la que no es. Incluso entre conocedores de este tipo de engaños, hoy en día ya es difícil distinguir a primera vista cuál información es real o manipulada.
No menos importante es la generación automática de desinformación a través de los llamados bots y trolls. Su capacidad de réplica de datos falsos supera, por mucho, la velocidad humana para discernir la calidad de la información que recibe. Esto, desde luego, puede generar olas de información falsa (fake news) con consecuencias y comportamientos sociales guiados por intereses poco transparentes o abiertamente antidemocráticos.
Al margen de los controles legales que se debaten en torno a la IA, proteger la calidad de nuestros procesos electorales recae en una ardua y constante labor de promoción de la cultura democrática. Las instituciones de gobierno, y particularmente las del ámbito electoral, tenemos la enorme responsabilidad de promover estos valores y prácticas no solo en espacios físicos, sino en entornos digitales. La verificación de información, el debate informado, plural y respetuoso, así como la aceptación de quien no piensa como nosotras es solo el punto de partida. El otro punto, al cual me referiré posteriormente, tiene que ver con la incorporación de nuevas regulaciones al uso de la IA en procesos electorales.
Conéctate
