Falta claridad en el uso gubernamental de la IA en México

https://imagenes.eleconomista.com.mx/files/image_853_480/uploads/2025/01/22/6791baf394f49.jpeg

​La incorporación de la inteligencia artificial (IA) en el ámbito público mexicano ha aumentado considerablemente en tiempos recientes. No obstante, este progreso tecnológico ha sido acompañado por inquietudes acerca de la transparencia y la responsabilidad en su aplicación por las entidades gubernamentales.​

Situación presente de la IA en el ámbito público en México

Panorama actual de la IA en el sector público mexicano

Investigadores del Centro de Investigación y Docencia Económicas (CIDE) han identificado al menos 119 aplicaciones de IA operando en los tres poderes de la Unión y en los tres niveles de gobierno en México. Estas herramientas abarcan desde chatbots para atención ciudadana hasta sistemas de análisis de datos para la toma de decisiones. Sin embargo, obtener información detallada sobre estas aplicaciones ha sido un desafío debido a la opacidad y la resistencia de algunas instituciones a proporcionar datos claros sobre su uso y funcionamiento.

Desafíos en la transparencia y acceso a la información

Para fomentar la transparencia, académicos del CIDE desarrollaron un registro de algoritmos utilizados por el sector público en México. Este proyecto busca documentar las aplicaciones de IA presentes en diversas dependencias y resaltar los desafíos para acceder a información clave sobre su uso, regulación y objetivos. Durante la recopilación de datos, se enviaron aproximadamente 2,200 solicitudes de transparencia a entidades públicas. Sin embargo, muchas dependencias fueron renuentes a proporcionar información o respondieron de manera imprecisa. En algunos casos, las instituciones solo reconocieron el uso de IA tras presentar recursos de revisión ante los organismos de transparencia. Estados como el Estado de México y Nayarit destacaron por su falta de respuesta generalizada. ​

Un problema adicional detectado es el desconocimiento dentro de las mismas instituciones acerca de qué se considera una aplicación de IA. En varias respuestas a las solicitudes de transparencia, las entidades mencionaron herramientas de software convencional, como paquetes de oficina o programas de ciberseguridad, como si fueran inteligencia artificial. En conjunto, 223 aplicaciones reportadas no cumplían con los requisitos fundamentales para ser clasificadas como IA, lo que evidencia un problema de desinformación incluso en departamentos de tecnología de la información en el gobierno.

Aspectos éticos y riesgos vinculados al uso de la IA

El empleo de IA en el ámbito público también ha suscitado debates éticos sobre privacidad, transparencia, responsabilidad y el derecho al acceso a la información. La falta de claridad en los algoritmos puede minar la confianza de la población en estas herramientas, particularmente si no se conocen los criterios que guían su funcionamiento o si presentan sesgos que podrían desembocar en decisiones discriminatorias. Por ejemplo, durante la pandemia de COVID-19, se pusieron en marcha chatbots como «Susana Distancia» y «Dr. Armando Vaccuno» para orientar a la ciudadanía. No obstante, surgieron inquietudes éticas respecto a la transparencia y privacidad en su utilización, lo que resultó en una disminución de la confianza y uso por parte del público.

Urgencia de un marco normativo apropiado

Necesidad de un marco regulatorio adecuado

La falta de transparencia en el uso de IA por parte de los gobiernos resalta la necesidad de establecer marcos regulatorios que garanticen la auditabilidad y responsabilidad en el uso de estas tecnologías. Es esencial analizar las legislaciones en diferentes ámbitos e identificar cómo podrían ser utilizadas adecuadamente para garantizar que la implementación de IA respete los derechos de la ciudadanía y opere de manera ética y transparente.