La Alcaldía adoptó el Acuerdo 003 de 2025 y un decálogo de uso cotidiano. Exige trazabilidad, etiquetado de contenidos generados con IA y mantiene la responsabilidad en cabeza del servidor público.

La Alcaldía de Bogotá fijó nuevas reglas para el uso de inteligencia artificial (IA) por parte de funcionarios y contratistas del Distrito, incluyendo la prohibición de ingresar datos personales o información clasificada en herramientas abiertas, la obligación de dejar constancia del apoyo recibido cuando un documento lo amerite y el deber de verificar con fuentes oficiales antes de usar contenidos generados por sistemas automatizados.

En el Acuerdo 003 de 2025, la administración distrital definió el “uso cotidiano” de IA como el empleo de modelos de lenguaje y herramientas basadas en plataformas “tipo GPT”, orientadas a apoyar tareas diarias “sin sustituir el juicio técnico, profesional o jurídico del funcionario responsable”.

El lineamiento central es que la IA se considera un apoyo y no un reemplazo del criterio humano. “La IA no genera responsabilidad autónoma ni sustituye la responsabilidad funcional”, señala el decálogo de uso cotidiano divulgado por el Distrito.

En la misma línea, el Acuerdo establece que “el servidor público es el único responsable por los contenidos producidos con apoyo de IA y por los efectos que su utilización genere en la gestión pública”.

Las reglas también restringen qué puede cargarse en herramientas no institucionales. El decálogo indica: “Está prohibido ingresar: datos personales o sensibles, información clasificada o reservada, documentos oficiales no publicados” y otra información estratégica o protegida por confidencialidad.

Si una dependencia requiere usar IA con información restringida, el documento señala que solo puede hacerse “en entornos cerrados, seguros y aprobados institucionalmente”, con autorización del proyecto, protocolos de anonimización o seudonimización y registro en el expediente del proceso.

En comunicaciones oficiales, el Acuerdo exige estándares de etiquetado para que la ciudadanía pueda identificar el origen del contenido. Entre las obligaciones mínimas menciona la “indicación explícita cuando el contenido ha sido total o parcialmente generado por IA”.

Para sistemas que interactúen con la ciudadanía, como asistentes virtuales o chatbots, ordena informar que se trata de IA, garantizar consentimiento informado y asegurar intervención humana cuando aplique.

Las disposiciones se apoyan en obligaciones ya existentes sobre datos personales y transparencia. El Acuerdo remite a la Ley 1581 de 2012 de protección de datos personales y exige que la información pública relacionada con sistemas de IA sea clara y accesible en línea, en concordancia con la Ley 1712 de 2014 de transparencia.

Siga las historias sobre inteligencia artificial en nuestra sección especializada