Artículos
11 de septiembre de 2025
El proyecto de ley que busca regular la Inteligencia Artificial en el país, ¿es suficiente para lo que este tipo de tecnología implica?
En este análisis se examina el alcance del Proyecto de Ley 043 de 2025, que busca establecer el primer régimen normativo sobre inteligencia artificial en Colombia. Se destacan los avances del proyecto en materia de protección de derechos humanos, sostenibilidad ambiental, gobernanza institucional y modernización laboral, pero también señala vacíos que podrían ser abordados para fortalecer su efectividad.
Por: Camilo Andrés Moreno Pava – Egresado, aspirante al cargo de Auxiliar de Investigación en el Departamento de Derecho, Comunicaciones y Tecnologías de la Información
La inteligencia artificial es un concepto que hace décadas parecía sólo materializarse en la ficción desde la perspectiva de las mentes más creativas de la época. Si bien en la actualidad no vivimos en un futuro distópico con autos voladores y máquinas que buscan rebelarse del yugo de nuestra especie -por ahora-, en nuestro día a día se hace presente este tipo de tecnología sin que siquiera lo notemos.
En la actualidad es tan común el uso de herramientas que cuentan con inteligencia artificial como parte de nuestras vidas que su aplicación se ve reflejada en el trabajo, fuera del mismo, y con todo tipo de fines, desde profesionales hasta didácticos. El auge de esta clase de tecnología aumenta constantemente, razón principal por la que el Estado siente la necesidad de regular su utilización, manejo, desarrollo, alcance y límites. Lo anterior, en aras de un uso responsable, ético y sostenible que vaya de la mano con los preceptos internacionales en la materia; a su vez, siguiendo la corriente que llevan marcando distintos países, al establecer reglas de juego básicas pero fundamentales para un adecuado y próspero manejo de la inteligencia artificial.
Por ello, en este escrito se abordará brevemente los aspectos considerados más relevantes de este proyecto de ley, nuevamente radicado para surtir su trámite en la nueva legislatura 2025-2026 identificado como PL 043 de 2025, el cual retoma, elementos de proyectos de ley provenientes de otros países que podrían implementarse para aspirar a una legislación más sólida y completa.
Este proyecto se divide en capítulos según el enfoque a tratar desde lo general hasta lo específico, empezando por las disposiciones generales. En éstas, se establecen -entre otros- el primer aspecto relevante que orientará la legislación para darle una base sólida a partir de la cual se podrá construir un marco normativo adecuado, siendo estos los principios rectores. Su relevancia radica en que ninguna disposición legal referente a la IA podrá ir en contra de estos, so pena de restringir su ingreso al ordenamiento jurídico.
Los principios rectores principalmente hacen referencia a la estricta protección de derechos humanos bajo un enfoque equitativo y sin discriminación, teniendo en cuenta que su identidad, libre desarrollo, privacidad y confidencialidad podrían vulnerarse mediante un manejo inadecuado de la IA. Incluso, infieren que las decisiones tomadas por la IA puedan ser cuestionadas y auditadas bajo el principio de transparencia y explicabilidad, garantizando a las personas el derecho a saber de qué forma pueden afectarse por este tipo de decisiones. Además de la protección humana, también enfatiza en la necesaria protección del ecosistema, indicando que su uso y manejo debe ser sostenible y consciente, minimizando al máximo posible el impacto medioambiental. La UNESCO1, fortalece este punto al indicar que hay que reducir la huella de carbono y el consumo de energía que implican el uso de este tipo de tecnologías.
Un paréntesis necesario respecto al principio de bienestar social y medioambiental consiste en el uso responsable, teniendo en cuenta que, según este proyecto, las personas que utilicen herramientas con IA también se deben acoger a lo que establece la norma, respetando sus prerrogativas. Hace poco, estuvo de moda subir una foto a ChatGPT para que este modelo de IA la transforme al estilo de personajes de “Studio Ghibli”, pero ¿dónde está el inconveniente frente a todo esto? No se hará referencia a cuestiones de propiedad intelectual aun, sino eminentemente ambientales.
Este tipo de solicitudes de imagen son propias de una IA generativa, encargadas de la producción de imágenes, texto, resúmenes de texto, subtítulos de imágenes, entre otras. Según Luccioni, Jernite y Strubell2, en temas de emisiones, las solicitudes generativas consumen 1450 veces más energía (en términos de Kilovatios/Hora) que las solicitudes clasificatorias de texto, y las generativas de imágenes, consumen en promedio 60 veces más energía que las generativas de texto. Por otro lado, Dalenski3 indica que cada vez que se realizan entre 20 y 50 consultas en ChatGPT, se consume al menos medio litro de agua potable utilizado para los sistemas de refrigeración encargados de mantener en la temperatura correcta los servidores encargados de correr la herramienta.
Teniendo en cuenta la innumerable cantidad de solicitudes realizadas por miles de personas a nivel mundial, junto a la amplia variedad de herramientas que hacen uso de IA generativa -porque ChatGPT no es la única-, existe un impacto considerablemente negativo al medioambiente, aspecto que va en contra del principio rector del bienestar social y medioambiental, al afectarse el recurso hídrico más importante, la generación de energía para dar abasto y el considerable aumento de la huella de carbono.
La problemática que se busca resaltar con este paréntesis es que la legislación, por sí sola, no puede garantizar el uso completamente sostenible de la IA. Aunque el principio rector del bienestar social y medioambiental establece la necesidad de revisar los efectos a largo plazo que genera su aplicación frente al ecosistema, en la práctica la regulación enfrenta límites claros. No existe un mecanismo jurídico que obligue a cada usuario a ser consciente del impacto ambiental de sus interacciones con la IA, ni tampoco sería viable restringir su acceso sin contradecir el propio impulso de la innovación tecnológica a la que se busca llegar con la promulgación de esta ley en el país.
Cerrando el amplio pero necesario paréntesis, el verdadero desafío, más allá de lo que la norma pueda establecer, radica en cómo generar consciencia y responsabilidad en el uso de este tipo de herramientas, promoviendo soluciones que combinen regulación, educación y avances tecnológicos sostenibles, sin que estas se enfrenten entre sí.
Continuando con el análisis del proyecto, el segundo capítulo hace referencia a algunas definiciones sobre términos que se tratarán a lo largo de la ley. Si bien, son suficientes para comprender los conceptos que se tratan en la legislación, podría complementarse con los tipos de inteligencia artificial existente y en qué consiste su funcionamiento. Por ejemplo, la diferencia entre deep learning y machine learning. Realmente no es información fundamental ya que va más allá de lo general, pero sería útil para tener un manejo de términos más específico dentro de la regulación.
El tercer capítulo trae una clasificación propuesta por la UE y ha sido adoptada por varios países, es la clasificación de riesgos. Esta consiste en clasificar la IA en cuatro tipos diferentes de riesgo según el peligro que represente incluirlos dentro de nuestra sociedad, incorporando desde sistemas de riesgo prohibidos, hasta sistemas de bajo riesgo. La distribución consiste en que, entre mayor sea el riesgo que implica el programa, debe haber mayor una exigencia respecto a su transparencia y control. Por ejemplo, un programa prohibido sería aquel que, mediante un análisis biométrico, evalúe el comportamiento de las personas en público sin autorización judicial previa.
El cuarto capítulo, sobre la gobernanza para la IA, encabeza la responsabilidad de regular los lineamientos técnicos para el adecuado desarrollo de la ley en el Gobierno Nacional, y en el Ministerio de Ciencia, Tecnología e Información (MinTIC). Cabe recalcar que estos deben ir en consonancia con el panorama internacional. Además, se indica que la tarea de supervisión y monitoreo recaerán en entidades que el mismo gobierno decida. Sin embargo, más adelante y fuera del capítulo en el artículo 27, indica que la SIC será la encargada de supervisar y emitir sanciones a entidades públicas o privadas cuando estas infrinjan la normatividad planteada respecto a datos personales, protección al consumidor, y protección de la competencia. Pero, si la IA no maneja los temas mencionados, la competencia recaerá en la entidad designada por el gobierno.
Además, al final del capítulo menciona que se garantizará un equilibrio entre la protección de derechos de los creadores de la propiedad intelectual, y el acceso a datos y obras necesarias para el desarrollo de tecnologías innovadoras, lo cual, podría traducirse en la creación de nuevas excepciones de uso de derechos de autor por parte de empresas o entidades encargadas de entrenar una inteligencia artificial generativa -por ejemplo-, pero, sin afectar en gran medida al titular de estos derechos, alcanzando un equilibrio. La situación mencionada en el ejemplo no sucedió con la generación de imágenes al estilo “Studio Ghilbi”, teniendo en cuenta que el estilo de Miyazaki está protegido y no es fanático en lo absoluto de la IA generativa, por lo que probablemente demandará a ChatGPT.
El séptimo capítulo trata un tema muy importante, y es el asociado a la protección de los trabajadores. Este plantea que, en caso de que la IA ponga en riesgo el puesto de una persona, la empresa pública o persona jurídica deberá garantizar la protección integral de los derechos laborales al implementar programas y lineamientos destinados a capacitar y reubicar a los afectados, al igual que permitir, mediante estos, la actualización o recalificación de sus habilidades, adaptándolos a nuevas tecnologías y fomentando su participación activa en los cambios con ocasión a la implementación de la IA. De esa forma, promoviendo la modernización de muchos puestos de trabajo, pero a la vez, asegurando el derecho al trabajo de los empleados.
Respecto a las sanciones por un uso indebido de la IA que llegue a afectar derechos humanos y ambientales, el proyecto en el capítulo nueve indica que, se promoverán propuestas legislativas para la actualización del código penal en caso de que sea necesario la creación de nuevos tipos que cubran la ejecución de este tipo de conductas. Además, indica que, según los niveles de riesgo mencionados, los desarrolladores y usuarios deberán actuar con diligencia, implementando medidas de mitigación y prevención para la protección de los derechos mencionados anteriormente.
En los capítulos siguientes se fomenta de forma general el desarrollo de IA en el país mediante el financiamiento de proyectos, promoción de infraestructura, plataformas aptas para llevar las herramientas a cabo, descuentos para inversiones realizadas en investigación, beneficios tributarios, programas de educación, entre muchos otros planes ambiciosos que buscan volver al país un referente de desarrollo y promoción de IA a nivel mundial.
Este proyecto de ley demuestra solidez para establecer el primer régimen normativo respecto al uso, manejo, desarrollo y gestión de la IA en el país. Sin embargo, hay detalles que podrían incluirse para establecer un marco legal aún más sólido y completo.
Esos aspectos que hacen parte de otras legislaciones o proyectos de ley de otros países y se consideran podrían aportar a este, son:
- Etiquetado digital obligatorio
En el proyecto de ley uruguayo, se establece el etiquetado digital obligatorio. Este consiste en que se debe informar a los usuarios cuando estos interactúen con un sistema de IA, a menos que esto pueda ser evidente por el contexto. Los proveedores y desarrolladores de IA estarán obligados a etiquetar digitalmente sus productos y servicios. Es como lo que se hace en la red social X cuando se indica que un post fue automatizado, o, en un ejemplo más cercano a la población, como el etiquetado de alimentos que indica si un producto es alto en azúcares, sodio, etc. Una herramienta como esta permitiría identificar fácilmente cualquier producto o sistema compuesto de IA, incluso ayudaría a evitar confusiones en la sociedad, por ejemplo, evitando que las personas caigan fácilmente en un DeepFake o un AudioFake.
- Derecho a la explicación de decisiones
El derecho a la explicación de decisiones se puede traducir en una transparencia absoluta y está incluido principalmente en los proyectos de legislación brasileño y panameño. Si bien contamos con un principio rector en nuestro proyecto de ley que hace referencia a la transparencia y explicabilidad, puede ser reforzado con el derecho a la información previa propuesto por Brasil, consistente en una advertencia al usuario antes de darse una interacción con sistemas de IA, al igual que una explicación del porqué tomó ciertas decisiones y la indicación de cuando una contestación que se le realiza consiste en una decisión automatizada; al igual que puede complementarse con lo establecido en el proyecto panameño bajo el derecho que tiene una persona afectada por una decisión automatizada a tener una explicación comprensible y racional, al igual que añade que las empresas deben informar sobre los criterios de las decisiones automatizadas. Un principio de transparencia y explicabilidad reforzado con las posturas anteriores lo reforzaría aún más, para dar certeza que las decisiones tomadas, al igual que la información que maneja tienen un criterio elaborado y justificado.
- Creación de entidades regulatorias
En la Unión Europea, al igual que en los proyectos legislativos mexicanos, costarricenses y argentinos, se plantea la creación de una entidad destinada únicamente a la vigilancia, manejo y control de la IA. Si bien el proyecto de ley colombiano indica que el gobierno determinará las entidades responsables de la supervisión y monitoreo de los sistemas basados en IA, al igual que delega en el MinTIC la reglamentación, los aspectos y contenidos relacionados con la ley, no crea propiamente una entidad cuyo único propósito sea la vigilancia, control y reglamentación de la IA. En Argentina se busca crear un organismo regulador específico para supervisar la implementación del régimen legal; en México, un organismo autónomo y que sea responsable de supervisar el cumplimiento de normas éticas en el uso de la IA; y en Costa Rica, la creación de una entidad encargada de supervisar el cumplimiento de la ley y establecer directrices técnicas y éticas.
Con base en lo anterior, se considera que sería necesario crear una entidad autónoma que puede estar o no adscrita al MinTIC, cuya tarea sería la supervisión y control de los sistemas, que tenga un control del efectivo cumplimiento de la ley, capaz de imponer sanciones y multas y emitir reglamentos y directrices que profundicen lo establecido en la ley, incluso, que lleve a cabo un registro. Tener un organismo tal como se describe anteriormente, le da mayor solidez a la intención de fomentar un correcto uso, desarrollo y manejo de IA en el país.
- Registro Nacional de IA
Un tema que no incluye el proyecto de ley y que va relacionado al punto anterior es la creación de un registro nacional de IA -manejado por la entidad autónoma-. Costa Rica plantea en su proyecto que los desarrolladores deben registrar sus sistemas ante la autoridad competente, similar a Ecuador, que propone la creación de un registro nacional de sistemas de IA. La creación de un registro nacional de IA permitiría un seguimiento más sencillo de los sistemas implementados con IA en el país, además facilitaría la prueba cuando se dispute la pertenencia de uno de estos sistemas. Incluso podría clasificarse de acuerdo al tipo de sistema de IA y el riesgo bajo en el cual esté categorizado. Idealmente, este registro funcionaría como el registro de derechos de autor en el país, declarativo y permitiría conocer la información relacionada a los creadores del sistema para efectos legales, característica relacionada también al principio de transparencia.
- Sectores específicos
Otra característica que puede ser relevante para tener una mayor organización de los sistemas de IA es la indicación de a qué sectores específicos está destinada su aplicación, este detalle podría ir también incluido como un detalle en el registro del punto anterior.
El proyecto ecuatoriano y costarricense dividen principalmente su aplicación en los sectores de salud (en diagnósticos y tratamientos), finanzas (en evaluación crediticia y detección de fraudes), transporte, educación, justicia (asegurando transparencia y el acceso a la misma), y la administración pública (para mejorar eficiencia en servicios públicos). Teniendo en cuenta el sector específico al que se va a aplicar, su supervisión, análisis de riesgo y seguimiento, puede facilitarse al compararse con otros sistemas de IA destinados a la misma categoría.
Habiendo analizado algunas sugerencias por adoptar para fortalecer el proyecto de ley, es necesario responder el planteamiento principal frente a la suficiencia de este.
La regulación de la inteligencia artificial representa un paso fundamental en la evolución de un ordenamiento jurídico que busca equilibrar el desarrollo tecnológico e informático con la protección de los derechos humanos y el bienestar social y medioambiental. El proyecto de ley analizado demuestra tener una base sólida y suficiente para establecer un régimen normativo que oriente el uso, manejo y desarrollo de la IA.
Sin embargo, a pesar de la suficiencia, su alcance podría ampliarse para dar mayor solidez y efectividad. La inclusión de mecanismos como el etiquetado digital obligatorio, el derecho a la explicación de decisiones tomadas por IA, la creación de una entidad específica, la implementación de un registro nacional de IA y la sectorización según su finalidad, convertirían este proyecto legislativo en un modelo a seguir por otros países debido a su completitud.
Más allá de la regulación en sí misma, hay que destacar la importancia de fomentar la cultura de uso consciente, sostenible y ético de la inteligencia artificial, no sólo por las sanciones, penas o multas que representarían no hacerlo, sino porque la normativa por sí sola no puede garantizar un impacto positivo sin el compromiso de usuarios, desarrolladores y entidades públicas o privadas responsables de su implementación.
En conclusión, el proyecto de ley es el punto de partida apto para regular la inteligencia artificial, aunque su alcance puede ser optimizado añadiendo aspectos adicionales que refuercen su efectividad y trascendencia. La IA, al igual que nuestra especie, está en constante evolución; por lo tanto, su regulación debe ser dinámica y adaptable a los cambios tecnológicos y sociales que surjan en el futuro. Solo a través de la combinación entre una legislación sólida, consciencia social y mecanismos de supervisión efectivos, se podrá garantizar que la IA será una herramienta al servicio del desarrollo humano y sus derechos, la innovación y la sostenibilidad.
- UNESCO. Recomendación sobre la ética de la inteligencia artificial. 2021, p. 31. Disponible en:
https://unesdoc.unesco.org/in/documentViewer.xhtml?v=2.1.196&id=p::usmarcdef_0000381137_spa&file=/in/rest/annotationSVC/DownloadWatermarkedAttachment/attach_import_50daf52c-56dc-4375-ba1f-3574cd3d9b3f%3F_%3D381137spa.pdf&locale=en&multi=true&ark=/ark:/48223/pf0000381137_spa/PDF/381137spa.pdf#484_22_S_SHS_Recommendation%20Ethics%20of%20AI_int.indd%3A.17454%3A122 ↩︎ - LUCCIOMI, Sasha. et al. Power Hungry Processing: Watts Driving the Cost of AI Deployment? 2023. Disponible en: https://dl.acm.org/doi/10.1145/3630106.3658542 ↩︎
- DALENSKI, David. AI programs consume large volumes of scarce water. 2023. Disponible en: https://news.ucr.edu/articles/2023/04/28/ai-programs-consume-large-volumes-scarce-water ↩︎
- Proyecto de Ley 043/2025 S; Disponible en: Estado de los Proyectos de Ley y Actos Legislativos del H.Senado, consulta de textos e informes legislativos
*La entrada publicada en el Blog no refleja la opinión del Departamento de Derecho, Comunicaciones y Tecnologías de la Información. El autor es el único responsable del contenido y las opiniones expresadas en la misma.