Artículos
5 de marzo de 2026
Cuando la inteligencia artificial inventa el derecho: riesgos para la profesión jurídica
La inteligencia artificial no “miente” en sentido moral, pero sí puede producir construcciones lingüísticas que simulan razonamientos jurídicos sin corresponder a fuentes reales. Tal circunstancia activa de manera reforzada el deber de verificación que históricamente ha recaído sobre el abogado.
Juan Camilo González Cuenca1
Resumen
El presente artículo analiza críticamente el uso de herramientas de inteligencia artificial (IA) por parte de abogados en la elaboración de escritos judiciales y académicos, fenómeno que ha dado lugar a la inclusión de normas y jurisprudencia inexistentes. A partir del deber ético de estudio y verificación de fuentes, consagrado en los principios tradicionales de la profesión jurídica y en la normativa disciplinaria colombiana, se examina el concepto de “tontería de la máquina” y su impacto en la lealtad procesal. Asimismo, se incorporan ejemplos recientes provenientes de tribunales de España, Australia e India, así como pronunciamientos de la Corte Suprema de Justicia de Colombia, con el fin de ilustrar las consecuencias jurídicas del uso acrítico de estas tecnologías. Se concluye que la inteligencia artificial no sustituye al abogado, sino que impone mayores estándares de diligencia, control crítico de la información y responsabilidad profesional.
Palabras clave: inteligencia artificial; ética profesional; verificación de fuentes; lealtad procesal; ejercicio de la abogacía.
Introducción
Los denominados “Diez mandamientos del abogado” constituyen un decálogo clásico que sintetiza la ética y la filosofía de la profesión jurídica. Entre sus postulados se destacan: “Estudia. El derecho se transforma constantemente” y “Sé leal. Leal con tu cliente y con el juez”. Estos principios encuentran reflejo normativo en la Ley 1123 de 2007 (Código Disciplinario del Abogado), la cual impone, entre otros deberes, la actualización profesional permanente, la actuación honesta y la lealtad frente a la administración de justicia.
La expansión de la inteligencia artificial generativa ha transformado de manera sustancial las formas de acceso a la información jurídica y los métodos tradicionales de investigación legal. Herramientas capaces de producir textos complejos en cuestión de segundos prometen eficiencia, reducción de cargas operativas y democratización del conocimiento jurídico. Sin embargo, estas ventajas tecnológicas también han generado riesgos inéditos para la profesión jurídica, especialmente cuando se utilizan sin un control crítico adecuado.
Desde el año 2025 se han conocido diversos casos en los que abogados han sido sancionados por presentar escritos elaborados con apoyo de sistemas de inteligencia artificial que contenían referencias normativas y jurisprudenciales inexistentes. Este fenómeno pone en tensión el deber de verificación de las fuentes, uno de los pilares tradicionales del ejercicio profesional, y plantea nuevos retos para la ética jurídica en la sociedad digital.
El presente trabajo se propone examinar críticamente estos riesgos a partir de los principios éticos de la profesión jurídica, del análisis de decisiones judiciales recientes y del concepto de “tonterías de la máquina”, con el fin de determinar en qué medida el uso de inteligencia artificial incrementa, y no disminuye, la responsabilidad profesional del abogado.
Desarrollo
En la actualidad, el acceso a normas, doctrina y jurisprudencia resulta considerablemente más sencillo que en épocas anteriores, cuando los abogados debían acudir físicamente a bibliotecas, relatorías judiciales o archivos impresos. Hoy basta con una conexión a internet para consultar bases de datos jurídicas y mantenerse actualizado. Sin embargo, esta facilidad también ha incentivado una confianza excesiva en sistemas de inteligencia artificial generativa, a los cuales se delega la producción de argumentos jurídicos sin un adecuado control crítico.
Se ha sostenido que la inteligencia artificial sustituirá a muchas profesiones, incluida la abogacía. No obstante, resulta más preciso afirmar que estas herramientas pueden potenciar la labor del abogado al facilitar tareas técnicas y repetitivas, como la sistematización de información, la redacción preliminar de textos o la identificación de patrones jurisprudenciales. El problema surge cuando se confunde asistencia tecnológica con sustitución del juicio profesional y se acepta acríticamente el contenido generado por sistemas que carecen de comprensión semántica del derecho y operan sobre probabilidades lingüísticas, no sobre criterios normativos de validez.
La magistrada María Patricia Guzmán, de la Corte Suprema de Justicia, ha descrito este fenómeno como una manifestación del “sesgo cognitivo y la ilusión de validez”, lo que otros autores han denominado “tonterías de la máquina”. Este concepto, inspirado en la obra de Frankfurt (2005), alude a discursos que aparentan coherencia y veracidad sin estar fundados en hechos reales. En el caso de la inteligencia artificial, se trata de textos plausibles desde el punto de vista gramatical, pero carentes de sustento normativo o jurisprudencial.
La materialización práctica de este riesgo se ha evidenciado en múltiples decisiones judiciales recientes. En España, el Tribunal Superior de Justicia de Canarias sancionó a un abogado que presentó un recurso que contenía decenas de sentencias inexistentes generadas mediante inteligencia artificial. El tribunal consideró que el profesional vulneró su deber de diligencia y veracidad al no verificar las fuentes citadas, lo cual afectó la confianza procesal y obligó al órgano judicial a invertir tiempo y recursos en comprobar la inexistencia de las providencias referidas.
En Australia, un abogado fue objeto de medidas disciplinarias luego de presentar escritos judiciales sustentados en precedentes que nunca habían sido proferidos por los tribunales. El caso fue ampliamente difundido por la prensa jurídica internacional al tratarse de una de las primeras sanciones profesionales directamente vinculadas al uso irreflexivo de herramientas de inteligencia artificial en la elaboración de documentos judiciales. La autoridad disciplinaria concluyó que el error no provenía de la herramienta en sí, sino de la omisión del deber profesional de contrastar la información obtenida antes de presentarla ante el juez.
Estos ejemplos confirman que la inteligencia artificial no “miente” en sentido moral, pero sí puede producir construcciones lingüísticas que simulan razonamientos jurídicos sin corresponder a fuentes reales. Tal circunstancia activa de manera reforzada el deber de verificación que históricamente ha recaído sobre el abogado. Como lo ha señalado la Corte Suprema de Justicia de Colombia, “el abogado que introduce normas o precedentes cuya autenticidad no ha constatado defrauda la confianza procesal, con independencia de su intención”. Desde esta perspectiva, el uso de inteligencia artificial no solo no atenúa la responsabilidad profesional, sino que incrementa el estándar de diligencia exigible.
El deber de verificación adquiere así una nueva dimensión: ya no se trata únicamente de comprobar la exactitud de las fuentes tradicionales, sino también de someter a escrutinio crítico los productos generados por sistemas automatizados que carecen de conciencia normativa y pueden “inventar” derecho con apariencia de legalidad. Incluso, esta situación introduce una variable adicional en la dinámica procesal, pues obliga a los operadores jurídicos a revisar críticamente no solo sus propios escritos, sino también los de la contraparte e incluso los proyectos de decisión judicial, con el fin de detectar posibles referencias inexistentes generadas mediante inteligencia artificial.
En consecuencia, más que un problema tecnológico, el fenómeno descrito revela un problema ético y profesional: la renuncia al control humano sobre el discurso jurídico. La inteligencia artificial puede ser una herramienta útil para organizar información, pero no puede sustituir el juicio jurídico ni la responsabilidad que deriva del ejercicio de la abogacía. Cuando el profesional abdica de su deber de verificación y transfiere esa función a un sistema automático, no se enfrenta únicamente a las limitaciones técnicas de la herramienta, sino a las consecuencias jurídicas de sus propias omisiones.
Conclusiones
La inteligencia artificial generativa no sustituye el juicio jurídico humano ni atenúa la responsabilidad profesional del abogado. Por el contrario, exige mayores estándares de diligencia, control crítico de la información y verificación de las fuentes. Los casos analizados demuestran que la utilización acrítica de estas herramientas puede derivar en sanciones disciplinarias, afectar la confianza en la administración de justicia y comprometer la seguridad jurídica.
En este contexto, el verdadero riesgo no radica en las denominadas “tonterías de la máquina”, sino en las “tonterías del abogado” que abdica de su responsabilidad profesional. La formación jurídica contemporánea debe, por tanto, incorporar una alfabetización tecnológica que permita comprender las limitaciones de la inteligencia artificial y utilizarla como herramienta auxiliar, sin renunciar al control humano del razonamiento jurídico ni a los principios éticos que históricamente han definido el ejercicio de la abogacía.
Referencias
BBC News Mundo. (s. f.). Hackeé ChatGPT y la IA de Google en 20 minutos (y qué logré demostrar con eso).
Corte Suprema de Justicia. (2026). Sentencia AC739-2026. M. P. Martha Patricia Guzmán Álvarez.
Frankfurt, H. (2005). On bullshit. Princeton University Press.
Ley 1123 de 2007. Congreso de la República de Colombia.
The Guardian. (2025, febrero 1). Australian lawyer caught using ChatGPT in court documents referencing non-existent cases.
Unite.AI. (s. f.). El problema de las mentiras de las máquinas: por qué la IA miente y cómo detenerla.
- Abogado, Magister en derecho informático y de las nuevas tecnologías de la U. Externado, especialista en derecho constitucional y administrativo. Ha ocupado posiciones como Gerente Seccional de la Auditoría General de la República, abogado asesor en entidades de orden nacional y territorial, así como coordinador jurídico en varias empresas privadas del país. ↩︎
* La entrada publicada en el Blog no refleja la opinión del Departamento de Derecho, Comunicaciones y Tecnologías de la Información. El autor es el único responsable del contenido y las opiniones expresadas en la misma
Imagen en iStock Sankai