Artículos
9 de abril de 2026

ÉTICA ALGORÍTMICA EN LA GESTIÓN DE LAS FINANZAS PÚBLICAS EN LA ADMINISTRACIÓN PÚBLICA PERUANA – PARTE I

La inteligencia artificial en las finanzas públicas mejora eficiencia y control, pero introduce riesgos jurídicos como opacidad y sesgos. La ética algorítmica se vincula con principios como legalidad transparencia y debido proceso.

Italo Dell’Erba Ugolini1

Esta es la primera de dos entregas dedicadas a examinar el uso de la inteligencia artificial en las finanzas públicas desde una perspectiva jurídica. En esta parte inicial se abordan los fundamentos del problema, definiendo la ética algorítmica en el ámbito estatal, sus principales riesgos y su conexión con el marco normativo peruano, con el fin de establecer las bases conceptuales para un uso responsable de estas tecnologías.

I. Introducción

    La transformación digital del Estado peruano está impactando de manera directa en las finanzas públicas: desde la recaudación y fiscalización tributaria, hasta la asignación y ejecución presupuestal, el control gubernamental y la provisión de servicios vinculados a ingresos y gastos públicos. En este escenario, el uso de algoritmos e inteligencia artificial (IA) promete mayor eficiencia, detección temprana de irregularidades, reducción de costos administrativos y mejora en la focalización del gasto. Sin embargo, también introduce riesgos jurídicos y éticos: decisiones automatizadas opacas, sesgos en la asignación de beneficios o en la selección de contribuyentes fiscalizables, uso excesivo de datos personales, vulnerabilidades de ciberseguridad, y dificultades para atribuir responsabilidades cuando “decide el sistema”.

    La ética algorítmica no es un discurso extra-jurídico: en el sector público, se conecta con principios constitucionales, con la legalidad financiera, con el debido procedimiento y con obligaciones concretas de transparencia, protección de datos y rendición de cuentas. En el Perú, este debate ya tiene anclaje normativo: la Ley N.° 31814 que promueve el uso de la IA y su Reglamento aprobado por el D.S. N.° 115-2025-PCM; el marco de gobierno digital (D. Leg. N.° 1412 y su reglamentación); la Ley N.° 29733 de protección de datos personales y su reglamento actualizado mediante D.S. N.° 016-2024-JUS; además de las normas de transparencia y los sistemas de control.

    Esta entrada propone un enfoque práctico-jurídico: (i) delimitar qué debe entenderse por ética algorítmica en finanzas públicas, (ii) identificar el soporte normativo peruano aplicable y (iii) plantear estándares mínimos exigibles para un uso legítimo y responsable de algoritmos en decisiones financieras públicas.

    II. Ética algorítmica y finanzas públicas: el problema jurídico de fondo

      La ética algorítmica, aplicada a la gestión de las finanzas públicas, puede definirse como el conjunto de principios, obligaciones de diseño y salvaguardas institucionales que deben regir el ciclo de vida de los sistemas algorítmicos e inteligencia artificial (IA) cuando estos influyen o determinan decisiones públicas sobre ingresos, gasto, endeudamiento y control. No se trata de una discusión meramente tecnológica: en el ámbito estatal, los algoritmos operan como instrumentos de poder público porque orientan decisiones con impactos distributivos, patrimoniales y, en muchos casos, con efectos jurídicos relevantes.

      La literatura reciente coincide en que los sistemas algorítmicos se insertan en el Estado bajo dos modalidades principales:

      1. automatización asistida, donde el algoritmo recomienda o prioriza y un decisor humano resuelve; y
      2. automatización sustitutiva, donde el sistema ejecuta la decisión con mínima intervención humana.

      En ambos casos, la ética algorítmica exige trasladar al plano digital los estándares clásicos de la buena administración: imparcialidad, control, responsabilidad y posibilidad de revisión. Transparencia International (2021) desde una perspectiva de integridad pública, sostiene que la adopción de algoritmos en la administración debe ir acompañada de salvaguardas integradas desde el diseño hasta la implementación, subrayando que las instituciones públicas deben ser evaluadas con el mismo estándar de exigencia, aunque la decisión sea producida o mediada por tecnología (Kossow et al., 2021).

      Desde la doctrina de gobernanza algorítmica en el sector público, el núcleo del problema es que los algoritmos pueden producir opacidad por complejidad técnica, por reserva comercial o por falta de documentación. Esa opacidad impacta directamente en dos garantías esenciales: la explicabilidad (comprender por qué se produjo un resultado) y la contestabilidad (poder cuestionarlo y obtener revisión). En esa línea, el informe de la Global Partnership on AI analiza instrumentos contemporáneos de transparencia algorítmica en el sector público y destaca que la transparencia no es solo cantidad de información, sino su calidad, accesibilidad y utilidad para asegurar responsabilidad pública, especialmente cuando hay tensión con privacidad o propiedad intelectual (GPAI, 2024).

      La necesidad de explicaciones también se respalda empíricamente: estudios recientes muestran que ofrecer explicaciones sobre decisiones algorítmicas en contextos gubernamentales (por ejemplo, selección para inspección tributaria o rechazo de una subvención) tiende a mejorar la percepción de confianza y legitimidad, lo cual refuerza la idea de que la explicabilidad no es solo un requisito técnico, sino una condición para la aceptabilidad social y la validez institucional del uso de IA en la administración (Aoki, 2024).

      En finanzas públicas, este debate es particularmente sensible porque los algoritmos son utilizados (o pueden serlo) para: segmentar contribuyentes por riesgo, priorizar fiscalizaciones, detectar fraude, focalizar programas, seleccionar expedientes para control, o anticipar desviaciones en ejecución presupuestal. Organismos internacionales han documentado la expansión del uso de analítica avanzada e IA en administraciones tributarias y su impacto en gestión del cumplimiento, lo cual, aunque eficiente, incrementa la necesidad de reglas de transparencia, supervisión y gestión de riesgos para evitar arbitrariedad tecnológica y daños a derechos (OECD, 2024; OECD, 2025).

      Desde un enfoque normativo de ética aplicada, dos referentes doctrinales actuales son especialmente útiles para sustentar estándares en el Perú. Primero, la Recomendación de la UNESCO sobre ética de la IA, que consolida el paradigma de derechos humanos como eje de toda implementación, incorporando principios como proporcionalidad, no discriminación, protección de la privacidad, rendición de cuentas y gobernanza institucional (UNESCO, 2021). Segundo, la Recomendación del Consejo de la OCDE sobre IA, que desarrolla obligaciones de transparencia, robustez y responsabilidad para promover IA confiable, y que ha servido como base para marcos de gobernanza en diversos países (OECD, 2019). Estas fuentes permiten argumentar que la ética algorítmica en el Estado es una estructura de cumplimiento: políticas, registros, auditorías, evaluación de impactos y mecanismos de reclamación, no solo un catálogo de valores.

      En América Latina, la doctrina aplicada a sector público ha insistido en que la adopción de IA debe acompañarse de capacidades institucionales, gobernanza de datos, enfoque de integridad, y marcos operativos de uso responsable. El reporte OECD/CAF sobre uso estratégico y responsable de IA en el sector público regional enfatiza que el valor público de la IA depende de prerequisitos como calidad de datos, marcos de responsabilidad, gestión del riesgo y supervisión, evitando trasladar inequidades existentes a decisiones automatizadas (OECD y CAF, 2022). Complementariamente, el BID plantea una matriz práctica de ética digital orientada a derechos, igualdad, justicia y protección, útil para aterrizar principios en controles institucionales y en reglas de gestión pública (Latorre, 2025).

      Bajo esta doctrina, la ética algorítmica en finanzas públicas puede sintetizarse en cuatro exigencias mínimas:

      • Gobernanza y trazabilidad: registro de propósito, datos usados, responsables, versión del modelo y criterios de validación;
      • Explicabilidad y transparencia proporcional: explicaciones comprensibles sobre factores relevantes y lógica general del resultado, con salvaguardas por seguridad y reserva;
      • No discriminación y control de sesgos: pruebas ex ante y monitoreo continuo de resultados desiguales, especialmente cuando se usan variables correlacionadas con vulnerabilidades;
      • Responsabilidad y vías de revisión: supervisión humana significativa en decisiones de alto impacto y mecanismos claros de reclamo, auditoría y corrección.

      Estos estándares dialogan con el marco peruano reciente que promueve el uso de IA bajo criterios éticos, transparentes y responsables, especialmente en el sector público, y permiten sostener que la modernización tecnológica en finanzas públicas solo es jurídicamente sostenible cuando incorpora garantías verificables a lo largo de todo el ciclo de vida del sistema (Presidencia del Consejo de Ministros, 2025; Presidencia del Consejo de Ministros, 2026).

      A partir de este marco conceptual y normativo, en la segunda parte de la entrada se profundizará en los riesgos ético-jurídicos concretos asociados al uso de sistemas algorítmicos en la gestión de las finanzas públicas, así como en las implicaciones prácticas de su implementación. Este análisis permitirá aterrizar los estándares previamente expuestos y evaluar cómo deben ser gestionados para garantizar decisiones públicas transparentes, responsables y respetuosas de los derechos fundamentales.

      Referencias

      Aoki, N. (2024). Explainable AI for government: Does the type of explanation matter to the accuracy, fairness, and trustworthiness of an algorithmic decision as perceived by those who are affected? Government Information Quarterly.

      Global Partnership on Artificial Intelligence. (2024). Algorithmic transparency in the public sector: A state-of-the-art report of algorithmic transparency instruments.

      Kossow, N., Windwehr, S., y Jenkins, M. (2021). Algorithmic transparency and accountability. Transparency International Anti-Corruption Helpdesk.

      Latorre, L. (2025). Tech report: Digital ethics. Inter-American Development Bank.

      Organisation for Economic Co-operation and Development. (2019). Recommendation of the Council on Artificial Intelligence.

      Organisation for Economic Co-operation and Development. (2024). Tax administration 2024.

      Organisation for Economic Co-operation and Development. (2025). Tax administration digitalisation and digital transformation initiatives.

      Organisation for Economic Co-operation and Development, y CAF. (2022). The strategic and responsible use of artificial intelligence in the public sector of Latin America and the Caribbean.

      United Nations Educational, Scientific and Cultural Organization. (2021). Recommendation on the ethics of artificial intelligence.

      Presidencia del Consejo de Ministros. (2025). Decreto Supremo N.° 115-2025-PCM, que aprueba el Reglamento de la Ley N.° 31814.

      Presidencia del Consejo de Ministros. (2026). Inteligencia artificial responsable.

      1. Abogado por la Universidad de San Martín de Porres (Perú). Magíster en Gobierno y Administración Pública por la Universidad Complutense de Madrid (España). Especialización en Economía y Finanzas para Abogados por la Universidad Nacional de La Plata (Argentina). Docente Ordinario del Departamento de Ciencias Jurídicas y Políticas de la Facultad de Derecho y Ciencia Política de la Universidad Nacional Mayor de San Marcos. https://orcid.org/0000-0002-0643-2942
        Correo electrónico: idellerbau@unmsm.edu.pe
        ↩︎

      *La entrada publicada en el Blog no refleja la opinión del Departamento de Derecho, Comunicaciones y Tecnologías de la Información. El autor es el único responsable del contenido y las opiniones expresadas en la misma*.

      Imagen en iStock Manoj Madusanka