Artículos
17 de abril de 2026
ÉTICA ALGORÍTMICA EN LA GESTIÓN DE LAS FINANZAS PÚBLICAS EN LA ADMINISTRACIÓN PÚBLICA PERUANA – PARTE II
El uso de inteligencia artificial en las finanzas públicas introduce riesgos como opacidad, sesgos, afectación a la privacidad y vacíos de responsabilidad. Estos riesgos impactan decisiones clave sobre fiscalización, gasto y asignación de recursos. La gobernanza algorítmica exige estándares como transparencia, supervisión humana y control de sesgos. Su legitimidad depende de integrar garantías jurídicas en todo el ciclo de vida del sistema.
Italo Dell’Erba Ugolini1
Con base en el marco conceptual y normativo previamente desarrollado, en esta segunda parte se analizan los riesgos ético-jurídicos concretos asociados al uso de sistemas algorítmicos en la gestión de las finanzas públicas, así como sus implicaciones prácticas. Este desarrollo permite aterrizar los estándares expuestos en la primera entrega y evaluar cómo deben ser gestionados para asegurar decisiones públicas transparentes, responsables y acordes con la protección de los derechos fundamentales.
III. Riesgos ético-jurídicos en la gestión algorítmica de las finanzas públicas
La adopción de sistemas algorítmicos en la administración pública, incluida la gestión de las finanzas públicas, conlleva una serie de riesgos éticos y jurídicos que deben ser analizados y gestionados adecuadamente. En primer lugar, la opacidad inherente a muchos algoritmos complejos puede obstaculizar la comprensión y la supervisión de las decisiones automatizadas, lo que se traduce en una deficiente rendición de cuentas y un debilitamiento del principio de legalidad. La transparencia algorítmica ha sido reconocida como un instrumento crítico para garantizar la explicabilidad y la responsabilidad en el sector público, ya que permite documentar el ciclo de vida de los sistemas y facilita la supervisión tanto interna como externa de las decisiones basadas en IA .
Además, los sesgos y la discriminación algorítmica representan riesgos significativos cuando los modelos replican desigualdades existentes en los datos entrenados. Estos sesgos pueden manifestarse en la priorización de determinados contribuyentes para fiscalizaciones, en la selección de programas de gasto o en la asignación de beneficios, perpetuando así inequidades sociales y económicas sin una justificación jurídica sólida. El enfoque de la Toronto Declaration y otros marcos internacionales subrayan la necesidad de proteger los derechos humanos frente a decisiones automatizadas que puedan infringir los principios de igualdad y no discriminación.
Otro riesgo ético importante deriva del uso masivo de datos personales sensibles. En el contexto de la administración financiera, la recolección y procesamiento de información tributaria, presupuestaria o de beneficios sociales puede vulnerar la privacidad si no se adoptan mecanismos de protección desde el diseño y por defecto, tal como recomiendan organismos internacionales en sus marcos de ética para IA . La ausencia de salvaguardas robustas puede comprometer la confianza pública y, en situaciones extremas, conducir a filtraciones de datos o usos no autorizados.
Asimismo, la implementación de algoritmos sin una estructura de control y revisiones claras puede generar un vacío de responsabilidad jurídica, en el que la “decisión automatizada” dificulta la atribución de responsabilidades a la institución o al funcionario competente. El informe de la OECD sobre gobernanza algorítmica en servicios públicos recalca la importancia de establecer marcos organizacionales que definan responsabilidades, especialmente en decisiones con resultados significativos para la ciudadanía .
Finalmente, los riesgos técnicos, como vulnerabilidades a ciberataques o fallos en la calidad de los datos entrenados, también plantean desafíos éticos adicionales, ya que pueden resultar en decisiones erróneas de gran impacto social y fiscal. Estos riesgos combinados resaltan la necesidad de un enfoque multidimensional de gobernanza algorítmica que incluya controles legales y técnicos, así como mecanismos de supervisión humana efectiva.
IV. Conclusiones
La incorporación de sistemas algorítmicos e inteligencia artificial en la gestión de las finanzas públicas peruanas constituye un proceso irreversible dentro del marco de la transformación digital del Estado. Sin embargo, el análisis desarrollado permite afirmar que la modernización tecnológica no puede desvincularse del ordenamiento jurídico ni de los principios estructurales de la buena administración. La ética algorítmica no es una categoría meramente declarativa o tecnológica, sino una exigencia jurídica derivada del principio de legalidad, del debido procedimiento, de la protección de datos personales y del deber de rendición de cuentas que rige toda actuación pública.
En segundo lugar, el estudio evidencia que el Perú cuenta con un marco normativo suficiente para sostener estándares mínimos de gobernanza algorítmica en la gestión financiera pública. No se requiere, por tanto, una “nueva ley algorítmica” para comenzar a exigir estándares éticos; lo que se requiere es una correcta interpretación sistemática del derecho vigente.
Asimismo, se ha demostrado que los principales riesgos ético-jurídicos —opacidad, sesgo, afectación de la privacidad, vacíos de responsabilidad y vulnerabilidades técnicas— no son hipotéticos, sino estructurales al funcionamiento de sistemas complejos de decisión automatizada. En el ámbito de las finanzas públicas, estos riesgos adquieren mayor intensidad, dado que pueden impactar directamente en la distribución de recursos públicos, en la fiscalización tributaria, en la asignación presupuestaria o en la ejecución del gasto. Por ello, la gobernanza algorítmica debe concebirse como una política pública transversal que combine controles técnicos, jurídicos y organizacionales.
Del mismo modo, el análisis doctrinal internacional confirma que la ética algorítmica contemporánea se estructura sobre pilares verificables: transparencia proporcional, supervisión humana significativa, evaluación de impacto, no discriminación y responsabilidad institucional clara. Estos estándares no son ajenos al ordenamiento peruano; por el contrario, dialogan con los principios constitucionales y administrativos vigentes, particularmente con la interdicción de la arbitrariedad y el principio de razonabilidad.
En consecuencia, puede sostenerse que la legitimidad del uso de inteligencia artificial en la gestión de las finanzas públicas depende de la incorporación efectiva de garantías durante todo el ciclo de vida del sistema: diseño, entrenamiento, implementación, monitoreo y revisión. La automatización no sustituye la responsabilidad estatal; la intensifica. Cuando un algoritmo participa en la toma de decisiones financieras públicas, el deber de motivación, control y supervisión no desaparece, sino que debe adaptarse a la complejidad tecnológica.
Finalmente, la ética algorítmica en finanzas públicas debe entenderse como una manifestación contemporánea del principio de buena administración. La tecnología puede convertirse en un instrumento poderoso para mejorar la eficiencia, combatir la corrupción y optimizar la asignación de recursos; pero solo será jurídicamente sostenible si se implementa bajo criterios de transparencia, proporcionalidad, equidad y control democrático. En un Estado constitucional de derecho, la innovación tecnológica no puede desligarse de la protección de derechos fundamentales ni de la sujeción estricta a la legalidad financiera. La ética algorítmica, en este sentido, no es una opción política, sino una exigencia estructural del Estado moderno.
Referencias
Aoki, N. (2024). Explainable AI for government: Does the type of explanation matter to the accuracy, fairness, and trustworthiness of an algorithmic decision as perceived by those who are affected? Government Information Quarterly.
Global Partnership on Artificial Intelligence. (2024). Algorithmic transparency in the public sector: A state-of-the-art report of algorithmic transparency instruments.
Kossow, N., Windwehr, S., y Jenkins, M. (2021). Algorithmic transparency and accountability. Transparency International Anti-Corruption Helpdesk.
Latorre, L. (2025). Tech report: Digital ethics. Inter-American Development Bank.
Organisation for Economic Co-operation and Development. (2019). Recommendation of the Council on Artificial Intelligence.
Organisation for Economic Co-operation and Development. (2024). Tax administration 2024.
Organisation for Economic Co-operation and Development. (2025). Tax administration digitalisation and digital transformation initiatives.
Organisation for Economic Co-operation and Development, y CAF. (2022). The strategic and responsible use of artificial intelligence in the public sector of Latin America and the Caribbean.
United Nations Educational, Scientific and Cultural Organization. (2021). Recommendation on the ethics of artificial intelligence.
Presidencia del Consejo de Ministros. (2025). Decreto Supremo N.° 115-2025-PCM, que aprueba el Reglamento de la Ley N.° 31814.
Presidencia del Consejo de Ministros. (2026). Inteligencia artificial responsable.
- Abogado por la Universidad de San Martín de Porres (Perú). Magíster en Gobierno y Administración Pública por la Universidad Complutense de Madrid (España). Especialización en Economía y Finanzas para Abogados por la Universidad Nacional de La Plata (Argentina). Docente Ordinario del Departamento de Ciencias Jurídicas y Políticas de la Facultad de Derecho y Ciencia Política de la Universidad Nacional Mayor de San Marcos. https://orcid.org/0000-0002-0643-2942
Correo electrónico: idellerbau@unmsm.edu.pe ↩︎
*La entrada publicada en el Blog no refleja la opinión del Departamento de Derecho, Comunicaciones y Tecnologías de la Información. El autor es el único responsable del contenido y las opiniones expresadas en la misma*.
Imagen en iStock Manoj Madusanka