- María López Fernández
- ética tecnológica, fallos judiciales, inteligencia artificial, justicia digital, responsabilidad en algoritmos
- 329 Vistas
Introducción
El auge de la inteligencia artificial (IA) y los sistemas automatizados ha impulsado una pregunta clave: ¿quién es responsable cuando un algoritmo decide, o contribuye a decidir, un resultado que impacta derechos, oportunidades o libertades de personas reales? Este artículo examina la responsabilidad en algoritmos desde una mirada judicial: qué ha ocurrido, por qué es relevante y a quién afecta la rendición de cuentas en los sistemas automatizados.
La “responsabilidad en algoritmos” se refiere al deber de asumir consecuencias o responder por decisiones tomadas —o apoyadas— por sistemas algorítmicos. En ámbitos tan diversos como la justicia penal, las búsquedas en Internet, el empleo o el crédito, estas tecnologías ya están presentes y generan retos legales, éticos y prácticos.
Este análisis expone casos emblemáticos —tanto en EE. UU. como en Iberoamérica—, explora su impacto en sectores clave, analiza implicancias y plantea los riesgos y oportunidades asociados.
Contexto histórico
Los algoritmos y la toma de decisiones automatizada
Desde hace décadas, los sistemas de soporte de decisiones automatizadas han sido utilizados en ámbitos como el scoring crediticio o la gestión de recursos humanos. Con la irrupción del big data y la IA, estos sistemas han escalado: modelos que analizan historiales, patrones y predicen comportamientos, ya se usan en justicia penal, vigilancia, empleo y más.
Hitos clave en la responsabilidad algorítmica
- En 2016, en State v. Loomis (Wisconsin, EE. UU.), la Corte Suprema estatal determinó que podía utilizarse un algoritmo de evaluación de riesgo cuando un acusado era sentenciado, aunque cuestionó su transparencia.
- En Argentina, los fallos Denegri v. Google (2022) y Seren v. Google (2025) establecieron que los motores de búsqueda pueden tener responsabilidad civil si las sugerencias automáticas vulneran derechos personalísimos.
- A nivel académico, se ha profundizado en conceptos como “responsabilidad algorítmica” o “transparencia algorítmica” para describir el deber de explicar, auditar y responsabilizar a quienes crean o usan sistemas automatizados.
Análisis experto
Casos emblemáticos
1. Evaluaciones de riesgo penal – State v. Loomis
En el caso Loomis, el acusado afirmó que su sentencia resultó influida por el puntaje asignado por el sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), desarrollado por una empresa privada.
La Corte sostuvo que su uso no era inconstitucional per se, pero advirtió que debía acompañarse de advertencias al juez sobre los límites del sistema. Este caso abrió el debate sobre cómo algoritmos “cerrados” (sin explicabilidad pública) pueden afectar derechos como el debido proceso.
2. Sugerencias de búsqueda – Seren v. Google y Denegri v. Google
En Argentina, un médico cirujano, Juan Manuel Seren, demandó a Google Inc. porque al buscar su nombre aparecía relacionada la expresión “mala praxis”. La Cámara condenó a Google por vulnerar su honor, en lo que constituye un precedente de “responsabilidad algorítmica” de motores de búsqueda.
En el fallo Denegri se abordó cómo los motores de búsqueda consideran factores algorítmicos para las sugerencias y se reconoció que, aun en funciones automáticas, hay deber de responsabilidad.

Aplicaciones industriales y sectores
- Justicia penal: Los sistemas de scoring de riesgo de reincidencia (como COMPAS) están presentes en decisiones de libertad condicional o fallos de sentencia, pero su opacidad genera riesgos de sesgo, error y falta de apelabilidad.
- Búsquedas y reputación digital: Los motores de búsqueda venden respuestas mediadas por algoritmos y pueden afectar la vida personal y profesional de las personas.
- Administración pública: Los algoritmos en evaluación de subvenciones o asignación de recursos requieren responsabilidad gubernamental y auditabilidad.
- Marketing y empleo: Plataformas que clasifican candidatos —o asignan turnos— pueden generar prácticas discriminatorias automatizadas.
Riesgos y oportunidades
Oportunidades:
- Mayor eficiencia en decisiones repetitivas.
- Análisis de datos a gran escala para detectar patrones.
- Nuevos marcos regulatorios que refuercen la confianza en IA.
Riesgos:
- Falta de explicabilidad (“caja negra”) y dificultad para impugnar decisiones automáticas.
- Sesgos de datos que reproducen discriminación.
- Externalización de la moral y evasión de responsabilidad humana.
- Transparencia insuficiente: el usuario no sabe cómo o por qué se tomó una decisión.
Datos y fuentes
El uso de herramientas de evaluación algorítmica en justicia penal puede reproducir diferencias de error según subgrupos demográficos.
- En Latinoamérica, los fallos Denegri y Seren señalan que los motores de búsqueda pueden ser responsables de los efectos de sus algoritmos.
- La literatura especializada destaca que la gobernanza y rendición de cuentas aún están rezagadas respecto del avance tecnológico.
Consideraciones éticas y legales
La responsabilidad en algoritmos conlleva implicancias profundas:
- Presunción de inocencia: Los puntajes automáticos pueden vulnerar garantías constitucionales.
- Derecho al honor y reputación: Las asociaciones algorítmicas pueden dañar derechos personalísimos.
- Sesgo y discriminación: Los datos sesgados reproducen desigualdades.
- Transparencia: Es necesario exigir explicabilidad y supervisión.
- Responsabilidad civil o penal: Falta determinar quién responde si un algoritmo falla.
- Marco regulatorio: Las leyes aún no alcanzan la velocidad de la IA.

Cierre y conclusión
La “responsabilidad en algoritmos” ya no es teórica: los tribunales de EE. UU., Argentina y otras jurisdicciones están sentando precedentes que obligan a empresas, desarrolladores y plataformas a responder por decisiones automatizadas que afectan derechos humanos y sociales.
El reto es garantizar algoritmos explicables, auditables y libres de sesgo, con mecanismos de apelación claros. La adopción de IA ya no puede ser sólo una cuestión tecnológica, sino también de gobernanza ética y legal.
Este artículo fue elaborado por el equipo de AutomatizaPro, especialistas en automatización, inteligencia artificial y tecnología aplicada.
Preguntas frecuentes sobre responsabilidad en algoritmos y justicia digital
¿Qué significa “responsabilidad en algoritmos”?
Es el deber de responder por decisiones tomadas total o parcialmente por sistemas automatizados, garantizando accountability y transparencia.
¿Por qué los algoritmos pueden generar problemas legales?
Porque toman decisiones sobre personas sin posibilidad de apelación ni explicabilidad, afectando derechos fundamentales.
¿Cuál es un ejemplo concreto de fallo judicial sobre algoritmos?
En State v. Loomis, la Corte de Wisconsin aceptó el uso de un algoritmo de riesgo penal, pero advirtió sobre su transparencia.
¿Qué se debe exigir a los algoritmos públicos o privados?
Auditoría, revisión de sesgos, documentación de decisiones y vías de apelación.
¿Qué desafíos quedan por superar?
Definir quién responde ante fallos algorítmicos y garantizar explicabilidad obligatoria en cada jurisdicción.

