Los sistemas legales no están preparados para la inteligencia artificial. La pregunta es qué viene después.

Eso es lo que intento construir.

El derecho penal fue diseñado para juzgar intenciones humanas. La regulación de tecnología fue escrita para sistemas predecibles. Ninguna de las dos cosas funciona cuando un modelo de lenguaje puede fabricar evidencia indistinguible de la real. Y sin embargo, seguimos legislando como si el problema fuera técnico.

No lo es. Es estructural.

Soy abogado penalista, LL.M. de la LMU de Múnich. Fundé LitisLab para construir herramientas de IA que simulan lo que el sistema judicial aún no puede probar. Escribo aquí sobre lo que encuentro en esa frontera — donde el código ya llegó pero la ley todavía no.

Ensayo destacado

El EU AI Act no protege a nadie (todavía)

Un análisis desde la filosofía del derecho sobre por qué la regulación europea de IA falla en su promesa fundamental.


Construcción

Por qué construí un simulador de juicios con IA

La historia detrás de LitisLab y lo que aprendí sobre los límites de los LLMs para razonamiento legal.

Responsabilidad & Filosofía

La responsabilidad penal no fue diseñada para agentes autónomos

El sistema penal asume intencionalidad humana. ¿Qué pasa cuando el agente no es humano?


Newsletter

Ensayos y análisis desde la frontera entre derecho, inteligencia artificial y filosofía. Sin ruido.