Sí-lex

marzo 3, 2026. Argumentación jurídica Crítica jurisprudencial Tecnología y Derecho

CUANDO LA IA SE CONVIERTE EN ARGUMENTO: NOTAS SOBRE UNA INADMISIÓN EN CASACIÓN

RICARDO GARZÓN CÁRDENAS- Sílex Formación Jurídica

¿Puede una probabilidad algorítmica sustituir una demostración jurídica? Reflexiones sobre IA, casación y razonamiento judicial en Colombia.

La Sala de Casación Penal de la Corte Suprema de Justicia de Colombia, mediante la providencia AP760-2026 (febrero de 2026), inadmitió un recurso de casación penal por defectos técnicos en su formulación. Hasta ahí, nada extraordinario: la técnica del recurso extraordinario es exigente y la doble presunción de acierto y legalidad que ampara las sentencias de segunda instancia impone cargas argumentativas rigurosas. Sin embargo, en esta ocasión, la decisión incorpora un elemento novedoso: la utilización de herramientas de detección de inteligencia artificial para evaluar la autoría del escrito presentado por la defensa [1].

Lo novedoso aparece en otro punto. La Corte, ante la sospecha de que el escrito no había sido confeccionado directamente por el profesional del derecho, lo sometió a herramientas de detección de contenido generado por inteligencia artificial. El resultado fue contundente: según Winston AI, el documento presentaba apenas un 7 % de contenido humano; Copyleaks concluyó que existía un 100 % de probabilidad de que hubiera sido generado mediante IA.

A partir de ahí, la decisión sugiere que el abogado habría reproducido recomendaciones automatizadas sin traducirlas en verdaderos cargos de casación, incumpliendo así las exigencias técnicas del recurso. La inadmisión puede ser jurídicamente correcta. Pero la forma en que la inteligencia artificial ingresa al razonamiento judicial plantea un problema que merece ser examinado con cuidado.

I. Razones justificativas y razones explicativas

Una decisión judicial se justifica por razones normativas, no por la genealogía instrumental de los textos que examina. Esta distinción, elemental en teoría de la argumentación, resulta decisiva aquí. Que un escrito haya sido elaborado con ayuda de inteligencia artificial es un dato explicativo acerca de su producción. Lo que el juez debe evaluar, en cambio, es si el escrito satisface las cargas técnicas que el ordenamiento impone.

Confundir ambas dimensiones implica desplazar el foco desde la corrección jurídica hacia la causalidad tecnológica. Si el recurso no cumple con las exigencias del artículo 181 del Código de Procedimiento Penal, identificación clara de la causal, formulación adecuada del cargo, demostración estructurada del error, debe ser inadmitido. Esa es una razón justificativa suficiente.

Pero afirmar que el defecto técnico es consecuencia del uso de IA pertenece a otro plano. Es una hipótesis causal. Y, en rigor, jurídicamente irrelevante para decidir la admisibilidad.

II. El derecho no examina herramientas, examina argumentos

El derecho no pregunta quién escribió un argumento, sino si el argumento satisface las cargas técnicas que el ordenamiento impone. La técnica casacional no se flexibiliza ni se endurece en función de la herramienta utilizada. Un mal argumento sigue siendo malo aunque haya sido redactado por un jurista experimentado sin asistencia tecnológica. Y un argumento correcto no pierde validez por haber sido revisado o incluso producido con ayuda de un modelo de lenguaje.

El recurso extraordinario exige precisión conceptual, identificación adecuada del error (in iudicando o in procedendo), selección correcta de la causal y desarrollo argumentativo coherente. Si esas exigencias no se cumplen, la inadmisión es inevitable. Pero ese juicio es estructural. No instrumental.

III. Cuando la IA se convierte en tópico

Cuando la inteligencia artificial deja de ser herramienta y se convierte en sospecha, comienza a operar como un tópico argumental.

Un tópico, en sentido clásico, es un lugar común que orienta la valoración de los hechos. No demuestra por sí mismo, pero enmarca la interpretación. La mención de que un escrito fue generado con IA no solo describe su posible origen; introduce una narrativa: automatización, superficialidad, falta de rigor, reproducción acrítica. A partir de ahí, el defecto técnico encuentra una explicación coherente.

El riesgo es sutil pero real: la herramienta comienza a operar como criterio de sospecha. Y esa sospecha puede contaminar la evaluación. En este punto aparece una cuestión delicada: ¿es posible separar la deficiencia técnica del recurso de la afirmación de que esa deficiencia es producto del uso ilegítimo de inteligencia artificial? Conceptualmente, la respuesta debería ser afirmativa. Pero psicológicamente, la separación no siempre es sencilla.

IV. El problema epistemológico de los detectores

La decisión judicial alude a porcentajes de probabilidad: 7 % de contenido humano; 100 % de probabilidad de generación mediante IA. El lenguaje es impactante. Sin embargo, una probabilidad algorítmica no equivale a una demostración jurídica, por alta que sea su cifra porcentual.

Los detectores de IA operan mediante modelos estadísticos. No prueban autoría. No reconstruyen el proceso de redacción. No distinguen entre texto íntegramente generado y texto profundamente editado. No constituyen, al menos por ahora, un estándar probatorio consolidado en el ámbito judicial.

El lenguaje de la “certeza porcentual” puede tener eficacia retórica. Pero el derecho exige algo distinto: criterios verificables, posibilidad de contradicción, reglas claras sobre carga y estándar de prueba.

Este debate no es meramente tecnológico, sino metodológico. Como he sostenido junto con el Ingeniero David García Quintas al desarrollar la idea de Nested Learning aplicada al Derecho, el uso de inteligencia artificial en contextos jurídicos exige modelos de supervisión escalonada y responsabilidad profesional reforzada, no simples diagnósticos automatizados. La cuestión no es detectar la máquina, sino integrar críticamente su funcionamiento dentro de estándares jurídicos controlables. (Puede verse nuestro análisis aquí: https://si-lex.es/2025/11/26/nested-learning-inteligencia-artificial-juristas/)

Si el uso de estas herramientas comienza a tener consecuencias procesales relevantes, será necesario discutir con mayor precisión su estatuto epistemológico.

V. El verdadero problema: responsabilidad profesional

Nada de lo anterior significa que el uso de inteligencia artificial sea irrelevante en términos éticos o profesionales. La delegación acrítica de la elaboración de un recurso extraordinario es incompatible con la responsabilidad del abogado firmante.

La técnica casacional no puede automatizarse sin comprensión. Un modelo de lenguaje puede sugerir líneas argumentativas generales; no puede asumir la carga de adecuarlas con rigor a una causal específica. Pero el problema, nuevamente, es de responsabilidad profesional. No de ontología tecnológica. Si el escrito es deficiente, inadmitamos. Si no cumple las cargas argumentativas mínimas, rechacémoslo. Pero no confundamos la insuficiencia técnica con la máquina.

Conclusión: razones, no sospechas

La inteligencia artificial ha llegado al foro. Eso es inevitable. Lo que no es inevitable es que se convierta en argumento autónomo dentro del razonamiento judicial. El derecho está estructurado para evaluar razones normativas o fácticas, no para juzgar herramientas, sospechas o genealogías.

El desafío no consiste en ponerle puertas al bosque, sino en recordar que la corrección jurídica depende de la calidad de la argumentación. Y que, en última instancia, el estándar no es tecnológico, sino normativo. Porque, al final, la pregunta decisiva sigue siendo la misma: ¿está bien construido el argumento?

[1] Sentencias/AP760-2026.pdf

Leave a Reply