Inteligencia artificial en juicio: ¿Una prueba inadmisible hoy, pero un mensaje de datos mañana?

Inteligencia artificial en juicio: ¿Una prueba inadmisible hoy, pero un mensaje de datos mañana?
Una decisión del Tribunal Superior de Cali invita a la reflexión sobre la IA en el debido proceso probatorio.


El vertiginoso avance de la inteligencia artificial (IA) generativa ha permeado casi todos los aspectos de la vida profesional, y el ámbito jurídico no es la excepción. Sin embargo, su integración en el proceso judicial plantea desafíos inéditos que tensionan los pilares del derecho probatorio. Una reciente decisión del Tribunal Superior del Distrito Judicial de Cali, en un auto del 17 de marzo de 2026, ofrece una reflexión profunda sobre la admisibilidad de pruebas derivadas de estas tecnologías. El caso gira en torno a una solicitud para que un modelo de lenguaje avanzado, ChatGPT Pro, "compareciera" en una audiencia dentro de un proceso de responsabilidad civil médica, enfrentando la libertad probatoria con las garantías fundamentales del debido proceso.

Este pronunciamiento, si bien no proviene de una alta corte y no sienta un precedente vinculante, resulta de gran interés por el análisis detallado que realiza sobre las barreras y posibilidades de la IA en el escenario judicial colombiano.

El caso concreto: Cuando un algoritmo fue llamado a "testificar"
En el marco de un proceso por una presunta mala praxis médica que resultó en el fallecimiento de un menor, la parte demandante solicitó la práctica de una "prueba técnica basada en inteligencia artificial". La petición pretendía que se autorizara la comparecencia en audiencia del modelo ChatGPT Pro para que el juez y las partes pudieran interrogarlo sobre dictámenes periciales, la historia clínica y otros hechos relevantes del caso.

El juez de primera instancia negó la solicitud por considerar que carecía de "fundamento" y "soporte" legal. En su apelación, el demandante argumentó que, en virtud del principio de libertad probatoria consagrado en el artículo 165 del Código General del Proceso, el juez podía admitir la prueba y valorarla posteriormente según su sana crítica. Aclaró, además, que no se pretendía presentar a la IA como un perito, sino como una herramienta técnica capaz de analizar grandes volúmenes de información e identificar inconsistencias.

Los desafíos probatorios de la IA: Una mirada desde el Tribunal
El Tribunal Superior de Cali confirmó la negativa, pero fue más allá, realizando un análisis exhaustivo de las problemáticas que suscita el uso de la IA en el proceso judicial. Advirtió que estas herramientas no son simples sistemas de consulta, sino "mecanismos de predicción probabilística capaces de generar contenido nuevo". Esta naturaleza plantea serios desafíos al derecho procesal, especialmente por el carácter no intuitivo y la opacidad de su funcionamiento.

El Tribunal identificó una serie de riesgos y dificultades constitucionales, procesales y técnicas, entre los que destacan:

  • Afectación al debido proceso probatorio: Particularmente al derecho de contradicción, y riesgos para la protección de datos personales (habeas data).
  • Opacidad algorítmica: La dificultad para comprender los procesos internos que llevan a la IA a un resultado determinado, fenómeno conocido como el problema de la "caja negra".
  • Falta de trazabilidad y autoría: La imposibilidad de verificar las fuentes de información utilizadas por el sistema y la ausencia de un autor identificable que asuma la responsabilidad por el contenido generado.
  • "Alucinaciones" y sesgos: El riesgo de que la IA genere información sin respaldo fáctico, presentada con "apariencia de autoridad", o que reproduzca patrones discriminatorios.
  • Fiabilidad de la información: La incapacidad sistémica de estos modelos para distinguir entre afirmaciones correctas e incorrectas, ya que su funcionamiento se basa en patrones probabilísticos del lenguaje.

Estas consideraciones se alinean con los criterios orientadores establecidos por la Corte Constitucional en la Sentencia T-323 de 2024 y por el Consejo Superior de la Judicatura en el Acuerdo PCSJA24-12243, que recalcan la necesidad de transparencia, responsabilidad, verificación y control humano efectivo, prohibiendo la sustitución de la racionalidad humana en la función judicial.

¿Por qué no es una "prueba técnica"? La anatomía del rechazo
El Tribunal fue enfático en señalar que la solicitud, tal como fue formulada, no encajaba en ninguna de las categorías probatorias existentes. No podía ser catalogada como una prueba pericial, pues esta tiene una regulación rigurosa en el artículo 226 del Código General del Proceso y está reservada para personas humanas que actúan como auxiliares de la justicia, condición que ChatGPT evidentemente no cumple.

Tampoco se trataba de una declaración testimonial o de un testigo técnico, medios probatorios reservados para personas naturales. Ni de un informe técnico o un mensaje de datos, "pues ninguno de tales elementos fue efectivamente allegado al proceso". El Tribunal utilizó la analogía del experimento mental de la "habitación china" para ilustrar por qué estos sistemas no pueden ser considerados "expertos":

"[...] que acopian información debidamente parametrizada a través de algoritmos y producen respuestas lingüísticamente coherentes sin comprender realmente el contenido que generan, lo cual explica que su funcionamiento se limite a generar resultados probabilísticos a partir de patrones del lenguaje, sin conocimiento experto verificable ni comprensión semántica del material que procesan."

En esencia, la solicitud era procesalmente inviable porque pretendía introducir una herramienta tecnológica en una diligencia judicial (la audiencia) sin un soporte probatorio preexistente y sin ajustarse a las ritualidades que garantizan el derecho de contradicción y el control judicial.

Una puerta al futuro: La IA como "mensaje de datos"
A pesar de la contundente negativa, el Tribunal dedicó una parte de su análisis a explorar cómo, en un futuro y bajo un marco distinto, podría incorporarse al proceso información derivada de la IA. La reflexión más prospectiva del auto es la posibilidad de que estos elementos sean tratados como mensajes de datos.

Apoyándose en la Ley 527 de 1999, que establece el reconocimiento jurídico y la fuerza probatoria de los mensajes de datos, el Tribunal señaló que a la información no se le pueden negar efectos jurídicos por su naturaleza electrónica. Sin embargo, para que un resultado generado por IA sea admisible bajo esta figura, se requeriría el cumplimiento de una serie de presupuestos mínimos para asegurar su fiabilidad y permitir la contradicción:

  • Cumplimiento de los principios de producción y aportación regular de la prueba.
  • Confiabilidad del sistema tecnológico utilizado.
  • Integridad del contenido generado.
  • Identificación del iniciador o responsable del mensaje.
  • Técnicas que garanticen la inalterabilidad del documento.
  • Trazabilidad del proceso, incluyendo las instrucciones o prompts empleados.
  • Identificación del modelo de IA, su versión y condiciones de funcionamiento.
  • Posibilidad de reproducir o auditar el procedimiento.
  • Garantía efectiva de contradicción y verificación, incluso mediante control técnico o pericial.

Esta postura sugiere una vía de incorporación futura, no a través de la "comparecencia" de un algoritmo, sino mediante la aportación de un documento electrónico (el mensaje de datos) que contenga los resultados de la IA, siempre que se cumplan estrictos requisitos de transparencia y verificabilidad.

Implicaciones prácticas y conclusión reflexiva
La decisión del Tribunal Superior de Cali, aunque no es vinculante, envía un mensaje claro a los litigantes: la innovación tecnológica debe someterse a las garantías procesales. No es posible improvisar la introducción de la IA en el proceso judicial. La solicitud fue calificada como "abiertamente inadmisible" porque pretendía eludir las reglas probatorias bajo la apariencia de una "prueba técnica" innominada.

Para los abogados, la lección es que cualquier intento de utilizar IA como herramienta probatoria debe prepararse meticulosamente. Esto implicaría, siguiendo la línea del Tribunal, generar un "mensaje de datos" que documente todo el proceso de interacción con la IA (incluidos los prompts) y que pueda ser auditado y controvertido, posiblemente con el apoyo de un perito informático.

Finalmente, el Tribunal reitera un "principio cardinal del sistema de justicia": la tecnología es un instrumento auxiliar, no un sustituto del juicio humano. El razonamiento crítico, la responsabilidad y la función decisoria residen, y deben residir, exclusivamente en el juez y los operadores jurídicos. El futuro de la IA en los tribunales dependerá de la capacidad del sistema legal para desarrollar marcos normativos que aprovechen su potencial sin sacrificar los derechos fundamentales.

Fuentes

  • Tribunal Superior del Distrito Judicial de Cali, Sala Civil de Decisión (2026). Auto del 17 de marzo de 2026, Rad. 76-001-31-03-008-2023-00322-01.
  • Congreso de Colombia (1999). Ley 527 de 1999.
  • Corte Constitucional de Colombia (2024). Sentencia T-323 de 2024.
  • Consejo Superior de la Judicatura (2024). Acuerdo PCSJA24-12243.
  • Corte Suprema de Justicia, Sala de Casación Civil (2026). Auto AC739-2026.
  • Corte Constitucional de Colombia (1998). Sentencia T-504 de 1998.
  • Instituto Colombiano de Derecho Procesal (2024). Memorias 2024.

El contenido de este blog fue generado con ayuda de Ariel, el asistente legal de inteligencia artificial en Colombia y la supervisión humana del equipo jurídico de Ariel.

💬
¿Quieres probar gratis el asistente legal con IA, Ariel? Regístrate ahora en arielapp.co
📍
¿Tienes dudas? 📩 Escríbenos a soporte@arielapp.co o al WhatsApp +57 311 7357537