Inteligencia artificial en los exámenes de derecho: ¿puede un robot aprobar la carrera en Colombia?

Inteligencia artificial en los exámenes de derecho: ¿puede un robot aprobar la carrera en Colombia?
El uso de IA sigue generando debates en el mundo jurídico. Foto por: Ecommerce News.

La irrupción de la inteligencia artificial (IA) generativa, con herramientas capaces de ejecutar operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico, está redefiniendo los contornos de numerosas profesiones, y el derecho no es la excepción. Esta tecnología ha generado un debate crucial en el ámbito de la educación legal. La pregunta ya no es si la IA puede redactar un contrato, sino si puede superar un examen de derecho, una prueba diseñada para evaluar el razonamiento y la pericia de un futuro abogado. Este interrogante pone sobre la mesa profundas implicaciones para estudiantes, preocupados por los límites del uso de estas herramientas; para los profesores, que enfrentan nuevos desafíos en materia de plagio y evaluación; y para la profesión misma, que se cuestiona la naturaleza de las competencias que definirán al jurista del mañana.

Si bien la IA puede generar textos que aparentan ser jurídicamente sólidos, un análisis riguroso basado en la normativa y la jurisprudencia colombiana revela que carece de la capacidad de razonamiento humano que exige el derecho, y su uso en contextos evaluativos plantea serios dilemas éticos y legales sobre autoría, fiabilidad y responsabilidad.


El "razonamiento" de una máquina: entre la predicción y la alucinación

Para entender si un modelo de IA puede responder una prueba de derecho, primero es crucial comprender su funcionamiento. Herramientas como ChatGPT son modelos de lenguaje extensos (LLM) que operan mediante la predicción de secuencias de texto. Sus respuestas no corresponden a un ejercicio razonado y especializado de ponderación en derecho. Su arquitectura les permite generar respuestas coherentes basadas en los patrones identificados en las enormes bases de datos con las que fueron entrenadas, pero esto no garantiza que la información esté actualizada o sea relevante para el contexto nacional.

La principal debilidad de estos sistemas es su propensión a cometer errores como las "alucinaciones", un fenómeno en el cual el sistema proporciona respuestas que son incorrectas, irrelevantes o sin sentido. La Corte Constitucional ha advertido que esto puede generar la violación del derecho fundamental al debido proceso. Este riesgo se agrava porque los modelos de acceso público, como ChatGPT 3.5, fueron alimentados con fuentes públicas de internet, sin un control específico sobre su diseño o los datos de entrenamiento. No es admisible que, bajo una excusa de eficiencia, se incorporen a un documento jurídico datos o argumentos que pueden ser contrarios a la realidad y producto de alucinaciones.

Precisamente para mitigar estos peligros, la propia Corte ha señalado que convendría que el uso razonado y ponderado de estas tecnologías en el sistema judicial colombiano se efectúe a través de una herramienta especializada. Esta necesidad ha impulsado el desarrollo de plataformas de inteligencia artificial, como Ariel, diseñadas específicamente para el ámbito legal. A diferencia de los modelos abiertos conectados a internet, estas herramientas operan sobre bases de datos curadas por expertos juristas, garantizando que la información sea fiable, actualizada y libre de alucinaciones, en línea con el estándar de verificación exigido por las altas cortes.


La insustituible labor del jurista: el criterio de la Corte Constitucional

La jurisprudencia colombiana ya ha comenzado a trazar líneas claras sobre el rol de la IA en el ámbito judicial, y sus conclusiones son directamente aplicables al contexto educativo. En la Sentencia T-323 de 2024, la Corte Constitucional estableció un principio rector: el uso de la IA debe respetar el criterio de no sustitución de la racionalidad humana.

La Corte fue enfática al señalar que, si bien la IA puede ser útil en tareas de gestión administrativa, documental, corrección y síntesis de textos, no puede bajo ninguna circunstancia reemplazar las funciones esenciales del juez:

“[E]s factible emplear inteligencia artificial en labores propias de la justicia siempre que el uso de dichas herramientas no reemplace labores jurisdiccionales indelegables e irremplazables, como lo son aquellas que requieren del razonamiento lógico y humano a efectos de interpretar los hechos, las pruebas, motivar la decisión o adoptarla.”

Este pronunciamiento es clave. Un examen de derecho no busca simplemente la repetición de información, sino la evaluación de esas mismas capacidades indelegables: interpretación, análisis de hechos, argumentación y aplicación del razonamiento jurídico para resolver problemas complejos. Por lo tanto, una respuesta generada por IA, por elocuente que parezca, no demuestra la competencia que se busca medir.

Además, la Corte impuso al funcionario judicial que use IA las cargas de transparencia, responsabilidad y privacidad. La responsabilidad exige, entre otras cosas, que el usuario esté capacitado, entienda los riesgos y, fundamentalmente, verifique la información suministrada por ella. Trasladado al ámbito académico, un estudiante que utiliza IA asume la misma obligación de verificar y hacerse responsable por un contenido que es inherentemente propenso a errores.


El fantasma del plagio y la autoría en la era digital

Uno de los mayores temores de los educadores es el plagio, y el uso de IA en exámenes encaja problemáticamente en esta figura. Legalmente, el plagio se configura por la utilización no autorizada de la obra ajena y la suplantación del autor, presentando una obra como propia.

La Dirección Nacional de Derechos de Autor (DNDA) ha sido clara en que las creaciones generadas por IA no son obras protegibles por el derecho de autor, ya que este reconocimiento se reserva exclusivamente a la persona física que realiza la creación intelectual. Si bien un humano proporciona las instrucciones o "prompts", la expresión concreta es producto de la ejecución de los algoritmos del programa. En consecuencia, quien da las instrucciones no puede ser considerado autor.

Este análisis tiene una implicación directa y contundente para las evaluaciones: si un estudiante presenta en un examen un texto generado por IA, está atribuyéndose la autoría de una expresión que no creó intelectualmente. Está suplantando al verdadero creador (un algoritmo no humano) y presentando como propio un trabajo ajeno, lo que se alinea con la definición de plagio. En este sentido, el Consejo Superior de la Judicatura prohíbe a sus funcionarios hacer pasar como de autoría propia el texto elaborado con herramientas de IA generativa.


Implicaciones prácticas y el camino a seguir

El panorama actual, aunque carece de una regulación específica y vinculante sobre IA en Colombia, ya ofrece suficientes elementos para guiar la actuación de la comunidad jurídica y académica.

  • Para los estudiantes: utilizar IA para responder un examen no solo constituye una falta académica grave asimilable al plagio, sino que también es una estrategia deficiente. Los riesgos de alucinaciones y la incapacidad de la IA para realizar un razonamiento jurídico genuino pueden llevar a respuestas incorrectas y a la pérdida de la oportunidad de desarrollar las competencias fundamentales para su futuro profesional.
  • Para los educadores y las facultades: el desafío va más allá de la simple vigilancia. La IA obliga a repensar los métodos de evaluación, priorizando aquellos que midan habilidades prácticas, argumentativas y de razonamiento crítico que las máquinas no pueden emular. Esto se alinea con la política nacional CONPES que busca integrar el uso pedagógico, ético, responsable y sostenible de la IA en los procesos de formación.
  • Para la profesión: el Consejo Superior de la Judicatura, en su Acuerdo PCSJA24-12243 de 2024, ya ha adoptado lineamientos para un uso responsable, seguro y ético de la IA, reiterando que no debe suplantar la valoración de hechos, el análisis de pruebas o la toma de decisiones, y subrayando la necesidad de supervisión y verificación humana.

Conclusión: más allá de aprobar, el reto de formar juristas

Entonces, ¿puede un modelo de IA aprobar un examen de derecho en Colombia? La respuesta es un rotundo no. Aunque técnicamente podría generar un texto que obtenga una calificación, no cumpliría con el objetivo fundamental de la evaluación: demostrar la adquisición de un razonamiento lógico-jurídico que, como ha dicho la Corte Constitucional, es indelegable e insustituible.

El uso de estas herramientas en un examen no solo sería una forma de plagio, sino que también evidenciaría una peligrosa confianza en una tecnología propensa a errores fatales en el contexto del derecho. El verdadero debate que nos plantea la IA no es sobre cómo evitar que los estudiantes hagan trampa, sino sobre cómo reafirmar el propósito de la educación legal: formar juristas con criterio, ética y una capacidad de análisis que ninguna máquina podrá replicar.


El contenido de este blog fue generado con ayuda de Ariel, el asistente legal de inteligencia artificial en Colombia y la supervisión humana del equipo jurídico de Ariel.

Fuentes:

  • Consejo Superior de la Judicatura. (2024). Acuerdo PCSJA24-12243 de 2024.
  • Corte Constitucional. (2024). Sentencia T-323-2024.
  • Dirección Nacional de Derechos de Autor. (2024). Concepto 2-2024-62784 de 2024.
  • Presidente de la República. (2025). Conpes 4144 de 2025.
💬
¿Quieres probar gratis el asistente legal con IA, Ariel? Regístrate ahora en arielapp.co
📍
¿Tienes dudas? 📩 Escríbenos a soporte@arielapp.co o al WhatsApp +57 311 7357537