El escándalo Sullivan & Cromwell: cuando la IA inventa jurisprudencia y el abogado paga las consecuencias
La noticia de que un bufete de abogados de la talla de Sullivan & Cromwell presentó ante un tribunal federal documentos judiciales con "citas inexactas, pasajes inventados de casos reales y fuentes legales inexistentes" generadas por inteligencia artificial (IA), ha encendido un debate ineludible en la comunidad jurídica global. Este incidente no es una anécdota aislada, sino un síntoma de las tensiones que emergen entre la promesa de eficiencia de las nuevas tecnologías y los deberes éticos y profesionales que sustentan el Estado de Derecho. El desafío es claro: ¿cómo pueden los profesionales del derecho aprovechar las herramientas de IA sin comprometer la integridad de la justicia y los derechos de sus clientes? Este análisis aborda la cuestión desde el marco normativo internacional y los lineamientos vigentes en Colombia.
Marco internacional para una IA responsable y centrada en el ser humano
El uso de la IA en el ámbito jurídico no opera en un vacío normativo. A nivel global, ha surgido un consenso sobre la necesidad de establecer marcos de gobernanza que aseguren un desarrollo tecnológico ético y respetuoso de los derechos humanos. Instrumentos de soft law y tratados vinculantes están configurando un estándar global de actuación.
La Organización de las Naciones Unidas (ONU), mediante una resolución adoptada el 21 de marzo de 2024 con el respaldo de más de 120 países, ha hecho un llamado a los Estados para que "se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o los pongan en riesgo". Esta resolución persigue objetivos clave como la protección de datos, la mejora de las políticas de privacidad y la defensa de los derechos humanos frente a los riesgos potenciales de la IA.
En el ámbito europeo, la Carta ética europea sobre el uso de la inteligencia artificial en sistemas judiciales, adoptada en 2018, fue pionera al establecer cinco principios rectores para guiar a legisladores y profesionales de la justicia:
- Respeto de los derechos fundamentales: El diseño e implementación de herramientas de IA deben ser compatibles con estos derechos.
- No discriminación: Se debe prevenir el desarrollo o la intensificación de sesgos discriminatorios.
- Calidad y seguridad: Utilizar fuentes certificadas y datos seguros en el procesamiento de información judicial.
- Transparencia, imparcialidad y equidad: Los métodos deben ser accesibles, comprensibles y auditables.
- Bajo control del usuario: Los usuarios deben ser actores informados y mantener el control sobre sus decisiones.
Más recientemente, el Consejo de Europa adoptó el 15 de mayo de 2024 el primer tratado internacional jurídicamente vinculante sobre IA, abierto a la adhesión de países no europeos. Este convenio establece un régimen que abarca todo el ciclo de vida de los sistemas de IA, promoviendo un enfoque basado en el riesgo y exigiendo a los Estados parte que adopten medidas para identificar, evaluar, prevenir y mitigar los posibles impactos negativos sobre los derechos humanos, la democracia y el Estado de Derecho. De forma crucial, el tratado exige garantizar la "rendición de cuentas y la responsabilidad por el impacto negativo" y asegurar la disponibilidad de "recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA".
Estos esfuerzos se complementan con la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, de noviembre de 2021, considerada el primer marco ético global en la materia. Este instrumento subraya valores como el respeto a la dignidad humana, la diversidad y la inclusión, y establece que los actores de la IA, incluyendo el sector privado y las comunidades técnicas, deben respetar los marcos de derechos humanos en todas las etapas del ciclo de vida de estos sistemas.
Lineamientos en Colombia: deberes y riesgos para las firmas de abogados
Aunque el caso de Sullivan & Cromwell ocurrió en otra jurisdicción, sus lecciones son directamente aplicables en Colombia. La legislación y la jurisprudencia nacional han comenzado a trazar un camino claro sobre el uso responsable de la IA, cuyos principios son plenamente exigibles a los abogados en el ejercicio de su profesión.
Colombia ha desarrollado una base institucional a través de documentos como el CONPES 3975 de 2019 y, de manera destacada, el Marco Ético para la Inteligencia Artificial en Colombia de 2021. Este marco establece principios como la transparencia, el control humano, la seguridad, la responsabilidad y la no discriminación, que deben guiar el diseño y la implementación de la IA en el país.
La Corte Constitucional, en su histórica Sentencia T-323 de 2024, estableció criterios orientadores para el uso de la IA en el ámbito judicial, que por analogía definen el estándar de diligencia para todos los profesionales del derecho. La Corte enfatizó que el uso de estas herramientas debe someterse a principios irrenunciables:
- Transparencia: La obligación de evidenciar con claridad el uso y alcance de la IA en cualquier actuación, permitiendo la contradicción.
- Responsabilidad: El usuario debe estar capacitado, comprender los impactos de la tecnología y, fundamentalmente, verificar la información suministrada por la IA.
- No sustitución de la racionalidad humana: Existe una "imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo" en la toma de decisiones críticas.
- Seriedad y verificación: Implica un "estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos" de la herramienta.
- Prevención de riesgos: Un mandato de aplicar controles adecuados sobre imprecisiones, desactualizaciones, "alucinaciones", sesgos e inconsistencias.
La Corte fue contundente al señalar los riesgos de herramientas como ChatGPT, advirtiendo que al no tener control sobre su diseño o entrenamiento, pueden generar "resultados erróneos, falsos o inexactos, con sesgos no controlados ni transparentes". El fenómeno de las "alucinaciones" —la generación de información ficticia que parece veraz— es un riesgo concreto que la Corte identifica explícitamente.
En este sentido, un profesional del derecho incumple sus deberes cuando:
"...no realiza de manera rigurosa la verificación de la fiabilidad de la información que soporta la motivación del fallo [o de un escrito judicial] pudiendo comprometer la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA".
Esta falta de verificación no es un mero descuido técnico; es una falta grave a la diligencia profesional. La doctrina nacional ya había advertido que, al no encontrar una respuesta en sus bases de datos, la IA puede "incurrir en alucinaciones y se invente datos que puedan parecer ciertos", citando precisamente casos de abogados sancionados por presentar memoriales con precedentes judiciales inexistentes creados por IA.
Implicaciones prácticas: más allá del daño reputacional
El escándalo de las "alucinaciones" de IA no solo acarrea un severo daño reputacional, sino que pone en jaque la responsabilidad civil y disciplinaria del abogado y, lo que es más grave, los derechos fundamentales del cliente. El deber de diligencia exige que el abogado actúe con pericia, y esto incluye la selección y supervisión de las herramientas tecnológicas que emplea.
El riesgo de "alucinaciones", descrito por la Corte Constitucional y la doctrina jurídica, no es un mero fallo técnico; es una amenaza directa a la administración de justicia. Esto subraya la necesidad de que los profesionales del derecho adopten herramientas diseñadas específicamente para el campo legal que garanticen la precisión y verificabilidad de sus fuentes. Plataformas como Ariel, que están diseñadas para no generar contenido ficticio y basarse exclusivamente en fuentes legales verificadas, se convierten no solo en una ventaja tecnológica, sino en un instrumento de cumplimiento ético que salvaguarda la reputación del abogado, los derechos fundamentales del cliente y la integridad del proceso judicial.
Delegar la investigación jurídica en una IA generativa de uso general sin un riguroso control humano es una abdicación de la responsabilidad profesional. Como señala la doctrina, si bien la IA puede ser útil para tareas tediosas, el profesional nunca puede delegar su juicio crítico ni su obligación de presentar ante un tribunal argumentos soportados en precedentes veraces y precisos.
Conclusión: innovación con responsabilidad
El caso de Sullivan & Cromwell es una llamada de atención para toda la profesión legal. La inteligencia artificial ofrece oportunidades sin precedentes para optimizar la práctica jurídica, pero su implementación debe ser reflexiva, crítica y anclada en los principios éticos que definen al abogado como un garante del Estado de Derecho.
La regulación internacional y los lineamientos en Colombia coinciden en un punto central: la tecnología debe estar al servicio de la justicia, y no a la inversa. El control humano, la transparencia, la responsabilidad y una verificación rigurosa no son opciones, sino imperativos. El futuro de la abogacía no dependerá de si se usa o no la IA, sino de cómo se usa. La innovación solo será valiosa si fortalece, en lugar de erosionar, la confianza pública en la justicia y el ejercicio del derecho.
Fuentes
- Comité Jurídico Interamericano. (2024). Informe anual 2024. Organización de Estados Americanos.
- Consejo Superior de la Judicatura. (2024). Acuerdo PCSJA24-12243 de 2024.
- Contraloría General de la República. (2025). CGR – OJ - 001 - 2025.
- Corte Constitucional. (2024). Sentencia T-323-2024.
- Instituto Colombiano de Derecho Procesal. (2024). Memorias 2024.
- Superintendencia de Industria y Comercio. (2024). Concepto 5879 de 2024.
El contenido de este blog fue generado con ayuda de Ariel, el asistente legal de inteligencia artificial en Colombia y la supervisión humana del equipo jurídico de Ariel.