La IA nos obliga a detectar la esencia de lo humano
Un estudio infiltró alegatos escritos por inteligencia artificial en la competición jurídica más prestigiosa del mundo y los jueces no notaron la diferencia. Algunos textos generados por modelos como GPT-4o fueron calificados con sobresaliente, superando a cientos de alumnos de Derecho. La IA no razona, pero convence
Un político honrado (18/06/2025)

Un experimento reciente ha puesto patas arriba el prestigioso Jessup Moot Court, la mayor competición universitaria de Derecho Internacional del planeta. Cada año, miles de estudiantes de más de cien países se preparan durante meses para redactar alegatos jurídicos y defenderlos ante jueces reales en ... una simulación del Tribunal Internacional de Justicia. La prueba es tan rigurosa que muchos participantes salen de ahí directamente contratados por los bufetes de élite. Este año, sin que los jueces lo supieran, diez de los textos evaluados no fueron escritos por humanos, sino por la inteligencia artificial (IA). Y no solo pasaron desapercibidos: algunos obtuvieron notas casi perfectas.
Los autores del estudio, académicos de HEC París y King's College, utilizaron modelos avanzados como GPT-4o (de OpenAI) y Gemini 2.0 (de Google) para generar los llamados 'sumarios' del caso ficticio que plantea el Jessup. Con apenas un retoque en el formato -quitar comillas rectas, acentos raros, marcas de IA- las entregas fueron enviadas y juzgadas como si fueran producto del talento humano. Resultado: varias recibieron calificaciones por encima del 95 sobre 100. Un juez llegó a escribir: «De todas las que leí, esta fue la mejor».
El estudio, que se puede encontrar en SSRN con el título 'GenAI as an International Lawyer', no es solo una curiosidad académica. Es una señal de que algo profundo está cambiando. La IA ya no solo sugiere frases o corrige errores: redacta, argumenta y convence. Es capaz de elaborar textos jurídicos complejos que, al menos en forma, rivalizan con los de estudiantes de alto nivel. Y lo hace en muy pocos minutos.
Esta no es una anécdota aislada. En 2023, GPT-4 aprobó el examen del colegio de abogados de EE. UU. con una nota situada en el percentil 90. En experimentos con quejas legales, jurados legos no distinguieron cuáles habían sido redactadas por abogados y cuáles por modelos como GPT-3.5. En tareas médicas, como la detección de retinopatías o análisis de resonancias, la IA supera en precisión al radiólogo promedio. Y en trabajos creativos –desde escribir poemas hasta generar memes– hay estudios que indican que el público prefiere, sin saberlo, las creaciones sintéticas. La IA también supera a los humanos pilotando drones, es capaz de diseñar algoritmos más eficaces y es mejor con determinados juegos desde el ajedrez a StarCraft II. Aprende más rápido, entiende mejor (supera a los humanos en comprensión lectora y matemática), aunque en tareas mixtas que implican decisión e interpretación, rinde menos que un humano.
Lo inquietante es que cuanto más humana parece la IA, más mediocres parecemos. El estudio de 'la Jessup' que es como se conoce popularmente a esta competición también demuestra que los alumnos más flojos mejoran mucho si usan la IA, mientras que los brillantes empeoran si se limitan a copiar lo que dice la máquina. En otras palabras: la IA puede ser una muleta o una trampa, según quién y cómo la use.
Hay que tener cuidado. Estos modelos no entienden el derecho, ni la moral, ni el contexto político. Lo que hacen es predecir –con una eficiencia estadística asombrosa– qué palabra viene después. Y si para sonar legal hace falta citar un precedente que no existe, lo inventan. 'Hallucination' es el término técnico, y es el gran punto débil de esta tecnología. Se han dado casos reales en los que abogados han presentado documentos con jurisprudencia ficticia creada por ChatGPT. Y si lo que está en juego es una vida, una empresa o un país, no podemos permitirnos errores tan costosos. De hecho, cada vez es más difícil comprobar que parte de lo que circula por internet no ha sido inventado por la IA.
Los organizadores de 'la Jessup' y de otras competiciones similares están empezando a regular el uso de IA, conscientes de que ya no pueden detectarla fácilmente. Algunas, como la Vis Moot de Viena, permiten su uso para tareas de investigación o traducción, pero prohíben expresamente enviar textos generados por IA. Y en el fondo, el problema es que las herramientas de detección de contenido artificial tampoco funcionan bien. Incluso tienden a penalizar a estudiantes que no son angloparlantes, como si su estilo más sobrio fuera «sospechoso de ser de máquina».
La cuestión es qué hacemos con esta nueva capacidad. Si una máquina puede redactar argumentos jurídicos tan buenos como los humanos, ¿para qué sirve un abogado júnior? ¿Y un periodista? ¿O un asesor parlamentario? ¿Vamos a limitar la IA por razones morales o corporativas? ¿O vamos a integrarla como hicimos con la calculadora, con internet o con los traductores automáticos?
El estudio concluye con una idea inquietante pero poderosa: la función del humano va a cambiar. No será tanto redactar desde cero como guiar, corregir, supervisar y dar el «toque ético» a lo que la máquina propone. Para eso hará falta entender el derecho... y entender cómo funciona la máquina. 'Prompt engineering' (ingeniería de instrucciones), lo llaman, que es saber preguntarle bien a la máquina para que conteste mejor. Un nuevo tipo de alfabetización. La pregunta no es si la IA va a superarnos. La pregunta es si vamos a seguir aprendiendo a pensar con ella, si detectamos la singularidad humana o si preferiremos delegar ese esfuerzo.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete