Autor: Carlos Matheus López 🇵🇪
Abogado, catedrático y árbitro

El artículo también se encuentra disponible en inglés y en francés:  

                              

Publicado por la firma Winter – Dávila & Associés
París, 2 de abril de 2026.                                                   

La inteligencia artificial ha irrumpido en el arbitraje internacional con una promesa seductora: mayor eficiencia, reducción de costos y decisiones potencialmente más informadas. Sin embargo, como suele ocurrir con las tecnologías transformadoras, su verdadero valor no radica en lo que puede hacer, sino en cómo —y hasta que límite— debe utilizarse.

El primer punto es claro: la IA ofrece ventajas innegables. Puede redactar cláusulas arbitrales más precisas, analizar grandes volúmenes de documentos en segundos, asistir en la selección de árbitros. También optimiza tareas administrativas, mejora la gestión de pruebas y permite realizar análisis predictivos sobre la probabilidad de éxito de ciertos argumentos. En un sistema como el arbitraje internacional —donde el tiempo y la complejidad son factores críticos—, estas capacidades son estructuralmente disruptivas.

Pero esta promesa tecnológica tropieza rápidamente con un límite fundamental: la tentación de sustituir al árbitro humano.

En teoría, nada impediría que las partes designen a un “árbitro robot”. Ya existen programas capaces de organizar argumentos, analizar pruebas e incluso redactar proyectos de laudo. Sin embargo, en la práctica arbitral, esta posibilidad resulta profundamente problemática. El arbitraje no es solo un ejercicio de procesamiento de información; es también un acto de juicio, de ponderación y de responsabilidad. Y estos elementos siguen siendo hoy ineludiblemente humanos.

TAMBIÉN PUEDE LEER: Introducción a los Arbitrajes CCI

De hecho, incluso una solución intermedia —delegar parcialmente la toma de decisiones a la IA— presenta riesgos similares. Pues cuando un árbitro emplea argumentos generados por una IA, su independencia e imparcialidad se erosionan, y olvida además que su labor intuito personae es indelegable.

A ello se suman los riesgos operativos de la IA. El primero es el sesgo, que no solo refleja desigualdades presentes en los datos, sino que puede amplificarlas a escala. El segundo es la opacidad algorítmica, que importa la incapacidad de explicar por qué un sistema llega a determinada conclusión. Y el tercero son las alucinaciones, es decir, la producción de información falsa con apariencia de veracidad. Casos recientes en diversos tribunales judiciales han demostrado que este riesgo no es teórico: abogados han citado jurisprudencia inexistente generada por IA con consecuencias disciplinarias.

Imagen generada por IA

Frente a este panorama, emerge un consenso tanto normativo como práctico. El Reglamento de Inteligencia Artificial de la Unión Europea clasifica como de alto riesgo los sistemas utilizados en la administración de justicia y resolución alternativa de disputas, imponiendo exigencias de transparencia, supervisión humana y explicabilidad. Paralelamente, diverso soft law en esta materia —Directrices sobre el uso de la inteligencia artificial (IA) en el arbitraje internacional del Centro de Arbitraje y Mediación de Silicon Valley, Guía del CIArb sobre el uso de la inteligencia artificial en el arbitraje, entre otros— converge en principios similares: competencia tecnológica, no delegación decisoria, verificación de resultados y protección de la confidencialidad.

Este último punto no es menor. El uso de IA implica, muchas veces, introducir información sensible en sistemas cuyo tratamiento de datos no siempre es transparente. En un ámbito donde la confidencialidad es un pilar esencial, este riesgo puede comprometer la integridad misma del proceso arbitral.

En consecuencia, la clave no está en rechazar la inteligencia artificial, sino en emplearla adecuadamente. Esto implica asumir que la IA es una herramienta poderosa, pero falible; útil, pero no autónoma; eficiente, pero carente de juicio. El árbitro, por su parte, no es solo un decisor, sino un garante de equidad, originalidad y legitimidad.

TAMBIÉN PUEDE LEER: Los contratos de financiación de litigios por terceros «Third Party Funding »

Por ello, el principio rector debe ser inequívoco: la inteligencia artificial puede asistir al árbitro, pero nunca sustituirlo.

El futuro del arbitraje no será enteramente humano ni puramente artificial, sino híbrido. Sin embargo, ello encierra un riesgo sutil: que, como en el mito de Pigmalión, el creador termine enamorándose de su propia obra y le atribuya virtudes que no posee. En el ámbito arbitral, ello se traduciría en una confianza excesiva en la inteligencia artificial. Por eso, aun cuando la tecnología potencie el proceso, es indispensable recordar que la decisión —y la responsabilidad por ella— debe siempre permanecer, en última instancia, en manos humanas.

AVISO LEGAL: Este artículo ha sido preparado sólo con fines informativos. No es un sustituto de asesoramiento legal dirigido a circunstancias particulares. No debe tomar o abstenerse de tomar cualquier acción legal basada en la información contenida sin primero buscar asesoramiento profesional, individualizado basado en sus propias circunstancias. La contratación de un abogado es una decisión importante que no debe basarse solamente en artículos.


Si desea asesoría con abogados en Francia que
hablan español ¡No dude en contactarnos!
(correo electrónico: contact@wdassocies.com)