Buscador del blog

lunes, 16 de junio de 2025

Informe legal de la sentencia sobre el uso indebido de la IA de los casos Ayinde v. Haringey y Al-Haroun v. Qatar National Bank del 6 de junio 2025


Informe legal realizado por  

Iván Díaz

Abogado y CEO VISIÓN LEGAL-RD


Número de Citación Neutral: [2025] EWHC 1383 (Admin)  

Números de Caso: AC-2024-LON-003062 y CL-2024-000435  

EN EL TRIBUNAL SUPERIOR DE JUSTICIA , DIVISIÓN DEL BANCO DEL REY, TRIBUNAL DIVISIONAL.  

Fecha: 6 de junio de 2025  

Ante: PRESIDENTA DEL TRIBUNAL DEL BANCO DEL REY (Dame Victoria Sharp P.) y MR JUSTICE JOHNSON


I. Introducción  

Este juicio aborda dos casos (Ayinde v. Haringey y Al-Haroun v. Qatar National Bank) referidos al Tribunal Divisional bajo la jurisdicción Hamid, la cual faculta al tribunal para regular procedimientos y hacer cumplir los deberes de los abogados hacia el tribunal. Ambos casos involucran el uso negligente de herramientas de inteligencia artificial generativa (IA) para producir argumentos legales o declaraciones testimoniales no verificadas, resultando en citas jurisprudenciales falsas presentadas ante el tribunal.  


II. Desarrollo  

1. Riesgos de la IA en la Práctica Legal

- Alucinaciones" de la IA: Herramientas como ChatGPT generan respuestas coherentes pero falsas, citando fuentes inexistentes o distorsionando jurisprudencia real (¶6).  

- Deber profesional: Los abogados deben verificar toda investigación realizada con IA en bases de datos autorizadas (Legislación del Gobierno, Archivos Nacionales, informes oficiales) antes de usarla (¶7-8).  

- Consecuencias sistémicas: El uso incorrecto de la IA erosiona la confianza pública en la administración de justicia (¶9).  


2. Caso Ayinde v. Haringey

- Hechos: La abogada Sarah Forey citó cinco casos ficticios en una solicitud de revisión judicial (ej. *R (El Gendi) v. Camden LBC* [2020]), inexistentes en los Archivos Nacionales (¶36-38).  

- Conducta negligente:  

  - Forey atribuyó los errores a una "lista de casos" personal no verificada (¶45-46).  

  - El Centro Legal de Haringey (supervisado por Victor Amadigwe) no verificó las citas, aduciendo exceso de trabajo y recursos limitados (¶58-59).  

- Sanción: Orden de costas improcedentes (£2,000 c/u) y remisión a los reguladores (Bar Standards Board y SRA) (¶48).  


3. Caso Al-Haroun v. Qatar National Bank  

- Hechos: El abogado Abid Hussain presentó 45 citas jurisprudenciales falsas en declaraciones testimoniales, generadas por IA y no verificadas (¶73-74).  

- Conducta: Hussain confió en investigación legal realizada por su cliente (Mr. Al-Haroun) sin supervisión (¶76-77).  

- Sanción: Remisión a la Solicitors Regulation Authority (SRA) por violación de deberes básicos (¶81).  


4. Sanciones y Poderes del Tribunal

- Abanico de medidas: Amonestación pública, órdenes de costas, remisión a reguladores, proceso por desacato (¶23).  

- Criterios clave: Intencionalidad, gravedad del engaño, disculpas, y recursos gastados por el tribunal (¶24).  

- Desacato al tribunal: Presentar material falso con intención de engañar puede acarrear hasta 2 años de prisión (¶26-27).  


5. Guías Regulatorias Existentes

- Bar Council (2024): Prohíbe confiar en IA sin verificación; el incumplimiento es "incompetencia grave" (¶12).  

- Solicitors Regulation Authority (2023): Advierte sobre "alucinaciones" de IA que generan contenido verosímil pero falso (¶13).  

- Poder Judicial (2025): Obliga a abogados a garantizar la precisión del material presentado (¶16).  


6. Jurisprudencia Global Comparada (Apéndice)  

- EE.UU: Mata v. Avianca (2023): Abogados multados por usar ChatGPT para crear casos falsos (¶89).  

- Canadá: Zhang v. Chen (2024): Sanción económica por citas falsas generadas por IA (¶98).  

- Australia: Valu v. Minister for Immigration (2025): Remisión a reguladores por "alucinaciones" de IA (¶96).  


III. Resumen de Aspectos Clave  



IV. Conclusión  

 Este fallo subraya un paradigma crítico: la IA es una herramienta, no un sustituto de la competencia legal. Los casos Ayinde y Al-Haroun exponen cómo la negligencia en la verificación de contenido generado por IA compromete la integridad judicial y viola deberes deontológicos básicos (honestidad, diligencia y lealtad al tribunal).  

Recomendaciones para la práctica legal:

1. Verificación obligatoria: Todo material legal generado por IA debe contrastarse con fuentes autorizadas.  

2. Capacitación continua: Abogados y paralegales deben entrenarse en límites y riesgos de IA.  

3. Protocolos internos: Firmas legales deben establecer supervisiones jerárquicas para trabajos con IA.  

4. Transparencia: Declarar el uso de IA en escritos legales y metodologías de verificación.  

La sentencia sienta un precedente global: la innovación tecnológica no exime de la responsabilidad profesional. En la era digital, la ética legal debe guiar el uso de herramientas disruptivas, so pena de sanciones que dañan irreparablemente la reputación y la práctica profesional.  

Nota: Este informe sintetiza el fallo para fines de análisis jurídico. Se recomienda consultar el texto completo para detalles procesales.

Fuente: ⚖️ Sentencia sobre el uso indebido de la IA. Disponible en: https://www.judiciary.uk/wp-content/uploads/2025/06/Ayinde-v-London-Borough-of-Haringey-and-Al-Haroun-v-Qatar-National-Bank.pdf

No hay comentarios: