Inteligencia Artificial y Crisis de la Responsabilidad Jurídica

Una advertencia desde Navarra para el porvenir judicial mexicano

Diana Murillo

7/4/20254 min leer

Introducción

La reciente resolución del Tribunal Superior de Justicia de Navarra (España), que decidió no sancionar a un abogado que utilizó ChatGPT para redactar una querella —incluyendo por error preceptos del Código Penal de Colombia—, abre una discusión urgente y profunda sobre el uso de la inteligencia artificial (IA) en el ejercicio del derecho.

Aunque el tribunal valoró la novedad de la herramienta y la reacción inmediata del abogado, y archivó el procedimiento sin sanción, dejó una advertencia clara: el uso descuidado de la tecnología jurídica puede vulnerar principios éticos, deontológicos y procesales fundamentales.

¿Estamos preparados en México para afrontar esta discusión? ¿Y qué pasa si no sólo los litigantes, sino también los jueces, comienzan a apoyarse en estas herramientas sin filtros ni controles?

¿Puede la IA interpretar el derecho?

No. Puede simular que lo hace, pero no comprende.

Una herramienta como ChatGPT puede redactar textos estructurados, citar jurisprudencia e incluso sugerir argumentos retóricos. Pero el derecho no es sólo texto: es contexto, es sistema de valores, es ponderación de principios constitucionales en conflicto. La IA no tiene conciencia normativa, no jerarquiza valores ni capta las consecuencias sociales y humanas de sus respuestas.

El abogado que abdica de su deber de razonar renuncia a su oficio de jurista y se transforma en un mero operador mecánico.

¿Y si los jueces comienzan a usar IA sin filtros?

Este es el verdadero punto de inflexión.

¿Qué ocurre si los órganos jurisdiccionales utilizan inteligencia artificial para redactar sentencias, motivaciones, acuerdos o criterios sin discernimiento humano?

Los riesgos son severos:

  • Violación al deber de motivación suficiente (artículo 16 de la Constitución Política de los Estados Unidos Mexicanos).

  • Desplazamiento de la función jurisdiccional humana por inferencias estadísticas no sometidas a control constitucional.

  • Invalidez de resoluciones generadas por automatismos opacos (“black box”) que no pueden ser auditados ni impugnados por las partes.

La justicia delegada en algoritmos erosiona la legitimidad de las sentencias y vulnera el principio del debido proceso.

Esto ya está golpeando a México: entre reformas y retrocesos

En mi experiencia como abogada, recientemente participé en la defensa de jueces y magistrados en Chihuahua, frente a la reciente reforma judicial, y he presenciado cómo se está debilitando el sistema de carrera judicial, desplazando criterios de mérito, experiencia y prudencia por filtros como el promedio académico —alejado muchas veces de la calidad ética y resolutiva del juzgador—.

Se han documentado incluso perfiles con antecedentes penales, lo cual podría constituir causa de inhabilitación conforme al principio de honorabilidad consagrado en la Ley Orgánica del Poder Judicial de la Federación y en ordenamientos locales.

Esto plantea un escenario alarmante:

  • Se menosprecia la formación judicial profesional.

  • Se desvaloriza la independencia del juez.

  • Se expone el proceso judicial a decisiones automatizadas sin fundamento humano.

IA en juicio: pierde demanda…

El pasado 22 de febrero de 2024, El Sol de México reportó un caso en el cual un abogado mexicano perdió un juicio por haber utilizado IA para redactar una demanda sin verificar las fuentes citadas. La herramienta generó normas y jurisprudencias inexistentes, lo que derivó en una sentencia desfavorable para el cliente.

Esto constituye una falta grave de diligencia profesional. El uso automatizado sin verificación infringe el principio de buena fe procesal consagrado en el artículo 22 del Código Nacional de Procedimientos Civiles y Familiares.

IA en la práctica académica y profesional

Estudiantes, empresas y hasta despachos han adoptado herramientas de IA para la redacción de contratos, análisis jurídicos o revisiones documentales. Sin embargo, diversos reportes advierten que la IA no valida fuentes ni detecta errores inventados (conocido como “alucinaciones”).

Por ello, se requiere:

  1. Validación manual de todo contenido generado.

  2. Protocolos estrictos en firmas legales.

  3. Formación continua sobre la interfaz entre derecho, ética e inteligencia artificial.

Reforma judicial, jueces sin carrera… ¿y ahora también con IA?

La reforma judicial impulsada recientemente en México ha desatado preocupaciones profundas. Uno de los puntos más críticos es la eliminación o debilitamiento de la carrera judicial, pilar constitucional y también reconocido por el Estatuto del Juez Iberoamericano y los Principios Básicos de la ONU sobre la independencia de la Judicatura.

Este desmantelamiento genera:

  • Ingreso de perfiles sin experiencia judicial.

  • Exclusión de profesionales de carrera con años de mérito y formación.

  • Vulnerabilidad frente a decisiones automatizadas sin discernimiento técnico.

Cuando falta experiencia, la IA se vuelve tentación. Un juzgador sin formación puede delegar su juicio a una herramienta que, sin filtros, sustituye el criterio jurídico por estadísticas opacas.

Esto es grave por al menos tres razones:

  1. La IA no tiene responsabilidad jurídica. Ningún modelo de lenguaje puede ser recusado, impugnado ni comparecer ante órganos disciplinarios.

  2. El juez no es un copista. Debe motivar y razonar conforme al artículo 16 constitucional y al principio del debido proceso.

  3. Sin carrera judicial, sin ética ni discernimiento, la IA toma el control.

¿Qué dicen los estándares internacionales?

  • Carta de los Derechos del Hombre en el proceso judicial:
    “El juez debe contar con independencia, competencia y formación técnica y ética, garantizada por la carrera judicial.”

  • Relatoría de la ONU sobre independencia de jueces y fiscales:
    “El uso de tecnologías de IA sin filtros institucionales adecuados puede derivar en una justicia automatizada sin legitimidad, sin responsabilidad y sin derechos humanos.”

Recomendaciones (todo verificado con el derecho mexicano)

  1. Crear protocolos éticos de uso de IA con revisión humana obligatoria.

  2. Establecer capacitaciones judiciales permanentes conforme a estándares internacionales como el EU AI Act.

  3. Fortalecer la carrera judicial, evitando que se suprima mediante reformas populistas.

  4. Desarrollar un marco normativo robusto que imponga sanciones por uso negligente de IA, conforme al artículo 16 constitucional, al debido proceso y a los principios procesales del CNPCF.

Conclusión

El caso navarro no es una anécdota europea. Es un síntoma global. Si permitimos que la IA sustituya el juicio del abogado, desprofesionalizamos el derecho. Si los jueces se convierten en operadores pasivos de herramientas sin alma, sacrificamos la esencia del Estado de derecho.

La IA no es el enemigo. El enemigo es la pereza intelectual del jurista.

La inteligencia artificial es útil, sí. Pero nunca será responsable. Solo el ser humano lo es. Y en derecho, sin responsabilidad, no hay justicia.

Diana Murillo

Abogada