INTELIGENCIA ARTIFICIAL SÍ, PERO CON ABOGADO
La inteligencia artificial ha entrado de lleno en el mundo jurídico y, digámoslo sin rodeos, no es una moda pasajera. Ha venido para quedarse. Ya forma parte del trabajo diario de nuestros despachos, asesorías y profesionales del Derecho. Ahorra tiempo, ordena información, resume documentos, sugiere líneas argumentales y permite trabajar con una rapidez impensable hace apenas unos años.
Negarlo sería tan inútil como negar el correo electrónico o las bases de datos digitales. La IA ya está aquí y su uso en la abogacía no solo es legítimo, sino muchas veces útil y razonable.
Pero una cosa es usar inteligencia artificial, y otra muy distinta es delegar en ella el juicio profesional.
Ese es el verdadero problema. No la herramienta, sino su utilización acrítica. No la ayuda tecnológica, sino la tentación de convertirla en sustituto del abogado. Porque la IA puede redactar con soltura, citar con apariencia de precisión y construir argumentos con una seguridad pasmosa. El inconveniente es que, a veces, lo hace inventando. Y otras, quizá de forma más peligrosa todavía, lo hace citando resoluciones reales para decir exactamente lo contrario de lo que dicen.
Cuando la máquina “crea” jurisprudencia
Ya hemos visto ejemplos suficientemente elocuentes. Uno de los más conocidos fue el de un abogado canario condenado por utilizar jurisprudencia inexistente en un escrito judicial. Según trascendió, aquellas resoluciones habían sido facilitadas por inteligencia artificial. El episodio sirvió para recordar algo que nunca debió olvidarse: la IA puede equivocarse, inventar, mezclar o alucinar; pero quien firma el escrito no es la máquina. Es el letrado.
Y ahí acaba cualquier excusa.
Porque un abogado puede apoyarse en herramientas tecnológicas. Lo que no puede hacer es presentar ante un juzgado citas que no ha corroborado. La delegación ciega en una aplicación, por sofisticada que parezca, no exime del deber de diligencia. Al contrario: hoy lo refuerza.
No toda IA jurídica es igual
También conviene decirlo con claridad. No toda inteligencia artificial jurídica merece el mismo juicio. Existen herramientas generalistas, propensas a errores graves, y existen sistemas jurídicos especializados construidos sobre bases documentales fiables, estructuradas y contrastables. Estas últimas son, sin duda, mucho más seguras y útiles para el profesional.
Pero incluso en ese escenario más fiable subsiste la misma obligación: leer la resolución citada o revisar el texto. Comprobar y entender.
La jurisprudencia no se cita por su título, ni por su apariencia, ni porque encaje cómodamente en la tesis que uno quiere defender. Se cita porque verdaderamente dice lo que se le atribuye.
El riesgo no reside únicamente en que la IA invente referencias o argumentos; en ocasiones, el problema es aún más grave: tergiversa el sentido de una resolución auténtica, con el consiguiente riesgo de inducir a error al tribunal. La cuestión de fondo es determinar si, siendo el profesional plenamente consciente de que estas herramientas pueden cometer errores, la falta de revisión del texto o del escrito jurídico generado por la IA constituye un supuesto de negligencia profesional o, incluso, puede llegar a apreciarse como una manifestación de mala fe procesal.
Un caso revelador
Hace pocas semanas, en un caso que tuvimos que tratar, nos dimos de bruces con todo lo que anteriormente hemos comentado.
Demanda colectiva de procedimiento ordinario que agrupa a 23 demandantes ejercitan una reclamación por diferencias de calidades frente a una promotora. Se dicta Auto de admisión y la demandada interpone recurso de reposición sosteniendo que la demanda colectiva admitida a trámite vulnera los arts. 72 y 73 LEC porque agrupa a 23 demandantes, compradores de 14 viviendas, cada una sustentada en contratos distintos, fechas distintas y condiciones distintas. Hasta ahí, se trata de una tesis procesal defendible, mejor o peor fundada, pero legítima.
El problema aparece cuando el recurso pretende apoyarse únicamente en sentencia dictada por el Tribunal Supremo y afirma que esa heterogeneidad “inhabilita el nexo del art. 72 LEC según la STS 385/2017, de 19 junio”, y añade que dicha sentencia rechazó el tratamiento unitario de acciones cuando no provienen del mismo título ni existe conexidad fáctica suficiente.
Sin embargo, nuestra impugnación al recurso pone el dedo en la llaga y denuncia que esa utilización de la sentencia es improcedente, porque el propio Tribunal Supremo no resolvió en ese caso la cuestión de la acumulación subjetiva de acciones como doctrina material de fondo.
Y no es una interpretación discutible: lo dice literalmente la propia resolución citada. La sentencia del Supremo señala: “Pese a la más que dudosa acumulación subjetiva de acciones efectuada en la demanda, ya criticada por la Audiencia Provincial, no entraremos en la misma, al no haber sido objeto de impugnación ante este tribunal de casación.”.
Más claro, imposible. La sentencia menciona la acumulación, sí; pero expresamente dice que no entra a resolverla. No fija doctrina sobre esa cuestión en el sentido en que el recurso pretende presentarla. Y, por tanto, utilizarla como si fuese una autoridad concluyente sobre la improcedencia de la acumulación subjetiva de acciones en este caso no es una simple licencia argumentativa: es una lectura incorrecta.
Leer una sentencia sigue siendo insustituible; cuestión distinta es su interpretación. Nos movemos muchas veces en esa delicada frontera que separa, la aberración jurídica de la interpretación forzada, a la que en ocasiones, apremiados por las circunstancias del caso, nos vemos obligados a acudir aun siendo conscientes de su escasa solidez.
Nuestro escrito de impugnación lo expresa con dureza, pero con razón, cuando afirma que el recurrente “fuerza el sentido de la resolución del Tribunal Supremo” y que “nunca entró a resolver la cuestión de la acumulación de acciones”.
No se trata aquí de decidir quién tiene razón sobre el fondo de la acumulación. Se trata de algo más básico y más importante: la honestidad intelectual y técnica en el uso de la jurisprudencia.
Porque citar una sentencia sin haberla leído ya es grave. Pero leerla y utilizarla para atribuirle lo contrario de lo que dice es peor. Y si esa desviación viene inducida por una herramienta de IA mal usada, el problema no desaparece: se agrava.
La IA, además, presenta otra limitación especialmente delicada en el trabajo jurídico: a veces es capaz de identificar una frase integrada en una sentencia, pero no de situarla correctamente en su contexto. No siempre distingue si ese pasaje recoge simplemente la tesis sostenida por una de las partes que en la sentencia se cita, si forma parte de la argumentación de una resolución previa que se transcribe, o si expresa verdaderamente el criterio que finalmente asume y declara el tribunal. Y esa confusión, si no se revisa con rigor, puede llevar a atribuir al órgano judicial una doctrina que en realidad no ha hecho suya
La tecnología no sustituye la responsabilidad
La inteligencia artificial será cada vez más poderosa. Hará mejores resúmenes, encontrará mejores patrones, redactará borradores más convincentes y permitirá ganar un tiempo precioso. Todo eso está muy bien. De hecho, es deseable.
Pero la abogacía no consiste solo en producir texto. Consiste en asumir responsabilidad. En saber qué se firma. En comprender qué resolución se cita. En distinguir una sentencia útil de una irrelevante. En advertir cuándo una referencia parece impecable, pero no dice lo que uno necesita que diga.
Por eso, el futuro de la abogacía no pasa por expulsar la inteligencia artificial del despacho. Pasa por integrarla con criterio. Con sentido crítico. Con prudencia. Con supervisión humana real.
La IA ha venido para quedarse. Sin duda.
Lo que no puede quedarse es la idea de que un abogado puede usarla como coartada cuando no ha hecho su trabajo. Porque en un procedimiento judicial, la máquina no responde. Responde siempre el abogado.

