lawandtrends.com

LawAndTrends



«En marzo de 2011 un titular del New York Times planteaba: “Ejércitos de carísimos abogados, reemplazados por software mucho más barato”». Así arranca un sugerente “paper” (30 diciembre 2015) de Dana Remus y Frank Levy; el título, “Can Robots be Lawyers?” no requiere traducción; y el subtítulo centra el ámbito de la extensa (más de 60 páginas) y sólida (más allá de los “titulares de prensa” y las “notas parciales en blogs”) reflexión: “Computers, Lawyers, and the Practice of Law”.

La propuesta base de John Markoff, en el artículo de New York Times de 2011, ya avanzaba una seria advertencia para los abogados: los ordenadores podrían reemplazar a las personas en tareas asociadas a alta preparación y “cuellos blancos”.

Desde 2011 han pasado muchas cosas, y muy rápido. No se ha producido un “apocalipsis de las profesiones jurídicas” todavía, pero ¿es esperable que se produzca?

El trabajo de Dana Remus y Frank Levy, presentado todavía como un borrador y sujeto a debate y sugerencias, será objeto de un análisis más detallado en ulteriores comentarios, que claramente lo merece. Por ahora, vamos a quedarnos en una primera aproximación a “la preocupación estratégica”, aireada por el New York Times y luego en distintos medios.

En diciembre de 2014 Dan Bindman, en Legal Futures, se hacía eco de un reciente informe de Jomati Consultants y titulaba: “La inteligencia artificial provocará un “colapso estructural” de las firmas de abogados en torno a 2030”. En el informe se asevera que ya no resulta irreal considerar que los “robots” y sus sistemas de inteligencia artificial podrían alcanzar su punto de “producción general” alrededor del 2030; y por esa época, estas máquinas podrían estar desarrollando trabajos de bajo nivel intelectual, al punto de que, posiblemente, cada “robot” podría ser capaz de desarrollar la tarea de una docena de asociados de “bajo nivel”. La parte “humana” de la abogacía se reduciría notablemente. El balance del informe, sus proyecciones, son brutales: para los socios, la revolución tecnológica será lucrativa (inversores, eficiencia, alto valor añadido); para los asociados, la irrupción de la Inteligencia Artificial será un desastre y exigirá una transformación acelerada (cada vez menos trabajo técnico, automatizable, y más trabajo comercial -”client winners”-).

Entre las conclusiones que extracta Dan Bindman destaca la proyección del impacto de esta revolución tecnológica sobre el modelo de negocio de las firmas de abogados, abocadas a una revolución estructural. Si bien las firmas más afectadas serán las “super-grandes”, menos los pequeños despachos super-especializados o centrados en temas procesales, la transformación tecnológica repercutirá sobre todos.

En diciembre de 2015 Thomas Barnett (en Bloomberg BNA) abordaba la cuestión con una perspectiva más de “data scientist” y menos de jurista o de consultor jurídico; su artículo, “Will Computer Learning Replace Lawyer Learning?”. La descripción del “estado de la cuestión hoy” y la formulación de las “cuestiones abiertas para mañana y pasado mañana” merecen una lectura sosegada. Por ejemplo, tras anotar todo el software disponible para tareas jurídicas avanzadas, hoy mismo, la cuestión ya es más concreta y estremecedora: “¿Cuánto de lo que hacemos como abogados actualmente requiere “pensamiento” (“thinking”) y cuanto puede ser relegado a los robots y la automatización?”. El autor no deja de tener claro que replicar los “ingredientes mágicos de la creatividad, la imaginación y la innovación” está lejos, y que un programa informático que pueda hacerlo suena como algo de una galaxia muy, muy lejana.

Voy a detenerme en estas tres primeras píldoras introductorias, por la parte del impacto directo de la Inteligencia Artificial en las profesiones jurídicas tal y como hoy se conocen.

Pero no quiero dejar de hacer notar que la “automatización” y la “inteligencia artificial” plantean también una revolución jurídica en otro aspecto, en el relativo a los aspectos jurídicos de su propia actuación, la de los robots y el software. Por ejemplo, en octubre de 2015 en Managing Partners, Manju Manglani, daba cuenta de un panel de expertos que debatía en la Westminster Law School sobre “quién debería asumir la responsabilidad criminal por las acciones de los robots”.

En esta línea de afrontar el nuevo escenario de la Inteligencia Artificial, la revolución tecnológica en curso, y sus implicaciones jurídicas globales, transversales, generales, el “paper” de referencia que he manejado se titula “Four Futures of Legal Automation”, firmado por Frank Pasquale y Glyn Cashwell (UCLA Law Review Discourse, 26/2015). Más que sugerente, incluso perturbador; y también volveremos sobre el.

Pero esta vertiente de la inteligencia artificial y los “riesgos potenciales que genera”, para la Humanidad incluso, han sido destacados por numerosos y relevantes personajes, como Stephen Hawking (“The development of artificial intelligence could spell the end of the human race” -el desarrollo de la inteligencia artificial podría significar el fin de la raza humana- dijo en la BBC) o Elon Musk (en un simposium en el MIT, en términos similares).

No quiero dejar de recomendar, en esta nota, una de mis aficciones favoritas en los últimos tiempos: las charlas TED sobre los más variopintos temas. En este caso, aun cuando no con un enfoque jurídico, la charla de Nick Bostrom en TED, en Vancouver 2015, titulada “What happens when our computers get smarter than we are?”, “amazing”, se alinea con estas serias preocupaciones por el fenómeno de la “Inteligencia Artificial” y sus implicaciones para la Humanidad en sí misma considerada.

Pero, más allá de la recomendación (con subtítulos en decenas de idiomas), me quedo con un dato que ejemplifica cuanto de rápido va esto, cuanto de inminente es la transformación que está ocurriendo ya. Así, la “Super-Inteligencia Artificial” nos espera a la vuelta de la esquina; Nick Bostrom pregunta a una serie de expertos, “¿Alrededor de que año crees que existe una probabilidad del 50 por 100 de que hayamos alcanzado un “nivel-humano” de inteligencia artificial?” Y la respuesta media es: entre 2040 y 2050. ¡Yo, mis coetáneos, podríamos llegar a verlo! Todas las implicaciones de esto, para la Humanidad, están por analizar... Ya no son solo las “profesiones jurídicas”...

Pero si esa “predicción” podría parecer de “ciencia ficción”, Dominic Basulto en The Washington Post se hacía eco de algunos datos presentados por Google sobre su “ordenador cuántico”, el “D-Wave 2X”, en un proyecto desarrollado en colaboración con la NASA. Google vendría a destacar que el D-Wave 2X” es “cien millones de veces más rápido que cualquiera de las máquinas existentes”. Con todas las cautelas sobre la “computación cuántica” y todo el escepticismo alrededor del anuncio de Google, ¡la revolución está ocurriendo! El “Watson” de IBM (que charlaba con Bob Dylan hace poco...) sería ya “el hoy” frente a un “mañana insondable”.

Y no solo avanza la tecnología, también la preocupación social y académica por el impacto de todos estos cambios que se avecinan. El pasado diciembre, Amir Mizroch daba cuenta en el Wall Street Journal sobre el nacimiento, en la Universidad de Cambridge y con financiación de “Leverhulme Trust”, del “Leverhulme Centre for the Future of Intelligence”, que se alinea con el “Centre for the Study of Existential Risk” existente en la propia Universidad; éste se orienta a la investigación sobre los riesgos para el futuro de la Humanidad, incluyendo el cambio climático, la guerra biológica y..., la “inteligencia artificial”.

¡Todo demasiado rápido! Parece que el mundo va demasiado rápido. Esta aceleración exponencial del cambio tiene implicaciones, sustancialísimas, para la Justicia, en mayúsculas. Y también para las profesiones jurídicas, para la abogacía.

Por lo tanto, no está de más que “hagamos un seguimiento” de lo que ya existe y de lo que se está gestando. No está de más, nada de más, que dediquemos algo de tiempo a seguir, analizar y repensar, las reflexiones que se nos van proponiendo al respecto desde diferentes foros. ¡En ello estamos!




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad