lawandtrends.com

LawAndTrends



Dos socios expertos en Propiedad Intelectual del estudio Hogan Lovells de San Francisco, California, desmenuzan los problemas en cuanto a los temas morales que se presentarán con el uso de la Inteligencia Artificial en los estudios de abogados en el corto plazo.

La Inteligencia Artificial (IA) es la tendencia en 2017. Casi no pasa un día sin que se publique un artículo sobre la promesa -o el peligro- de reemplazar a los humanos por ella. El tema se ha movido más allá de la prensa tecnológica y se ha convertido en un elemento clave en los medios de comunicación en general, según informa el sitio Legaltechnews.com.

Esta tendencia también ha llegado al ejercicio jurídico. Los temas parecen divididos entre los beneficios de los servicios legales de bajo costo y de mayor acceso, y las advertencias sobre los abogados robots.

El Derecho se adapta bien a la IA, porque ésta se basa en sistemas de reglas y razonamiento lógico estricto, y porque los abogados deben superar montones de datos que crecen exponencialmente, mientras se esfuerzan por aconsejar con precisión a sus clientes. Esta relación se ha estado construyendo hace años: búsqueda de litigios online, ensamblaje automatizado de documentos en temas corporativos, e incluso los motores de búsqueda en investigación jurídica. Todas estas aplicaciones requieren el uso de sofisticadas tecnologías cognitivas.

Pero hay una interrogante general flotando en el aire: ¿cuáles son las implicancias éticas del uso de la IA en el Derecho?

Sin caer en la tentación de saltar a escenarios de ciencia ficción, podemos analizar soluciones de IA en cuanto herramientas que un abogado humano usa en la prestación de servicios jurídicos. Y los deberes del abogado están bien definidos por las normas de responsabilidad profesional vigentes. Sin embargo, desde la óptica de las aplicaciones de la IA, surgen algunas preguntas interesantes.

Vamos a revisar algunos cánones claves y su posible aplicación en el mundo de los servicios jurídicos que utilicen IA:
Deber de competencia: El deber de competencia de un abogado incluye no sólo el de la ley, sino también el deber de mantenerse al tanto de los cambios de ésta y su práctica, incluyendo los riesgos y beneficios asociados a la tecnología pertinente. Esto tiene un par de implicaciones. En primer lugar, un abogado debe encontrar un equilibrio entre abrazar las nuevas tecnologías que le benefician y evitar las riesgosas. Hay un peligro ético tanto para el geek como para el ludita (persona que se niega a manejar las últimas novedades tecnológicas).

Pero al profundizar más, también hay una interacción importante entre el uso de la tecnología y mantenerse informado. Muchos modelos de IA dependen del “entrenamiento” que se les dio, usando ciertos datos, suposiciones y reglas. Si las leyes subyacentes cambian, la IA debe ser capaz de transformarse para cumplir con las nuevas normativas, a medida que se actualiza el conjunto de datos, de forma simultánea.

Supervisión: Un abogado tiene el deber de supervisar el trabajo de los empleados de su firma, que no son abogados, para garantizar que su conducta cumpla con las obligaciones profesionales. Es cierto que esta regla se ha aplicado tradicionalmente sólo a la supervisión de humanos por parte de un abogado humano. Pero si un software de IA está tomando decisiones o realizando un trabajo de prestaciones de servicios legales -por ejemplo, preparar documentos, tomar decisiones acerca de si producir ciertos documentos o similares- es por lo menos discutible que el deber de supervisión del abogado debe extenderse al trabajo automatizado.

¿Ejemplos? La tecnología de IA es generalmente capaz de trabajar con conjuntos de datos mucho más grandes que los seres humanos y puede basar sus decisiones en patrones o algoritmos diferentes de aquellos en que un abogado humano ha sido entrenado para usar. Por otra parte, a estos “robots” se los ha calificado de “cajas negras” por su incapacidad de explicar su razonamiento a sus supervisores humanos. Los abogados deben evaluar cómo supervisarán el actuar automatizado sin necesariamente poder interrogar a la IA sobre su proceso de razonamiento.

Confidencialidad: Muchas aplicaciones de IA enfocadas en la ley son suministradas por terceros (proveedores de tecnología), no por los abogados o sus firmas. Además, dado que la calidad del análisis de IA a menudo mejora con muestras de datos cada vez más amplias y representativas, los proveedores de tecnología de IA pueden desear reunir todos los datos de sus clientes en una sola base de datos. Los abogados deben considerar qué datos se proporcionan a un proveedor de IA, así como encargarse de saber cómo los datos son protegidos y almacenados por el proveedor. Por ejemplo, ¿es posible que los clientes del mismo proveedor de IA pudieran incluir a los estudios de abogados de ambos lados de una disputa, de modo que los datos de un lado entrenen a la IA de los servicios que proporciona el otro lado y viceversa?

Práctica no autorizada de la ley: Finalmente, pasando a una pregunta fundamental sobre el robot abogado: si la IA va a prestar servicios legales, ¿deberá estar sujeta a los requisitos para poder ejercer?

La gama de cuestiones éticas planteadas por el uso de la IA en los servicios jurídicos es amplia y matizada. Debemos abordar algunos problemas con soluciones inmediatas y prácticas; en cambio, otros se sitúan en debates futuristas que (por ahora) permanecen en el ámbito de los teóricos.

* Este es un extracto de la nota titulada “The Ethics of Artificial Intelligence in Law Practice”, publicada en Legaltechnews.com. Lee el artículo completo en inglés aquí.

** El texto fue escrito por el Dr. Christian Mammen, socio en Hogan Lovells de San Francisco, CA. Ha litigado casos de patentes y tecnología en San Francisco y Silicon Valley durante veinte años. Además de la colaboración de Jason Lohr, socio en Propiedad Intelectual de Hogan Lovells, con experiencia en los ámbitos jurídico, técnico y de la industria, lo que le ayuda a ofrecer enfoques integrales e innovadores para el desarrollo y gestión estratégica de la cartera.

Reproducción autorizada por Idealis Lex ReportsVer artículo original




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad