Directorio es el servicio de Law&Trends para buscar abogados y profesionales jurdicos

LawAndTrends



La inteligencia artificial (IA) y el machine learning son herramientas que cada vez están más integradas en nuestras vidas, pero cómo deben gestionar sus riesgos asociados las empresas que las usan. Repasemos algunas de las declaraciones que algunos expertos del Reino Unido sobre esta materia han venido haciendo.

 

¿A medida que la inteligencia artificial forma parte de forma cada vez más profunda de las operaciones y servicios, incluso dando soporte en la toma de decisiones judiciales, nos estamos aproximando a un tiempo en que las grandes mentes legales lleguen a ser máquinas? De acuerdo a lo indicado por la catedrática de computación Dame Wendy Hall, coautora del informe “El crecimiento de la industria de la inteligencia artificial en el Reino Unido”, solo estamos al comienzo del camino de la inteligencia artificial y es el momento de establecer límites.

“Toda tecnología tiene el poder de hacer tanto el bien como el mal” dice Hall. “Por lo tanto tenemos que mirar hacia las normativas internas de las empresas y decidir qué puede o no hacerse con los datos”.

El catedrático de inteligencia artificial y robótica Noel Sharkey destaca “las implicaciones morales y legales de confiar decisiones humanas a algoritmos que no podemos entender completamente”. Explica que los limitados sistemas de IA que las empresas usan actualmente (para obtener conclusiones de grandes volúmenes de datos) aplican algoritmos que aprenden de la experiencia de datos actuales e históricos. Pero estos sistemas están lejos de ser perfectos.

Los resultados potenciales incluyen resultados o razonamientos defectuosos. Pero las dificultades también surgen de la falta de transparencia. Esto motiva la llamada que Hall hace a la supervisión y regulación. Las empresas que usan IA en sus operaciones necesitan gestionar los riesgos éticos y legales. Y los profesionales del sector legal juegan un rol importante en dimensionar y repartir el riesgo y la responsabilidad.  

La IA también hace aflorar nuevas cuestiones relacionadas con la pertenencia de los datos y la propiedad intelectual. “Diferentes proveedores ofrecen diferentes posicionamientos sobre si el aprendizaje que una plataforma de IA obtiene de los datos debe ser en beneficio del propietario de los datos o en beneficio de la comunidad de usuarios” dice Emma Wright, socia en temas tecnológicos en Kemp Little. “las empresas deben considerar si quieren compartir y beneficiar al sector con lo aprendido o si lo aprendido quieren que sea una ventaja competitiva que debe permanecer de forma privativa”.

Cliff Fluet, socio en Lewis Silkin, reconoce que las tensiones existentes alrededor de la propiedad relacionada con la propiedad intelectual. “El proveedor querrá mantener la habilidad de poder usar el conocimiento y las herramientas que facilitan la solución de machine learning en cualquier lugar, mientras que el cliente querrá ser propietario de ellas”. 

La falta de transparencia es otro potencial punto de fricción. “El software de IA no permite al usuario mirar debajo de capó y no permite verificación independiente de los datos utilizados para obtener los resultados”. Esto limita el grado de fiabilidad que las empresas pueden dar a las conclusiones. Especialmente cuando se usan en un contexto legal o de compliance.

Este síndrome de “caja negra” se debe en parte a que los ingenieros no conocen del todo cómo se han sido obtenidas las conclusiones de algunos sistemas de machine learning además de su aversión al riesgo de perder ventajas competitivas. “Los algoritmos son valiosos y tienen dueño, por eso compartirlos con los clientes cuando la tecnología pueden terminar en manos de los competidores no es algo apetecible” dice Wright.

El dilema de las transparencia de los algoritmos está en el corazón de un caso penal en Wisconsin, en el que se ha interpuesto un recurso contra una decisión judicial basado en la falta de capacidad para explicar cómo funciona un algoritmo.

Sin embargo, en el contexto de la mayoría de los sectores, “una toma de decisión basada en IA, es una herramienta más como cualquier otra tecnología que podemos implementar para facilitar nuestro trabajo” dice Ben Travers, responsable de Propiedad Intelectual y Tecnología en Stephens Scown. “Las organizaciones que usan herramientas de toma de decisiones basadas en IA no pueden evitar la potencial responsabilidad legal por haber tomado malas decisiones”.

El catedrático de Robótica y ética Alan Winfield está de acuerdo. “Necesitamos tener absolutamente claro que la Inteligencia artificial no puede ser responsable de sus decisiones”. Incluso los sistemas que aprenden por si mismos pueden ser diseñados para ser seguros poniéndoles límites más allá de los cuales el aprendizaje no pueda tomar control del Sistema”.

Más allá de la profesión legal, cuando se trata de gestionar el riesgo en los servicios profesionales la supervisión es clave. ¿Quién puede estar seguro de que los algoritmos realmente están haciendo lo que dicen que deberían hacer? Desde la perspectiva de un despacho de abogados necesitas la seguridad de que puedes confiar en que un Sistema que gestiona el día a día de un negocio cumple con la normativa legal.

“Una de las principales consideraciones para las empresas que usan IA son los datos”. “No solo tienen que pensar en si tienen los datos que necesita un Sistema de IA para conseguir un resultado sino en si tienen el derecho a usar esos datos con ese objetivo. Las organizaciones deben desarrollar una postura moral y ética respecto a cómo usar los datos de sus clientes ya que pueden estar tentados de hacer cosas que pueden aportarles mucho valor pero que pueden tener implicaciones muy grandes relacionadas con la privacidad.  

En lugar de intentar tener el control de los algoritmos quizás debamos conseguir ser mejores en cómo gestionamos y controlamos los datos que un Sistema de IA utiliza para obtener conclusiones.

Jason Alan Snyder, director de tecnología de Momentum Worldwide, advierte a las empresas de no perder el factor de lado humano. “Por el momento, los humanos son la fuente primaria y destino de la información creada”. Los datos están reemplazando a los combustibles y al oro como principal materia prima pero las empresas deben poner a las personas por delante.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad