Directorio es el servicio de Law&Trends para buscar abogados y profesionales jurdicos

LawAndTrends


ALEJANDRO SÁNCHEZ DEL CAMPO

El próximo 24 de noviembre se va a celebrar Robotiuris el primer Congreso sobre Robótica y Derecho que tendrá lugar en España. En él se abordará el estado de la tecnología y los aspectos legales, éticos y sociales de la Inteligencia Artificial, así como los riesgos de seguridad que deben procurar evitarse.


En Law&Trends hablamos con el primer promotor y coordinador del evento, Alejandro Sánchez del Campo Redonet, abogado, cuya pasión por estos temas le ha llevado a escribir un blog, Replicante Legal, que se ha convertido en todo un referente indiscutible en nuestro país.

Hasta donde tenemos conocimiento, Robotiuris es el primer Congreso que se va a celebrar en España donde confluyen Inteligencia Artificial y Derecho, ¿qué es lo que le ha llevado a promover y organizar un evento como este?

Efectivamente es el primero. Los robots y la inteligencia artificial están cada vez más presentes en nuestras vidas y todo indica que no es una moda pasajera sino que han venido para quedarse. Los abogados no podemos permanecer ajenos a los enormes retos que plantean estas nuevas tecnologías. En Estados Unidos y otros países ya se celebran congresos similares y nos pareció que era interesante generar un debate similar aquí.

¿Qué aspectos se abordarán principalmente en Robotiuris?

Vamos a tratar asuntos legales pero también éticos, técnicos y económicos. Se van a abordar cuestiones de responsabilidad civil y penal de los robots, su impacto en el mundo laboral, el estado del arte de la inteligencia artificial y su previsible impacto en el mundo legal, así como aspectos relacionados con la privacidad, la seguridad o la situación de la regulación de estas materias, entre otras muchas materias.

¿Cree que, en relación con otros países, en España llevamos retraso en cuanto al debate ético y legal que gira en torno a las consecuencias que puedan traer los robots?

Echo en falta un debate social como el que se produce en Estados Unidos o el Reino Unido. Por citar un ejemplo, ambos países han lanzado recientemente sendas consultas públicas sobre el impacto de la inteligencia artificial. Cualquier pueda participar y dar su opinión. Es una información muy valiosa para quien tenga que legislar sobre estas cuestiones.

En este mismo sentido, hay una iniciativa del MIT que me parece muy interesante. Se llama Moral Machine y te da la opción de expresar  tu opinión en distintas situaciones relacionadas con los futuros coches autónomos. Los datos que están obteniendo son muy útiles para los fabricantes de automóviles (entre otros) porque les ayudarán a entender lo que el público espera de sus coches en determinadas circunstancias.

Últimamente se oyen voces que alertan de la futura pérdida de millones de puestos de trabajo cuando las personas puedan ser sustituidas por máquinas, ¿auguras tal pesimismo? Y ¿qué tipo de medidas podrían adoptarse para evitar o compensar esta situación? ¿Es usted partidario de que los robots tengan que cotizar a la Seguridad Social conforme se propone desde el Parlamento Europeo?

Es evidente que va a haber puestos de trabajo que se destruirán como consecuencia de la creciente automatización. El hecho no es nuevo. Lleva ocurriendo desde la Revolución Industrial. Por otro lado, también se están creando nuevas ocupaciones que no existían hace pocos años y creo sinceramente que el futuro está lleno de oportunidades para los valientes y los que sepan diferenciarse y aportar valor en su especialidad.

Lo de la cotización de robots a la Seguridad Social es un tema complejo igual que el de la renta básica universal. El Parlamento no tiene una postura definida y ha pedido a la Comisión que lo estudie en profundidad.

¿Existe en la actualidad alguna normativa específica sobre robots? ¿Considera que es necesario tenerla?

No existe una norma general en España ni en Europa, ni considero que tenga sentido una “lex robotica”. Creo que es más razonable regular cuando existan riesgos ciertos, por ejemplo el vuelo de drones cerca de aeropuertos. En los temas casos,  coincido con la opinión del profesor Adam Thierer quien sostiene que es mejor dejar que la innovación se desarrolle sin normativas que condicionen a priori su potencial, en base a unos presuntos riesgos que muchas veces no se producen.

En su opinión, ¿cuáles pueden ser las mayores ventajas de la inteligencia artificial? ¿Y los riesgos?

Todos los expertos coinciden en el potencial de la inteligencia artificial para trabajos concretos, lo que se conoce como inteligencia artificial débil. Las labores rutinarias o que están sometidas a unas reglas concretas van a ser ejecutadas por máquinas a corto plazo, simplemente porque son capaces de hacerlas mejor que los humanos. Todo lo que pueda ser automatizable, lo será. Las personas debemos poner el foco en las cualidades que las máquinas no son capaces de ofrecer: empatía, creatividad, intuición, confianza, etc.

¿Cree que la computación inteligente puede acabar trasladando a los operadores jurídicos y que los abogados, fiscales o jueces dejen de ser necesarios?

Creo que no va a sustituir completamente a ninguno de los operadores jurídicos pero sí nos va a obligar a todos a redefinir nuestra forma de trabajar y poner el foco en aportar valor. Quienes no sean conscientes de esto lo van a tener complicado a medio plazo.

¿Cree que los robots acabaran siendo considerados personas?

Dependerá del grado de inteligencia y autonomía que sean capaces de desarrollar. Si llega un momento en que pueden pensar por si mismos y decidir de forma autónoma, creo que tendría sentido dotarles de una personalidad jurídica especial. Me parece que es la forma más práctica de responder adecuadamente a las cuestiones de responsabilidad que se plantearán.

Por último, ¿qué medidas de seguridad cree que serían efectivas si se produjera la singularidad tecnológica y las máquina se descontrolaran?

Más que responder a la pregunta, recomiendo la visualización de la charla de TED del filósofo Nick Bostrom, uno de los mayores expertos en la materia. Bostrom cree que la única forma sensata de hacer frente a esa amenaza es programar desde ya la inteligencia artificial para que tenga unos valores que sean los mismos o compatibles con los nuestros. Confiar solo en el famoso botón rojo no parece que vaya a ser efectivo si finalmente se produce esa situación.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad