Ava, la robot en Ex Machina
Photo Credit: Ex Machina, Universal Pictures/CBC

Los robots ¿qué derechos?

¿Qué derechos tienen que tener los robots? ¿Quién es responsable de las acciones de una máquina autónoma: su fabricante o propietario? ¿Cómo puede la máquina decidir cuándo se debe preservar la vida?  Expertos analizaron estas cuestiones en la Universidad Laval, en Quebec, consideradas urgentes debido a los imparables avances tecnológicos.

Los seres humanos resultancada vez más transformados por la tecnología. ©  iStock
Escuche

Los robots se están diversificando y mientras que antes estaban restringidos al espacio cognitivo /científico y productivo en laboratorios o fábricas, ahora son visibles en el espacio público y político.

Pero no solo allí: también en el espacio íntimo y emocional de muchas maneras: aviones no tripulados en los conflictos armados, pero también en la agricultura, los robots en las tiendas para reemplazar a los trabajadores, los robots humanoides para interactuar con niños autistas o atender a personas mayores, para nombrar solo algunos.

Mientras tanto, los científicos continúan explorando otras vías: nanorobots, implantes cerebrales, exoesqueleto.

Aunque la «mecanización» del ser humano es denunciada desde hace mucho tiempo, el proceso parece haberse intensificado de una manera nueva: el ser humano no es sólo como una máquina, ahora puede «convertirse en un robot» por todo tipo de artimañas.

Participantes de todo el mundo, incluyendo expertos en robótica, filósofos e ingenieros, se reunieron recientemente en la Universidad Laval en Quebec para discutir sobre robots y todo lo que representa su presencia en nuestra sociedad.

En este caso, no se trata de robots asesinos, los que podrían someter a la humanidad a la esclavitud o a su aniquilación, como en el caso de las películas de Hollywood. Sino más bien de consideraciones reales: coches autónomos, inteligencia artificial y robots utilizados en residencias de ancianos como compañeros para las personas mayores.

A los participantes no les faltaban ejemplos para demostrar la necesidad urgente de adoptar reglas para encuadrar  a los robots, su concepción y su estatus.

Por ejemplo, el caso de los vehículos autónomos desarrollados ahora por empresas como Google y Uber. ¿Qué deben hacer los vehículos ante la posibilidad de un accidente? ¿Cómo puede la máquina decidir cuándo se debe preservar la vida? Esa decisión ¿debería reposar en un humano y no un robot?

¿Qué derechos tienen que tener los robots? © CBC

Las máquinas y la moral

«Hay una presión para encontrar una solución a estos problemas,» dice Tomislav Bracanovic, profesor de filosofía de las ciencias y la ética de la Universidad de Zagreb, Croacia.

No hay un encuadre como es el caso en otras disciplinas académicas o científicas, como la medicina. Sin embargo, la robótica podría tener un serio impacto en los seres humanos.

-Tomislav Bracanovic, profesor de filosofía de la ciencia y la ética de la Universidad de Zagreb

Para el filósofo, la robótica, particularmente la biorobótica está tan avanzada que ella contiene la promesa de crear seres que similares a los humanos en muchos aspectos, o incluso superior al hombre. «Esto es importante: ¿cómo vamos a tratar a esos seres y deben tener un estatus moral o derechos para prevenir los abusos?”

También se mencionaron otros aspectos durante las discusiones, incluyendo la cuestión jurídica. Charles Stephen Daniel, un estudiante de doctorado en Derecho en la Universidad de Sherbrooke, está interesado en el tema de la robótica, un campo donde las leyes canadienses parecen inadecuadas. «En términos del derecho reglamentario, ¿debemos desarrollar categorías específicas a la robótica? ¿Debemos prevenir  los diversos riesgos que puedan surgir? «se pregunta.

Estos intercambios entre expertos en robótica, ingenieros y filósofos son los inicios de un diálogo entre disciplinas, señala Alexandre Pitti, un experto en robótica y profesor de la Universidad Cergy-Pontoise, en Francia.

Marie-Hélène Parizeau, profesora de filosofía en la Universidad Laval © U de Laval

Las leyes de Asimov para la robótica

Necesidad de encuadrar las acciones de los robots

“En un plano práctico es importante pensar en las normas de acciones y  regulaciones sociales que vamos a poner en todos los niveles. Es decir, sobre los diseñadores, sobre los fabricantes y los utilizadores. Cada uno tiene responsabilidades y un grado de autonomía diferentes, señala Marie-Hélène Parizeau

Un robot ¿debe estar sujeto a las tres leyes de la robótica?

En la ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

«Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño»

«Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley»

«Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley»

Marie-Hélène Parizeau es profesora de filosofía en la Universidad Laval y organizadora del simposio.

Ella es también Presidenta de la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO. Tras estas deliberaciones, el Comité presentará un informe en septiembre sobre la ética de los robots, que será entregado a los Estados miembros de la UNESCO.

RCI/David Savoie- Années lumière/Universidad Laval

Categorías: Internacional, Internet, ciencias y tecnologías, Sociedad
Etiquetas: , , , ,

¿Encontró un error? ¡Pulse aquí!

Por razones que escapan a nuestro control, y por un período de tiempo indefinido, el espacio de comentarios está cerrado. Sin embargo, nuestras redes sociales siguen abiertas a sus contribuciones.