Hazte premium Hazte premium

Las leyes de la robótica que propone Europa

La Eurocámara pide poner en marcha una serie de normas de seguridad, éticas y legales para regular los avances en Inteligencia Artificial y robots

Un robot humanoide AFP PHOTO / Johannes EISELE

A.M.

La robótica es, junto a la construcción modular y la impresión 3D, una de las tres grandes tendencias y oportunidades para la industria de la construcción en Europa, Estados Unidos y Asia, según apunta la empresa global de aplicaciones de empresa IFS. Los avances en Inteligencia Artificial son imparables y los expertos hablan ya de la cuarta revolución industrial en la que las personas podrían ser sustituídas por robots en ciertos empleos .

Por esta razón, y ante perspectivas que algunos califican de «catastróficas», la comisión de Asuntos Jurídicos del Parlamento Europeo insta a la Unión Europea a armonizar normas de seguridad, éticas y legales para regular los importantes avances que se están logrando en el campo de la robótica y de la inteligencia artificial.

Los eurodiputados piden explorar la posibilidad de crear en el futuro un estatus jurídico para las «personas electrónicas», que cubra los robots autónomos más sofisticados y permita reclamar responsabilidades en caso de daños.

Estas son las nueve leyes que recoge el documento « European civil laws rules in robotics » elaborado por la Eurocámara y que espera que Bruselas apruebe:

1. Proteger a los seres humanos de los daños causados por robots . Cabe recordar que la Carta de los Derechos Fundamentales de la Unión Europea (7 de diciembre de 2000), establece la dignidad humana como fundamento de todos los derechos.

2. Respetar el rechazo de la atención por parte de un robot . Este principio sigue al primero y establece el derecho de una persona a negarse a ser cuidado por un robot. La normativa se refiere a cuando una persona «se siente tan profundamente incómoda con su presencia (la del robot) que hace que sea insoportable». Afectaría a los casos en los que los robots, por ejemplo, den de comer a personas mayores o discapacitados.

3. Proteger la libertad humana frente a los robots . «Algunos robots autónomos podrían pisotear todas las libertades, con el pretexto de proteger a una persona», señala el documento. Por ejemplo, podría impedir a una persona enferma (un alcohólico, por ejemplo) comportarse de una manera peligrosa, impidiéndole beber. «Sin embargo, en Europa, la libertad humana está protegida. Para los parlamentarios, «es importante establecer un verdadero principio roboético» porque consideran que es muy difícil «aceptar que un robot puede imponer ciertos comportamientos» ya que la máquina «debe respetar la autonomía de decisión de una persona». El debate está en cómo actuaría el robot cuando alguien le contradiga, especialmente en torno a la seguridad. «Esto significaría adaptar el mensaje en función de la edad de la persona y el nivel de conciencia y comprensión. En segundo lugar, el robot debería tener derecho a un veto absoluto cuando la otra parte estuviera en peligro. Como tal, el robot no podría ser utilizado como un arma».

4. Proteger a la humanidad contra las violaciones de la privacidad cometidas por un robot . Los expertos recuerdan que «con sus muchos sensores, los robots autónomos, como los de seguridad o de cuidado de la salud, pueden tener acceso a un volumen de información para realizar varias funciones». Por tanto, la vida no solo de la persona dependiente, sino también de sus familiares, amigos o ayudanete, estaría expuesta ante la máquina. «El derecho a la intimidad ya está consagrado en el Convenio Europeo para la Protección de los Derechos Humanos y los Derechos Fundamentales de los Libertades», recuerdan.

5. Gestión de datos personales procesados por robots . Es un problema que recopilen «grandes volúmenes de datos» porque «una vez que los robots tengan las habilidades para comunicarse e interactuar, no sólo los intercambiarán sino que esta «comunicación puede ser imperceptible para los seres humanos». Para los ponentes, «el principio roboético de la gestión de datos personales procesados por robots es, pues, crucial».

6. Proteger a la humanidad contra el riesgo de manipulación por robots . Estos pueden generar miedo o fascinación. La empatía artificial es una realidad y, por tanto, un peligro para la persona. «Por lo tanto, siempre que un robot simule emociones, existe el riesgo de que una persona desarrolle el mismo tipo de vínculo». Por esta razón, hay que crear «un principio roboético que proteja a las personas manipulados por los robots».

7. Evitar la disolución de los vínculos sociales . El documento recuerda que los «robots autónomos ofrecen un remedio a varios problemas relacionados con el envejecimiento de las poblaciones» por lo que los servicios de salud perderían terreno. También los profesionales del sector.«Se supone que el robot mejora la calidad de vida de una persona» pero sin aislar al paciente de la sociedad. Por tanto, consideran que la máquina debe «acomo como un agente que ayuda a las personas mayores, enfermas o discapacitadas a ser más independientes» y que «no puede sustituir a seres humanos por completo».

8. Igualdad de acceso al progreso en robótica . La división digital es una realidad pero tanto usuarios profesionales como no profesionales deben tener las mismas oportunidades de acceso.

9. Restringir el acceso humano a las tecnologías de mejora . «Podría parecer paradójico tratar de promover el acceso a la robótica y luego pedir que sea restringido», rocoge el documento. Pero no. Los expertos se refieren a la posibilidad de crear un nuevo tipo de criatura híbrida: un «cyborg». «Los seres humanos en su forma actual quedarían en el olvido, obligándolos a mejorar o desaparecer. Por lo tanto, es esencial que se elabore un principio roboético para frenar tales errores».

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación