Tags:

Las leyes de la robótica de Isaac Asimov formaban, en la ficción, una especie de ética robot que impedía a estos dañar a los humanos. Se trataba de tres leyes que, como ya contamos en su día, entendemos muy bien los humanos, pero que no entenderán los robots. Con todo, no nos debería preocupar tanto la ética de la Inteligencia artificial (IA) como la ética del uso de la IA por parte de los humanos.

La Unión Europea ha trabajado muy duro con 52 expertos en la materia para redactar un borrador de guías éticas para el uso de sistemas de inteligencia artificial. La idea es proteger a las personas de usos malintencionados de cualquier sistema basado en inteligencia artificial. Se da por sentado que esas guías aplican a los desarrolladores y empresas, no a los sistemas en sí mismos.

Está claro que los avances en inteligencia artificial están ofreciendo al mundo enormes beneficios en múltiples sectores, como en el de los vehículos autónomos, la sanidad, el hogar, servicios automatizables, educación o ciberseguridad. Sin embargo, la UE cree que los desarrollos basados en inteligencia artificial también tienen sus riesgos si no se gestionan correctamente.

Los avances en #inteligenciaartificial ofrecen enormes beneficios a la sociedad pero también necesitan de unas principales guías éticas Clic para tuitear

Cualquier desarrollador malintencionado podría (y puede, como es el caso de los ciberdelincuente) hacer un mal uso de la tecnología, ya que esta no es un fin en sí misma, sino el medio para conseguir algo.

Así se establece en el borrador (disponible en PDF aquí):

Teniendo la capacidad de generar tremendos beneficios para las personas y la sociedad, la IA también genera ciertos riesgos que deben ser gestionados adecuadamente. Dado que, en general, los beneficios de AI superan sus riesgos, debemos asegurarnos de seguir el camino que maximiza los beneficios de AI mientras minimizamos sus riesgos. Para garantizar que sigamos en el camino correcto, se necesita un enfoque centrado en el ser humano para la IA, lo que nos obliga a tener en cuenta que el desarrollo y el uso de la IA no deben considerarse como un medio en sí mismo, sino que tienen el objetivo de aumentar bienestar humano. La IA confiable será nuestra estrella del norte, ya que los seres humanos solo podrán disfrutar de los beneficios de la IA sin miedo si pueden confiar en la tecnología.

En dicho borrador, que se estima que este preparado por completo en marzo de este mismo 2019, se definen las principales guías éticas a seguir. A saber:

  • Se ha de asegurar que la IA sea human-centric, es decir, se deben desarrollar, implementar y utilizar soluciones basadas en IA que sean beneficiosas, no maliciosas y que protejan los derechos fundamentales de las personas.
  • Se debe prestar atención a las situaciones que implican a grupos vulnerables, como los menores de edad, las personas con discapacidades, las minorías, o en aquellas situaciones con asimetría de poderes, como en las relaciones jefe-empleado.
  • Además de respetar los derechos fundamentales debe respetar la ley.
  • Debe ser técnicamente robusta y fiable y facilitar la capacidad de auditoría de los sistemas de IA, particularmente en contextos o situaciones críticas
  • Debe funcionar con transparencia para todas las partes implicadas en la interacción con los sistemas basados en IA.
  • No debe restringir la libertad humana.

Existen muchas otras directrices, recomendaciones y precauciones a seguir para definir el marco ético del uso de la inteligencia artificial. A partir de marzo de este mismo año tendremos el borrador definitivo que definirá el futuro inmediato de los desarrollos de inteligencia artificial en Europa.

Deja tu comentario sobre "La UE trabaja en una guía ética para el uso de la inteligencia artificial"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.