Tags:

Los autores de ciencia-ficción fueron los primeros en detectar y estirar al máximo los temas éticos que podían surgir con la Inteligencia Artificial. ¿Qué pasará si los robots desarrollan sentimientos, se preguntaron una y otra vez? Sus respuestas imaginadas nos han dado grandes obras de ficción en las que ahora, mientras conversamos algo en broma con un chat IA, no podemos evitar pensar. Hace unos meses, de hecho, un ingeniero de una gran tecnológica llegó a asegurar estar completamente convencido de que un chatbot en el que trabajaba se había convertido en sintiente (la empresa —y casi todo el mundo— lo negó y le concedió una baja con sueldo).

Dejando de lado esa cuestión, a la que parece que de momento no nos estamos enfrentando, la Inteligencia Artificial, en su estado actual, sí presenta algunos dilemas éticos. El más comentado, y el que más se está intentando atajar, es el de los sesgos que una tecnología diseñada por humanos y entrenada para aprender de ellos puede heredar. Si la IA es desarrollada por un grupo poco diverso, su algoritmo será entrenado con ciertos sesgos y lagunas de las que los desarrolladores posiblemente ni sean conscientes.

Uno de los ejemplos más extremos es el de cuando los bots de reconocimiento de imágenes han llenado titulares al identificar la fotografía de una persona negra con un animal, por no haber recibido suficientes imágenes de personas racializadas en su entrenamiento. Pero hay también situaciones que pueden pasar desapercibidas. Cuando, por ejemplo, se usa la IA en la selección de personal, esta puede servir únicamente para perpetuar una situación de desigualdad si selecciona currículos similares a los de los trabajadores actuales y descarta de forma automática los que difieren en algún aspecto.

El tema es tan importante y puede resultar tan decisivo en la vida de millones de personas que en noviembre de 2021 los 193 Estados miembros de la Conferencia General de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, el primer acuerdo e instrumento normativo mundial sobre el tema. El objetivo no es cortarle las alas a la IA, sino, conscientes de su grandísimo potencial para mejorar las cosas, pero también para empeorarlas, guiarla por el buen camino.

Además de los sesgos, la IA plantea otros dilemas éticos como qué significa para la privacidad (las apps que consiguen sus datos siguiéndonos, por ejemplo), o para la atribución de responsabilidad (¿quién es responsable si un coche autónomo provoca un accidente?).

Poder confiar en la IA es clave para sacarle el máximo rendimiento. Francisco Javier Antón, data analyst de T-Sysems Iberia, explica que para lograr esta confiabilidad es necesario que la IA cumpla tres requisitos: debe ser lícita, debe ser ética y debe ser robusta. La ética no es solo compatible con la IA, sino que es imprescindible contar con ella en cada paso que se avance en la tecnología. Quizá aún no tengamos que preocuparnos por cómo tratamos a los bots, pero sí debemos seguir teniéndonos a (todos) los seres humanos en cuenta.

Deja tu comentario sobre "¿Es la IA compatible con la ética?"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.