Tags:

La inteligencia artificial está en el punto de mira de la ética y la desconfianza desde que se desarrollaron los primeros modelos matemáticos en la década de 1950. Alan Turing fue el primero en plantearse si una máquina podría pensar cuando diseñó su famoso test (el conocido como «juego de imitación»). A partir de su trabajo, los desarrollos en este campo se sucedieron a gran velocidad, aunque no tanta como en el imaginario popular.

La ciencia ficción, sobre todo, y las novelas y cuentos de Isaac Asimov, quien enunció en ellos las tres leyes de la robótica, espolearon la imaginación colectiva y plantearon escenarios con máquinas inteligentes en todo el espectro de emociones posible: desde las máquinas bondadosas, hasta las máquinas enemigas de la humanidad.

La realidad no llega a esos extremos, ni es previsible que lo haga a corto plazo. Sin embargo, ya resulta necesario establecer ciertas normas y reglas que cualquier dispositivo o máquina que se guíe por algoritmos de IA deberá cumplir.

En la actualidad, la IA nos puede abrir las puertas a avances impensables como el procesamiento del lenguaje natural, y también puede contribuir a hacernos la vida más fácil previniendo, por ejemplo, accidentes de tráfico.

El Reglamento sobre la IA de la Comunidad Europea

La Comunidad Europea planea una normativa que garantice a todos los ciudadanos de la UE que los desarrollos de inteligencia artificial que se realicen cumplan con los más estrictos estándares de fiabilidad y seguridad.

Así, la Comisión divide los sistemas de IA según su nivel de riesgo:

Riesgo inadmisible

Este tipo de sistemas estará prohibido. Se consideran sistemas de IA de riesgo inadmisible los que sean una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas.

Alto riesgo

Estos sistemas utilizan la IA en infraestructuras críticas, en la formación de las personas, en servicios públicos y privados esenciales, en la aplicación de leyes, en la gestión de la migración, el asilo y el control de las fronteras, entre otras aplicaciones. Estos sistemas están sujetos a ciertas obligaciones como:

  • Que tengan sistemas adecuados de evaluación y mitigación de riesgos.
  • Que se garantice la alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios.
  • Que exista registro de la actividad para garantizar la trazabilidad de los resultados.
  • Que dispongan de documentación detallada sobre el sistema y su finalidad para que las autoridades evalúen su conformidad.
  • Que ofrezcan información clara y adecuada al usuario.
  • Que tenga medidas apropiadas de supervisión humana para minimizar el riesgo.
  • En resumen, que presenten un alto nivel de solidez, seguridad y precisión.

En esta clasificación entrarían todos los sistemas de identificación biométrica remota, para los que su uso en directo en espacios de acceso público con fines policiales está prohibido.

Riesgo limitado

Por ejemplo, los robots conversacionales. Con estos sistemas, basta (en principio) con que el usuario sea consciente de que habla con una máquina.

Riesgo mínimo o nulo

La mayor parte de los sistemas de IA entran en esta clasificación. Hablamos, por ejemplo, de los filtros inteligentes en el correo electrónico, en el uso de algoritmos de IA en los videojuegos y otros muchos usos cotidianos en los que la Comisión Europea no va a regular, puesto que no existen riesgos específicos para las personas.

Deja tu comentario sobre "Mejorar la confianza en la IA: así son las normas de gobernanza que propone la UE"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.