La inteligencia artificial está en el punto de mira de la ética y la desconfianza desde que se desarrollaron los primeros modelos matemáticos en la década de 1950. Alan Turing fue el primero en plantearse si una máquina podría pensar cuando diseñó su famoso test (el conocido como «juego de imitación»). A partir de su trabajo, los desarrollos en este campo se sucedieron a gran velocidad, aunque no tanta como en el imaginario popular.
La ciencia ficción, sobre todo, y las novelas y cuentos de Isaac Asimov, quien enunció en ellos las tres leyes de la robótica, espolearon la imaginación colectiva y plantearon escenarios con máquinas inteligentes en todo el espectro de emociones posible: desde las máquinas bondadosas, hasta las máquinas enemigas de la humanidad.
La realidad no llega a esos extremos, ni es previsible que lo haga a corto plazo. Sin embargo, ya resulta necesario establecer ciertas normas y reglas que cualquier dispositivo o máquina que se guíe por algoritmos de IA deberá cumplir.
En la actualidad, la IA nos puede abrir las puertas a avances impensables como el procesamiento del lenguaje natural, y también puede contribuir a hacernos la vida más fácil previniendo, por ejemplo, accidentes de tráfico.
El Reglamento sobre la IA de la Comunidad Europea
La Comunidad Europea planea una normativa que garantice a todos los ciudadanos de la UE que los desarrollos de inteligencia artificial que se realicen cumplan con los más estrictos estándares de fiabilidad y seguridad.
Así, la Comisión divide los sistemas de IA según su nivel de riesgo:
Riesgo inadmisible
Este tipo de sistemas estará prohibido. Se consideran sistemas de IA de riesgo inadmisible los que sean una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas.
Alto riesgo
Estos sistemas utilizan la IA en infraestructuras críticas, en la formación de las personas, en servicios públicos y privados esenciales, en la aplicación de leyes, en la gestión de la migración, el asilo y el control de las fronteras, entre otras aplicaciones. Estos sistemas están sujetos a ciertas obligaciones como:
- Que tengan sistemas adecuados de evaluación y mitigación de riesgos.
- Que se garantice la alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios.
- Que exista registro de la actividad para garantizar la trazabilidad de los resultados.
- Que dispongan de documentación detallada sobre el sistema y su finalidad para que las autoridades evalúen su conformidad.
- Que ofrezcan información clara y adecuada al usuario.
- Que tenga medidas apropiadas de supervisión humana para minimizar el riesgo.
- En resumen, que presenten un alto nivel de solidez, seguridad y precisión.
En esta clasificación entrarían todos los sistemas de identificación biométrica remota, para los que su uso en directo en espacios de acceso público con fines policiales está prohibido.
Riesgo limitado
Por ejemplo, los robots conversacionales. Con estos sistemas, basta (en principio) con que el usuario sea consciente de que habla con una máquina.
Riesgo mínimo o nulo
La mayor parte de los sistemas de IA entran en esta clasificación. Hablamos, por ejemplo, de los filtros inteligentes en el correo electrónico, en el uso de algoritmos de IA en los videojuegos y otros muchos usos cotidianos en los que la Comisión Europea no va a regular, puesto que no existen riesgos específicos para las personas.
Deja tu comentario sobre "Mejorar la confianza en la IA: así son las normas de gobernanza que propone la UE"