Tags:

¿Podemos confiar en la IA?

Una «carrera» en un taxi autodirigido por la autopista. ¿Y? ¿Te subirías? Esto ya no es una fantasía. Esto es sólo el principio. Está claro que no funcionará sin confianza. Sobre todo cuando la inteligencia artificial toma decisiones sensibles y críticas, tiene que ser fiable y sólida. Aquí puedes descubrir dónde acechan los riesgos del uso de la IA y cómo se pueden minimizar.

La IA puede manejar muchos datos mejor y más rápido, reconocer conexiones y encontrar errores. Pero los juicios de valor solo los pueden hacer los humanos, lo que demuestra las limitaciones de la IA.

Pavol Bauer, Senior Data Scientist, T-Systems International GmbH

 

¿Por qué es importante la confianza?

En nuestra vida personal y laboral, la confianza es el lubricante que garantiza una interacción fluida. Por lo general, sabemos muy bien en quién podemos confiar y a quién debemos evitar. También necesitamos estas capacidades cuando tratamos con la IA. Una cosa está clara: «entrenamos» a la IA con datos. Esto permitirá una mejora continua. Pero, ¿cómo toma las decisiones y por qué? ¿Por qué una persona falla en los criterios de selección para un trabajo y otra al solicitar un préstamo? Antes de poner un pie en un coche autónomo, quiero saber cómo se desenvolverá la IA en una situación de tráfico peligrosa. Así que tenemos que examinar más de cerca los algoritmos.

 

El algoritmo de la confianza

Los algoritmos no tienen ni ideología ni segundas intenciones. Los humanos tenemos la responsabilidad porque somos nosotros los que manipulamos. Pero, ¿quién decide lo que está bien o mal? El hecho es que necesitamos estándares, directrices, normas y seguridad para todo el ciclo de vida de la IA. De lo contrario, las cosas se volverán críticas. Los valores y las directrices son especialmente importantes en la sanidad o el sector público. Lo mismo ocurre con la seguridad. Por lo tanto, es crucial que los datos adquiridos para una IA se prueben en detalle, porque los algoritmos de machine learning sólo pueden entrenarse y reconocer patrones si se alimentan con datos precisos y de alta calidad. Si viajas con un coche autónomo, tienes que poder confiar en que tu vehículo puede reconocer de forma fiable todas las señales de tráfico. Por esta razón, cuando se trata de etiquetar datos, donde un humano explica al sistema de IA lo que hay en una foto, por ejemplo, no se puede permitir que nada salga mal. Por último, pero no menos importante, la IA también debe estar protegida contra los hackers para evitar influencias externas.

 

Reforzar la confianza en las tecnologías de IA

El 54% de los encuestados cree que la IA es capaz de tomar decisiones sesgadas

El 34% de los encuestados desearía que las decisiones de la IA fueran rastreables

El 42% de los encuestados sólo querrían que la IA como servicio se aplicara en áreas empresariales no críticas

El 69% de los encuestados estaría más dispuesto a decir la verdad a un humano que a una IA

 

¿Es buena o mala la Inteligencia Artificial?

¿Cuándo se puede confiar en la inteligencia artificial? ¿Qué propiedades debe tener para que se considere digna de confianza? El Parlamento Europeo está preparando el camino para la regulación de la IA. En 2019, la Comisión Europea presentó las directrices éticas para la IA digna de confianza. El Acta de la IA de 2021 hace referencia a ellas, según las cuales la IA digna de confianza tiene tres componentes:

  1. Es legal y cumple con todas las leyes y reglamentos aplicables.
  2. Es ética y garantiza la adhesión a los principios y valores éticos.
  3. Es robusta, tanto en términos técnicos como sociales, y no causa ningún daño, ni intencionado ni no intencionado.

Sólo cuando los tres componentes están presentes en todo el ciclo de vida de los sistemas de IA podemos hablar de una IA de confianza.

 

Receta para una IA de confianza

Una inteligencia artificial de confianza, que debe estar a la altura de la futura normativa, necesita cumplir otros criterios en casos individuales cargados de riesgo: la IA en cuestión debe ser explicable, es decir, los métodos por los que toma decisiones deben ser rastreables. Los sistemas no deben ser una caja negra, sino que deben ser transparentes.

La equidad también juega un papel muy importante: Los algoritmos fiables no discriminan a determinados grupos o individuos por prejuicios aprendidos. Los modelos fiables tienen en cuenta la autonomía humana, ya que queremos poder corregir sus decisiones.

Más allá de esto, también están la seguridad y la privacidad de los datos, en particular para la protección de los datos personales. Cada aspecto no es siempre igual de relevante para cada aplicación de IA: siempre hay que comprobar qué riesgos puede conllevar cada sistema.

Amenaza detectada…

… ¿amenaza evitada? En toda mi fascinación por las tecnologías innovadoras y, sobre todo, por la IA, siempre he sido consciente de sus riesgos y examino muy de cerca las tecnologías de IA en función del ámbito de aplicación. Volvamos al ejemplo de la conducción autónoma. Ya hemos avanzado mucho desde el punto de vista técnico. Hoy en día, los sistemas de asistencia ya están haciendo que nuestra conducción sea más eficiente, planificando nuestras rutas de forma más inteligente y, gracias a la tecnología de IA en la logística, están desplegando vehículos pesados con mayor frecuencia. ¿Por qué todavía no utilizamos exclusivamente la conducción autónoma? Porque el marco legal aún no está finalizado y hay una falta de confianza. Actualmente no podemos responder a todas las preguntas: ¿puedo estar seguro de que un coche de conducción autónoma detectará todos los obstáculos? ¿Responderá y tomará las decisiones adecuadas en cada situación? ¿Y quién es el responsable cuando algo va mal? Por supuesto, los humanos también cometen errores cuando conducen coches. Pero no perdonamos a las máquinas por sus errores.

 

Cuando se trata de inteligencia artificial, la confianza es una necesidad y no un extra opcional. (…) Nuestras disposiciones estarán preparadas para el futuro y abiertas a la innovación y solo intervendrán cuando sea absolutamente necesario, es decir, cuando entren en juego la seguridad y los derechos básicos de los ciudadanos de la UE.

Margarethe Vestager, Comisaria Europea de Competencia

 

¿Regulado por o para la IA?

¿Qué puede hacer la IA? No faltan catálogos de criterios que formulan el uso seguro de los métodos de aprendizaje automático y que se preocupan por la ética de las máquinas. Pero el Acta de la IA de la UE será el primer texto legislativo europeo que regule lo que la inteligencia artificial puede y no puede hacer. El objetivo: reducir el riesgo al aplicar la IA y reforzar así la confianza en los algoritmos. Se espera que la ley entre en vigor en 2023. Es probable que haya un año de gracia para que las empresas tengan tiempo de responder a los nuevos requisitos. Yo ya estoy recomendando a las empresas que empiecen a abordar estas disposiciones ahora. Es decir: dejar de discutir sobre ética, transparencia, seguridad y fiabilidad e integrar estos aspectos en todos los proyectos de IA desde el principio. Esto hará que la «IA made in Europe» sea más fiable y segura, evitará la discriminación y mejorará la ventaja competitiva de los proveedores europeos.

 

Todo es cuestión de riesgo

Para mí, el Acta de la IA es una herramienta especialmente importante: proporciona un marco regulador con validez global y ofrece mayor fiabilidad. Es precisamente la forma correcta de reforzar la confianza en la inteligencia artificial. La Acta de la IA divide las aplicaciones de IA en diferentes categorías de riesgo utilizando una escala móvil. Si el riesgo es inaceptable, prohíbe el uso de la solución de IA, lo que incluye, por ejemplo, la puntuación social por parte de los gobiernos. Si se detecta un riesgo elevado, la IA tiene que cumplir ciertos requisitos. El grueso de las aplicaciones entra en esta categoría, lo que incluye, por ejemplo, todas las soluciones relacionadas con la conducción autónoma. En última instancia, se trata de proteger la integridad de nosotros, los humanos. En cambio, lo que está en juego es mucho menos cuando se trata de IA con riesgos limitados (por ejemplo, en el caso de los chatbots) o mínimos (por ejemplo, los videojuegos).

 

¿Necesitan las empresas directrices sobre IA?

La respuesta es un sí rotundo. Y cuando digo eso, me refiero a que las empresas deben desarrollar sus propias directrices éticas vinculantes sobre la IA hoy en día. Sólo compraré los productos y servicios de una empresa o los recomendaré a otros si confío en ellos.

Nosotros también estamos comprometidos con la ética digital de Telekom, que constituye la base de la red de seguridad de la inteligencia artificial. Y vamos un paso más allá. Durante el desarrollo, ya tenemos en cuenta nuestras propias directrices de cumplimiento junto con las regulaciones existentes o futuras, como el Reglamento General de Protección de Datos, las Directrices de la UE o la Acta de la IA.

Cuando se trata de la recopilación de datos, nos preocupan las cuestiones relativas a la protección de datos, así como los posibles sesgos en el entrenamiento de los modelos y, durante el funcionamiento, protegemos la IA de los ataques de hackers o del uso indebido.

Cuando se trata del mantenimiento y el desarrollo posterior, nos aseguramos de que se cumplan todos los estándares y normas. Esto garantiza que la fiabilidad se convierta en el activo con el que los proveedores y las empresas europeas puedan ganar puntos.

 

Listos para su auditoría

Admitimos abiertamente que poner en práctica los principios y normas éticas no es fácil. Por eso, en el futuro queremos ofrecer a las empresas aún más apoyo en este ámbito. Por ejemplo, integrando los procesos para desarrollar una IA fiable en las herramientas de MLOps.

Si los requisitos de los catálogos de pruebas se tienen en cuenta durante el desarrollo, esto facilitará la presentación de pruebas durante una auditoría posterior y garantizará el desarrollo continuo de una inteligencia artificial fiable. También ofrecemos soluciones certificadas, como altavoces y chatbots inteligentes de nuestra suite de IA conversacional.

Fuimos una de las primeras empresas en probarlo según el catálogo de criterios de BSI para la IA de confianza (AIC4). No dude en ponerse en contacto conmigo directamente si quiere saber más.

 

Consejos para seguir leyendo sobre la IA

Y, por último, pero no por ello menos importante, aquí hay más material de lectura: El artículo de René Phan sobre las posibilidades de la tecnología y cómo dominar su aplicación es absolutamente imprescindible. O, si también empiezas a sospechar que nos están endilgando algunas estafas, es decir, la «IA falsa», entonces puede que te interese este artículo. Porque no todo lo que se llama IA es realmente IA.

En este sentido, se despide hasta la próxima, Torsten Deutsch.

 

Torsten Deutsch Senior Product Manager for big data and AI , T-Systems International GmbH

Deja tu comentario sobre "¿Qué errores puede cometer la IA?"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.