Tags:

El potencial de la inteligencia artificial es muy elevado. La herramienta se ha convertido en una de las soluciones tecnológicas con más potencial y en una en la que los responsables IT de las empresas confían para solucionar muchos de los retos corporativos. Al fin y al cabo, la IA puede lograr cosas tan variadas como crear obras de arte o adelantarse a los accidentes y mejorar la seguridad vial.

Pero, a pesar del elevado potencial de la inteligencia artificial, también existen unas cuantas voces críticas que alertan de lo que puede ser un problema grave. La IA debe cuidarse mucho de no caer en el sesgo algorítmico. El sesgo algorítmico lleva a que la inteligencia artificial llegue a conclusiones problemáticas y que no representan de forma real el mundo en el que opera, lo que ya ha arrastrado ya a algunas empresas a crisis de reputación por su culpa. Le pasó a Google no hace muchos años, por ejemplo, cuando su IA solo lograba identificar de forma eficiente las personas de color.

El impacto negativo del sesgo algorítmico no afecta únicamente a la reputación corporativa, sino también a la propia posición de la compañía en el mercado. En La mujer invisible, la investigadora Caroline Criado-Pérez demuestra cómo las empresas están olvidando a las mujeres en el diseño de sus productos, lo que supone una pérdida de oportunidades.

Por todo ello, las compañías deben esforzarse por evitar que su inteligencia artificial se vea afectada por los sesgos y para conseguir que sea lo más neutral posible. Lograrlo es posible: solo deben confiar en la tecnología más adecuada y apostar por las prácticas IT más acertadas.

Cómo evitar el sesgo en la IA

Las propias normativas que están emergiendo para regular la inteligencia artificial ya están creando entornos para hacer la IA más ética y neutral. Así, por ejemplo, las normativas de la Unión Europea ya crean un marco de gobernanza para la inteligencia artificial.  Aun así, las compañías pueden ir mucho más allá de lo que las normativas indican.

Para empezar, es muy importante contar con una política interna clara para la inteligencia artificial y la gestión de datos. La data governance es la pieza básica de este trabajo, ya que crea una política de datos incuestionable aplicable a todos los departamentos de la corporación y deja claro qué se debe hacer y qué no. Es, por así decirlo, los pilares sobre los que reposará el trabajo en IA de la empresa.

Para continuar, las propias compañías deben ser muy conscientes de los problemas que puede generar el sesgo algorítmico y trabajar para evitarlo. Una de las vías más importantes es la de crear una base de datos variada y rica.

La diversidad de datos se convierte en un elemento fundamental, porque contar con datos tan diversos como la sociedad que captura ayuda a que sus resultados sean realmente representativos del mundo al que intentará dirigirse la compañía. De hecho, la ausencia de datos es la base de muchos de los problemas asociados al sesgo: si las empresas no diseñaban productos con las mujeres en mente era porque, como demostraba en su libro Caroline Criado-Pérez, no recogían datos sobre sus experiencias.

Y, para finalizar, los responsables IT deben ser conscientes de que el problema no está realmente nunca finalizado. De forma constante deben hacer un autoexamen para asegurarse de que no se está cayendo nuevamente en sesgos y deben analizar de forma habitual sus fuentes de datos, para confirmar que son ricas, diversas y precisas.

Deja tu comentario sobre "Cómo evita la inteligencia artificial caer en los sesgos"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.