El potencial de la inteligencia artificial es muy elevado. La herramienta se ha convertido en una de las soluciones tecnológicas con más potencial y en una en la que los responsables IT de las empresas confían para solucionar muchos de los retos corporativos. Al fin y al cabo, la IA puede lograr cosas tan variadas como crear obras de arte o adelantarse a los accidentes y mejorar la seguridad vial.
Pero, a pesar del elevado potencial de la inteligencia artificial, también existen unas cuantas voces críticas que alertan de lo que puede ser un problema grave. La IA debe cuidarse mucho de no caer en el sesgo algorítmico. El sesgo algorítmico lleva a que la inteligencia artificial llegue a conclusiones problemáticas y que no representan de forma real el mundo en el que opera, lo que ya ha arrastrado ya a algunas empresas a crisis de reputación por su culpa. Le pasó a Google no hace muchos años, por ejemplo, cuando su IA solo lograba identificar de forma eficiente las personas de color.
El impacto negativo del sesgo algorítmico no afecta únicamente a la reputación corporativa, sino también a la propia posición de la compañía en el mercado. En La mujer invisible, la investigadora Caroline Criado-Pérez demuestra cómo las empresas están olvidando a las mujeres en el diseño de sus productos, lo que supone una pérdida de oportunidades.
Por todo ello, las compañías deben esforzarse por evitar que su inteligencia artificial se vea afectada por los sesgos y para conseguir que sea lo más neutral posible. Lograrlo es posible: solo deben confiar en la tecnología más adecuada y apostar por las prácticas IT más acertadas.
Cómo evitar el sesgo en la IA
Las propias normativas que están emergiendo para regular la inteligencia artificial ya están creando entornos para hacer la IA más ética y neutral. Así, por ejemplo, las normativas de la Unión Europea ya crean un marco de gobernanza para la inteligencia artificial. Aun así, las compañías pueden ir mucho más allá de lo que las normativas indican.
Para empezar, es muy importante contar con una política interna clara para la inteligencia artificial y la gestión de datos. La data governance es la pieza básica de este trabajo, ya que crea una política de datos incuestionable aplicable a todos los departamentos de la corporación y deja claro qué se debe hacer y qué no. Es, por así decirlo, los pilares sobre los que reposará el trabajo en IA de la empresa.
Para continuar, las propias compañías deben ser muy conscientes de los problemas que puede generar el sesgo algorítmico y trabajar para evitarlo. Una de las vías más importantes es la de crear una base de datos variada y rica.
La diversidad de datos se convierte en un elemento fundamental, porque contar con datos tan diversos como la sociedad que captura ayuda a que sus resultados sean realmente representativos del mundo al que intentará dirigirse la compañía. De hecho, la ausencia de datos es la base de muchos de los problemas asociados al sesgo: si las empresas no diseñaban productos con las mujeres en mente era porque, como demostraba en su libro Caroline Criado-Pérez, no recogían datos sobre sus experiencias.
Y, para finalizar, los responsables IT deben ser conscientes de que el problema no está realmente nunca finalizado. De forma constante deben hacer un autoexamen para asegurarse de que no se está cayendo nuevamente en sesgos y deben analizar de forma habitual sus fuentes de datos, para confirmar que son ricas, diversas y precisas.
Deja tu comentario sobre "Cómo evita la inteligencia artificial caer en los sesgos"