Una IA justa: cómo combatir los sesgos actuales y promover que sea más inclusiva

Comparte la noticia

Sin embargo, con su creciente presencia, surgen preguntas cruciales: ¿Es la IA inclusiva? ¿Cómo podemos abordar y mitigar los sesgos inherentes en sus sistemas? Además, resulta interesante abordar los principales desafíos y retos que plantea fomentar que sea más inclusiva desde el punto de vista de la consultoría tecnológica. El objetivo es reafirmar nuestro compromiso con una tecnología justa y equitativa para todos.

Origen de los sesgos en la IA

Los sesgos en la Inteligencia Artificial se originan principalmente en los datos con los que estos sistemas son entrenados. Si estos datos reflejan prejuicios humanos, los sesgos se trasladan a los algoritmos, perpetuando y amplificando las desigualdades existentes. Por ejemplo, existen sistemas de reconocimiento facial que funcionan mejor con personas de piel clara que con personas de piel oscura, o asistentes virtuales que responden de manera diferente a hombres y mujeres. Estos ejemplos no son casos hipotéticos; sino realidades documentadas y estudiadas, como se expone en el documental Coded Bias (Sesgo codificado) de Shalini Kantayya.

Uno de los casos más notorios es el de Dan Leveille, director de Product Marketing en Deviant Art. Según lo explicado por LGBT Tech, en 2022 solicitó al generador de imágenes Midjourney que produjera imágenes de 100 parejas homosexuales. El resultado fue 100 parejas casi idénticas: delgadas, jóvenes y abrumadoramente blancas, una representación que no refleja la diversidad de este colectivo.

Otra historia notable es la de Joy Buolamwini, investigadora del MIT Media Lab. Buolamwini descubrió que los sistemas de reconocimiento facial de algunas grandes empresas tecnológicas tenían dificultades para identificar correctamente su rostro debido a su piel oscura. Este hallazgo llevó a una mayor conciencia sobre los sesgos raciales en la tecnología de reconocimiento facial y forzó a varias empresas a revisar y mejorar sus algoritmos.

En Sopra Steria reconocemos que abordar estos sesgos es crucial para construir una inteligencia artificial que sea verdaderamente inclusiva. Nuestra posición es clara: no podemos permitir que la IA reproduzca o exacerbe las injusticias sociales. Por ello, incluimos la ética digital desde el diseño de cualquier producto o servicio de software.

Hacia una IA inclusiva

Trabajar para que la Inteligencia Artificial sea más inclusiva implica que los sistemas sean diseñados y entrenados para servir equitativamente a todas las personas, independientemente de su género, raza, etnia o cualquier otra característica. Para lograr esto, recomendamos una serie de principios y prácticas:

  • Promover la diversidad en los equipos de desarrollo. Es crucial fomentar la inclusión de profesionales de diferentes géneros, etnias y antecedentes culturales en los equipos que desarrollan y supervisan la IA. Un equipo diverso es más capaz de identificar y cuestionar sesgos que un equipo homogéneo podría pasar por alto. Además, implementar auditorías regulares de los algoritmos puede ayudar a detectar y corregir cualquier sesgo que pueda surgir durante el funcionamiento de estas herramientas.
  • Asegurar el uso de datos representativos y equilibrados. Esto implica, no solo obtener datos de diversas fuentes, sino también eliminar información que pueda introducir prejuicios. Realizar un análisis exhaustivo de los conjuntos de datos para identificar y mitigar cualquier forma de sesgo es esencial desde el inicio.
  • Fomentar la educación y la formación continua en ética de la IA. Los desarrolladores deben estar bien informados sobre las implicaciones éticas de su trabajo y ser proactivos en la mitigación de cualquier posible daño. Además, en muchos casos no debemos dejar la IA sin supervisión; será necesario una persona que confirme o matice las decisiones a tomar. Por ejemplo, al solicitar un crédito, corremos el riesgo de afrontar una seria crisis de reputación si una IA lo deniega basándose en un sesgo.
  • Aplicar transparencia y explicabilidad en los algoritmos. Éstos deben ser transparentes y sus decisiones explicables para que los usuarios y las partes interesadas puedan entender cómo y por qué una Inteligencia Artificial toma determinadas decisiones. La opacidad de los algoritmos puede ocultar sesgos y errores, lo que evidencia la necesidad de trabajar en un análisis que nos permita explicar y comprender mejor la IA.

La creación de una IA inclusiva es un desafío que requiere la colaboración de todas las partes interesadas: desarrolladores, empresas tecnológicas, reguladores y la sociedad en general. En Sopra Steria creemos firmemente que, al abordar estos aspectos clave y enfrentar estos retos, podemos aprovechar el verdadero potencial de la Inteligencia Artificial para el beneficio de toda la humanidad. La IA inclusiva no es solo una aspiración; es una responsabilidad y una oportunidad para crear un futuro mejor.


Comparte la noticia

Ya puedes descargar totalmente gratis el Nº8 de nuestra revista

Revista número 8 de ByTIC: ¿Qué aporta la tecnología 5G a la Administración Pública?

ByTIC Media