LGBT+ Tecnología

Más allá de la tecnología: construyendo una IA que entienda y represente a todas las personas

IA

Redacción: MaJo Gutiérrez 

La iniciativa AllyAI, de la organización LGBT Tech, busca crear la primera certificación de inclusividad para sistemas de inteligencia artificial (IA). Su meta es clara: garantizar un futuro inclusivo con IA. Este esfuerzo es vital, ya que los sesgos en la IA han afectado históricamente a comunidades marginadas, incluyendo la LGBTIQA+. Cuando la IA se usa en campos críticos como la salud, seguridad o finanzas, estos sesgos pueden acentuar la discriminación. Christopher Wood de LGBT Tech subraya la preocupación de que esto lleve a la desconfianza tecnológica, y la necesidad de que la IA incluya la historia y las voces de todas las comunidades, para evitar que su información sea borrada. 

Sin embargo, expertos en IA responsable y derechos LGBTIQA+ tienen dudas sobre la viabilidad de una IA completamente libre de sesgos. Sabine Weber explica que los grandes modelos de lenguaje, al entrenarse con datos masivos y filtros básicos, replican el discurso dominante e infra representan a minorías. Además, los filtros a menudo eliminan expresiones legítimas, confundiéndose con contenido ofensivo. Eliminar estos sesgos por completo requeriría una validación de datos inmensa. Raj Korpan añade que los parches post-entrenamiento son insuficientes, especialmente cuando la IA se integra en sistemas como robots, donde pequeños sesgos pueden tener consecuencias graves. 

Ante esta complejidad, se sugiere buscar sistemas conscientes del sesgo (bias-aware) en lugar de libres de sesgo. Proponen auditorías continuas y transparentes, con representación activa de las poblaciones marginadas en el diseño y evaluación. Advierten sobre el riesgo de rainbow-washing, donde la certificación podría ser solo un truco de marketing. La certificación no debe ser un evento aislado; los modelos evolucionan, y con ellos, la definición de inclusión. Las empresas también deberían abrir su código al escrutinio público, educar a los usuarios y asegurar la diversidad en sus propios equipos de desarrollo. 

La integración de estos certificados con la regulación actual de la IA es otro desafío. La Ley de IA de la Unión Europea es un avance, pero tiene limitaciones al no abarcar completamente modelos generativos como ChatGPT. Esto preocupa a expertos como Weber, quien señala riesgos en usos críticos (ej. líneas de ayuda). Aunque la ley establece un marco básico, los certificados de AllyAI podrían complementar y elevar los estándares. Sin embargo, la incertidumbre política y la polarización global afectan a iniciativas como AllyAI, que han sufrido retrasos. Garantizar la independencia de los organismos reguladores y la representación diversa en la definición de criterios sigue siendo crucial para el futuro inclusivo de la IA. 

 

¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ

Conoce nuestra red ANCOP Network AQUÍ

Agregar comentario

Haga clic aquí para publicar un comentario