domingo, 13 de julio de 2025

IA para el bien, con advertencias: Cómo una oradora principal fue censurada durante una cumbre internacional de inteligencia artificial

IA para el bien, con advertencias: Cómo una oradora principal fue censurada durante una cumbre internacional de inteligencia artificial de la ONU por mencionar los ejemplos de Palestina, por usar el término "genocidio", el que los organizadores cambiaron a "crímenes de guerra" y por poner logos de algunas empresas de tecnología.

Traducción del artículo de Bulletin of the Atomic Scientists

Por Sara Goudarzi | 10 de julio de 2025





Ginebra, Suiza — El martes 8 de julio 2025, la plataforma insignia de las Naciones Unidas para la inteligencia artificial, La Cumbre Global AI for Good 2025, comenzó en Ginebra. Sin embargo, el inicio de la cumbre no estuvo exento de controversia.

Horas antes de que la oradora principal, Abeba Birhane—fundadora y líder del TCD AI Accountability Lab (AIAL) y una de las 100 personas más influyentes en IA según Time en 2023—subiera al escenario, los organizadores le pidieron que eliminara algunas de sus diapositivas.

En concreto, los organizadores querían que Birhane “eliminara cualquier mención a ‘Palestina,’ ‘Israel,’ y reemplazara ‘genocidio’ con ‘crímenes de guerra’” y “una diapositiva que explica el torrenteo ilegal de datos por parte de Meta.”

“Al final, la opción era eliminar todo lo que mencionaba nombres (especialmente de grandes tecnológicas) y quitar logotipos o cancelar mi charla,” escribió Birhane, cuya investigación se centra en el sesgo algorítmico y la ética y equidad en la IA, en una publicación de Bluesky.

Hablé con Birhane para entender lo que sucedió detrás de escenas, cómo esto socava el espíritu de la cumbre y cómo la industria puede mejorar para garantizar una implementación más justa de la IA en el campo.

Nota del editor: La discusión resultante ha sido editada y condensada para mayor claridad y brevedad.


Sara Goudarzi: Estabas preparada para dar una charla titulada “IA para el bien social: La nueva cara del tecno-solucionismo.” ¿Qué sucedió antes de subir al escenario?

Abeba Birhane: Recibí un correo temprano en la mañana para ensayar mi charla, programada para las 10:30 a.m. Llegué alrededor de las 8:00 a.m., y los organizadores elogiaron mi trabajo extensamente. Sin embargo, sentí que algo andaba mal. Finalmente, me informaron que no podía continuar con el contenido de mis diapositivas a menos que lo alterara significativamente o cambiara el formato a una charla informal. Ya había eliminado referencias a Gaza, Palestina, Israel, y reemplazado “genocidio” con “crímenes de guerra.” También me pidieron eliminar una diapositiva que conectaba a Meta con prácticas ilegales de torrenteo de datos. Al final, logré mantener una diapositiva, pero di la charla bajo un estrés inmenso.


Goudarzi: ¿Por qué era importante cubrir estos elementos en tu discurso?

Birhane: Todo lo que presenté estaba respaldado por evidencia empírica o análisis disponibles públicamente. Destaqué cómo corporaciones como Microsoft, Amazon, Google y Palantir trabajan con regímenes autoritarios para proporcionar tecnologías que alimentan la guerra y la injusticia. La Cumbre AI for Good afirma centrarse en los objetivos de desarrollo sostenible, pero el ODS 16 (paz y justicia) está muy lejos de cumplirse. Es hipócrita que las corporaciones promuevan la IA para el bien social mientras simultáneamente habilitan la guerra.


Goudarzi: ¿Qué dice este incidente sobre la cumbre y la industria de la IA en general?

Birhane: Estoy profundamente decepcionada. La cumbre se siente más como un evento corporativo de tecnología que como una plataforma para el bien social. Está dominada por ejecutivos y CEOs tecnológicos, avanzando intereses corporativos en lugar de un impacto social significativo. El enfoque en números de asistencia y patrocinios eclipsa la mejora real de las vidas en el terreno.


Goudarzi: ¿Crees que esto refleja a la industria de la IA en general?

Birhane: Sí, parece que la cumbre ha abrazado completamente la agenda de la industria de la IA. Las demostraciones están llenas de robots, y las charlas están dominadas por ejecutivos tecnológicos. Esto no es solo un reflejo de la industria—es la industria misma.


Goudarzi: Parte de tu investigación se centra en cómo la IA excluye a comunidades marginadas. ¿Cómo se relaciona este incidente con eso?

Birhane: Es desalentador. Como mujer negra, ser censurada después de ser invitada a hablar es inaceptable. Resalta los problemas sistémicos de descartar ciertas comunidades en el desarrollo y discurso de la IA.


Goudarzi: ¿Qué puede hacer la industria para servir mejor a la población en general? ¿Cómo puede la IA ser verdaderamente utilizada para el bien?

Birhane: La IA, particularmente la IA generativa, actualmente causa un daño significativo—destrucción ambiental, modelos de negocio explotadores y prácticas laborales poco éticas. Para hacer que la IA sea beneficiosa, necesitamos cambios fundamentales: modelos más pequeños y específicos, regulación más estricta y un alejamiento de los impulsos capitalistas. La IA debería ayudar a las personas, no castigarlas. Por ejemplo, en lugar de algoritmos de reincidencia, podríamos desarrollar herramientas para ayudar a rehabilitar a ex presos. Sin embargo, tales iniciativas a menudo no son rentables, por lo que se ignoran.


Goudarzi: ¿Participarás en otro evento de AI for Good?

Birhane: Es poco probable que me inviten de nuevo. Esta experiencia me ha hecho cuestionar el compromiso de la cumbre con sus objetivos declarados.



No hay comentarios:

Publicar un comentario

Dirijo uno de los principales grupos de derechos humanos en Israel. Nuestro país está cometiendo genocidio.

  Mi generación creció preguntándose cómo la gente común podía tolerar una atrocidad. En un giro grotesco, esa pregunta ha vuelto a nosotros...