Empleados de IA de Google buscan sindicalizarse por miedo al uso militar
Existe temor a que los avances en IA deriven en aplicaciones bélicas.

Este martes, empleados de DeepMind, con sede en Londres, solicitaron formalmente a la dirección el reconocimiento de representación sindical ante su creciente preocupación por el posible uso militar de la tecnología que desarrollan.
La petición se produce en un contexto de creciente colaboración entre grandes tecnológicas y el aparato de defensa de Estados Unidos. Google figura entre las compañías que han alcanzado acuerdos con el Departamento de Defensa de Estados Unidos para participar en operaciones clasificadas, incluidas aquellas vinculadas al campo de batalla.
Preocupación por el uso militar de IA
El detonante de la movilización ha sido el temor de que los avances en IA puedan derivar en aplicaciones bélicas.
“El personal de Google está preocupado por el uso que se dará a esta tecnología”, señaló el sindicato Communication Workers Union (CWU), una de las dos organizaciones que buscan reconocimiento formal dentro de DeepMind, junto con Unite the Union.
Según el CWU, los acuerdos recientes podrían “abrir el camino a armas autónomas y a una vigilancia masiva de los estadounidenses”, una posibilidad que ha intensificado el debate ético en el sector tecnológico. Los trabajadores insisten en que su objetivo es convertir a DeepMind en “el primer laboratorio de IA de vanguardia en el mundo con representación sindical reconocida”.
Exigencias laborales
Más allá del reconocimiento sindical, los empleados han planteado demandas concretas que apuntan a establecer límites en el uso de la tecnología. Entre ellas, destacan su oposición al uso de herramientas desarrolladas por la empresa en conflictos internacionales, incluyendo su posible utilización por parte de Israel o del ejército estadounidense.
Asimismo, exigen que no se desarrollen “armas o herramientas de vigilancia basadas en IA” y proponen la creación de un órgano independiente que supervise las implicaciones éticas de los proyectos. Otro punto clave es el derecho individual de los trabajadores a negarse a participar en iniciativas que contravengan sus principios morales.
Estas demandas reflejan una creciente tendencia dentro de la industria tecnológica, donde los empleados buscan mayor injerencia en las decisiones estratégicas de sus compañías, especialmente cuando estas tienen implicaciones geopolíticas o de derechos humanos.
Ultimátum a la dirección
En una carta dirigida a la dirección de DeepMind, los trabajadores han establecido un plazo de diez días para obtener una respuesta formal. En caso contrario, advierten que iniciarán “un procedimiento jurídico formal” para forzar el reconocimiento sindical.
Hasta el momento, ni DeepMind ni Google han emitido una respuesta oficial a esta solicitud, pese a haber sido consultados por medios internacionales.
El conflicto actual remite a un antecedente relevante dentro de la propia Google. En 2018, una fuerte movilización interna llevó a la compañía a retirarse del proyecto Maven, una iniciativa del Pentágono orientada al análisis de imágenes de drones mediante inteligencia artificial.
Ese episodio marcó un punto de inflexión en la relación entre los trabajadores tecnológicos y las aplicaciones militares de sus desarrollos, consolidando una conciencia colectiva sobre el impacto de la IA más allá del ámbito comercial.
Hoy, el caso de DeepMind reabre esa discusión en un contexto aún más complejo, donde la carrera global por la inteligencia artificial se entrelaza con intereses estratégicos y de seguridad nacional.
La resolución de este conflicto no solo definirá el futuro laboral dentro de uno de los laboratorios más avanzados del mundo, sino que también podría sentar un precedente sobre el papel de los trabajadores en la gobernanza ética de la tecnología.
asc