Cd. de México.- El avance de la Inteligencia Artificial (IA) es imparable en el entorno empresarial. Sin embargo, en México aún no existe un marco regulatorio ni ético que establezca límites claros sobre su uso para proteger el empleo y a los consumidores.
Entre 26 y 38 por ciento de los empleos en América Latina están expuestos a la IA generativa, y hacia 2030, 22 por ciento de los puestos cambiará, lo que eleva la presión sobre las áreas de recursos humanos (RH) para rediseñar funciones, roles y procesos de decisión, de acuerdo con la plataforma de RH Rankmi.
Por otro lado, 46 por ciento de los colaboradores considera que esta tecnología transformará su forma de trabajar y generará cambios en metas y objetivos de negocio, de acuerdo con una encuesta de PwC.
En este contexto, crece la preocupación de los trabajadores sobre su rol actual y su nivel de protección ante estos cambios.
El Parlamento Europeo adoptó la Ley de IA a mediados de 2024. Además, la legislación laboral europea exige que los empleadores consideren factores como la formación, el desarrollo de competencias y la participación de los empleados en la implementación de estas tecnologías.
En algunos países de la Unión Europea (UE) es obligatorio consultar a comités de empresa o sindicatos antes de introducir cambios significativos en los procesos de trabajo.
Consultada al respecto, la Secretaría del Trabajo (STPS) señaló que la regulación de la IA es un tema en análisis, aunque aún no existe un marco definido.
En su Guía para implementar la Inteligencia Artificial, la firma de capital humano Manpower advirtió que el principio ético central debe ser un uso de la IA centrado en el ser humano; es decir, que apoye -y no sustituya- el juicio y la toma de decisiones humanas.
Sin estos principios, pueden presentarse riesgos como que un modelo de reclutamiento favorezca a un grupo demográfico debido a datos de entrenamiento desequilibrados, por lo que las organizaciones deben monitorear estos riesgos mediante auditorías periódicas.
En paralelo, comienzan a surgir iniciativas sindicales para incorporar cláusulas en contratos colectivos que protejan el empleo frente a la automatización.
Es el caso del Sindicato Nacional Alimenticio y del Comercio (SNAC), presente en empresas como Bimbo, Alpura, Sabritas, Mondelez, Comex y Gamesa, que elaboró un clausulado relacionado con el uso de tecnologías en los procesos productivos y la protección del empleo.
En su propuesta, el sindicato plantea que la empresa deba notificar, con al menos 60 días naturales de anticipación, cualquier proyecto de transformación digital o tecnológica que pudiera afectar el empleo o modificar condiciones laborales.
También solicita que las decisiones sobre automatización o uso de IA no se implementen de manera unilateral.
No obstante, estas peticiones han encontrado resistencia empresarial.
"Las empresas a las que se lo hemos planteado han mostrado grandes resistencias. Hemos logrado incluir algunas cláusulas en contratos o reglamentos, pero esto refleja que muchas inversiones en tecnología y productividad contemplan reducir capital humano, y no quieren auditorías, observadores ni límites para proyectos de IA, robótica y automatización. La UE ya estableció un código explícito al respecto", afirmó Alejandro Martínez, líder del SNAC.
Otro de los dilemas éticos asociados a la IA es la equidad. Manpower advirtió que los sistemas pueden reforzar sesgos sociales existentes, ya que suelen entrenarse con datos que los reproducen.
Por ejemplo, un sistema que evalúa solicitudes de crédito podría discriminar por género o etnia si los datos de entrenamiento contienen sesgos.
También existen los llamados patrones oscuros (dark patterns), mediante los cuales se manipula a los usuarios para que tomen decisiones que quizá no adoptarían con información completa.
De acuerdo con Manpower, la IA puede amplificar estas prácticas cuando se utiliza para maximizar beneficios de corto plazo.
Un ejemplo es la fijación dinámica de precios basada en IA, que puede explotar sesgos psicológicos para inducir a los consumidores a pagar más.
Estos patrones ya están tipificados como ilegales en el marco normativo europeo, pero en México aún no existen disposiciones específicas al respecto.