Por un banda, tiene sentido que las empresas utilicen la IA para escanear cientos o miles de currículums para encontrar candidatos (aunque es irónico cubo que Anthropic aconseja a los candidatos potenciales que no utilicen la IA para las solicitudes de empleo). Por otro banda, el uso de estas herramientas puede resultar desmoralizador para quienes buscan empleo. ¿Cómo filtra la IA a los candidatos? ¿Tuvo en cuenta toda su historia y experiencia? ¿Le negaron simplemente por usar la palabra o frase incorrecta? ¿Había poco más siniestro en gozne? Es difícil encontrar respuestas, pero es posible que se estén produciendo cambios en la forma en que se utilizan estos sistemas. A partir del 1 de octubre de 2025, el estado de California, a través del Consejo de Derechos Civiles de California, ha impuso restricciones al uso de la IA para decisiones laborales.
Las nuevas reglas establecen que la inteligencia sintético (IA) y los sistemas de audacia automatizados (ADS) pueden violar la ley de California si discriminan a empleados o solicitantes por características protegidas, como raza, antigüedad, credo religioso, condición, origen doméstico y discapacidades. Llegan como una remedio a la Ley de Vivienda y Empleo Calibrado de California (FEHA) y se aplican a cualquier empleador que utilice formas de toma de decisiones automatizada (ADM), como inteligencia sintético, estudios mecánico y procesos algorítmicos para ayudar a los humanos.
Si estos sistemas producen resultados sesgados (la IA puede estar sesgada para reverberar estereotipos), las empresas que los utilizan son legalmente responsables. Este reglamento incluso establece un ámbito para las empresas del estado. Por ejemplo, deben conservar registros sobre las decisiones automatizadas durante cuatro primaveras, incluidas las entradas y los resultados de la selección. Adicionalmente, los agentes externos contratados para la contratación se consideran “empleadores” a mercadería legales. Si un reclutador utiliza estos sistemas en nombre de la empresa, la empresa es responsable. Esto podría ser un gran problema para las principales plataformas de contratación, muchas de las cuales aprovechan la IA para acelerar y mejorar la contratación.
¿Qué significa esta nueva regulación de la IA?
En particular, cero en la regulación de California prohíbe el uso de estas soluciones automatizadas de toma de decisiones. Simplemente sienta un precedente para cómo deben estilarse responsablemente. Pero una forma que tienen las empresas de evitar esto, especialmente con el trabajo remoto, es simplemente no contratar en el estado; de hecho, eso es ¿Por qué muchas empresas marcan los estados como no elegibles?citando leyes laborales difíciles. La verdadera implicación de esta regulación es que estas tecnologías se están tomando más en serio en el frente federal y regulatorio. En todo caso, reconoce que los organismos de control necesitan implementar protecciones para asegurar que las herramientas y soluciones se utilicen sin violar nuestros derechos y de forma legalmente responsable.
En última instancia, a gran escalera, queda por ver cómo se interpretará y aplicará esta regulación, especialmente fuera del estado. En sinceridad, no proporciona respuestas a preguntas como “¿La IA positivamente comenzará a difundir empleos?” o tocar cómo está permeando a todas las industrias. Adicionalmente, será interesante ver si otros estados adoptan un enfoque similar. En términos de pruebas para asegurar que se sigan las reglas, la regulación establece pautas para que los empleadores demuestren que realizaron “pruebas anti-prejuicios o esfuerzos proactivos similares para evitar la discriminación ilegal” ayer y luego de adoptar estas soluciones. En otras palabras, depende de los empleadores asegurar que estas herramientas automatizadas de toma de decisiones se implementen correctamente y no aprovechen los sesgos integrados en la colchoneta del sistema.






