martes, 19 de julio de 2022

LABORAL / RELACIÓN DE EMPLEO. Chile. Ley regulador del Contrato de Trabajadores de Empresas Digitales.

La no discriminación de algoritmos en el trabajo y desafíos de la Ley N°21.431

Con fecha 11 de marzo del año 2022 se publicó la Ley N°21.431 que “Modifica el Código del Trabajo Regulando el Contrato de Trabajadores de Empresas Digitales de Servicios”, la cual tiene por principal objeto regular, de manera innovadora y trascendente en nuestra región, la situación ajurídica producida por la aparición de nuevas tecnologías en el plano del trabajo desde hace algunos años, principalmente por las denominadas “economías colaborativas” que prestan servicios en algunas áreas como delivery o transporte, entre ellas PedidosYa, UberEats, Rappi, Beat, Uber, Cabify, DiDi, Yummy Rockets, entre otras.

 

Se destaca que esta normativa vino en agregar al Código del Trabajo un artículo de gran trascendencia, no solo en el ámbito del trabajo, sino que también en el avance de la regulación de la Inteligencia Artificial en nuestra legislación, siendo así la primera norma en prohibir la discriminación por parte de los algoritmos, encontrándose así en lineamiento con las políticas de la Unión Europea[1].

 

Estipula así el nuevo artículo 152 quinquies E del Código del Trabajo una prohibición de discriminación por parte de los mecanismos automatizados en la toma de decisiones. Establece que, en la implementación de los algoritmos, la empresa de plataforma digital de servicios deberá respetar el principio de igualdad y el de no discriminación y para ello, tomará todas las medidas y resguardos que sean necesarios con el fin de evitar cualquier tipo de discriminación entre los trabajadores, particularmente en la asignación de trabajo, oferta de bonos e incentivos, cálculo de remuneraciones, entre otros. Asimismo, también será considerada discriminación la conducta del empleador aparentemente neutra, y cuyo resultado afecte desproporcionadamente a uno o más trabajadores.

 

Sin perjuicio de que en nuestra legislación ya se ha estipulado el principio de no discriminación en diversos cuerpos normativos, como el artículo 19 N°2 de la Constitución Política de la República, la Ley N°20.069 que establece medidas contra las discriminaciones arbitrarias, y el mismo artículo 2 inciso tercero del Código del Trabajo, llama la atención la creación de este artículo, debido a que desde el desarrollo de este principio, el legislador lo ha abordado solamente desde la perspectiva de las relaciones humanas y nunca en la interacción entre una persona y un programa, o bien en este caso entre un trabajador y una aplicación.

 

De este modo, el acto discriminatorio conlleva un reproche doble por parte del legislador, por un lado, el daño o perjuicio causado al sujeto pasivo en razón de la discriminación arbitraria que ha intervenido y por otro lado, se reprocha el acto del sujeto activo, por el contenido anti ético que subyace en este. Asimismo, en virtud de dicho acto, es que nace la necesidad de dar, hacer o no hacer algo por parte del sujeto activo a favor del sujeto pasivo, en orden de reestablecer la situación antijurídica producida.

 

Ahora bien, en el caso de los algoritmos, se desvanece la existencia del segundo elemento del reproche social y jurídico de la discriminación, debido a que es claro que los algoritmos, faltos de conciencia, no pueden discriminar con una intención, sino que en el caso de haberlo hecho es por la existencia de una “falla” o sesgo (bias) en la programación.

 

Los sesgos o bias en Inteligencia Artificial consisten en una anomalía en el producto de los algoritmos debido a suposiciones erradas realizadas durante el proceso de desarrollo del algoritmo, por la comisión de un error en el proceso de entrenamiento del algoritmo o debido a la aplicación del algoritmo a una muestra de datos no concordante con los datos utilizados anteriormente. Así, es posible observar diversos tipos de sesgos, entre ellos se distinguen el sesgo de interacción (interaction bias), el sesgo latente (latent bias) y el sesgo de selección (selection bias). [2] Por ejemplo, hipotéticamente podría ocurrir que una de las plataformas de delivery comience a otorgar más encargos a algunos trabajadores por sobre otros en razón de su nacionalidad, debido a que algunos trabajadores de cierta nacionalidad han resultado ser más rápidos al momento de entregar los pedidos.

 

En razón de todo lo anterior, cabe dilucidar el régimen de responsabilidad a aplicar frente a la comisión de los actos del algoritmo que han perjudicado a un tercero, en este caso, actos de tipo discriminatorio. La doctrina y jurisprudencia internacional ha discutido mucho sobre este punto, planteándose diversas alternativas, entre estas se ha propuesto la utilización de la responsabilidad por el hecho de las cosas, la responsabilidad por el hecho de los animales y otorgarle algún tipo de estatuto de personalidad al algoritmo.[3] Sin perjuicio de la falta de consenso en la forma por la cual se debe responder en la presente materia, es indiscutible que alguien debe responder por los actos de las máquinas, para el caso en comento, el empleador.

 

En la misma línea, pareciera ser que lo lógico sería la implementación de un régimen de responsabilidad en el que el empleador -en este caso la Empresa de Plataformas Digitales de Servicios- responda por cualquier acto de discriminación realizado por el algoritmo, tal como si lo hubiese hecho por sí mismo, a pesar de no existir intención de ejecutar un acto discriminatorio. Sin embargo, el legislador en la segunda parte del inciso primero del Artículo 152 quinquies E del Código del Trabajo pareciera haberse inclinado por una moderación del régimen anterior, transformando la obligación de no discriminación del algoritmo del empleador a una obligación de medios: “Para ello, tomará todas las medidas y resguardos que sean necesarios con el fin de evitar cualquier tipo de discriminación entre los trabajadores, particularmente en la asignación de trabajo, oferta de bonos e incentivos, cálculo de remuneraciones, entre otros.”

 

En este sentido, la incorporación de esta norma a nuestra legislación implica un doble desafío. Por un lado, los Tribunales de Justicia una vez entre en vigencia la Ley N°21.431 (el 01 de septiembre de 2022), deberán plantear mediante la jurisprudencia, la aplicación del régimen de responsabilidad correspondiente y sus alcances a los actos provocados por los algoritmos, además del alcance de la obligación de no discriminar para el empleador en dicho ámbito y los medios por los cuales se podrá eximir de responsabilidad el empleador por la comisión de dichos actos.

 

Por otro lado, si bien el legislador ha establecido la posibilidad de que las Empresas de Plataformas Digitales de Servicios puedan eximirse de responder por actos discriminatorios realizados por los algoritmos propios, mediante la utilización de medidas y resguardos que demuestren haber intentado evitar la existencia de una discriminación, no se han establecido los métodos por los cuales se da cumplimiento a dicho supuesto legal. En este sentido, las empresas nacionales deberán observar los controles que se encuentran utilizando actualmente las empresas extranjeras para mitigar los riesgos de la discriminación, y definir un método de generación de evidencia de dichos controles, lo cual podrá ser mediante la realización de auditorías, revisiones periódicas de la codificación del programa y las bases de datos utilizadas, entre otros métodos. [4]

[1] Resolución del Parlamento Europeo de fecha 20 de octubre del año 2020, sobre el “Marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”.

[2] Amunategui Perelló, Carlos (2021): “Arcana Technicae, El derecho y la Inteligencia artificial” pg. 58.

[3] Amunategui Perelló, Carlos (2021): “Arcana Technicae, El derecho y la Inteligencia artificial” pg. 91.

[4] Resolución 112 de fecha 12 de agosto de 2019 de la American Bar Association.

No hay comentarios:

Publicar un comentario