1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7.  
  8.  
  9.  
  10.  
  11.  
  12.  
  13.  
  14.  
  15.  
  16.  
  17.  
  18.  
  19.  
  20.  

Gestão: Pessoas e Trabalho – 92

03 de julho de 2023
Informativo
Milhares de ações na Justiça citam a LGPD

Publicado em 30 de junho de 2023

63,3 mil ações sobre o assunto foram ajuizadas na Justiça do Trabalho, entre 2017 e 2022.

Levantamento da plataforma de jurimetria Data Lawyer, feito a pedido do escritório Trench Rossi Watanabe, mostra que 63,3 mil ações na Justiça do Trabalho, ajuizadas entre 2017 e 2022, citam a LGPD, a Lei Geral de Proteção de Dados (nº 13.709, de 2018). Desse total, 59 mil foram apresentadas após 2020, nos anos da pandemia da covid-19.

Essa explosão no número de casos, segundo a advogada Leticia Ribeiro, sócia do Trench Rossi Watanabe, coincide com a entrada em vigor da LGPD. Embora publicada em agosto de 2018, a norma só entrou em vigor dois anos depois, em 2020.

Os processos na Justiça do Trabalho tratam, em geral, de dados dos funcionários que supostamente teriam sido vazados. Em um dos casos, uma varejista foi condenada a indenizar uma trabalhadora, que teve o número do telefone pessoal divulgado no site de vendas da empresa.

A decisão foi proferida pelo Tribunal Regional do Trabalho de Minas Gerais (TRT-MG). A empregada relatou, no processo, que chegou a receber ligações de clientes às 4 horas da madrugada (processo nº 0010337-16.2020.5.03.0074).

Uma empresa do setor sucroenergético da região de Ribeirão Preto (SP) também foi condenada em sentença a indenizar um funcionário que constava em uma lista de pessoas que seriam demitidas, com a quantidade de horas extras de cada funcionário. A relação “vazou” em um grupo de WhatsApp do qual faziam parte vários trabalhadores.

No caso, o juiz entendeu que houve violação à LGPD, porque os dados interessam apenas ao trabalhador e ao empregador. “Sua exposição de maneira indiscriminada viola a privacidade do empregado, acarretando em comparações e até mesmo discriminações, causando ao trabalhador dano moral, que encontra disposição expressa no artigo 42 da LGPD”, afirma, na sentença, o juiz Rodrigo Penha Machado, do posto avançado da Justiça do Trabalho de Orlândia em Morro Agudo (processo nº 0010145-28.2020.5.15.0146).

Hoje, segundo o advogado Fabio Medeiros, do escritório Lobo de Rizzo, uma das discussões mais comuns sobre LGPD está relacionada a dados de geolocalização do aparelho celular do funcionário para comprovação de locais e horários de trabalho. “Esse tipo de prova é fundamental. Basta que os tribunais atribuam sigilo a elas no processo, para não desrespeitarem a LGPD”, diz.
Fonte: Valor Econômico

 

Cresce uso de inteligência artificial em reclamações trabalhistas

Publicado em 30 de junho de 2023

Sete mil ações foram ajuizadas com o termo entre 2017 e 2022, segundo estudo.

A inteligência artificial – até mesmo o polêmico ChatGPT – tem sido cada vez mais adotada nas reclamações trabalhistas. Levantamento da plataforma de jurimetria Data Lawyer mostra um aumento de quase 800% no volume de processos que citam o termo. Ferramentas aparecem nas petições para embasar os pedidos ou para requisitar provas.

Entre 2017 e 2022, foram ajuizadas 7.032 ações trabalhistas contendo os termos “inteligência artificial” ou “artificial intelligence”, segundo o levantamento, feito a pedido do escritório Trench Rossi Watanabe. Desse total, 6,2 mil processos foram ajuizados de 2020 para cá, em meio à pandemia da covid-19. Antes de 2020, eram apenas 802 processos.

Esse boom no volume de ações a partir de 2020, segundo a advogada Leticia Ribeiro, sócia do escritório Trench Rossi Watanabe, pode ser justificado por uma aceleração no contato com novas tecnologias durante o período de isolamento.

Os processos que citam inteligência artificial tratam, em geral, do uso de ferramentas de geolocalização, para embasar pedidos de horas extras em trabalhos externos, ou de produção de provas digitais, como o uso de informações postadas em redes sociais ou armazenadas em celulares.

O ChatGPT é citado em pelo menos duas ações trabalhistas. Foi utilizado para buscar informações ou definição sobre determinada expressão – em uma função praticamente de dicionário.

“Empresas devem se antecipar e pensar em políticas internas e treinamentos”

Em uma das ações, o ChatGPT foi adotado, na elaboração da petição, para esclarecer as atribuições de um promotor de vendas. O processo tramita no Tribunal Regional do Trabalho de Pernambuco (nº 0000848-38.2021.5.06.0008).

Na outra ação, é utilizado na petição inicial para refutar a fundamentação de um laudo pericial sobre a definição de “determinante genético”. “É isso que se aprende no ensino médio. É o que se tem no Google. O Chat GPT não diverge”, diz o texto. O caso corre na 10ª Vara do Trabalho de Belo Horizonte (processo nº 0010008-31.2022.5.03.0010).

De acordo com o advogado Fabio Medeiros, sócio do escritório Lobo de Rizzo, o tema da inteligência artificial, por enquanto, aparece nos processos mais como “tecnologia de deslocamento” – como pedidos de geolocalização. “Ainda não se tem visto ações voltadas às novas ferramentas como ChatGPT. Como discussões que deverão aparecer sobre a elaboração de documentos por empregados pela inteligência artificial, sem o conhecimento do empregador”, diz.

O que se vê até agora, acrescenta, são pedidos de produção de provas, via geolocalização, para comprovar horas extras fora do ambiente de trabalho. Nesses casos, ainda não há uma jurisprudência consolidada, afirma o advogado, mas uma tendência maior em negar esses pedidos. “Com a justificativa de que esses dados violariam a intimidade do empregado ou esbarrariam em informações protegidas pela lei Geral de Proteção de Dados (LGPD).”

Há decisões, nesse sentido, nos tribunais regionais do trabalho de São Paulo, Rio de Janeiro e Minas Gerais. No TRT-SP, a Seção de Dissídios Individuais – 8 negou pedido por entender que seria abuso de poder e violaria a intimidade e privacidade do empregado. Para os desembargadores, a medida só poderia ser adotada para apuração de infração penal. O processo (nº 1002600-63.2021.5.02.0000) já transitou em julgado.

No TRT-MG, a 1ª Seção de Dissídios Individuais entendeu que fornecer dados de geolocalização ofenderia o sigilo telemático e a privacidade (processo nº 0011155-59.20 21.5.03.0000). Há decisões semelhantes no TRT-RJ (processos nº 0100209-56.2022.5.01.0000 e nº 0100087-40.2017.5.01.0284).

Hoje, segundo Leticia Ribeiro, do Trench Rossi Watanabe, os departamentos de recursos humanos vêm utilizando de maneira crescente ferramentas de inteligência artificial, como o ChatGPT – adotado na parte de recrutamento, para fazer descrição de função e coletar dados. A área também vem aproveitando a IA, acrescenta, para controle automático de currículos, por exemplo.

O lado positivo dessa automação, afirma a advogada, é a possibilidade de profissionais ficarem mais dedicados a questões estratégicas. “O lado negativo é que esses algoritmos ainda não conseguem tratar de questões sensíveis, e podem gerar um viés inconsciente.”

Apesar do crescimento do uso da inteligência artificial, o assunto ainda segue sem regulamentação no Brasil. Existem pelo menos cinco projetos de lei sobre o tema no Congresso. O mais atual, e que segue na mesma linha da proposta da União Europeia, é o de nº 2338, de 2023, do senador Rodrigo Pacheco (PSD/MG).

De acordo com advogados, a Europa deve aprovar em breve o “IA Act”, norma que deve servir de orientação para as empresas sobre os limites da utilização dessas novas ferramentas.

O PL 2338 cria regras para que os sistemas de inteligência sejam disponibilizados no Brasil, estabelecendo os direitos das pessoas afetadas por seu funcionamento. Pela proposta, essas ferramentas deverão passar por uma avaliação feita pelos próprios fornecedores para determinar se podem ser classificadas como de alto risco ou risco excessivo.

O projeto já lista sistemas que serão considerados de alto risco, como classificação de crédito, identificação de pessoas, administração da Justiça, implementação de veículos autônomos, diagnósticos e procedimentos médicos, tomada de decisões sobre acesso a emprego, a ensino, ou a serviços públicos e privados essenciais, entre outros.

Também define critérios para o uso desses sistemas pelo poder público, prevendo punições para as eventuais violações à lei. A quebra das regras previstas poderá acarretar multa de até R$ 50 milhões por infração ou até 2% do faturamento, no caso de empresas.

A multa prevista, que pode ser altíssima, vai na mesma linha da já aprovada LGPD, também inspirada na lei europeia, e que prevê esse mesmo valor de até R$ 50 milhões por infração.

Enquanto não há regulamentação no Brasil, advogados afirmam que as empresas devem tomar alguns cuidados em suas políticas internas e fornecer treinamento aos funcionários.

A advogada Leticia Ribeiro diz que, no caso de empresas que usam inteligência artificial, por exemplo, é preciso ter certeza que não fornecerá dados de maneira enviesada, que possam eliminar candidatos com uma tomada de decisão discriminatória, fora do contexto ESG ou que violem práticas responsáveis de inclusão e diversidade para as empresas. “Elas precisam ter alguma forma de controle”, afirma.

Fabio Medeiros, do Lobo de Rizzo, recomenda que as companhias passem a se antecipar e pensem em políticas internas e treinamentos que tratem dos limites para o uso da inteligência artificial no trabalho. Se, por exemplo, seria permitido o uso de inteligência artificial na elaboração de textos.

Também deve haver, diz o advogado, uma preocupação com as informações que serão fornecidas a essas ferramentas. “O empregado vai lançar dados em uma plataforma que não tem mais controle. E nesse caso também existe o risco de vazamento de dados do próprio empregado, da empresa, de fornecedores, o que pode afetar diretamente nas regras de privacidade da LGPD.”
Fonte: Valor Econômico
 
 


somos afiliados: