Introdução
O avanço das tecnologias de inteligência artificial (IA) no ambiente corporativo trouxe benefícios significativos para a produtividade e a tomada de decisões mais assertivas. Ferramentas baseadas em IA vêm sendo utilizadas para automação de tarefas, análise de desempenho, triagem de currículos, suporte ao cliente, e, mais recentemente, para o monitoramento do comportamento e produtividade dos colaboradores.
No entanto, essas inovações levantam importantes questionamentos jurídicos, especialmente em relação à privacidade, à proteção de dados pessoais e à conformidade com a Lei Geral de Proteção de Dados (LGPD).
O Monitoramento de funcionários e os limites legais
A IA permite um nível de monitoramento de funcionários sem precedentes, desde o acompanhamento de atividades em softwares até a análise de padrões de comunicação, permitindo que a empresa direcione as contratações por meio de filtros algorítmicos, além de prever comportamentos e tendências internas.
No entanto, apesar dos ganhos operacionais, em especial a maior eficiência e a segurança da informação, quando se trata de vigilância e monitoramento, a conduta empresarial encontra limites constitucionais e legais, esbarrando nos direitos fundamentais dos trabalhadores. No Brasil, a Constituição Federal assegura a privacidade, a honra e a imagem das pessoas (art. 5º, X e XII da CF/88).
O monitoramento dos empregados deve ser exercido com razoabilidade e em estrita observância dos limites legais, sob pena de configurar invasão de privacidade, inconformidade com a LGPD ou até mesmo assédio moral, gerando um passivo trabalhista para a empresa.
Por isso, é crucial que as políticas internas de uso de IA definam claramente os propósitos e a extensão do monitoramento. As empresas devem justificar a necessidade da coleta de dados, informando os funcionários de forma transparente sobre quais informações serão monitoradas, como serão utilizadas e por quanto tempo serão armazenadas. A finalidade específica e legítima é um pilar para a legalidade dessa prática. Além disso, é fundamental que o monitoramento seja proporcional e não discriminatório, evitando que a IA seja utilizada para práticas abusivas ou para inferir características pessoais sensíveis dos colaboradores.
Produtividade e o equilíbrio com a saúde mental
A promessa de aumento da produtividade é um dos maiores atrativos da IA no ambiente corporativo. Ferramentas de IA podem automatizar tarefas repetitivas, analisar grandes volumes de dados e até mesmo auxiliar na tomada de decisões estratégicas. Contudo, essa otimização não pode vir à custa da saúde e bem-estar dos colaboradores.
A pressão por um desempenho otimizado pela IA pode levar a um ambiente de trabalho estressante e desumano. É possível que algoritmos estabeleçam metas de produtividade inatingíveis ou monitorem o ritmo de trabalho de forma opressiva.
No entanto, não se pode esquecer que a empresa tem o dever legal, previsto na CLT e nas normas regulamentadoras, de zelar pela saúde física e mental de seus funcionários. Portanto, as políticas internas devem estabelecer diretrizes sobre o ritmo de trabalho mediado por IA, assegurando pausas adequadas, limites de jornada e mecanismos para que os funcionários possam contestar avaliações de desempenho baseadas exclusivamente em métricas algorítmicas.
A saúde ocupacional, e neste conceito se inclui a saúde física e mental, deve ser um dos pilares centrais na implementação da IA.
A LGPD e os princípios da proteção de dados pessoais
A Lei Geral de Proteção de Dados (LGPD) é o principal marco legal a ser observado na elaboração de políticas de IA no ambiente de trabalho. A IA, por sua natureza, lida com grandes volumes de dados, muitos dos quais são dados pessoais dos funcionários. A LGPD exige que o tratamento de dados pessoais seja realizado em conformidade com princípios como:
- Finalidade: Os dados devem ser coletados para propósitos legítimos, específicos e informados ao titular.
- Adequação: O tratamento deve ser compatível com as finalidades informadas.
- Necessidade: A coleta deve se limitar ao mínimo indispensável para a realização de suas finalidades.
- Transparência: Os titulares devem ter acesso claro e preciso sobre o tratamento de seus dados.
- Segurança: Devem ser adotadas medidas técnicas e administrativas aptas a proteger os dados de acessos não autorizados e de situações acidentais ou ilícitas.
As empresas devem realizar um mapeamento de dados para identificar quais informações são coletadas pela IA, como são processadas e armazenadas. É fundamental obter o consentimento dos funcionários para o tratamento de seus dados, ou justificar o processamento com outra base legal prevista na LGPD, como o cumprimento de obrigação legal ou regulatória ou o legítimo interesse da empresa, desde que este não se sobreponha aos direitos e liberdades fundamentais do titular.
Boas práticas: como estruturar uma política interna de IA
Para garantir segurança jurídica e governança eficiente, é recomendável que as empresas elaborem políticas internas específicas sobre o uso de inteligência artificial, prevendo:
- Quais ferramentas de IA estão sendo adotadas;
- Finalidade e abrangência do tratamento de dados;
- Regras para uso e monitoramento de sistemas;
- Procedimentos de consentimento (quando aplicável);
- Direitos dos titulares de dados (acesso, correção, oposição);
- Medidas de segurança da informação;
- Sanções internas em caso de uso indevido.
Essa política pode ser autônoma ou, preferencialmente, integrada ao Código de Conduta, Política de Privacidade ou Política de Tecnologia da Informação da empresa.
Riscos e responsabilização
O uso indevido de ferramentas de IA pode gerar riscos trabalhistas, civis e administrativos. Alguns exemplos:
- Discriminação algorítmica no recrutamento ou avaliações de desempenho automatizadas;
- Vazamento de dados ou falhas de segurança;
- Monitoramento excessivo ou invasivo, com responsabilização por dano moral.
A Autoridade Nacional de Proteção de Dados (ANPD), o Ministério Público do Trabalho (MPT) e o próprio Judiciário têm atuado para coibir práticas abusivas perpetradas pelas empresas.
Conclusão
O uso da IA no ambiente de trabalho é uma realidade promissora e irreversível. No entanto, sua implementação exige cautela e responsabilidade. A elaboração de políticas internas robustas para utilização desta ferramenta não é apenas uma boa prática gerencial, mas uma exigência legal e ética. Empresas que ignoram as implicações jurídicas do monitoramento excessivo, da pressão por produtividade e da proteção de dados pessoais, correm sérios riscos de enfrentar litígios, sanções administrativas e danos a sua reputação.
A criação de políticas internas claras, fundamentadas na LGPD e nos princípios constitucionais, é medida essencial para que os avanços tecnológicos não se convertam em passivos jurídicos. A governança digital, aliada ao compliance trabalhista e à proteção de dados, deve estar no centro da estratégia das empresas que pretendem adotar IA com ética, segurança e sustentabilidade.
Investir em assessoria jurídica especializada para a criação e revisão dessas políticas é fundamental. O objetivo é buscar o conciliar os benefícios da IA com a proteção dos direitos dos trabalhadores, criando um ambiente de trabalho inovador, produtivo e, acima de tudo, humanizado e legalmente seguro.
Rocheli Kunzel, OAB/RS 81.795.