Você sabia que discriminação e inteligência artifical possuem uma forte conexão? Isso vem sendo cada vez mais debatido, de forma a evitar a ampliação e a criação de novos preconceitos. E hoje, você vai entender mais a respeito dessa relação e como ela impacta na sociedade. Boa leitura!
Discriminação e inteligência artificial: qual é essa relação?
Com o notável avanço da tecnologia, surgiu a Inteligência Artificial (IA), que é cada vez mais parte da nossa realidade. Porém, devido ao seu método de aprendizado, as IAs podem repetir comportamentos discriminatórios, que vão contra princípios humanos.
O que ocorre é que, de modo geral, programas de inteligência artificial aprendem a partir de uma base de dados. Ou seja, eles usam um conjunto de informações para analisar e entender padrões. E esses dados podem ser abertos, como os que estão disponíveis em sites de pesquisa e redes sociais, ou fechados, como arquivos internos de empresas.
Ao entendermos isso, fica fácil perceber que, dependendo das informações usadas para treinar a IA, pode surgir um viés algorítmico. O que, basicamente, são resultados tendenciosos.
Por que uma IA gera viés algorítmico?
Uma máquina é extremamente eficiente na análise de dados e na sugestão de soluções para facilitar a tomada de decisões. Entretanto, ela apresenta grandes limitações quando se trata de questões humanas e éticas.
Isso acontece porque, se a inteligência artificial não é programada para levantar essas questões, ela não tem como distinguir sozinha o que é certo ou errado. E se o conteúdo dos dados vier carregado de contexto histórico? Ainda assim, isso não é suficiente para que a máquina compreenda ou “reflita” sobre valores humanos e individuais.
Na verdade, é comum que a IA simplesmente reproduza o que é considerado “normal” dentro da sociedade — especialmente se for treinada em um grupo específico ou nichado. E esse “normal” nem sempre é justo.
Afinal, sabemos que a discriminação, infelizmente, faz parte da nossa história. Seja por idade, cor de pele, tipo de corpo, sexo, orientação sexual ou outras características. E todos esses preconceitos estão presentes nos dados que geramos.
Por isso, não surpreende que uma IA, ao aprender com base em nosso comportamento, acabe repetindo esses mesmos padrões discriminatórios. Ela apenas reflete aquilo que ensinamos a ela — e, muitas vezes, sem perceber.
Exemplos de viés algorítmico
Para tratarmos de viés algorítmico, é preciso apresentar um exemplo. Sendo assim, vamos imaginar o seguinte cenário:
Marina é uma mulher com 33 anos e pós-graduada em Engenharia Automobilística. Ela tem mais de 8 anos de experiência na sua área de atuação e vem de uma empresa de grande porte dentro do setor. Essa profissional decide concorrer a uma vaga na multinacional ABC, encaminhando seu currículo para lá.
A ABC conta com uma IA para fazer a pré-seleção de seus candidatos, e, ao analisar o currículo de Marina, ela o veta. Mas, por que isso aconteceu?
Na multinacional, a base de dados de contratações de engenheiros automobilísticos é composta majoritariamente de homens, com 33 anos e que já possuem experiência na área. Por mais que atenda dois requisitos, há uma disparidade aqui: Marina é mulher.
Ainda que ela seja a melhor opção para a vaga, o programa vai preferir manter o padrão histórico, por processo lógico.
Quer outro exemplo?
Imagine uma inteligência artificial usada em uma plataforma de streaming para recomendar filmes. Ela aprende observando os títulos que os usuários assistem, os gêneros preferidos, os horários de uso, entre outros padrões. A princípio, isso parece inofensivo e até útil.
No entanto, se a maioria dos usuários da plataforma costuma assistir a filmes com protagonistas brancos, a IA pode começar a recomendar prioritariamente esse tipo de conteúdo, deixando de lado produções com diversidade racial. Isso não acontece por maldade da máquina, mas porque ela aprendeu com os hábitos da maioria — e reproduz esse padrão.
Como a IA pode ampliar disparidades?
Os exemplos que citamos anteriormente podem reforçar invisibilizações históricas. Aqui incluímos a baixa representação de pessoas negras, indígenas ou de outras etnias no cinema. Ou a menor presença de mulheres em carreiras da área de Exatas.
A verdade é que quando falamos de discriminação e inteligência artificial chegamos a uma conclusão inevitável: a máquina apenas reproduz o que ensinamos a ela. Ela é construída para reconhecer padrões e agir de acordo com eles. Por isso, se esses padrões forem injustos, ela também agirá de forma injusta.
Desse modo, é urgente garantir transparência e responsabilidade por parte das empresas que desenvolvem e utilizam algoritmos de IA. Afinal, cabe ao ser humano fazer com que os sistemas criados não reforcem desigualdades, ensinando à máquina não apenas eficiência, mas também ética.
O que você pode fazer na área jurídica para mudar esse cenário?
Combater o viés algorítmico exige mais do que conhecimento técnico — exige compromisso com a justiça e com a dignidade humana. Na área jurídica, é fundamental que profissionais estejam preparados para lidar com temas como legislação contemporânea, direito digital e proteção de dados. Mas, acima de tudo, é necessário que atuem com empatia e sensibilidade.
São esses profissionais que podem questionar, fiscalizar e propor caminhos mais éticos no uso da inteligência artificial. Pessoas que compreendem que igualdade real só existe quando todos estão incluídos.
O papel do Direito é essencial para garantir que a tecnologia seja uma aliada da equidade, e não um espelho das injustiças do passado. Juristas conscientes podem educar, influenciar decisões e transformar a forma como a sociedade entende e utiliza as ferramentas digitais.
Esperamos que este artigo tenha ajudado você a entender melhor a relação entre discriminação e inteligência artificial. Se quiser atuar na interseção entre o Direito e as novas tecnologias, continue acompanhando nosso blog. Por aqui, você encontra reflexões, análises e conteúdos atualizados para se preparar e fazer a diferença nesse novo cenário.