Angélica Ritter - Gerente do Time de Privacidade e PD | Camila Khoury - Especialista em Relações Públicas | Natália Nanni Camargo - RF em Engenharia Cross| Pedro Ventura - Especialista de Gentes e Gestão
Diversidade faz parte do DNA da Gupy e, como não poderia deixar de ser, sempre foi uma premissa básica da nossa Inteligência Artificial.
A Gupy é uma das poucas empresas de tecnologia do Brasil liderada por mulheres. O nosso time de cofundadores é formado por pessoas de diferentes raças, orientações sexuais e gêneros. Foi com esse time de fundadores que surgiu a ideia inovadora na época no Brasil de usar a tecnologia para permitir que mais e mais pessoas tivessem acesso às vagas de emprego abertas.
Um novo jeito de fazer...
Assim, surgiu uma nova maneira do RH selecionar pessoas candidatas. Com esse modelo, a seleção deixou de ser baseada em critérios aleatórios ou até mesmo pessoais.
No passado as pessoas não sabiam, mas era comum gavetas e gavetas de currículos que jamais seriam olhados, mas a falta de transparência escondia esse problema. Atualmente, a competição ainda é alta, até maior em muitas vagas, mas todas as pessoas podem ter uma chance baseada em habilidades.
Não são mais milhões de e-mails que acabam se perdendo na caixa de entrada. A partir do surgimento da Gupy, a escolha passou a se basear nas reais competências e experiências das pessoas candidatas.
Sabemos que uma IA inclusiva e justa é difícil de se criar e, por isso, deixamos de fora da análise da Inteligência Artificial dados considerados sensíveis pela legislação (como dados sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dados referentes à saúde ou à vida sexual e dados genéticos ou biométricos) e também dados identificadores (como nome, CPF, RG, e-mail, etc). Isso porque sabemos que esses dados podem gerar discriminação ou gerar vieses nas pessoas recrutadoras, conscientes ou insconscientes.
Cuidado, controle e auditorias ...
Nada disso seria suficiente, porém, se não houvesse um rígido controle do algoritmo e acompanhamento de potenciais vieses que podem ser absorvidos no decorrer da utilização da ferramenta. Para isso, temos auditorias constantes com o intuito de mitigação de vieses. A IA é treinada para não aprender com nenhum comportamento humano enviesado ou com nenhuma tomada de decisão de pessoas recrutadoras que possam conter vieses.
Entenda o que é viés:
Um viés é como um atalho que o cérebro usa para tomar decisões rápidas. É como usar uma regra geral ou uma opinião consciente ou inconsciente para julgar algo ou alguém, sem analisar completamente todas as informações. Esse atalho pode ser útil, mas às vezes pode levar a tomadas de decisões injustas ou imprecisas, porque não consideramos todos os detalhes.
Como apoiamos as empresas...
Paralelamente, fornecemos aos nossos clientes conteúdos educativos e relatórios em que dados sobre o uso da IA e potenciais vieses são destacados e treinamos nosso time de Atendimento ao Cliente, para que auxiliem nossos clientes na mitigação, na ponta, de eventuais vieses que possam ocorrer a partir de comportamentos inconscientes das pessoas recrutadoras.
Sabia que temos auditorias constantes para evitar essas possíveis discriminações?
As auditorias em Inteligência Artificial (IA) são processos de revisão e avaliação sistemática dos sistemas de IA para identificar e mitigar vieses. O objetivo principal é garantir que os algoritmos e modelos de IA não cometam preconceitos ou discriminação, consciente ou inconscientemente. Essas auditorias são fundamentais para promover a ética e a justiça na utilização de sistemas de IA
O processo de auditoria de vieses começa pela identificação dos grupos socialmente privilegiados e não privilegiados, considerando os diversos recortes de diversidade.
Por exemplo, um grupo privilegiado pode ser de pessoas do gênero masculino, enquanto um grupo não privilegiado pode ser de pessoas do gênero feminino.
Em seguida, calculamos três indicadores:
O primeiro é a diferença média de posição na ordenação; o segundo é o p-valor e o terceiro é o Efeito.
Esse tópico sobre os processos de auditoria que fazemos aqui na Gupy é bem complexo, mas é importante tentar deixar claro para você conhecer e entender como cuidamos da IA com responsabilidade.
Para dar mais transparência aos processos estamos trazendo aqui o que significam algumas dessas métricas
Métrica de Posição
A métrica de posição avalia a diferença na ordenação entre grupos privilegiados, como por exemplo pessoas brancas do gênero masculino, e não privilegiados, como por exemplo uma mulher negra. O ideal é que o valor dessa métrica seja zero, indicando ausência de diferença de posicionamento entre os grupos de diversidade.
P-valor
O p-valor é uma medida que indica a probabilidade de um resultado ser apenas uma coincidência, assumindo que não há diferença real entre grupos comparados. Nesse caso, quanto menor o p-valor, menos provável é que o resultado seja ao acaso. Geralmente, um p-valor baixo sugere que há uma diferença real entre os grupos estudados.
Efeito
Já o Efeito indica a medida da diferença real entre os grupos que estão sendo comparados. Quando falamos sobre a relevância estatística, estamos considerando o tamanho desse efeito.
Se a diferença média entre grupos privilegiados e não privilegiados for maior que zero, e tanto o p-valor quanto o efeito ultrapassarem limites estabelecidos, identificamos um viés. Nesse caso, o time precisa intervir na construção da tecnologia para evitar que ocorra uma discriminação. E é isso que fazemos.