Você está aqui: Página Inicial > Notícias > Juiz de Fora > 2022 > 02 > Você sabe o que é preconceito algorítmico? Especialistas apontam possíveis razões e soluções para o problema
conteúdo

Destaque

Você sabe o que é preconceito algorítmico? Especialistas apontam possíveis razões e soluções para o problema

Assunto foi discutido com o professor Emerson Priamo, do Núcleo de Informática, e a pesquisadora Lívia Ruback, da UFFRJ.

Atualmente, é bastante comum tecnologias que utilizam modelos de reconhecimento facial ou bases de dados em seu funcionamento. Quando estes modelos acabam apresentando falhas ou vieses que resultam em casos de discriminação e preconceito, favorecendo determinados grupos e prejudicando outros, acontece o que tem sido chamado de preconceito algorítmico. Redes sociais como o Instagram e o  Twitter já tiveram casos relacionados ao impulsionamento de perfis ou recorte de imagens, o que gerou grande polêmica sobre as razões para que isso ocorra. Para discutir o assunto, foram convidados o professor Emerson Priamo, do Núcleo de Informática, e a pesquisadora Lívia Ruback, do Departamento de Computação da Universidade Federal Rural do Rio de Janeiro (UFRRJ)

Um algoritmo é basicamente um conjunto de instruções e etapas que um software necessita para chegar a um resultado esperado, como explica o professor Emerson Priamo. “Quando temos um problema a ser resolvido pelo computador, precisamos da criação de um algoritmo, que é implementado em uma linguagem de programação para a construção do software.” Ele acrescenta que, no início, esses códigos eram quase sempre criados do zero, mas com o passar do tempo, foram surgindo bibliotecas com códigos pré-fabricados que podem ser utilizados para aumentar a produtividade dos programadores em tarefas mais complexas.

Apesar de os algoritmos serem moldados por seus criadores, que constroem todas etapas para seu funcionamento, podem haver outros elementos que vão influenciar no resultado alcançado. “Um deles, como dito, é a utilização de bibliotecas de terceiros, e o outro é a inteligência computacional que, com o aprendizado de máquina, torna o algoritmo capaz de moldar seu comportamento de acordo com os dados inseridos por seus usuários, como acontece com as redes sociais”, complementa o professor.

Ao projetar tais sistemas, acredita-se na existência de modelos matemáticos perfeitos e imparciais e que a objetividade da matemática e da estatística seriam capazes de abarcar todas as realidades. Mas não é o que temos visto na prática nos últimos anos, como indica Lívia Ruback, professora do Departamento de Computação da UFRRJ e pesquisadora colaboradora em Computação Social no Lab Cores/UFRJ

“Temos acompanhado na mídia e na literatura acadêmica vários casos de discriminação algorítmica, como em aplicativos de rotulagem automática de fotos e sistemas de reconhecimento facial, com considerável taxa de falhas ao identificar grupos sub-representados, como o de mulheres e pessoas negras.”, relata. Outros casos envolvem  sistemas de recrutamento que favorecem um único perfil de profissionais e serviços de tradução que reforçam preconceitos de gênero.

Para Lívia, este tipo de falha pode acontecer pela forma como o modelo foi construído, ou seja, pelos algoritmos escolhidos durante a fase de treinamento e teste do modelo, mas também em uma etapa anterior à esta, na escolha de uma base de dados a ser usada no treinamento. A pesquisadora acredita que o desbalanceamento das bases de treinamento é uma das principais razões para explicar os vieses nos dados. 

“Estes dados são basicamente milhares de imagens de rostos, e o modelo é treinado para reconhecer a geometria das faces, considerando, por exemplo, a distância entre os olhos, o nariz e a boca, dentre outras características. Se os exemplos não forem selecionados aleatoriamente e representarem de forma homogênea os diferentes grupos étnicos, raciais e de gênero, o modelo terá um melhor desempenho ao lidar posteriormente com a população em geral..”

Assim como na elaboração das bases de dados é necessário que haja representatividade de todos os grupos, nas equipes profissionais e de gestão isso também deveria ocorrer. Pesquisas apontam que a crise de diversidade é sistêmica na área de tecnologia. Globalmente, as mulheres representam apenas 32% da força de tarefa nas áreas de Inteligência Artificial e Ciência de Dados, de acordo com o Relatório Global de Equidade de Gênero, do Fórum Econômico Mundial de 2021. Já ao tratar de diversidade racial no setor,  o cenário é tão invisibilizado que faltam inclusive dados precisos para mensurar o problema.

Alguns dos fatores que colaboram para dificultar o acesso à produção de tecnologia são a falta de referências, altos custos de formação na área, materiais base e textos teóricos em inglês e a falta de políticas públicas. Lívia defende que a criação de sistemas mais justos demanda uma garantia de que eles refletem os valores da população que atendem. “A diversidade e a inclusão, tanto no mercado de trabalho quanto na esfera acadêmica, que discute estes problemas e aponta soluções, são essenciais como estratégia para tornar estes sistemas melhores.”

Emerson ressalta que, no Campus Juiz de Fora, há cursos gratuitos e projetos de pesquisa que possibilitam se desenvolver na área e obter uma formação que permita trabalhar questões tão relevantes como essas. “Temos alunos estudando temas como qualidade de software, construção de sistemas de informação, mídias digitais, business intelligence e inteligência computacional, e que em breve serão profissionais qualificados para colaborar com a busca de soluções para esses problemas”. 

 

registrado em: