Como acabar com o viés de gênero nos algoritmos da Internet

如何结束互联网算法中的性别偏见

algoritmo(2022). DOI: 10.3390/a15090303″ largura=”800″ altura=”530″/>

Scopus indexou artigos para diferentes termos relacionados a gênero. Crédito: algoritmo (2022). DOI: 10.3390/a15090303

Inúmeras tiradas foram escritas sobre se os algoritmos da Internet com os quais interagimos regularmente são tendenciosos por gênero, e tudo o que você precisa fazer é realizar uma pesquisa simples para ver por si mesmo.

No entanto, de acordo com os pesquisadores por trás de um novo estudo que visa tirar conclusões sobre o assunto, “até agora, o debate não incluiu nenhuma análise científica”. problema e propor soluções para evitar esses vieses nos dados e a discriminação que eles acarretam.

Algoritmos estão sendo cada vez mais usados ​​para decidir se conceder empréstimos ou aceitar pedidos. À medida que o escopo, as capacidades e a importância dos usos de inteligência artificial (IA) se expandem, torna-se cada vez mais importante avaliar qualquer possível viés associado a essas operações.

“Embora este não seja um conceito novo, em muitos casos a questão não foi testada e as possíveis consequências foram negligenciadas”, disseram os pesquisadores. algoritmo revista, com foco em Gênero sexual Viés em diferentes domínios da inteligência artificial.

Esse viés pode ter um impacto enorme na sociedade: “O preconceito afeta tudo o que é discriminado, excluído ou associado a estereótipos. Por exemplo, gênero ou raça podem ser excluídos de processo de tomada de decisão Ou, simplesmente, certos comportamentos podem ser assumidos por causa do sexo ou da cor da pele de uma pessoa”, explicou a pesquisadora principal Juliana Castañeda Jiménez, da Universidade de Oberta, na Catalunha (UOC), Ángel A. Juan, da Universidade Politécnica de Valência e Javier Panadero na Universidade Politécnica da Catalunha.

Segundo Castañeda, “os processos algorítmicos podem discriminar com base no gênero, mesmo quando programados para serem ‘cegos’ para essa variável”.

A equipe de pesquisa também incluiu os pesquisadores Milagros Sáinz e Sergi Yanes do Grupo de Pesquisa de Gênero e TIC (GenTIC) do Instituto Interdisciplinar da Internet (IN3), e Laura Calvet Universitat de València e Ángel A. Juan – Alguns exemplos para ilustrar isso: o caso onde uma ferramenta de recrutamento bem conhecida prefere candidatos do sexo masculino em detrimento do sexo feminino, ou alguns serviços de crédito oferecem às mulheres menos favoravelmente do que aos homens.

“Se você usar dados antigos e desequilibrados, poderá ver termos negativos sobre a demografia de negros, gays ou mesmo mulheres, dependendo de quando e de onde vieram os dados”, explicou Castañeda.

Ciência é para meninos, arte é para meninas

Para entender como esses padrões afetam os diferentes algoritmos que processamos, os pesquisadores analisaram trabalhos anteriores que identificaram viés de gênero no processamento de dados para quatro tipos de IA: aqueles que descrevem processamento e geração de linguagem natural, gerenciamento de decisões, reconhecimento de fala e reconhecimento facial. . decifrar.

No geral, eles descobriram que todos os algoritmos eram melhores na identificação e classificação de homens brancos. Eles também descobriram que reproduziam falsas crenças de que os atributos físicos de alguém deveriam ser definidos por seu sexo biológico, origem étnica ou cultural ou orientação sexual, e também estabeleceram estereótipos que associavam homens à ciência e mulheres ao estereótipo artístico.

Muitos programas usados ​​no reconhecimento de imagem e fala também se baseiam nesses estereótipos: as câmeras têm mais facilidade em reconhecer rostos brancos e a análise de áudio tem problemas com vozes mais agudas, afetando principalmente mulheres.

Os casos com maior probabilidade de encontrar esses problemas são aqueles em que o algoritmo é baseado na análise de dados da vida real relevantes para um determinado contexto social. “Algumas das principais razões são a sub-representação das mulheres na concepção e desenvolvimento de produtos e serviços de IA, bem como o uso de conjuntos de dados com viés de gênero”, observou o pesquisador, que acredita que o problema decorre do ambiente cultural em que elas foram desenvolvidos.

“Um algoritmo, quando treinados em dados tendenciosos, podem detectar padrões ocultos na sociedade e reproduzi-los quando manipulados. Portanto, se homens e mulheres não forem representados igualmente na sociedade, o design e o desenvolvimento de produtos e serviços de IA exibirão viés de gênero. “

Como podemos acabar com tudo isso?

As muitas fontes de viés de gênero e a especificidade de cada tipo de algoritmo e conjunto de dados significam que remover esse viés é um desafio muito difícil (mas não impossível).

“Designers e todos os outros envolvidos em seus projetos precisam ser informados sobre a possibilidade de viés associado à lógica algorítmica. Mais importante, eles precisam entender as medidas disponíveis para minimizar o viés potencial e implementá-las para que não ocorram porque, se forem conscientes dos tipos de discriminação que ocorrem na sociedade, poderão identificar quando as soluções que desenvolvem reproduzem essas discriminações”, sugeriu Castañeda.

O trabalho é inovador porque foi realizado por especialistas de diferentes áreas, incluindo sociólogos, antropólogos e especialistas em gênero e estatística. “Os membros da equipe fornecem uma perspectiva além da matemática autônoma associada aos algoritmos para nos ajudar a vê-los como sistemas sociotécnicos complexos”, disse o principal investigador do estudo.

“Se você comparar este trabalho com outros trabalhos, acho que é um dos poucos que aborda o problema do viés algorítmico de uma perspectiva neutra, enfatizando aspectos sociais e técnicos, para determinar por que um algoritmo pode agir de maneira tendenciosa. decisão, ” concluiu ela.

Mais Informações:
Juliana Castaneda et al., Abordando o viés de gênero em algoritmos de dados: uma perspectiva socioestatística, algoritmo (2022). DOI: 10.3390/a15090303

Oferecido pela Universidade de Oberta (UOC) na Catalunha

citar: Como acabar com os preconceitos de gênero nos algoritmos da Internet (2022, 23 de novembro), recuperado em 23 de novembro de 2022 em https://techxplore.com/news/2022-11-gender-biases-internet-algorithms.html

Este documento é protegido por direitos autorais. Exceto para qualquer negociação justa para fins de estudo ou pesquisa privados, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é apenas para referência.

ZeroToHero

ZeroToHero

Leave a Reply

Your email address will not be published.