
É bem sabido que os algoritmos automáticos de seleção de pessoas para um sem-número de funções têm um enviesamento que potencia a discriminação previamente existente na sociedade, com preferência, em geral, para o homem branco.
Da mesma forma, as aplicações de tradução automática para línguas em que o termo traduzido tem género, têm um claro enviesamento que deriva das fontes (livros, documentos históricos) que são usados para as máquinas aprenderem a traduzir.
Se colocarmos no tradutor do Google "The Professor", a tradução vem O Professor, mas se colocarmos "The Housekeeper", vem A Governanta. Isto justifica-se, porque a aprendizagem da máquina se faz com base nos dados existentes e esses refletem todo um conjunto de preconceitos.
Se, para escolhermos alguém para um lugar de chefia, tivermos como critério quantos homens foram CEO de sucesso vs. quantas mulheres o foram, teremos que necessariamente escolher um homem, pois o número é avassaladoramente maior.
Ora, é precisamente isso que o algoritmo vai aprender e nos vai dizer: que é mais provável sermos bem-sucedidos se escolhermos um homem (branco, de preferência).
Li recentemente um artigo muito interessante sobre este tópico. O artigo, intitulado "We need more bias in artificial intelligence", publicado pelo think tank Brugel em 21 de abril, chama precisamente a atenção para este enviesamento, mas com uma perspetiva diferente.
