Inteligência Artificial

0

A inteligência artificial, aquela baseada em gigantescos bancos de dados usados para treinar máquinas robôs, tem muitos vieses.

Os algoritmos reforçam preconceitos. Segundo uma equipe da Universidade da Virgínia, a inteligência artificial não somente não evita o erro humano secundário aos seus preconceitos, mas pode inclusive piorar a discriminação e reforçar estereótipos.

Por exemplo, em um trabalho para testar o reconhecimento de gênero, tem-se que: “se está na cozinha, é uma mulher”. Obteve-se, na análise inicial dos dados, que 33% das imagens eram de personagens masculinos; e, após o “treino da máquina” com os dados relacionados à cozinha e ao aspecto externo do indivíduo, o modelo estatístico deduziu que 84% da amostra eram mulheres. “Ao partirem de uma base enviesada sobre gênero, os modelos preditivos amplificam o viés”, explicam os autores.

As máquinas identificam tendências e apostam nelas para acertar.  São conhecidos vários exemplos de algoritmos que exacerbam preconceitos e discriminações, e repetem o passado, em vez de cumprirem a promessa de eliminar o erro humano – que nos define – contido na equação.

O Google, baseado em big data, começou a rotular pessoas negras como gorilas e a Siri da Apple, sempre com uma resposta pronta, não sabe o que responder quando a dona do celular diz que foi estuprada. Se alguém pisca para a foto no software da Nikon, pode ser considerado portador de traços asiáticos; e por aí vai.

Cathy O’Neil, especialista em dados e autora do livro Weapons of Math Destruction, onde examina os desastres algorítmicos a partir de sua formação acadêmica e experiência de trabalho no mundo financeiro, assegura que todos os campos da vida (trabalho, faculdade, empréstimos, leves transgressões) estão cada vez mais controlados por modelos secretos que levam a punições arbitrárias.

O’Neil afirmou que os preconceitos dos algoritmos estão cada vez mais perigosos como se comprovou, por exemplo, que um programa fornecido por uma ONG sem fins lucrativos, usado para prevenir reincidência de presos pela Justiça dos EUA, rotulava os negros como duas vezes mais provavelmente reincidentes.  Os brancos foram considerados de baixo risco. Um programa de informática viciado, frio, com vieses, e racista.

Muitas vezes os problemas do algoritmo se devem a falhas na seleção dos dados, em outras o preconceito da sociedade vem embutido no software. Entretanto o maior vilão é o modelo econômico, porque os sistemas estatísticos visam lucros e a ideia de lucro acaba substituindo a verdade. O software está apenas fazendo seu papel.

Como monitorar os vieses de sistemas como o Google e o Facebook que já estão mecanizados e misturados com a rotina de todos, e que são absolutamente opacos à observação, porque cada empresa mantém seus algoritmos em segredo absoluto?

Causou escândalo um estudo que criou um algoritmo que supostamente identifica gays através de inteligência artificial, por “traços faciais homossexuais e heterossexuais”.  É um estudo controverso em primeiro lugar por invadir a intimidade das pessoas e depois por atribuir a uma máquina a possibilidade de detectar a orientação sexual. A começar pela amostragem do estudo, em um total de 35.326 imagens faciais, todas de pessoas eram brancas e retiradas de um site de encontros.

Uma organização LGTB+ comentou que a tecnologia não pode identificar a orientação sexual de ninguém. Pôde reconhecer um padrão, em um pequeno subconjunto de pessoas homossexuais brancas!

Outra grande fragilidade do trabalho é que os autores se basearam na teoria hormonal pré-natal, em que os andrógenos, que são responsáveis pelo dimorfismo facial, estariam em níveis abaixo ou acima dos valores normais, dependendo do sexo da criança, ou seja, as pessoas homossexuais teriam traços de gêneros atípicos.  Em um momento em que minorias estão na berlinda, resultados imprudentes podem ser desastrosos. Mas os autores justificaram que um dos objetivos do estudo era justamente “alertar” contra os perigos da inteligência artificial, na vida íntima de cada um.

O’Neil pondera que, se um algoritmo for transformado em lei, ele deve ser transparente, acessível, aberto a discussão e passível de emendas como acontece com a própria lei. É preciso criar reguladores públicos para revisar os sistemas.

Fontes:
https://brasil.elpais.com/brasil/2017/09/19/ciencia/1505818015_847097.html
https://brasil.elpais.com/brasil/2017/09/05/tecnologia/1504632657_445116.html
https://brasil.elpais.com/brasil/2017/09/12/actualidad/1505211398_056097.html

Patrícia Rati

Compartilhar.