Esse é o penúltimo artigo da série e o último que abordaremos a IA pela lente da transformação social.
Apesar de talvez ser tecnicamente menos excitante falar da IA sobre esse ponto de vista é extremamente relevante e atual, pois vivemos em um mundo de ansiedades e expectativas onde a máxima “Toda força aplicada em uma direção gera uma ação contraria de mesma intensidade” se faz verdade, uma vez que todo assunto novo e não compreendido acaba gerando medo, pseudociência e uma onda de falsas expectativas.
Você pode acompanhar a 3 primeiras partes aqui:
Parte 1: Onde estamos e para onde vamos parte 1
Parte 2: Onde estamos e para onde vamos parte 2
Parte 3: O que é mais importante na construção de uma IA
A pergunta que tentaremos responder nesse texto, ou melhor, a questão que chamarei, vocês leitores, a pensar sobre, já teve e ainda tem um eco importante na academia, na internet e consequentemente na sociedade.
Algoritmos de IA podem ser preconceituosos?
A reposta é sim, eles podem.
Vamos listar três casos conhecidos de algoritmos de IA que apresentaram comportamento que pode ser tido como preconceituoso e comentar os motivos.
Caso 1
Em 2016 a gigante Microsoft lançou a Tay, um chatbot que interagia com usuários no twitter (a galera abusa né ?) a existência de Tay durou menos que um dia, rapidamente ela foi tirada do ar. O motivo: Ela se tornou racista e neo-nazista.
É claro que estou sendo permissivo, o algoritmo não se tornou nada, seu criador com certeza não quis colocar esses comportamentos lá, mas ainda assim eles apareceram.
Caso 2
O segundo caso é de 2018 e “meio que” inaugurou uma discussão bem especiífica sobre racismo em modelos preditivos.
O Compas era um software com o propósito simples: prever crimes (parece distopia na verdade) mas tirando o fato que ele era tão bom nisso quanto jogar uma moeda para cima ele costumava a apontar que pessoas negras tinham o dobro de probabilidade de reincidência em crimes em relação as pessoas brancas.
Me parece pouco provável que os criadores colocaram um motor de IA ou cláusulas do tipo if-else que levassem explicitamente a essas conclusões.
Mas então por que o Compas se mostrou tão … racista?
Caso 3
Esse é bem recente: Em 2020, o Twitter esteve em uma polêmica com seu algoritmo de reconhecimento facial pois, na maioria das vezes, o algoritmo ignorava pessoas negras.
Sim, você deve ter acompanhado, mas resumidamente é isso: O algoritmo não conseguia reconhecer o rosto de um negro em uma foto e mostrava mais imagens de rostos de desenhos animados que de pessoas negras.
O leitor atento, ainda que não seja da área mas que passou pelos artigos anteriores já entendeu o problema, mas todavia vamos deixar claro: o problema dos 3 casos são os dados.
Um algoritmo de IA não é racista porque ele foi explicitamente programado para ser, e sim porque um algoritmo é um espelho: através dele podemos entender como pensamos como sociedade.
Tay, a IA da Microsoft proferia sentenças indizíveis e a razão não poderia ser mais simples: o chatbot aprendia com o que era dito a ela, com as interações com usuários reais, assim quando foi exposta ao ambiente tóxico de uma rede social repleta de trols, Tay aprendeu o comportamento que ela percebeu como padrão.
O Compas dava como certo que a probabilidade de um negro reincidir em um crime é maior que um branco (o que se provou errado) , mas o algoritmo chegou a essa conclusão estatística simplesmente porque a base de dados mostra mais negros que brancos condenados, e acredito não ser surpresa para ninguém, isso é o dia a dia de milhares de pessoas negras (vide os recentes casos de uso abusivo da força que culminou em assassinato).
O algoritmo do Twitter não reconhece bem rostos de negros porque não foi treinado com uma base de dados consistente, provavelmente a base que treinou e que refinou a construção do algoritmo era enviesada, composta majoritariamente por rostos brancos.
Essa é a diferença entre uma inteligência artificial e uma inteligência não artificial: ambas aprendem comportamentos, ambas tem viés, ambas concluem certo ou errado mas só uma tem a possibilidade de negar os vieses e tomar decisões acertadas, ainda que na escassez de dados.