O avanço da inteligência artificial (IA) trouxe inúmeros benefícios em inúmeras áreas e de diversas formas. As IAs estão cada vez mais integradas em nossas vidas, auxiliando em decisões empresariais, personalizando serviços e conduzindo veículos. No entanto, com esse progresso, surge o desafio do alinhamento. Alinhamento é a capacidade das IAs de agir conforme os valores e objetivos humanos. O desalinhamento pode resultar em consequências que variam de pequenos inconvenientes a graves problemas técnicos, éticos e sociais. Portanto, a necessidade de garantir que as IAs ajam de maneira alinhada aos nossos interesses e valores nunca foi tão urgente.
Problemas e exemplos de desalinhamento
Os problemas de alinhamento ocorrem quando as IAs, apesar de serem eficientes em suas tarefas específicas, falham em considerar o contexto ético, social ou mesmo técnico. Esse desalinhamento pode surgir devido a diversos fatores, como dados enviesados, objetivos mal definidos ou falhas na interpretação de comandos. Quando uma IA está desalinhada, ela pode tomar decisões que, embora otimizadas para um objetivo específico, são prejudiciais ou injustas em um contexto mais amplo. Alguns exemplos que já aconteceram:
- Clearview AI: A empresa norte-americana Clearview AI, além de se envolver em polêmicas sobre coletar imagens de pessoas sem o consentimento delas — o que é crime — também já produziu sistemas de reconhecimento facial que apresentaram vieses raciais, identificando erroneamente pessoas de minorias étnicas com maior frequência. O que torna o problema mais grave é que a empresa é conhecida por fornecer seus sistemas à autoridades policiais, agências governamentais e outras organizações. Isso pode levar a prisões injustas e discriminação. O problema decorreu, principalmente, da utilização de bases de dados enviesadas ou mal representadas, onde determinados grupos étnicos não são suficientemente incluídos ou são mal representados.
- Amazon: A Amazon também se envolveu em polêmicas devido a problemas de alinhamento. A empresa possuía algoritmos de recrutamento para vagas que discriminavam candidatas mulheres, devido ao treinamento com dados históricos enviesados que refletem um setor predominantemente masculino. Como resultado, as IAs perpetuam essas desigualdades, excluindo mulheres qualificadas de oportunidades de emprego. Esse tipo de desalinhamento mostra como a falta de diversidade nos dados de treinamento pode resultar em decisões que não refletem um julgamento justo.
- Redes (anti)sociais: Plataformas como Facebook e Twitter utilizam algoritmos que, além de permitir, promovem desinformação e conteúdo sensacionalista para aumentar o engajamento, o que pode influenciar negativamente a opinião pública e a democracia. Essas plataformas não se importam em anunciar páginas, por exemplo, com conteúdos revisionistas, desde que o dinheiro esteja entrando. Esses algoritmos de IA são otimizados para maximizar o tempo de visualização e a interação dos usuários, muitas vezes sem se importar com possíveis impactos negativos.
Métricas para avaliar o (des)alinhamento
Para garantir que as IAs estejam alinhadas com valores humanos, é essencial utilizar métricas adequadas. Essas métricas buscam atingir vários aspectos diferentes. Entre eles:
Justiça e equidade:
- Disparidade de Impacto: Avalia se diferentes grupos demográficos recebem resultados distintos do modelo de IA. Por exemplo, se um algoritmo de recrutamento favorece um grupo em detrimento de outro (como no caso da Amazon), a disparidade de impacto ajudará a identificar esse problema.
- Equal Opportunity: Mede se todos os grupos têm chances iguais de obter um resultado positivo, garantindo que a IA não favoreça nenhum grupo específico.
- Fairness through Awareness: Ajusta as decisões da IA levando em consideração características sensíveis como raça e gênero, buscando um equilíbrio justo nos resultados.
Transparência e explicabilidade:
- Interpretação Local (LIME): Gera explicações simples para as previsões individuais do modelo de IA, ajudando a entender porque uma determinada decisão foi tomada.
- Shapley Values: Calcula a contribuição de cada característica para a previsão final, fornecendo uma visão detalhada de como o modelo está funcionando.
- Feature Importance: Classifica as características usadas pelo modelo em ordem de importância, mostrando quais fatores mais influenciam as decisões da IA.
Segurança e Robustez:
- Robustez a Ataques Adversariais: Mede a capacidade do modelo de resistir a inputs adversariais, que são dados manipulados intencionalmente para enganar a IA.
- Resiliência a Perturbações: Avalia se o modelo mantém desempenho consistente mesmo quando enfrenta perturbações nos dados de entrada.
- Validação Cruzada: Técnica que divide os dados em várias partes para treinar e testar a IA, garantindo que ela funcione bem em diferentes cenários.
Prevenção de Problemas de Alinhamento
Para prevenir os problemas de alinhamento, alguns caminhos podem ser tomados. Para diminuir ao máximo as chances, podemos utilizar algumas técnicas para evitar que esses exemplos se repitam.
Uma das boas práticas é fazer o treinamento com dados diversos. Isso é básico. Os dados precisam ser representativos e diversos para que se reduza o viés da IA. Dados de diferentes fontes e a inclusão de grupos demográficos distintos ajudam a criar um conjunto de dados mais equilibrado.
Por vezes, apesar de você ter feito um bom trabalho de limpeza nos dados, os próprios dados refletem preconceitos humanos. Nos EUA, por exemplo, a população negra e latina do país representa, respectivamente, 13,4% e 18,5%. Juntos, somam 31,9% da população norte-americana. Nos presídios, os dados são outros. Cerca de 33% da massa carcerária são negros e 23% são latinos, totalizando mais da metade do total. Perceba que, até entre negros e latinos, existe essa diferença. Os latinos são 18,5% da população e 23% dos presos e os negros são 13,4% da população e são 33% dos presos. Como contornar isso? Existem diversas formas, como fazer auditoria dos dados, criar dados sintéticos para buscar equilíbrio, interpretabilidade das decisões da IA, etc. A sociedade é preconceituosa, mas as IAs não precisam ser.
Portanto, a melhor forma de evitar problemas de alinhamento, muitas vezes, é contar com auditorias regulares, que podem proporcionar uma visão imparcial sobre como a IA está se comportando em diferentes cenários, montar uma equipe multidisciplinar para tomar as melhores decisões éticas e identificar possíveis problemas que uma abordagem puramente teórica ignoraria.
Soluções e Iniciativas Atuais
Algumas iniciativas estão em andamento para resolver o problema do alinhamento, mas ainda são muito tímidas. Como sempre destaco: a velocidade do desenvolvimento da tecnologia é MUITO mais rápida do que a burocracia estatal. Portanto, sempre estamos correndo atrás de minimizar esses impactos o máximo possível. Seguem alguns exemplos:
- Políticas e Regulamentações: Países e organizações desenvolvem legislações e normas para garantir o uso ético da IA, como a proposta de Regulamento de IA da União Europeia. Essas regulamentações buscam estabelecer diretrizes claras para o desenvolvimento e implementação de IAs, assegurando que considerem aspectos éticos e de segurança.
- Pesquisa e Desenvolvimento: Iniciativas acadêmicas e corporativas focadas no alinhamento, como o trabalho do OpenAI e do Instituto Alan Turing, buscam criar modelos mais justos e transparentes. Essas organizações estão na vanguarda da pesquisa de IA, desenvolvendo novas técnicas e abordagens para melhorar o alinhamento.
- Colaboração Internacional: Esforços globais, como as diretrizes da OCDE para IA, visam padronizar práticas seguras e éticas no desenvolvimento e implementação de IAs. A cooperação internacional é crucial para enfrentar desafios globais e garantir que as IAs sejam desenvolvidas e usadas de maneira responsável em todo o mundo.
Conclusão
O problema do alinhamento é crucial para assegurar que os benefícios das IAs sejam plenamente aproveitados sem comprometer valores éticos e sociais. Embora os desafios sejam significativos, o desenvolvimento de métricas adequadas, a implementação de práticas preventivas e as iniciativas de regulamentação oferecem caminhos promissores. Com um esforço contínuo e colaborativo, é possível garantir que as IAs trabalhem de forma alinhada aos objetivos humanos, promovendo um futuro seguro e equitativo para todos.