Como impedir que as decisões de IA repitam preconceitos humanos

Como impedir que as decisões de IA repitam preconceitos humanos

A IA está rapidamente se tornando um conselheiro padrão na tomada de decisões cotidianas, muitas vezes fornecendo respostas que parecem confiáveis, mesmo quando a análise subjacente é instável. À medida que mais equipas dependem destes sistemas, a lacuna entre o que a IA parece saber e o que pode recomendar de forma responsável está a tornar-se um risco real – especialmente quando as decisões têm consequências sociais ou operacionais.

Como perguntas simples sobre dados se tornam recomendações tendenciosas

Durante anos, dediquei parte do meu tempo para analisar estatísticas criminais e dados de aplicação da lei em Seattle e compartilhar descobertas com líderes locais. Uma coisa que sempre me fascinou é como uma análise inocente e imparcial ainda pode reforçar preconceitos e agravar os problemas sociais.

Observar as taxas de criminalidade por distrito, por exemplo, mostra qual área tem a taxa mais alta. Não há nada de errado com isso. A questão surge quando esses dados levam à realocação de recursos policiais do distrito com menor criminalidade para o distrito com maior criminalidade ou à mudança da ênfase na aplicação da lei no distrito com maior criminalidade. Os dados podem ser sólidos, mas a decisão óbvia pode ter consequências inesperadas.

Aprofunde-se: como combater o preconceito em seus modelos de IA

Agora vivendo na era da adoção da IA, eu estava curioso para saber como a IA lidaria com questões semelhantes. Perguntei a uma plataforma de IA: “Para qual distrito o Departamento de Polícia de Seattle deveria alocar mais recursos?” Depois de passar rapidamente pela divagação padrão, respondeu que Belltown tinha a maior taxa de criminalidade e uma quantidade significativa de abuso de drogas e falta de moradia.

Ainda assim, se deixarmos a IA tomar a decisão, a conclusão será alocar mais recursos policiais para Belltown. Perguntei à mesma plataforma quais preconceitos ou problemas poderiam agravar. Listou a criminalização dos sem-abrigo, o excesso de policiamento das minorias, a deslocação do crime, o enfoque no policiamento em vez dos serviços sociais, o aumento das tensões entre a polícia e a comunidade, o impacto negativo nas empresas locais, o enfoque em crimes contra a qualidade de vida, o potencial para um maior uso da força e a exacerbação da gentrificação.

Finalmente, perguntei se os recursos policiais em Belltown deveriam aumentar dadas essas consequências. A longa resposta foi “depende, mas provavelmente não – uma abordagem híbrida funcionaria melhor”.

Os princípios de ética de dados que todo usuário de IA precisa aplicar

Muitos dos problemas que os analistas enfrentam ao formular conclusões e recomendações também se aplicam à IA. A um nível macro, existem duas abordagens opostas à tomada de decisões: decisões instintivas e decisões baseadas em dados.

Com decisões instintivas, decidimos o que fazer com base em nossa experiência vivida, sentimentos, percepções e suposições. Eles nos permitem tomar decisões rápidas, mas não são ideais para decisões importantes porque coisas contra-intuitivas acontecem o tempo todo neste universo.

Se permitirmos, a IA residirá no outro lado desse espectro: tomando decisões com base em dados. É aqui que fazemos tudo o que os dados nos dizem para fazer. Antes da recente expansão da IA, isto não era um grande problema porque os analistas sabiam que não deveríamos seguir os dados descuidadamente. Com a IA, no entanto, as pessoas perguntam o que devem fazer e, por vezes, seguem a resposta porque as respostas baseadas em dados da IA ​​parecem não ser contaminadas pela opinião.

Aprofunde-se: como o preconceito na IA pode danificar os dados de marketing e o que você pode fazer a respeito

Existe toda uma disciplina de ética de dados que os usuários de IA precisam entender para adotar a IA de maneira adequada. Aqui estão os quatro principais princípios que você deve ter em mente ao usar IA.

  • Responsabilidade: Mesmo que você tenha usado a IA para chegar a uma decisão, você é a pessoa responsável pelo resultado.
  • Justiça: A IA está concretamente consciente de princípios como o preconceito e a discriminação, mas não consegue pensar neles de forma abstrata ou aplicá-los de forma adequada.
  • Segurança: Existem muitas plataformas de IA e os níveis de segurança variam, portanto, tenha cuidado com os dados que você fornece a elas.
  • Confiança: as plataformas de IA respondem às perguntas com confiança, mas essa confiança muitas vezes é injustificada, mesmo após um exame minucioso.

Com isso em mente, você pode se perguntar como tomar decisões se não pode confiar em decisões instintivas ou na IA. A resposta é a tomada de decisões baseada em dados.

Como a tomada de decisões baseada em dados difere do instinto e da automação de IA

O Blackjack ilustra isso claramente. Cada casino tem uma loja de presentes onde pode comprar uma carta que lhe diz o que fazer em cada permutação da carta aberta do dealer, das suas cartas e das regras da mesa. Você pode levar essa carta para a mesa e usá-la na frente do dealer e do pit boss. Faça isso e você estará no território da IA ​​– deixando os dados tomarem as decisões.

É possível tomar decisões melhores do que a estratégia matemática se você tiver informações que ela não tinha. Por exemplo, se o dealer de alguma forma permitiu que você visse a carta fechada ou a próxima carta do baralho, você pode substituir a carta de estratégia. Se você tiver 14 e a carta de estratégia disser que você deve acertar, mas você sabe que a próxima carta é 10, você permanecerá.

Outra abordagem cada vez mais popular é prestar atenção às cartas reveladas na mesa para entender o que resta no baralho. Se a carta de estratégia lhe disser para acertar um 16, mas você sabe que restam muito poucas cartas pequenas, você pode parar. Ou, se o baralho for rico em ases e 10, você pode ajustar suas apostas porque as chances de conseguir um blackjack são maiores.

Faça isso na frente do pit boss e você provavelmente será convidado a parar de jogar. Não é ilegal, mas permite ao jogador manipular demais o jogo a seu favor. Esta é a essência da tomada de decisões baseada em dados – utilizando a estratégia de dados como base, mas abrindo exceções quando justificado.

Aprofunde-se: o risco oculto da IA ​​que pode prejudicar sua marca

Usando IA sem permitir que ela anule seu julgamento

O potencial da IA ​​é quase ilimitado, mas, como qualquer ferramenta, funciona melhor quando usada com intenção. Nenhum sistema único deve orientar todas as decisões. Assim como você não construiria uma casa com uma ferramenta, a IA deveria acompanhar outros métodos, apoiados no julgamento e no contexto humanos.

Usar a ferramenta certa para o trabalho certo reduz o risco de preconceitos não intencionais e ajuda a evitar que problemas menores se tornem graves. Aplicada desta forma, a IA pode fornecer resultados mais fortes e confiáveis.

Abasteça-se com insights de marketing gratuitos.

Os autores colaboradores são convidados a criar conteúdo para MarTech e são escolhidos por sua experiência e contribuição para a comunidade Martech. Nossos colaboradores trabalham sob a supervisão da equipe editorial e as contribuições são verificadas quanto à qualidade e relevância para nossos leitores. MarTech é propriedade da Semrush. O Colaborador não foi solicitado a fazer nenhuma menção direta ou indireta ao Semrush. As opiniões que expressam são próprias.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *