Como evitar vieses na Inteligência Artificial?

Como evitar vieses na Inteligência Artificial?

vieses inteligência artificial

A Inteligência Artificial já faz parte do cotidiano das pessoas e está moldando o futuro do mundo. Diariamente, vemos as mais variadas formas de aplicação de tecnologias inteligentes influenciarem desde o conteúdo que acessamos nas redes sociais, até o desenvolvimento de carros autônomos e a operação de sistemas jurídicos nacionais.

Entretanto, os mesmos algoritmos que facilitam diversos aspectos da nossa vida e aumentam a produtividade das empresas também podem ter consequências negativas quando funcionam de forma enviesada. Os chamados vieses na Inteligência Artificial fazem com que um sistema, teoricamente neutro e sem preconceitos, reproduza formas de discriminação contra determinados grupos de pessoas.

Recentemente, o documentário “Coded Bias” da Netflix abordou essa questão mostrando exemplos de violação de direitos civis e falhas que a Inteligência Artificial pode cometer ao embutir os vieses dos humanos em seus algoritmos. No filme, a pesquisadora Joy Buolamwini, do MIT, aponta como sistemas de reconhecimento facial não são precisos ao identificar pessoas negras, falha que aumenta a possibilidade de riscos, como por exemplo, o uso dessa tecnologia pela polícia.

A seguir, falaremos sobre o que são os vieses na Inteligência Artificial e quais estratégias estão sendo desenvolvidas para evitá-los, a fim de garantir a imparcialidade e o uso ético da tecnologia.

Os vieses na Inteligência Artificial e suas consequências

Quando falamos de vieses na aplicação de tecnologia, nos referimos às práticas de discriminação sistemática contra certos indivíduos ou grupos, com base no uso inadequado de dados ou características referentes a eles. As formas mais discutidas de vieses se relacionam a atributos como raça, gênero, classe e orientação sexual, mas podem se expandir para praticamente qualquer dado sensível a discriminação.

Por um lado, era esperado que a Inteligência Artificial pudesse evitar vieses preconceituosos nas tomadas de decisões feitas por humanos. Isso é possível, porém, a tecnologia em si não é neutra, já que é desenvolvida em contextos sociais específicos que moldam seus atributos.

Vieses nos sistemas de IA podem surgir de várias maneiras, seja porque eles empregam algoritmos tendenciosos ou porque usam dados enviesados para treinamento. O estudo divulgado pela ONU “Technology and Innovation Report 2021” traz diversos exemplos de como isso acontece.

Por exemplo, em 2016, um sistema de IA criado nos Estados Unidos para ajudar os juízes a tomar melhores decisões de condenação, com base em previsões da probabilidade de reincidência dos criminosos, foi considerado tendencioso contra as minorias étnicas.

Hoje, vieses algorítmicos afetam até mesmo quais grupos são expostos a tipos de anúncios online. Uma pessoa cadastrada como mulher em uma conta do Google tem menos chances de ver anúncios para cargos mais bem pagos, e um experimento no Facebook mostrou que anúncios com oportunidades de habitação e emprego também foram distorcidos de acordo com as características raciais e de gênero.

Como evitar vieses na Inteligência Artificial?

Combater os vieses na Inteligência Artificial é essencial para garantir que as pessoas confiem nesses sistemas. Só assim a IA alcançará seu potencial de gerar benefícios para as empresas e para a economia por meio do crescimento da produtividade, assim como para a sociedade, no enfrentamento de questões sociais urgentes.

Amplos estudos estão sendo desenvolvidos nesse campo, e algumas das principais práticas foram divulgadas pela Harvard Business Review e pelo Google AI. Veja a seguir:

Diversidade na equipe

Uma maneira de evitar vieses em IAs é contratar de forma inclusiva, criando equipes com diversidade de raça, gênero, orientação sexual, idade, condições econômicas e outros fatores. Segundo a Forbes, times diversos criam Inteligências Artificiais melhores, porque são mais aptos a detectar discriminações e antecipar problemas em potencial. Além disso, a diversidade na equipe favorece a criatividade e a capacidade de dimensionar soluções em toda a empresa.

Novas perspectivas para um design inclusivo

No desenvolvimento de IAs, o envolvimento de cientistas sociais e outros especialistas relevantes para o produto pode ajudar a expandir a compreensão de diferentes perspectivas. É importante considerar como a tecnologia terá impacto em diferentes casos de uso: de quem são as visões representadas? Quais resultados essa tecnologia possibilita e como eles se comparam para diferentes usuários e comunidades? Que preconceitos, experiências negativas ou resultados discriminatórios podem ocorrer?
Então, deve-se definir metas para que seu sistema funcione de maneira justa nos diversos casos de uso previstos. Monitore essas metas ao longo do tempo e atualize seus dados de treinamento com base em quem realmente usa sua tecnologia.

Bases dados de representativas para treinamento

Avalie a imparcialidade em seus datasets de treinamento das IAs, identificando limitações de representação e possíveis correlações prejudiciais ou discriminatórias entre dados e grupos. Técnicas de visualização, clustering e data annotation podem ajudar nesta avaliação.
Os conjuntos de dados públicos geralmente precisam ser modificados para refletir melhor as frequências reais de pessoas, eventos e atributos sobre os quais seu sistema fará previsões.

Teste os vieses do sistema

Uma técnica promissora para garantir a imparcialidade das IAs é chamada “Counterfactual Fairness“, ou imparcialidade contrafactual, que determina que uma decisão é justa se for igual tanto no mundo real como em uma realidade alternativa, em que atributos considerados sensíveis, como raça, gênero ou orientação sexual, foram alterados.
Além de aplicar esse tipo de técnica, organize um grupo diverso para testar o sistema, incorporando uma variedade de entradas. Isso pode ajudar a identificar quem pode sofrer impactos adversos inesperados.

Ética para o futuro da Inteligência Artificial

É claro que vieses prejudicam aqueles que são discriminados, mas também prejudicam a todos, ao reduzir o potencial da Inteligência Artificial para a sociedade, incentivando a desconfiança e produzindo resultados distorcidos.

Os líderes empresariais e organizacionais têm o papel de garantir que os sistemas de IA que usam melhorem a tomada de decisão humana. Para isso, é necessário e urgente incentivar o progresso na pesquisa e no desenvolvimento tecnológico, que nos levarão a aplicações de Inteligência Artificial cada vez mais éticas e inclusivas.

Veja também: Como a Inteligência Artificial contribui para os Objetivos de Desenvolvimento Sustentável da ONU