Blog

Um novo desafio para a Inteligência Artificial: explicar a si mesma

Inteligência Artificial Explicável emerge como novo campo de pesquisa

Em setembro deste ano, uma pesquisa liderada por Michal Kosinski, professor na Stanford Graduate School of Business, gerou muita polêmica, como não é incomum na carreira deste pesquisador que tem tentado alertar sobre usos possíveis, e potenciais abusos, de grandes conjuntos de dados. Aplicando um algoritmo de reconhecimento facial e utilizando dados de perfis em um site de relacionamento – fotos e outras informações, como, por exemplo, o sexo do parceiro ou parceira em vista –, Kosinski obteve do computador 91% de acertos entre os homens na correspondência entre foto e informações sobre orientação sexual, e 83% para as mulheres. Estudos anteriores colocam essa porcentagem em, no máximo, 60% quando são humanos tentando estabelecer essa correspondência.

O estudo de Kosinski levantou inúmeras questões sobre privacidade e potencial de discriminação e preconceito em aplicações de tecnologia de informação. No entanto, como registra reportagem publicada recentemente na The New York Times Magazine, uma questão também muito relevante não recebeu a mesma atenção da mídia que falou sobre o assunto: como a máquina conseguiu alcançar esses resultados? O que ela estava vendo que humanos não conseguiam enxergar?

A explicação mais comum estaria relacionada a um poder de processamento de dados maior no computador do que no cérebro humano. No entanto, os testes realizados por Kosinski levam a uma conclusão diferente, de que a inteligência artificial por vezes supera seres humanos na realização de determinadas tarefas por desenvolver maneiras completamente novas de ver, ou de pensar, impenetráveis para nós.

Leia também:
Deep Learning é a tecnologia de aprendizado de máquina que mais cresce no mundo
Ciência de Dados é considerada a profissão mais promissora até 2020
Como o Google está avançando no uso de Deep Learning

A habilidade – ou inabilidade – de discernir o que exatamente as máquinas estão fazendo quando ensinam coisas novas a si mesmas é um interesse central na pesquisa de inteligência artificial, por razões que podem ser mais filosóficas ou práticas. Um dos motores dessa preocupação são legislações em construção – na União Europeia, por exemplo – que devem exigir, em um futuro próximo, que todas as decisões tomadas pelas máquinas possam ser explicadas. Outro, que transita entre reflexões existenciais e preocupações mais tangíveis, é que qualquer decisão tomada por uma máquina deverá, em última instância, ter a responsabilidade por ela atribuída a um ser humano.

Por isso, um campo de pesquisa emergente é o da chamada “Inteligência Artificial Explicável” (X.A.I, do Inglês “Explainable Artificial Intelligence”), que busca abordagens mais transparentes da inteligência artificial e, especialmente, para as redes neurais profundas. Busca-se, assim,  justamente que as máquinas sejam capazes de explicar as coisas que elas aprendem, de uma maneira que seja compreensível para nós, humanos. Ou, como expressa o título da reportagem do NYT, que nós possamos ensinar essas máquinas a explicarem a si mesmas.

Fonte: The New York Times

 

Nenhum comentário

Postar comentário

dez − 8 =