Um grupo de cientistas das universidades de Princeton, nos Estados Unidos, e Bath, no Reino Unido, elaborou um método para medir o preconceito nestes sistemas semelhante ao teste de associação implícita que se usa para avaliar o dos humanos.
Neste teste pede-se a uma pessoa que agrupe os conceitos que considera idênticos, em oposição aos que entende como diferentes. As pessoas costumam associar, por exemplo, “flores” com “agradável” e “insetos” com “desagradável”.
A equipe de pesquisadores, liderada por Aylin Caliskan, da Universidade de Princeton, analisou estatisticamente o número de associações entre palavras dos sistemas de inteligência artificial, envolvendo um total de cerca de 2,2 milhões de palavras.
Segundo o estudo publicado na Science, os sistemas de inteligência artificial têm um preconceito ligado ao gênero, ao associarem as artes mais a “mulher” ou “garota” e menos a “homem” ou “rapaz”.
Os autores do estudo sustentam que os resultados obtidos são uma ferramenta para estudar os juízos de valor e o comportamento humano, assinalando que a linguagem está ligada aos preconceitos históricos e a estereótipos culturais.
// ZAP