Pesquisadores acreditam que uma inteligência artificial poderia fazer o mesmo trabalho dos jornalistas, só que mais rapidamente, com mais precisão e em uma escala muito maior.
O filme Spotlight: Segredos Revelados, de 2015, abordava alguns jornalistas do The Boston Globe que estavam trabalhando em uma pauta polêmica: padres da Igreja Católica que tinham abusado sexualmente de crianças.
Para tal, os profissionais procuraram por registros públicos para descobrir a verdade. Essa história aconteceu de verdade, no início da década de 2000. Mas, e se fosse hoje em dia?
Se essa história estivesse acontecendo em épocas atuais, pesquisadores acreditam que uma inteligência artificial poderia fazer o mesmo trabalho dos jornalistas, só que mais rapidamente, com mais precisão e em uma escala muito maior.
As investigações que aconteceram no filme Spotlight envolviam a procura por pistas e segredos de sacerdotes que, repentinamente, saíam de licença médica ou se mudavam.
Pensando nisso, a equipe de Joelle Casteix criou uma inteligência artificial que busca por padrões de comportamento semelhante em milhares de documentos de grandes organizações.
Casteix faz parte da Zero Abuse Project, uma organização sem fins lucrativos que tem como objetivo evitar o abuso infantil. A IA criada pelo grupo foi divulgada pela primeira vez no Good Global Summit em Genebra, na Suíça na última semana.
Casteix, inclusive, relata que sobreviveu a um caso de abuso sexual envolvendo um professor, e o caso foi encoberto. “Esta é a primeira vez que há uma maneira proativa de interromper o ciclo”, ela acrescenta.
A iniciativa intitulada de Projeto G, portanto, visa estudar documentos digitais e rastrear documentos em papéis legíveis, utilizando a tecnologia de IA para vasculhar as informações desta forma.
Dependendo da organização, os arquivos podem incluir detalhes a respeito das funções das pessoas ao longo do tempo, e também recortes de jornais onde são mencionados. O sistema então vai coletando as informações e aprendendo sobre a pessoa, destacando pontos incomuns de sua trajetória.
O sistema também investigaria mais a fundo, tentando verificar se o indivíduo pode estar envolvido em qualquer encobrimento. Para Casteix, é importante que o encobrimento seja atacado e encerrado, pois mesmo que o suspeito seja apreendido, ele entrará em um padrão e seu crime poderá ser encoberto novamente.
Este comentário corrobora com o de Lorraine Radford, da Universidade de Central Lancashire, no Reino Unido. Para a pesquisadora, “os infratores são pessoas muito manipuladoras; eles não manipulam apenas a vítima, eles também manipulam as pessoas ao seu redor”.
Ainda assim, o projeto pode ser capaz de detectar alguns tipos de agressores, especialmente os que deixam transparecer mais o comportamento suspeito.
Sobre a possibilidade de a inteligência artificial incriminar alguém inocente, Casteix revela que, para evitar isso, o software só será usado para complementar o trabalho existente do Zero Abuse Project; uma vez que é “preciso acompanhar o treinamento, a transparência e o trabalho com a aplicação da lei”.
Apesar de o software ainda estar em desenvolvimento, a equipe já incluiu documentos sobre abusadores de crianças conhecidos e observou a inteligência artificial avaliando os perfis.
O sistema também investigou algumas pessoas suspeitas, com base em pesquisas externas, e que ainda não foram expostas publicamente. O grupo ainda espera que outras organizações se interessem pela ferramenta para ajudar a erradicar o abuso infantil.
Ciberia // CanalTech / New Scientist