Cientistas criam uma inteligência artificial “psicopata”

1

Ao gerar um algoritmo para ser utilizado em uma inteligência artificial, é feito um teste para medir a capacidade de interpretação do sistema. O algoritmo em si é feito com base em dados previamente escolhidos por aqueles que o construíram, e a experiência feita por uma equipe de Massachusetts comprova que as informações oferecidas são mais importantes que o algoritmo em si.

Apelidado de Norman em referência ao personagem Norman Bates, do filme Psicose de Alfred Hitchcok, o algoritmo possui uma visão de mundo semelhante ao do assassino fictício.

Durante o teste são apresentadas uma série de imagens abstratas para que o algoritmo gerado pela inteligência artificial interprete e dê uma resposta escrita sobre o que vê na pintura. São os mesmos quadros utilizados por psicólogos para acessar estados de consciência mais profundos de seus pacientes, principalmente para detectar se existe uma tendência positiva ou negativa de pensamento.

Enquanto um IA comum vê na imagem um vaso de flores, Normal interpreta a mesma foto como “um homem levando um tiro”. Em todos os casos, suas análises envolviam sangue, morte e destruição.

Junto a Norman um segundo IA foi treinado com dados mais positivos, o que se reflete nos resultados do teste. E também nos dá uma proporção da capacidade de aprendizado dessa nova tecnologia, extremamente dependentes das informações recebidas.

A inteligência artificial já está ao nosso redor, seja atuando como assistentes pessoais ou lidando com dados eletrônicos. A cada dia avançamos mais nesse aspecto, e algoritmos ainda mais complexos surgem o tempo todo. São capazes de criar notícias, analisar finanças e relatórios médicos.

Unindo essas capacidades com a possibilidade de treiná-lo negativamente, não é preciso se esforçar muito para pensar nas catástrofes que podem ocorrer.

Mas esse não é um dado exatamente novo, apenas não foi testado ativamente antes. Esta tendencia do Norman por destruição e morte está diretamente aliada ao fato de que isso é tudo o que ele conhece, e existem outros casos recentes de outros AI que foram influenciados da mesma forma.

Em Maio do ano passado um relatório alegava que um programa gerado por um IA utilizado na corte americana para avaliar o nível de risco dos prisioneiros era tendencioso contra pessoas negras. Elas eram consideradas duas vezes mais perigosas apenas pela cor da pele, isso porque recebia informações tendenciosas para alimentar seu banco de dados.

Muitas vezes esses dados que as inteligências artificiais recebem de humanos podem ser maliciosos de maneira completamente intencional. Em 2016 a Microsoft lançou um IA de conversa no Twitter chamado de Tay. Mas rapidamente usuários mal intencionados ensinaram o programa a defender a supremacia branca, genocídios e prestar homenagens ao holocausto.

Por isso Norman não é um caso raro ou exatamente surpreendente.

Existe também uma crescente crítica ao sexismo dentro das informações fornecidas a esses programas. Um estudo mostrou que o software treinado com base no Google News se tornou sexista pelos conteúdos que absorveu do site. Quando orientado para realizar um teste, de reconhecimento de usuários apresentou uma forte tendência a classificar mulheres apenas como donas de casa.
É necessário um controle mais rigoroso para a criação de inteligência artificial, e mais transparência nas informações fornecidas a eles. Hoje se ensina os IA da mesma forma que se ensinam humanos, o que pode transmitir preconceitos e visões culturais específicas.
É um pouco preocupante imaginar que essas tecnologias possam transmitir esse tipo de pensamento preconceituoso e, algumas vezes, até mesmo odioso, e como o debate sobre isso está cada vez mais em alta pelos constantes erros de programação, é fácil presumir que em breve surja algum tipo de regulamento na área.

1 COMENTÁRIO

Deixe uma resposta