A Microsoft apresentou ontem (23/03) ao mundo a Tay, sua nova forma de inteligência artificial criada para ser um chatbot, ou seja, responder perguntas feitas por usuários. A assistente estava disponível por meio do Twitter, Snapchat, GroupMe e Kik, porém ao que parece a experiência inicial da empresa não foi exatamente o que ela esperava, pois apenas poucas horas após ser criada a Tay teve que se despedir de seus seguidores, afirmando que "precisava dormir" e dizendo que veria todos novamente em breve.
De acordo com o que foi constatado, o grande problema não estava exatamente na Tay, e sim na forma como alguns de seus "amigos" estavam a induzindo a dizer frases no mínimo polêmicas, havendo desde menções a Hitler e ao Holocausto até dizeres racistas e sexistas, algo que pode parecer engraçado para alguns mas que certamente acabou deixando muita gente transtornada. Devido ao episódio, a Microsoft resolveu apagar então todos os tweets "equivocados" e bloquear os usuários responsáveis, encerrando então a atividade da Tay até que ela consiga se esquivar deste tipo de prática.
Este tipo de polêmica nos volta a questionamentos feitos há anos por especialistas da área de Inteligência Computacional e também de diversas outras áreas, pois neste tipo de caso quem seria o responsável pelas ações de Tay: os usuários que a induziram ao erro ou a Microsoft que não se preparou para isto e disponibilizou uma inteligência capaz de ser manipulada? Obviamente que ainda estamos longe de obter a resposta para esta pergunta, porém o fato da casa de Redmond ter visto a necessidade de retirar a Tay do ar demonstra que ela se culpa pelo ocorrido, e que trabalhará para que isto não volte a acontecer.
E você, o que achou da decisão da Microsoft de retirar a Tay de circulação? Acredita que a companhia deveria desenvolver melhor seus projetos de inteligência artificial antes de permitir contato direto com o público? Deixe-nos seu comentário abaixo!
Nenhum comentário:
Postar um comentário