Uma Associaçao Infeliz e Incorreta
Uma funcionalidade de inteligência artificial do Instagram, parte do pacote Meta AI, cometeu um erro embaraçoso ao associar membros da banda americana Dutch Interior a grupos de supremacia branca. A falha foi divulgada em 3 de julho por um dos integrantes do grupo, que se viu surpreendido ao notar que o Instagram sugeria uma suposta ligação com ideologias extremistas, afirmando ainda que suas músicas haviam sido removidas de plataformas de streaming por essa alegação infundada.
A Meta, empresa responsável pelo Instagram, reconheceu o erro e informou que a situação foi corrigida rapidamente. No entanto, o impacto da desinformação já estava feito. O músico revelou que a acusação falsa apareceu como uma sugestão de busca em um vídeo que acumulou mais de 90 mil visualizações. Ao interagir com a postagem, vários usuários poderiam ser direcionados a um link que falava sobre a suposta “polêmica do Dutch Interior”, que, vale destacar, não está disponível no Brasil.
O Instagram, em sua mensagem automatizada, afirmou de forma imprópria que a banda tinha “associação suposta com a supremacia branca”, além de mencionar que seus conteúdos haviam sido retirados de serviços de streaming e que a banda considerava mudar de nome como precaução contra mal-entendidos. No entanto, a realidade é diferente: as músicas da banda continuam acessíveis nas plataformas e seu nome permanece inalterado, sem qualquer menção a ligações com ideologias de extrema direita.
Um Erro Além da Associaçao Malfeita
Além da grave incorreção a respeito das associações ideológicas, a funcionalidade da Meta AI errou até mesmo a nacionalidade da banda, confundindo-a com um grupo holandês, sendo que o nome “Dutch Interior” foi erroneamente interpretado como uma referência ao interior da Holanda. O músico que trouxe à tona a questão expressou sua indignação, afirmando: “A Meta AI inventou uma polêmica falsa sobre a nossa banda e a promoveu no Instagram para milhares de pessoas”. Ele ainda questionou como uma situação tão grave poderia ocorrer, dado o alcance que o vídeo teve.
“Só queremos entender como isso pode ser permitido. Nosso vídeo teve dezenas de milhares de visualizações, o que significa que milhares de pessoas que nunca tinham ouvido falar de nós podem ter sido expostas a essa desinformação”, reiterou o artista, preocupado com os desdobramentos da situação.
Resposta da Meta e Reflexões sobre a IA
Em resposta ao G1, a Meta admitiu que o erro foi corrigido assim que identificado e pediu desculpas pela confusão gerada. Em um comunicado, a empresa afirmou: “Como qualquer sistema de IA generativa, pode não retornar as respostas que pretendemos. Estamos constantemente buscando feedback sobre a Meta AI e nossos modelos para aprimorá-los ao longo do tempo”.
No entanto, a Meta não esclareceu quais são as circunstâncias em que essa funcionalidade é ativada, nem quais fontes de informação respaldam os conteúdos apresentados aos usuários. Esse episódio levanta questões sérias sobre a responsabilidade das empresas de tecnologia na supervisão de ferramentas baseadas em inteligência artificial, especialmente quando essas ferramentas têm o potencial de disseminar informações enganosas.
Questões em Destaque
Esse incidente ressalta a importância de uma maior transparência nas práticas de IA e a necessidade de um controle rigoroso sobre as informações que são veiculadas, principalmente em plataformas que abarcam milhões de usuários. O caso do Dutch Interior serve como um alerta para outros artistas e criadores de conteúdo sobre os riscos de associar suas imagens a narrativas forjadas por algoritmos.