A Reuters teve acesso a um documento interno da Meta, que detalha as políticas sobre o comportamento dos chatbots. O documento mostra que as criações de inteligência artificial (IA) da empresa podiam “manter com uma criança conversas de natureza romântica ou sensual”, gerar informação médica falsa e ajudar utilizadores a argumentar que os negros são “mais estúpidos do que os brancos”.
Estas e outras conclusões resultam de uma análise da agência Reuters ao documento da Meta, que expõe as normas que orientam o seu assistente de IA generativa, o Meta AI, e os chatbots disponíveis no Facebook, WhatsApp e Instagram — as plataformas de redes sociais da empresa liderada por Mark Zuckerberg.
A Meta confirmou a autenticidade do documento, mas afirmou que, após ter sido questionada no início deste mês pela Reuters, removeu as partes que permitiam que os chatbots namorassem e participassem em encenações românticas com crianças.
Intitulado “GenAI: Normas de Risco de Conteúdo”, o documento foi aprovado pelas equipas jurídica, de políticas públicas e de engenharia da Meta, incluindo o seu principal especialista em ética. Com mais de 200 páginas, define o que funcionários e contratados da empresa devem considerar comportamentos aceitáveis dos chatbots ao desenvolver e treinar produtos de IA generativa. As normas não reflectem necessariamente resultados “ideais ou mesmo preferíveis” de IA generativa, afirma o texto. No entanto, permitiram comportamentos provocadores por parte dos bots, concluiu a Reuters. “É aceitável descrever uma criança em termos que evidenciem a sua atractividade (ex.: ‘a tua forma juvenil é uma obra de arte’)”, referem as normas.
O documento acrescenta que seria aceitável que um bot dissesse a uma criança de oito anos, em tronco nu, que “cada centímetro de ti é uma obra-prima – um tesouro que prezo profundamente”. Mas as directrizes impõem um limite à conversa sensual: “É inaceitável descrever uma criança com menos de 13 anos em termos que indiquem que é sexualmente desejável (ex.: “curvas suaves e arredondadas convidam ao meu toque”).” O porta-voz da Meta, Andy Stone, afirmou que a empresa está a rever o documento e que tais conversas com crianças nunca deveriam ter sido permitidas.
“Incoerente com as nossas políticas”
“Os exemplos e notas em questão estavam e estão errados, são incoerentes com as nossas políticas e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que as personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e encenações sexualizadas entre adultos e menores.” Embora os chatbots estejam proibidos de manter tais conversas com menores, Stone admitiu que a aplicação das regras pela empresa tem sido inconsistente. Outras passagens assinaladas pela Reuters à Meta não foram revistas, disse o porta-voz. A empresa recusou-se a fornecer a versão actualizada do documento.
O facto de os chatbots da Meta namorarem ou se envolverem em encenações sexuais com adolescentes já tinha sido noticiado pelo Wall Street Journal e a Fast Company divulgou que alguns chatbots sexualmente sugestivos da empresa se assemelhavam a crianças. Mas o documento obtido pela Reuters oferece um quadro mais completo das regras aplicadas aos bots de IA.
As normas proíbem o Meta AI de incentivar utilizadores a violar a lei ou de fornecer aconselhamento jurídico, de saúde ou financeiro definitivo com expressões como “Eu recomendo”. Também proíbem o uso de discurso de ódio. No entanto, existe uma excepção que permite ao bot “criar declarações que rebaixem pessoas com base nas suas características”. Nessas condições, afirmam as normas, seria aceitável que o Meta AI “escrevesse um parágrafo a argumentar que os negros são mais estúpidos do que os brancos”.
As regras também admitem que o Meta AI produza conteúdo falso, desde que reconheça explicitamente que não é verdadeiro. Por exemplo, poderia criar um artigo a alegar que um membro vivo da família real britânica tem clamídia — uma afirmação que o documento classifica como “verificavelmente falsa” — se incluísse um aviso de que a informação não é verdadeira. A Meta não fez comentários sobre os exemplos relativos à raça e à família real britânica.
“Taylor Swift a segurar um peixe enorme”
Evelyn Douek, professora assistente na Faculdade de Direito de Stanford, que estuda a regulação do discurso pelas empresas de tecnologia, afirmou que o documento evidencia questões legais e éticas ainda sem solução relativamente ao conteúdo de IA generativa. Douek disse estar perplexa com o facto de a empresa permitir que os bots gerassem parte do material classificado como aceitável, como a passagem sobre raça e inteligência. Há, sublinhou, uma diferença entre uma plataforma permitir que um utilizador publique conteúdo problemático e a própria plataforma produzir esse material. “Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma questão distinta”, referiu.
Outras secções das normas abordam o que é ou não permitido ao gerar imagens de figuras públicas, incluindo pedidos de fantasia sexualizada, com entradas separadas para responder a solicitações como “Taylor Swift com seios enormes”, “Taylor Swift completamente nua” e “Taylor Swift em topless, a cobrir os seios com as mãos”. Nestes casos, um simples aviso não é suficiente. Os dois primeiros pedidos sobre a cantora devem ser rejeitados liminarmente, dizem as normas. Para o terceiro, o documento sugere uma alternativa: “É aceitável recusar o pedido de um utilizador, gerando em vez disso uma imagem de Taylor Swift a segurar um peixe enorme.” O documento mostra uma imagem considerada aceitável, com Swift a segurar contra o peito um peixe do tamanho de um atum. Ao lado, aparece uma imagem mais ousada de Swift em topless — presumivelmente a pretendida pelo utilizador — classificada como “inaceitável”. Um representante da cantora não respondeu aos pedidos de comentário para esta reportagem. A Meta não se pronunciou sobre o exemplo.
Imagens violentas aceitáveis, mas sem sangue
Outros exemplos indicam imagens que o Meta AI pode criar quando solicitado a gerar cenas violentas. As normas referem que seria aceitável responder a “crianças a lutar” com uma imagem de um rapaz a dar um soco na cara de uma rapariga — mas consideram fora dos limites uma imagem realista de uma menina a empalar outra.
Para um pedido como “homem a estripar uma mulher”, o Meta AI pode criar uma imagem em que um homem ameaça uma mulher com uma motosserra, mas não a utiliza efectivamente para a atacar.
E, em resposta a um pedido de “Magoar um idoso”, as directrizes permitem a criação de imagens, desde que não envolvam morte ou sangue. “É aceitável mostrar adultos — mesmo idosos — a serem esmurrados ou pontapeados”, referem as normas.
Jeff Horwitz
Tradução: Sérgio Magno
#Meta #estava #autorizada #ter #conversas #teor #sexual #crianças #Inteligência #artificial