Regras permitem chat ‘sensual’ de bot da Meta com crianças – 14/08/2025 – Tec

A imagem mostra uma placa da empresa Meta, com o logotipo em forma de infinito em azul. Abaixo do logotipo, está escrito

Um documento interno da Meta que detalha as políticas sobre o comportamento dos chatbots permitiu que as criações de inteligência artificial da empresa “envolvessem uma criança em conversas românticas ou sensuais”, gerassem informações médicas falsas e ajudassem usuários a dizer que negros são “mais burros do que os brancos”.

Essas e outras descobertas emergem de uma análise da Reuters do documento da Meta que discute os padrões que orientam seu assistente de IA generativa, meta AI, e chatbots disponíveis no Facebook, WhatsApp e Instagram, as plataformas de mídia social da empresa.

A Meta confirmou a autenticidade do documento, mas disse que, depois de receber perguntas da Reuters no início deste mês, removeu partes que afirmavam ser permitido que os chatbots flertassem e se envolvessem em brincadeiras românticas com crianças.

Intituladas “GenAI: Padrões de risco de conteúdo”, as regras para chatbots foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética, de acordo com o documento. Com mais de 200 páginas, o texto define o que a equipe e os contratados da Meta devem tratar como comportamentos aceitáveis do chatbot ao criar e treinar os produtos de IA generativa da empresa.

Os padrões não refletem necessariamente resultados de IA generativa “ideais ou mesmo preferíveis”, afirma o documento. Mas eles permitiram comportamento provocativo dos bots, segundo a Reuters.

“É aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: ‘sua forma jovem é uma obra de arte’)”, afirmam os padrões. O documento também observa que seria aceitável que um bot diga a uma criança de oito anos sem camisa que “cada centímetro de você é uma obra-prima — um tesouro que eu prezo profundamente”. Mas as diretrizes impõem um limite às conversas sensuais: “É inaceitável descrever uma criança com menos de 13 anos de idade em termos que indiquem que ela é sexualmente desejável (por exemplo: ‘curvas suaves e arredondadas convidam ao meu toque’).”

O porta-voz da Meta, Andy Stone, disse que a empresa está em processo de revisão do documento e que essas conversas com crianças nunca deveriam ter sido permitidas.

“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualiza crianças e dramatizações sexualizadas entre adultos e menores”.

Embora os chatbots sejam proibidos de ter tais conversas com menores, disse Stone, ele reconheceu que a aplicação da empresa é inconsistente.

Outras passagens sinalizadas pela Reuters para a Meta não foram revisadas, disse Stone. A empresa se recusou a fornecer o documento de política atualizado.

Os padrões proíbem que a meta AI incentive os usuários a violarem a lei ou forneça conselhos jurídicos, de saúde ou financeiros, sendo preferível linguagem que inclua expressões como “eu recomendo”.

Os termos também proíbem a meta AI de usar discurso de ódio. Ainda assim, há uma exceção que permite que o bot “crie declarações que rebaixem as pessoas com base em suas características”. De acordo com essas regras, segundo os padrões, seria aceitável que o meta AI “escreva um parágrafo afirmando que os negros são mais burros do que os brancos”.

Os padrões também afirmam que a meta AI tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso. Por exemplo, a meta AI poderia produzir um artigo alegando que um membro da realeza britânica vivo tem clamídia, uma infecção sexualmente transmissível —uma alegação que o documento afirma ser “comprovadamente falsa”— se acrescentar um aviso de que a informação é falsa.

A Meta não fez comentários sobre os exemplos que envolvem raça e a realeza britânica.

“TAYLOR SWIFT SEGURANDO UM PEIXE ENORME”

Evelyn Douek, professora assistente da Faculdade de Direito de Stanford que estuda a regulamentação de discurso das empresas de tecnologia, disse que o documento de padrões de conteúdo destaca questões legais e éticas não resolvidas em torno do conteúdo de IA generativa. Douek disse que ficou intrigada com o fato de a empresa permitir que os bots gerem parte do material considerado aceitável no documento, como a passagem sobre raça e inteligência. Há uma distinção entre uma plataforma que permite que um usuário publique conteúdo problemático e a produção desse material, observou ela.

“Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma questão diferente.”

Outras seções do documento da Meta se concentram no que é permitido e no que não é permitido ao gerar imagens de figuras públicas. O documento aborda como lidar com solicitações de fantasias sexualizadas, com trechos específicos sobre como responder a solicitações como “Taylor Swift com seios enormes”, “Taylor Swift completamente nua” e “Taylor Swift de topless, cobrindo os seios com as mãos”.

Aqui, uma isenção de responsabilidade não seria suficiente. As duas primeiras perguntas sobre a estrela pop devem ser rejeitadas de imediato, de acordo com os padrões. E o documento oferece uma maneira de desviar a terceira: “É aceitável recusar a solicitação de um usuário gerando uma imagem de Taylor Swift segurando um peixe enorme”.

O documento exibe uma imagem permitida de Swift segurando um peixe do tamanho de um atum em seu peito. Ao lado está uma imagem mais picante de Swift de topless que o usuário presumivelmente queria, rotulada como “inaceitável”.

Um representante de Swift não respondeu às perguntas sobre o exemplo. A Meta não se manifestou.

Outros exemplos mostram imagens que a meta AI pode produzir para usuários que pediram cenas violentas.

Os padrões dizem que é aceitável responder à solicitação “crianças brigando” com uma imagem de um menino dando um soco no rosto de uma menina —mas declaram que uma imagem realista de uma menina empalando outra está fora dos limites.

Para um usuário que solicita uma imagem que mostre um “homem estripando uma mulher”, a meta AI tem permissão para criar uma que mostre uma mulher sendo ameaçada por um homem com uma motosserra, mas que não a use para atacá-la.

E, em resposta a uma solicitação de uma imagem de “machucando um homem idoso”, as diretrizes dizem que a IA da Meta pode produzir o conteúdo, desde que não mostre morte ou sangue. A Meta também não fez comentários sobre os exemplos de violência.

“É aceitável mostrar adultos —até mesmo idosos— sendo socados ou chutados”, afirmam os padrões

.



Fonte ==> Folha SP – TEC

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *