O Twitter inicia a luta contra imagens geradas por IA com o Notas da comunidade para imagens. Esse recurso está atualmente em fase de teste e ajudará os usuários no Twitter a identificar imagens geradas por IA. Nos últimos meses, muitos usuários se apaixonaram por essas imagens que são produtos de modelos de IA.
Esse recurso é apenas uma ferramenta no arsenal do Twitter que ele usará para combater a mídia enganosa. Alguns atores mal-intencionados que usam a plataforma do Twitter alcançam milhões de usuários com imagens geradas por IA, alegando que são provas de atividades que nunca ocorreram. O objetivo por trás desse esforço é enganar as pessoas e pode ser prejudicial para a comunidade global.
Depois que essas imagens chegam ao Twitter por meio de postagens, é fácil para usuários desavisados compartilhá-las com outras pessoas. Isso ajuda a espalhar informações enganosas como um incêndio, gerando falsas ideias de um indivíduo ou grupo. Notas da comunidade do Twitter para imagens está agora aqui para combater a disseminação de tais imagens para milhões de pessoas que usam a plataforma de mídia social.
O Twitter pretende conter a disseminação de imagens geradas por IA com o recurso Community Notes for Images
O Notas da comunidade do Twitter page publicou recentemente uma postagem que aborda imagens geradas por IA. Esses tipos de imagens estão se tornando cada vez mais comuns na plataforma de mídia social e tendem a enganar muitos usuários. O Twitter tomou nota disso e agora está dando a um grupo de usuários a capacidade de sinalizar esse tipo de postagem para conhecimento de outros usuários.
Neste momento, é fácil para um usuário mal-intencionado do Twitter usar qualquer modelo de IA para gerar uma foto de qualquer coisa. Tudo o que eles precisam fazer é descrever como a foto deve ser e quais elementos ela deve conter. O modelo AI então começa a trabalhar e produz uma imagem quase realista com base nas especificações dos usuários.
Armado com esta imagem, o usuário mal-intencionado pode postar a imagem no Twitter com uma descrição enganosa. Outros usuários do Twitter que conseguem ver esta postagem podem acreditar na descrição enganosa e retuitar ou curtir a postagem, espalhando-a para milhões. Agora, o Twitter está dando aos colaboradores em sua plataforma a capacidade de sinalizar essas imagens e vídeos enganosos gerados por IA.
Com o Notas da comunidade do Twitter para imagens, colaboradores com classificações altas poderão sinalizar imagens geradas por IA. Atualmente, esse recurso está em fase de teste e permite que os contribuidores sinalizem essas imagens para outros usuários. Para sinalizar essas imagens, os colaboradores com classificações altas adicionarão descrições à imagem que ficarão visíveis para outros usuários do Twitter.
Depois que as descrições são definidas, o algoritmo do Twitter faz a correspondência de todas as postagens dessa imagem na plataforma com a descrição. Se outro usuário postar a imagem novamente, ela aparecerá com a descrição, sinalizando-a como uma imagem gerada por IA. No entanto, esse recurso precisa ter um bom desempenho durante os testes antes de ser disponibilizado ao público.