Etiquetas de Conteúdo Sintético nas Redes: Guia Completo

Isaac Prada, consultor SM da Azurally

Já todos passámos por isso. Ao percorrer uma rede social, deparas-te com um vídeo com algo invulgar, algo pouco convencional, mas tão bem executado que te faz pensar se é real ou não. A Inteligência Artificial já é capaz de criar imagens e vídeos tão rápidos e com um nível de detalhe que, há alguns anos, pareceria ficção científica.

Podes pedir o que quiseres, as possibilidades são infinitas: o teu ator preferido a dançar break? Já está. O Presidente a dançar numa discoteca? Num instante. Esta impressionante facilidade em tornar credível o impossível é precisamente o que fez com que muitos governos reagissem para regular os conteúdos de IA, que se estão a tornar cada vez mais comuns e entre os quais se podem inserir muitas notícias falsas ou deepfakes.

Já ninguém duvida que os conteúdos gerados por IA são uma realidade que está a revolucionar a criação de conteúdos. Nenhum departamento criativo pode prescindir das ferramentas que a Inteligência Artificial proporciona e que facilitam muito o trabalho do dia a dia.

As próprias redes sociais também estão a tomar medidas, cada uma à sua maneira. O objetivo? Melhorar a transparência e combater a desinformação. Vejamos como as principais redes sociais o estão a fazer atualmente.

Objetivo: essencial para evitar problemas

De acordo com a META, “os conteúdos criados ou modificados com ferramentas de IA devem ser identificados e etiquetados para promover a transparência dos produtos da META. Não há dúvida de que o Facebook, o Instagram e o Threads estão sempre à procura de conteúdos generativos para serem identificados como tal.

A META incentiva a etiquetagem de conteúdos generativos. Neste caso, é mais fácil para o utilizador marcar este conteúdo quando o publica. Para o fazer, o botão “Adicionar etiqueta AI” está disponível imediatamente antes da publicação.

Não é obrigatório etiquetar imagens ou vídeos gerados por IA, mas se os sistemas da META o detectarem, podem ser etiquetados automaticamente. A própria IA também é responsável pela deteção de conteúdo generativo, caso o utilizador não o faça.

E se não o fizer, pode haver sanções? Se o conteúdo gerado pela IA puder ser enganador, especialmente em tópicos sensíveis, como acontecia mesmo antes do advento da IA, a META pode remover a publicação e aplicar outras sanções, como a proibição de publicar durante um período de tempo ou mesmo apagar a conta.

TikTok: muito necessário para a autenticidade e a transparência

A grande rede social chinesa parece ser um pouco mais permissiva no incentivo à marcação de conteúdos gerados por IA: “Para promover uma experiência autêntica e transparente para a nossa comunidade, incentivamos os criadores a marcar conteúdos que tenham sido totalmente gerados ou editados de forma significativa com a ajuda da IA”.

O TikTok também tem o seu próprio botão (em “mais opções” no ecrã de publicação) para que o utilizador ou a conta da empresa possa indicar o conteúdo gerado com IA. Uma vez marcado, já não pode ser alterado. Indica também que o conteúdo de IA pode ser denunciado através de texto no próprio conteúdo, com hashtags ou no texto da descrição.

No caso de os utilizadores ou as marcas não indicarem a proveniência de IA do seu conteúdo, o TikTok aplicará automaticamente a etiqueta quando a detetar.

Fonte: utilizador @fit_aitana /TikTok/ AI Generation

Fonte: utilizador @babyflix.9 / TikTok/ AI Generation

Fonte: utilizador @babyflix.9 / TikTok/ AI Generation

LinkedIn: elevada saturação de conteúdo sintético

A rede social profissional por excelência, propriedade da Microsoft, também é a favor da marcação de conteúdos gerados por IA. No caso específico do LinkedIn, um dos seus principais riscos, para além da desinformação ou da falta de transparência, é a perda de autenticidade e de credibilidade com a proliferação maciça de conteúdos do tipo “tutorial para especialistas” gerados por IA, muitas vezes duplicando conteúdos originais. Alguns estudos apontam para que este conteúdo gerado por IA represente cerca de 54% do total, um volume demasiado elevado após a massificação do ChatGPT.

Para resolver o problema, o LinkedIn conta com a deteção automática através do processo da plataforma de verificação C2PA (Coalition for Content Provenance and Authenticity), que adiciona uma marca de água com as iniciais CR ao conteúdo de IA que detecta.

Por enquanto, os utilizadores não dispõem de meios oficiais para marcar conteúdos para além de os indicarem na descrição dos conteúdos que publicam.

Fonte: @Ansh Mehra / LinkedIn / Geração AI

YouTube: rigor na rotulagem

“…pedimos aos criadores que alertem o público quando o conteúdo que parece realista tiver sido significativamente modificado ou gerado sinteticamente. Desta forma, o YouTube pede diretamente aos criadores que marquem o seu conteúdo gerado por IA, parcial ou totalmente, quando carregam os seus vídeos. A etiqueta é então adicionada automaticamente ao campo de descrição.

Se não for indicado, quando o YouTube detecta este tipo de conteúdo, acrescenta diretamente o rótulo sem que o utilizador tenha a possibilidade de o remover. E é rigoroso com a rotulagem de conteúdos sintéticos, aplicando sanções que vão desde a remoção de conteúdos até à suspensão da participação no seu programa de Parceiros.

Além disso, tal como os META, são particularmente rigorosos com os conteúdos patrocinados, que podem ser sujeitos a sanções mais severas em caso de reincidência.

X: O mais laxista de todos

O antigo Twitter, propriedade do controverso Elon Musk, é o mais permissivo no que diz respeito a conteúdos gerados por IA. Não tem um botão de marcação de conteúdo sintético disponível para o utilizador, nem detecta automaticamente esse tipo de conteúdo para marcação.

Os criadores de conteúdos são os únicos que devem assumir a responsabilidade pelos seus conteúdos. A hashtag“AIGenerated” é uma das hashtags normalmente utilizadas para indicar que o vídeo ou a imagem publicados são de origem sintética.

Embora este rótulo não seja obrigatório, se o conteúdo for enganador ou confuso, é provável que seja assinalado pela comunidade e, dependendo das regras da UE que viole, a sua visibilidade pode ser reduzida ou pode ser completamente removido.

Em última análise, a rotulagem de conteúdos sintéticos não é apenas uma medida técnica, mas um passo fundamental para proteger a confiança dos utilizadores em cada plataforma. A transparência torna-se a moeda corrente na era da IA: quem a adotar não só evitará sanções, como reforçará a sua credibilidade e marcará a diferença num ambiente cada vez mais saturado de conteúdos generativos.

Google Refinar produtos

Se há uma revolução digital caracterizada pela mudança, quase diária, é a revolução digital do

Ler artigo

A expansão do Google AI Overviews na Europa e o que isso significa para a tua marca

A Google continua a redefinir a experiência de pesquisa com o lançamento global das visões gerais de IA, uma funcionalidade baseada em IA que já está disponível em quase 100 países.

Ler artigo

Vídeos curtos do Google Novos horizontes e estratégias de IA

No marketing digital, nada é estático: as novidades, as mudanças e as novas ideias estão sempre a mudar.

Ler artigo

Contacta a Inteligência Artificial

Tens um projeto ou gostarias de obter mais informações? Não hesites em enviar uma mensagem utilizando o formulário abaixo.