Off On

As fotografias têm um profundo poder de moldar nossa compreensão do mundo. E nunca foi tão importante poder discernir quais são genuínas e quais são manipuladas para promover uma agenda, especialmente na sequência de momentos dramáticos ou controversos. Aúdios, fotos e vídeos falsos gerados por inteligência artificial (IA) estão se tornando rapidamente um dos maiores problemas que enfrentamos online. Esse tipo de material está se proliferando como resultado do aumento e do uso indevido de ferramentas de inteligência artificial generativas.

Assim, está ficando cada vez mais difícil distinguir o que é real do que não é. Geradores de vídeo e imagem, como DALL-E, Midjourney e Sora da OpenAI, facilitam a criação de deep fakes por pessoas sem nenhuma habilidade técnica – basta digitar uma solicitação e o sistema a produz.

Essas imagens falsas podem parecer inofensivas. Mas elas podem ser usadas para realizar golpes e roubo de identidade ou propaganda e manipulação de eleições.

Veja, por exemplo, uma foto de Kate Middleton, princesa de Gales, publicada pelo Palácio de Kensington em março. As organizações de notícias a retiraram depois que os especialistas notaram algumas manipulações óbvias. E alguns questionaram se as imagens capturadas durante a tentativa de assassinato do ex-presidente Donald Trump eram genuínas.

Veja a seguir como evitar ser enganado por deep fakes:

Como fazer identificação de deep fakes

Nos primórdios das deep fakes, a tecnologia estava longe de ser perfeita e, muitas vezes, deixava sinais evidentes de manipulação. Os verificadores de fatos apontaram imagens com erros óbvios, como mãos com seis dedos ou óculos com lentes de formatos diferentes.

Mas, com o aprimoramento da IA, isso se tornou muito mais difícil. Alguns conselhos amplamente compartilhados – como procurar padrões não naturais de piscar de olhos entre as pessoas em vídeos deepfake não são mais válidos, diz Henry Ajder, fundador da empresa de consultoria Latent Space Advisory e um dos principais especialistas em IA generativa.

Ainda assim, há alguns aspectos a serem observados.

Muitas fotos de deep fake, especialmente de pessoas, têm um brilho eletrônico, “um tipo estético de efeito de suavização” que deixa a pele “com uma aparência incrivelmente polida”, disse Ajder.

Ele alertou, no entanto, que o estímulo criativo às vezes pode eliminar esse e muitos outros sinais de manipulação de IA.

Verifique a consistência das sombras e da iluminação. Muitas vezes, o objeto está em foco nítido e parece convincentemente realista, mas os elementos do pano de fundo podem não ser tão realistas ou polidos.

Observe os rostos

A troca de rostos é um dos métodos mais comuns de vídeos deep fake. Os especialistas aconselham observar atentamente as bordas do rosto. O tom de pele do rosto combina com o resto da cabeça ou do corpo? As bordas do rosto estão nítidas ou borradas?

Se você suspeitar que o vídeo de uma pessoa falando foi adulterado, observe a boca dela. Os movimentos labiais combinam perfeitamente com o áudio?

Ajder sugere olhar para os dentes. Eles são claros ou estão borrados e, de alguma forma, não são consistentes com sua aparência na vida real?

A empresa de segurança cibernética Norton diz que os algoritmos talvez ainda não sejam sofisticados o suficiente para gerar dentes individuais, portanto, a falta de contornos para dentes individuais pode ser uma pista.

Aumente o zoom

Pode parecer básico, mas um estudo realizado pela pesquisadora Sophie Nightingale, da Universidade de Lancaster, na Grã-Bretanha, constatou que, em todas as faixas etárias, as pessoas que dedicaram tempo para ampliar as fotos e examinar cuidadosamente as diferentes partes foram melhores em identificar imagens alteradas.

Tente fazer isso na próxima vez que tiver uma sensação estranha em relação a uma foto. Apenas certifique-se de não se concentrar nas coisas erradas. Para ajudar, criamos esta imagem de amostra (ligeiramente exagerada) para destacar alguns sinais comuns de manipulação de imagens.

Tente fazer uma busca reversa de imagens

Se uma imagem parecer fora do padrão da pessoa que a está usando, parecer claramente partidária ou simplesmente não passar em uma verificação de vibe, as ferramentas de imagem reversa, como TinEye ou Google Image Search, podem ajudá-lo a encontrar os originais. Mesmo que não consigam, essas ferramentas ainda podem revelar um contexto valioso sobre a imagem.

Aqui está um exemplo recente: Pouco depois que um homem armado de 20 anos tentou assassinar Trump, apareceu uma imagem no serviço de mídia social Threads, de propriedade da Meta, que mostrava agentes do Serviço Secreto sorrindo enquanto se agarravam ao ex-presidente. Essa imagem foi usada para reforçar a teoria sem fundamento de que o tiroteio foi encenado.

Identificando Textos Gerados por IA

O uso de chatbots de IA, como ChatGPT e Bard, é comum em tarefas online, mas quando se trata de produção autoral e criativa, a identificação de textos gerados por IA é crucial. Softwares como AI Text Classifier e GPT Zero são ferramentas confiáveis que estimam a probabilidade de um texto ter sido criado por uma IA. No entanto, eles não são infalíveis, já que algumas redações originais podem ter sido influenciadas por orientações de chatbots. Além disso, textos sintéticos muitas vezes exibem repetição excessiva de palavras-chave e uma linguagem engessada, ao contrário da fluidez natural da escrita humana.

Use IA para encontrar manipulações

Outra abordagem é usar a IA para combater a IA.

A Microsoft desenvolveu uma ferramenta de autenticação que pode analisar fotos ou vídeos para dar uma pontuação de confiança sobre se eles foram manipulados. O FakeCatcher da fabricante de chips Intel usa algoritmos para analisar os pixels de uma imagem e determinar se ela é real ou falsa.

Há ferramentas online que prometem detectar falsificações se você carregar um arquivo ou colar um link para o material suspeito. Mas algumas, como o autenticador da Microsoft, estão disponíveis apenas para parceiros selecionados e não para o público. Isso se deve ao fato de que os pesquisadores não querem dar dicas aos malfeitores e dar a eles uma vantagem maior na corrida armamentista do deep fake.

a IA vem avançando a uma velocidade vertiginosa e os modelos de IA estão sendo treinados com dados da internet para produzir conteúdo de qualidade cada vez mais alta e com menos falhas.

Isso significa que não há garantia de que esse conselho ainda será válido mesmo daqui a um ano.

Os especialistas dizem que pode até ser perigoso sobrecarregar as pessoas comuns para que se tornem Sherlocks digitais, pois isso pode dar a elas uma falsa sensação de confiança à medida que se torna cada vez mais difícil, mesmo para olhos treinados, detectar deep fakes.

 

Acompanhe nosso blog para mais informações, se tiver dúvidas ou precisar de orientação específica, entre em contato com nossos especialistas.

Entre em contato

Instagram: @carlospintoadv

Linkedin: linkedin.com/company/carlospintoadvocaciaestrategica

 

 

Comentários Facebook

Postagens Relacionadas