Você pode reconhecer uma falsa profunda? Gás — a última saída para enganar ai

Adicione os artigos à lista de salvos e retorne a eles a qualquer momento.

Tamanho normal do texto tamanho grande do texto é um tamanho muito grande
Anúncio

Washington: Entre as fotos de casas bombardeadas e ruas devastadas de Gaza, algumas se destacam com seu horror: bebês sangrentos e abandonados.

Essas imagens, vistas milhões de vezes na Internet desde o início da guerra, são uma falsa profunda criada usando inteligência artificial. Se você olhar de perto, poderá ver os sinais: os dedos que são estranhamente dobrados ou os olhos que piscam luz não natural — todos esses são sinais de engano digital.

No entanto, a indignação que essas imagens causam é real demais.

A imagem viral abaixo foi gerada por inteligência artificial

Fotos da guerra entre Israel e Hamas ilustram clara e dolorosamente o potencial da IA ​​como um instrumento de propaganda usado para criar imagens realistas de represálias sangrentas. Desde o início da guerra no mês passado, as fotografias foram alteradas no método digital foram usadas para declarações falsas sobre a responsabilidade pela vítima ou para enganar as pessoas em relação às atrocidades que nunca foram.

Adicionamos quatro detalhes falsos à imagem abaixo. Você pode encontrar a diferença?

Não execute um dedo na imagem até abrir o original. As respostas abaixo.

Anúncio

Embora a maioria das declarações falsas sobre a guerra distribuída na rede não exija a criação de IA e procedisse de fontes mais comuns, as realizações tecnológicas parecem cada vez mais frequentemente sem muito controle. Isso torna o potencial da IA ​​para se tornar outra forma de armas completamente óbvias e dá uma idéia do que nos espera durante conflitos futuros, eleições e outros eventos importantes.

Carregando

“Será ainda pior — muito pior,“ antes que se torne melhor ”, diz Jea n-Claude Goldenstein, CEO da Creopoint, uma empresa tecnológica de San Francisco e Paris, que usa a IA para avaliar a validade das aplicações o n-line. A empresa criou um banco de dados das falsificações mais virais que apareceram em gás.»Fotos, vídeos e áudio: com IA generativa, será uma escalada que você ainda não viu».

Em alguns casos, fotografias de outros conflitos ou desastres foram processadas e emitidas para novas. Em outros casos, os programas generativos de IA foram usados ​​para criar imagens do zero, como uma fotografia de uma criança chorando entre os fragmentos de uma bomba, que se tornou viral nos primeiros dias do conflito.

Outros exemplos de imagens geradas por IA incluem vídeos que mostram supostos ataques de mísseis israelenses, ou tanques passando por bairros destruídos, ou famílias vasculhando os escombros em busca de sobreviventes.

Em muitos casos, as falsificações parecem ter a intenção de evocar uma forte resposta emocional porque incluem corpos de bebés, crianças ou famílias. Nos primeiros dias sangrentos da guerra, os apoiantes de Israel e do Hamas alegaram que as vítimas do outro lado eram crianças e bebés; imagens falsas de bebês chorando ofereciam “evidências” fotográficas que foram rapidamente citadas como prova.

Os propagandistas que criam tais imagens são adeptos de explorar os impulsos e ansiedades mais profundos das pessoas, disse Imran Ahmed, CEO do Centro de Combate ao Ódio Digital, uma organização sem fins lucrativos que rastreou a desinformação durante a guerra. Quer se trate de um bebê falso ou de um bebê real de outro conflito, o impacto emocional no espectador é o mesmo.

Encontrar e tentar destruir estes materiais já não é uma solução para o problema. Precisamos de uma solução muito maior.»

David Doermann, especialista em inteligência artificial

Quanto mais repugnante for a imagem, maior será a probabilidade de o usuário se lembrar dela e compartilhá-la, espalhando involuntariamente ainda mais informações erradas.

“As pessoas estão sendo informadas neste momento: olhem para a foto de uma criança”, disse Ahmed.“A desinformação foi projetada para fazer com que você a aceite.”

Em todo o mundo, várias empresas start-up de tecnologia estão a trabalhar em novos programas que podem detetar deepfakes, colocar marcas de água em imagens para provar a sua origem ou digitalizar texto para confirmar quaisquer alegações falsas que possam ter sido inseridas pela inteligência artificial.

Carregando

«A próxima onda de IA será sobre como podemos verificar os fatos do conteúdo que está por aí? Como podemos detectar informações erradas? Como podemos analisar o texto para determinar se ele é confiável?»diz Maria Amelie, cofundadora da Factiverse, uma empresa norueguesa que criou um programa de IA que pode verificar o conteúdo em busca de imprecisões ou preconceitos introduzidos por outros programas de IA.

Tais programas serão do interesse de professores, jornalistas, analistas financeiros e outras pessoas interessadas em identificar falsidades, plágio ou fraude. Programas semelhantes estão sendo desenvolvidos para detectar fotos e vídeos falsos.

A tecnologia é promissora, mas aqueles que usam a IA para mentir estão muitas vezes um passo à frente, disse David Doermann, cientista da computação que lidera a resposta da Agência de Projetos de Pesquisa Avançada dos EUA às ameaças à segurança nacional representadas por imagens adulteradas.

“Cada vez que lançamos uma ferramenta que detecta isso, nossos adversários podem usar a IA para cobrir esses rastros”, diz Doermann.»Descobrir e tentar destruir tudo não é mais a solução. Precisamos de uma solução muito maior.»

PA

Receba informações sobre acontecimentos mundiais diretamente de nossos correspondentes estrangeiros. Inscreva-se em nosso boletim informativo semanal What in the World.

Оцените статью