Especialista do IEEE ensina como detectar vídeos falsos e preservar privacidade na Internet

Em tempos de vídeos feitos por inteligência artificial, realidade aumentada e inúmeros conteúdos com procedência duvidosa, especialista do IEEE (Instituto de Engenheiros Elétricos e Eletrônicos — maior organização profissional técnica do mundo dedicada ao avanço da tecnologia), Gabriel Gomes de Oliveira, destaca a importância de educar o público sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.

Os deepfakes, vídeos ou áudios manipulados por IA para parecerem autênticos, representam crescente preocupação em várias áreas, incluindo mídia, política e segurança pessoal. Segundo Gabriel Gomes de Oliveira, os algoritmos de IA estão se tornando cada vez mais sofisticados, o que torna a identificação dos vídeos falsos um desafio constante. “A detecção da ameaça envolve o reconhecimento de anomalias digitais, como mudanças na iluminação, movimentos bruscos e sincronia labial inadequada”, explica Oliveira.

Dicas que podem ajudar

Para ajudar a identificar vídeos gerados por IA, Oliveira recomenda a utilização de ferramentas avançadas de detecção baseadas em IA que analisam características sutis nos vídeos. Além disso, sugere prestar atenção em detalhes como:

– Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos genuínos;
– Iluminação da cena: variações não naturais na iluminação de um quadro para o outro;
– Movimentos bruscos: movimentos que parecem mecânicos ou fora do ritmo natural;
– Tom de pele: mudanças abruptas no tom de pele que podem indicar manipulação;
– Aspecto piscante dos olhos: frequência de piscadas que não correspondem a um comportamento humano normal;
– Sincronia labial com a fala: lábios que não se movem de forma sincronizada com o áudio.

Além de identificar simulações digitais, proteger a privacidade em um mundo de tecnologias imersivas, como a realidade aumentada (RA) e virtual (RV), também é crucial. Essas tecnologias coletam uma vasta quantidade de dados sensoriais, o que pode representar riscos significativos à privacidade. Para mitigar esses riscos, o membro do IEEE sugere medidas como: educação sobre ameaças atuais, exercícios simulados, protocolos de relatório, aprendizado contínuo e atualizações e a construção de uma cultura de segurança.

Para proteger a privacidade em tecnologias de realidade aumentada (RA) e virtual (RV) na sala de aula, Oliveira sugere revisar constantemente o sistema e a infraestrutura para identificar e corrigir vulnerabilidades, garantir que todas as fontes de dados sejam seguras e confiáveis, e empregar especialistas em cibersegurança para fortalecer as defesas. Ele também recomenda contratar serviços específicos para identificar e mitigar vulnerabilidades, investir em treinamentos contínuos para qualificar colaboradores e monitorar e analisar dados internos para detectar ameaças ou violações.

“É fundamental equilibrar defesas técnicas com a conscientização sobre segurança cibernética para criar uma estratégia robusta”, enfatiza ele. Ele também sugere incentivar a colaboração entre equipes de TI e outros departamentos para garantir que as medidas de segurança e programas de treinamento estejam alinhados com as necessidades organizacionais.

Para o futuro, é essencial conduzir avaliações regulares de vulnerabilidade e testes para identificar e abordar possíveis fraquezas nas defesas, tanto técnicas quanto humanas. “A informação e a educação são a base para o avanço seguro e inteligente de tecnologias inovadoras para toda a sociedade”, conclui o especialista do IEEE.

Notícias Relacionadas

Destaque

06 de Novembro: Arena Segurança em Foz do Iguaçu

Acontece no dia 06 de novembro a Arena Segurança Eletrônica em Foz do Iguaçu. A inscrição é gratuita e pode…

Destaque

IA em vídeo revoluciona a modernização dos centros de distribuição

Para revolucionar a gestão em docas e pátios, WeSafer lança Smart Docks que promete otimizar as operações, reduzir custos e…

Destaque

Hong Kong instalará milhares de câmeras de vigilância, gerando preocupações

Hong Kong avança na vigilância com milhares de câmeras, incluindo IA e reconhecimento facial, levantando temores de repressão política semelhante…