Oportunidades e desafios da IA na segurança física

Como os grandes modelos de linguagem estão transformando a indústria e a importância da implementação responsável

Por Jason de Souza é Diretor Geral da Genetec para América Latina e Caribe

Com os avanços recentes, grandes modelos de linguagem (LLMs) e outras ferramentas de IA estão criando oportunidades para a automação de diversas tarefas, inclusive na indústria de segurança física. Entretanto, é essencial compreender suas limitações e riscos potenciais, pois a inovação não pode ser o único fator a ser considerado. A seguir, você verá os desafios apresentados e as estratégias para usar essa tecnologia de forma responsável.

IA pode ajudar, mas vamos com calma

Os grandes modelos de linguagem, como o ChatGPT da OpenAI e o Gemini do Google, rapidamente ganharam popularidade, acumulando milhões de usuários em poucos meses. A IA generativa pode criar conteúdo, como textos e imagens, com base nos dados em que foi treinada, gerando tanto entusiasmo quanto preocupações.

Na indústria de segurança física, os Modelos de Linguagem de Grande Escala (LLMs) oferecem novas oportunidades de automação. No entanto, é crucial compreender suas limitações e perigos. Você sabia que métodos de treinamento não supervisionados podem levar a “alucinações da verdade”, onde respostas plausíveis, mas incorretas, são geradas? Além disso, há preocupações com a privacidade, pois os LLMs podem aprender com dados confidenciais. Como podemos garantir que indivíduos mal-intencionados não explorem essas tecnologias para fins prejudiciais?

É com esse tipo de questionamento na segurança física que se torna essencial garantir que esses modelos operem em ambientes controlados e gerenciados por seres humanos. Desenvolvedores e especialistas têm a capacidade de focar em práticas responsáveis para assegurar a segurança das aplicações de LLMs, tanto para os clientes quanto para as próprias máquinas.

Aplicações na segurança física

Na indústria de segurança física, os algoritmos de aprendizado de máquina e deep learning são comumente usados para detectar padrões e classificar dados sem depender de IA generativa. Os resultados gerados são baseados em probabilidade, exigindo supervisão humana para determinar a precisão.

Para aplicações de segurança, pode haver um futuro em que os operadores usem modelos de linguagem de IA nas plataformas de segurança para obter respostas rápidas, como perguntar sobre os níveis de ocupação ou o número de crachás de visitantes emitidos. A IA poderia ajudar a criar políticas de segurança e melhorar os protocolos de resposta, mas para garantir o uso mais responsável e eficiente, é essencial envolver ativamente os seres humanos no processo de tomada de decisões. Isso pode ser alcançado com a implementação de um sistema robusto de testes, monitoramento e feedback.

O futuro é implementação responsável

Embora os grandes modelos de linguagem e outras ferramentas de IA ofereçam promissoras oportunidades de automação na segurança física, é fundamental abordar suas limitações e riscos com cautela. A implementação responsável dessas tecnologias requer um equilíbrio entre inovação e segurança, garantindo que as decisões críticas sejam sempre supervisionadas por humanos e que as soluções sejam avaliadas com pensamento crítico e planejamento cuidadoso.

Notícias Relacionadas

Destaque

Os custos crescentes das violações de dados e o papel da IA na mitigação de riscos

Por Marcos Tabajara, country manager da Appgate no Brasil À medida que o cenário da segurança cibernética continua a evoluir,…

Destaque

Sudeste concentra 85% dos roubos de carga no Brasil no 1º semestre

O Sudeste foi o local de 85% dos roubos de carga no Brasil no 1º semestre deste ano, mostra uma…

Cases

Solução de segurança da VIVOTEK ajudou concessionária a reduzir 90% dos falsos alarmes

A American Veterans Security (AVS), empresa especializada em monitoramento de segurança, tem a missão de oferecer soluções de segurança confiáveis,…