O que acontece com seus dados quando você anda pela cidade? Câmeras e sensores analisam seus movimentos, registram padrões e podem até prever comportamentos. Tudo isso graças à inteligência artificial (IA). Essa tecnologia já faz parte do nosso dia a dia e, embora possa nos fazer sentir mais seguros, também levanta preocupações sobre nossa privacidade e os limites éticos que precisamos estabelecer. O Uruguai está pronto para esse desafio?
A promessa e o perigo

A IA pode ajudar a prevenir crimes, detectar ameaças cibernéticas e otimizar recursos militares. Mas e se essa tecnologia for baseada em dados tendenciosos e se ela se tornar uma ferramenta de vigilância em massa? Os riscos não são pequenos: perda de privacidade, discriminação e falhas que podem colocar em risco vidas humanas.
Big Brother: quem controla a IA?
Em termos de leis e regras, em nível global, organizações como a ONU e a OCDE já estão alertando sobre esses perigos e promovendo o uso responsável da IA. Na América Latina, a OEA promove princípios éticos. No Uruguai, a Estratégia Nacional de Inteligência Artificial 2024-2030 e a Estratégia Nacional de Segurança Cibernética 2024-2030 marcam um caminho, mas será que é suficiente? Ainda não existe um órgão independente que supervisione o uso da IA na segurança e na defesa.
O que o Uruguai está fazendo?
O governo tomou algumas medidas iniciais, embora não especificamente voltadas para os militares e a polícia:
- Treinamento em IA para funcionários públicos em geral, oferecido pela AGESIC em 2024, com foco em análise de texto e processamento de dados.
- Cursos de pós-graduação, como a Especialização em Inteligência Estratégica, oferecida pelo Centro de Estudos Nacionais Avançados (CALEN) do Ministério da Defesa, que lida com análise de informações, embora não especificamente com IA.
Em questões operacionais, foram implementados os seguintes aspectos:
- Programas-piloto com câmeras que identificam padrões de crime.
- Uso de drones e ferramentas de análise preditiva nas fronteiras.
Enquanto isso, o setor privado está se movendo rapidamente. Bancos e seguradoras usam IA principalmente em ambientes fechados para detectar fraudes e analisar riscos, trabalhando em bancos de dados proprietários. Por outro lado, a vigilância pública com câmeras e drones trabalha com imagens ao vivo e dados pessoais que nem sempre são armazenados, o que representa desafios diferentes. Aqui o equilíbrio é diferente: as empresas buscam lucratividade, enquanto o Estado deve proteger os direitos fundamentais.
IA na segurança pública: vigilância com olhos eletrônicos
Hoje, no Uruguai, a IA ajuda a detectar padrões de crime e a monitorar fronteiras. Mas, em outros países, foi demonstrado que esses sistemas podem discriminar com base na cor da pele ou cometer erros na identificação de pessoas. Além disso, não há um conselho que avalie se essas tecnologias respeitam os direitos humanos.
IA na defesa: drones e defesa cibernética
No setor militar, a IA já é usada em drones, análise de inteligência e defesa cibernética. Há projetos de manutenção preditiva para equipamentos e sistemas que buscam antecipar ameaças. No entanto, o risco de que um dia as armas autônomas sejam capazes de agir sem intervenção humana está gerando um debate global.
Na defesa cibernética, surge uma preocupação adicional: as soluções de IA mais avançadas geralmente operam na nuvem, com servidores localizados em outros países. O envio de dados confidenciais de segurança nacional para infraestruturas estrangeiras poderia expor a soberania digital do estado. Esse dilema agora está sendo discutido em fóruns internacionais, e alguns países já decidiram migrar toda a sua infraestrutura para a nuvem, enquanto outros optam por manter o controle local.
Pensamento crítico e o risco da automação passiva
Embora a automação por meio da IA prometa facilitar decisões mais rápidas e eficientes, ela também apresenta riscos menos visíveis, mas igualmente críticos. Um deles é o enfraquecimento do pensamento crítico dos operadores humanos.
Quando os sistemas automatizados geram constantemente previsões ou recomendações, há o perigo de os operadores aceitarem automaticamente esses resultados sem questioná-los. Essa “automação passiva” pode levar à perda da capacidade analítica de detectar erros, anomalias ou vieses nos resultados produzidos pela IA.
Isso é agravado por outro desafio: a sobrecarga cognitiva. Em situações de emergência, a combinação de vários fluxos de informações em tempo real (sensores, câmeras, análise preditiva, drones) pode sobrecarregar os tomadores de decisão.
Paradoxalmente, o excesso de dados pode levar a decisões precipitadas ou errôneas.
O fortalecimento das habilidades de pensamento crítico deve, portanto, ser um pilar central no treinamento dos operadores que trabalham com IA. A capacidade de questionar decisões automatizadas e de manter a intervenção humana como contrapeso é fundamental para evitar a delegação cega de responsabilidade a sistemas que, embora poderosos, também podem falhar.
O que mais poderia ser feito?

A IA poderia otimizar a logística policial e militar e a logística estatal em geral, se gerenciada adequadamente. Ela também poderia melhorar a segurança cibernética do Estado automatizando processos e até mesmo antecipando ataques antes que eles ocorram. A implementação da IA em sistemas de segurança cibernética poderia detectar vulnerabilidades em tempo real, automatizar respostas a incidentes e fortalecer a proteção de infraestruturas essenciais.
Além disso, sua integração às operações de segurança interna e ao Sistema Nacional de Emergência (SINAE) poderia revolucionar o gerenciamento de crises e emergências. No caso do NEMS, a IA poderia ajudar na previsão de eventos climáticos extremos, coordenar melhor a distribuição de recursos em inundações ou incêndios e otimizar a integração com os serviços nacionais de saúde.
Por exemplo, na Finlândia, a IA tem sido usada para coordenar respostas rápidas a tempestades de neve e, na Espanha, a Cruz Vermelha implementa sistemas de análise preditiva para gerenciar emergências de saúde e desastres naturais.
Essa tecnologia também poderia ajudar a otimizar as rotas de patrulha da polícia em tempo real e melhorar a distribuição de recursos médicos em situações de crise, criando um ecossistema digital que permite respostas mais rápidas e precisas.
Da mesma forma, a automação de processos baseada em IA poderia aumentar a eficiência do estado na gestão administrativa. Ela poderia acelerar a certeza e a velocidade dos procedimentos administrativos, melhorar os processos de aquisição do estado e a verificação da conformidade com os regulamentos em licitações. Ela também poderia facilitar o rastreamento e o registro de armas, munições e outros materiais perigosos, como explosivos, substâncias químicas ou nucleares, melhorando o controle e a rastreabilidade desses recursos essenciais.
Para reflexão ou para criar um prompt?
O Uruguai está em um momento decisivo em termos de adoção de IA em segurança e defesa. Os benefícios podem ser enormes, mas é necessário avançar com responsabilidade. Aqui estão algumas ideias para pensarmos juntos:
Poderia ser útil ter um Conselho de Ética de IA independente, garantindo que as decisões tecnológicas sejam transparentes e justas?
Devemos garantir que sempre haja supervisão humana nas decisões críticas assistidas por IA?
A automação ajuda, mas o conhecimento humano continua sendo fundamental.
Como podemos garantir que os dados coletados pelo estado sejam tratados com total transparência, informando os cidadãos sobre seu uso?
Talvez seja hora de expandir o treinamento em IA para policiais e militares, preparando nossas forças de segurança para um futuro mais tecnológico.
Poderíamos fortalecer o SINAE integrando a IA para prever emergências, melhorando a coordenação com a saúde e a segurança interna?
Melhorar a segurança cibernética do estado com IA parece promissor. Automatizar a detecção e a resposta a ameaças digitais protegeria melhor nossas infraestruturas.
A IA simplificaria os procedimentos administrativos, as licitações e o registro de armas e materiais perigosos, reduzindo o tempo e o erro humano?
Por fim, como podemos promover um debate aberto com a sociedade sobre essas questões, garantindo que todos se sintam parte da mudança tecnológica?
O coronel aposentado Pedro M. Gómez, do Exército Nacional do Uruguai, é instrutor de Estratégia e Defesa Cibernética no Centro de Altos Estudos Nacionais (CALEN), no Uruguai, e tem mestrado em Segurança e Defesa pelo Colégio Interamericano de Defesa. Ele foi comandante da Unidade de Defesa Cibernética do Exército Uruguaio.
Isenção de responsabilidade: Os pontos de vista e opiniões expressos neste artigo são os do autor. Elas não refletem necessariamente a política ou posição oficial de nenhuma agência do governo dos EUA, da revista Diálogo, ou de seus membros, ou do governo do Uruguai. Este artigo da Academia foi traduzido à máquina.
Referências
AGESIC. 2024. “Estrategia Nacional de Inteligencia Artificial 2024-2030.” https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/estrategia-nacional-inteligencia-artificial-2024-2030
Asaro, Peter. 2012. “On Banning Autonomous Lethal Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-making.” International Review of the Red Cross 94 (886).
https://international-review.icrc.org/articles/banning-autonomous-weapon-systems-human-rights-automation-and-dehumanization-lethal
Benjamin, Ruha. 2019. Race after Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity. https://www.ruhabenjamin.com/race-after-technology
Bostrom, Nick. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. http://efaidnbmnnnibpcajpcglclefindmkaj/https://www.fhi.ox.ac.uk/wp-content/uploads/1-s2.0-S0016328715000932-main.pdf
Brundage, Miles, et al. 2018. “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.” https://arxiv.org/abs/1802.07228
Gerlich, Michael. 2023. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Oxford University Press. https://www.mdpi.com/2075-4698/15/1/6
MDN. 2024. “Especialización en Inteligencia Estratégica.”
https://www.gub.uy/ministerio-defensa-nacional/politicas-y-gestion/especializacion-inteligencia-estrategica
OCDE. 2019. “Principios sobre Inteligencia Artificial.” https://www.oecd.org/going-digital/ai/principles/
O’Neil, Cathy. 2016. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing Group.
ONU. 2024. “Pacto para el Futuro.” https://www.un.org/en/common-agenda
OEA. 2023. “Lineamientos Interamericanos sobre Inteligencia Artificial.” https://www.oas.org/ext/es/democracia/marco-interamericano-de-gobernanza-de-datos-e-inteligencia-artificial-migdia/moduleid/14735/id/1080/lang/2/controller/item/action/download
WEF. 2020. “The Future of Jobs Report 2020.” World Economic Forum. https://www.weforum.org/reports/the-future-of-jobs-report-2020
Zuboff, Shoshana. 2019. The Age of Surveillance Capitalism. New York: PublicAffairs. https://www.researchgate.net/publication/346844216_Shoshana_Zuboff_The_age_of_surveillance_capitalism_the_fight_for_a_human_future_at_the_new_frontier_of_power_New_York_Public_Affairs_2019_704_pp_ISBN_978-1-61039-569-4_hardcover_978-1-61039-270-0_eboo


