Governos ao volta do mundo estão usando ferramentas de IA sem estabelecer regras claras e, na maioria das vezes, sem informar à população. É isso que mostra um estudo conjunto entre pesquisadores de diferentes universidades, descrito em cláusula no The Conversation.
O trabalho descobriu mais de 260 casos de uso de lucidez sintético, envolvendo serviços administrativos, assistência médica, segurança pública e outras áreas. Muitos deles não tinham regras.
Governos estão usando IA sem regras
O cláusula lembrou de um caso emblemático: em 2017, a cidade de Roterdã, na Holanda, implantou um sistema de IA capaz de prever a verosimilhança de beneficiários de assistência social cometerem fraude. No entanto, a tecnologia tinha vieses e estabeleceu que mulheres jovens, com filhos e de baixa proficiência na língua holandesa tinham “superior risco” de serem fraudadoras.
O sistema foi suspenso em 2021, mas, segundo os pesquisadores, mostram o que pode dar inexacto quando um governo adota IA sem supervisão adequada.
O estudo atual analisou 170 governos locais ao volta do mundo que usam IA em diferentes funções. Eles descobriram que foram 262 casos de adoção. As principais aplicações foram:
- Serviços administrativos. Um exemplo é o chatbot de turismo VisitMadridGPT, que oferece recomendações personalizadas e escora em tempo real para turistas conhecerem Madri, na Espanha;
- Assistência médica. Um exemplo é um chatbot lançado durante a pandemia de Covid-19 pelo gabinete do prefeito de Boston, nos Estados Unidos, para entrega de vitualhas sem contato;
- Transporte e planejamento urbano. Um exemplo é um sistema em tempo real que mantém usuários informados sobre vagas de estacionamento livres, situações de trânsito e rotas personalizadas em Austin, na Austrália;
- Gestão ambiental. Um exemplo é um sistema de IA em Hangzhou, na China, que está sendo usado para qualificar resíduos de maneira eficiente e aumentar as taxas de reciclagem;
- Segurança e emprego da lei. Um exemplo aconteceu em Chicago, nos EUA, onde uma IA foi usada para qualificar supostos pontos de transgressão e evitar a violência armada. Nesse caso, no entanto, os limites éticos e os vieses da IA foram um problema.
IA pode ajudar governos, mas tem problemas éticos
A IA pode ser útil, porquê você viu nos casos de uso supra. No entanto, o estudo descobriu que, dos mais de 260 casos, somente 26 tinham um conjunto de regras e políticas publicado até maio deste ano. Isso é menos de 16% do totalidade. A pesquisa alertou que, na maioria dos casos, os governos estão implementando sistemas poderosos sem supervisão e responsabilização pública com preconceitos, privacidade de dados e limites éticos.
No caso dos governos que estabeleceram regras, houve colaboração com as partes interessadas, porquê conscientização entre funcionários e cidadãos sobre a transparência da tecnologia.
Leia mais:
- IA Conversacional: o que esperar dos chatbots e assistentes virtuais em 2025?
- IA reflete preconceitos humanos, diz estudo
- IA perpetua estereótipos raciais e de gênero, aponta estudo
Outro problema identificado é a falta de conhecimento dos moradores sobre o uso de IA pelos próprios governos. 75% dos entrevistados não estava consciente do uso da tecnologia. Metade não sabia que os governos estavam usando IA para serviços públicos, o que também levanta questões de informação institucional e engajamento com os cidadãos.
Os autores do cláusula revelaram que, atualmente, estão trabalhando com governos da Austrália, Estados Unidos, Espanha, Hong Kong e Arábia Saudita para a geração de princípios orientadores que guiem o uso de IA. A expectativa é que isso esteja pronto até o final de 2025.
O post Governos estão usando IA sem estabelecer regras, diz estudo apareceu primeiro em Olhar Do dedo.