Publicado em: 25/10/2021.

Seminário busca disseminar boas práticas que possam melhorar gestão das entidades públicas. Programação incluiu dois trabalhos de servidores da CGU

O 7º Seminário sobre Análise de Dados na Administração Pública teve início nessa quinta-feira (21/10), com transmissão pelo Youtube. O Seminário é uma iniciativa conjunta da Controladoria-Geral da União (CGU), do Tribunal de Contas da União (TCU) e da Escola Nacional de Administração Pública (Enap) e tem o objetivo de promover o compartilhamento de boas práticas no uso de técnicas de análise de dados e inteligência artificial como instrumento para a melhoria da gestão e do controle nas entidades públicas.

Assista na íntegra: https://www.youtube.com/watch?v=NuRs_CA9Wdw

A abertura do encontro foi feita pelo secretário-executivo da CGU, José Marcelo Castro de Carvalho, e pelo ministro do TCU, Aroldo Cedraz, além do presidente da Escola Nacional de Administração Pública (ENAP), Diogo Costa, e da diretora do Instituto Serzedello Corrêa (ISC), Ana Cristina Melo Pontes Botelho.

José Marcelo Castro de Carvalho afirmou que a administração pública tem feito uma grande transformação em termos de dispor as informações de forma mais estrutural e também de atuar num processo de constante cooperação. “Ao longo do tempo, trabalhos importantes na folha de pagamentos ou no auxílio desemprego nos permitiram ver que o mais importante não eram as informações em si. A grande evolução foi perceber a necessidade de minerar essas informações e conseguir identificar indícios de problemas que possam ser evitados”.

O secretário comentou os resultados obtidos, por exemplo, com a ferramenta Alice, que analisa editais de licitações. “De 2019 para cá, nós atuamos em R$ 6,3 bilhões, que poderiam ter, em maior ou menor grau, algum tipo de prejuízo e que puderam ser evitados. Agora estamos trabalhando na incorporação da ferramenta ao sistema Comprasnet”, explicou.

Carvalho pontuou, ainda, que nos últimos dois anos a CGU passou a atuar muito intensamente em função da pandemia de Covid-19, o que só foi possível por meio de trabalhos pesados de análise, mineração e cruzamento de dados. Um exemplo foi o trabalho relacionado ao auxílio emergencial, que envolveu duas linhas: a primeira analisou os casos de benefícios pagos a pessoas que não eram elegíveis; a segunda atuou nos casos de patrimônio incompatível com o perfil de beneficiários do auxílio. “O grande resultado para nós é a identificação de soluções que contribuam para que as políticas públicas possam ter maior qualidade e maior eficácia”, ressaltou.

Aroldo Cedraz afirmou que o TCU tem proferido decisões e acórdãos para garantir que “a transformação digital do governo federal seja uma verdadeira Lei Áurea dos dados, de modo a libertar a todos da escravidão dos dados custodiados e permitir a criação de repositórios integrados que suportem a formulação, a gestão e a avaliação de políticas públicas”.

Segundo o ministro, o Tribunal também tem contribuído com o investimento contínuo na plataforma de controle digital, que reúne bases de dados digitais, ferramentas preditivas e algorítmicos inteligentes de auditoria. “A contribuição de cada um é essencial para que continuemos avançando no processo de transformação do Estado brasileiro e, com isso, possamos assegurar melhor atendimento das necessidades do cidadão”, comemorou.

Seminário

O Seminário sobre Análise de Dados na Administração Pública é realizado anualmente desde 2015, organizado conjuntamente pelo TCU e pela CGU. O objetivo é apresentar projetos de ciência de dados que sejam relevantes para a administração pública, em todos os seus níveis e esferas. O Seminário faz parte da iniciativa conjunta Brasil 100% Digital. Na programação estão previstas apresentações e oficinas técnicas.

A programação contou com duas palestras internacionais. No primeiro dia, do professor assistente da Universidade Central Europeia, Mihaly Fazekas. No segundo dia, o palestrante foi o professor da Universidade de Surrey e diretor do Centre for Vision, Speech and Signal Processing, Adrian Hilton.

Este ano serão apresentados mais de 20 trabalhos, que se dedicam ao estudo sobre o uso de inteligência artificial em conjunto com outros dados para predição de ocorrências ambientais e sociais; detecção de sobrepreços em compras públicas; uso de geoprocessamento e conflito de interesses, entre outros. Desses trabalhos, dois foram realizados por servidores da CGU:

– Ferramenta de Análise de Risco de Ouvidoria: processamento de linguagem natural para automatizar a análise de denúncias

A Ferramenta de Análise de Risco de Ouvidoria usa processamento de linguagem natural para fazer uma triagem das denúncias que chegam à Controladoria-Geral da União. Dessa forma a CGU consegue priorizar a investigação de denúncias com maior probabilidade de resultar em achados concretos. O FARO foi desenvolvido pelos servidores Fernando Sola e Eduardo Paiva, da Coordenação-Geral de Inteligência de Dados, da Diretoria de Pesquisa e Informações Estratégicas, vinculada à Secretaria de Combate à Corrupção (DIE/SCC).

– Aplicação GAIA para mensuração de riscos ambientais nos financiamentos e na carteira de clientes do BNDES

​​​​​​​A servidora Renata Guanaes, da Coordenação-Geral de Auditoria das Áreas de Educação Básica, Cidadania e Turismo, da Secretaria Federal de Controle Interno (CGEBC/SFC), participou como palestrante em 2020, abordando a detecção de anomalias nos gastos com a Educação Básica. Nesta edição, apresentou a aplicação interativa GAIA, que mensura os riscos ambientais na concessão de financiamentos para a carteira de clientes do BNDES (empresas e órgãos públicos) e tem subsidiado a instituição em suas decisões de concessão de crédito. A ferramenta GAIA usa redes neurais e integra bases de dados do Banco Nacional de Desenvolvimento Econômico e Social​​​​​​​, Receita Federal, IBAMA, FUNAI e IBGE.