Temporada 3 Vigilância, vigilantismo
e democracia
player
Transcrição
Episódio 03

Das câmeras de segurança ao reconhecimento facial

Anna Venturini: Olá, eu sou a Anna Venturini.

Felipe de Paula: Eu sou o Felipe de Paula.

Pedro Ansel: E eu sou o Pedro Ansel.

Anna Venturini: E este é o terceiro episódio da terceira temporada do Revoar, o podcast do LAUT, o Centro de Análise da Liberdade e do Autoritarismo.

Felipe de Paula: Nessa temporada, o assunto é vigilância e vigilantismo. E, no episódio de hoje, a gente vai falar sobre quem são as pessoas vigiadas e como as tecnologias de vigilância têm se reinventado ao longo dos anos. 

Anna Venturini: Nossos entrevistados são o Pablo Nunes, doutor em ciência política e coordenador adjunto do CESeC – Centro de Estudos de Segurança e Cidadania e o Rafael Zanatta, diretor da Associação Data Privacy Brasil de Pesquisa. 

Felipe de Paula: Como a gente vem dizendo desde o primeiro episódio, a vigilância não é uma ideia nova. As técnicas de vigilância existem há muito tempo, só que elas têm evoluído à medida que a tecnologia avança. 

Anna Venturini: Pois é, Felipe. E a vigilância pode ocorrer em espaços públicos, em espaços institucionalizados pensados para o controle de pessoas e também nas redes sociais. 

Felipe de Paula: É lugar pra caramba! Mas vamos começar pensando nos espaços institucionalizados. No século 18, o filósofo inglês Jeremy Bentham pensou em uma arquitetura de prisão conhecida como panoptismo.
A ilustração dessa ideia ficou bastante conhecida, você já deve ter visto em alguma aula de filosofia na escola: Nela, as celas da prisão formam um círculo em torno de uma grande torre. Nessa torre, fica um guarda, num ângulo em que]ele não consegue ser visto pelos presos. Dessa forma, os presos são vigiados o tempo todo, sem observar o vigia.

Anna Venturini: Apesar de algumas prisões nos Estados Unidos seguirem parcialmente esse conceito, o modelo de Jeremy Bentham nunca chegou a ser totalmente implementado. 

Felipe de Paula: Mas o panóptico, que nos remete à ideia de visão total é muito estudado em várias áreas. O estudo mais famoso foi feito pelo filósofo francês Michel Foucault, que estudou as prisões na sociedade moderna. Foucault mostra como o modelo de panoptismo se traduz em uma obsessão pela visibilidade total e acabou influenciando fábricas, escolas e outras instituições com esse conceito de vigilância permanente. 

Anna Venturini:  Você deve estar se perguntando, escolas? Sim. O modelo de escola que temos na maior parte do mundo é aquele em que o professor fica na frente da sala – às vezes em um patamar mais elevado – o que permite com que ele tenha uma visão completa da sala. 

Felipe de Paula: Trazendo para os dias atuais e para os espaços públicos, o panoptismo está presente nos modelos de cidades vigiadas. Está na ideia de que a segurança das pessoas depende da vigilância por câmeras, por exemplo. 

Anna Venturini: E isso vale não só para as câmeras de segurança nas ruas e prédios, mas também para as câmeras dos nossos celulares, que podem registrar fatos e situações do nosso dia a dia. Mas guarda esse tópico pra depois, que sobre a vigilância pelos indivíduos a gente vai falar daqui a alguns episódios quando o assunto for o vigilantismo propriamente dito. 

Felipe de Paula: Voltando para os espaços públicos, o grau de vigilância tem um recorte territorial muito marcado. Dependendo do local onde a pessoa mora e a partir do momento em que ela pisa fora de casa, ela já está sendo monitorada por câmeras, no corredor do seu prédio, no elevador, na garagem, nas ruas e no trabalho. E na maioria das vezes isso acontece sem que a gente perceba. São olhos onipresentes que vigiam nossas vidas. 

Anna Venturini: O Pablo Nunes trouxe para a gente os casos de bairros negros nos Estados Unidos que são mais vigiados e também o exemplo do bairro de Copacabana no Rio de Janeiro, cuja vigilância tem um objetivo específico: barrar a entrada de determinadas pessoas e grupos.

Pablo Nunes: Vigilância não é uma coisa nova, né? A gente quando foi olhar as características da expansão de câmeras de vídeo-monitoramento também com o uso de reconhecimento facial, a gente encontrou alguns padrões que remetem muito a uma história já conhecida do Rio de Janeiro. Não só na forma pela qual essas câmeras de vigilância são utilizadas para vigiar um certo tipo de pessoa, com alguns resultados graves para os direitos dessas pessoas, mas também a forma pela qual essas câmeras são distribuídas no espaço. Vigilância nos espaços públicos e a vigilância nesses espaços institucionalizados. No caso dos espaços públicos, aqui no Brasil, no Rio de Janeiro em específico, a gente encontrou um padrão muito diferente do que a gente tinha conhecimento no cenário internacional. Por exemplo, nos Estados Unidos a gente conhece várias iniciativas de reconhecimento facial, de vigilância em bairros negros, em prédios, em condomínios populares, inclusive câmeras instaladas nas portarias para fazer o controle de quem entra e quem sai daqueles espaços, e praticamente boa parte do início do emprego do reconhecimento facial foi feito como um teste nesses ambientes, como uma forma de controlar e manter aquelas pessoas ali vigiadas e dentro dos seus espaços, né, das suas áreas, seus condomínios etc. Aqui no Brasil, no Rio de Janeiro em específico, é o contrário. A gente tem Copacabana, que é exatamente o bairro mais famoso, mais conhecido, mais turístico da cidade, um dos mais ricos, que é controlado, que é circundado por essas câmeras de reconhecimento facial como uma forma mesmo de fazer uma barreira para determinadas pessoas não entrarem. Isso, como eu disse anteriormente, não é novo, né, Rio de Janeiro e em Copacabana em específico há décadas que se faz um controle, e fazem barreiras policiais mesmo para controlar pessoas que entram naquele bairro, inclusive, algumas linhas de ônibus específicas vindas da Zona Norte, de áreas de periferia, eram proibidas de circular ou eram paradas pela polícia. Então, no caso aqui do Brasil em relação ao emprego desse tipo de vigilância nos espaços públicos, mais detidamente com relação ao reconhecimento facial, a gente tem um processo mais de proteção de determinadas áreas do que necessariamente super vigilância em bairros periféricos. 

Felipe de Paula:  Hoje novas tecnologias têm sido utilizadas para realizar o monitoramento das pessoas. Uma delas é justamente o reconhecimento facial.

Anna Venturini: O reconhecimento facial é uma tecnologia desenvolvida para identificar uma pessoa por meio de uma imagem ou de um vídeo. 

Felipe de Paula: A tecnologia funciona com a submissão de imagens a algoritmos computacionais para identificar dezenas de pontos únicos na face de cada pessoa e, depois, cruzá-las com um banco prévio de dados. Assim, quando alguém passa por uma câmera, os algoritmos buscam muito rapidamente os mesmos pontos faciais contidos em cada imagem salva no banco de dados. 

Anna Venturini: Sistemas de reconhecimento facial já existem há décadas, mas o uso deles se tornou mais intenso nos últimos anos. Sabe aqueles aplicativos que ficaram famosos nos últimos anos e aplicam filtros para mostrar como você ficaria mais velho ou bebê? Eles também usam essa tecnologia. Nós tivemos um caso recente de uso de reconhecimento facial para fins de propaganda em uma linha de metrô em São Paulo. O Pedro vai nos contar o que aconteceu.

Pedro Ansel: Em maio de 2021, a justiça de São Paulo condenou a empresa ViaQuatro, concessionária da linha 4-Amarela do Metrô de São Paulo, pela coleta irregular, e sem consentimento, de dados de reconhecimento facial dos usuários do metrô. A ação civil pública foi proposta pelo Instituto Brasileiro de Defesa do Consumidor (o Idec) em 2018 questionando o uso da nova tecnologia, que consistia em uma câmera com sensor que reconhecia a presença humana e realizava a identificação de emoções, gênero e faixa etária dos usuários. A decisão afirma que o reconhecimento facial ou a mera detecção facial esbarram no conceito de dado biométrico, considerado sensível pela Lei Geral de Proteção de Dados. A justiça determinou que a empresa suspendesse a coleta massiva de quaisquer dados dos usuários por meio das câmeras ou outros dispositivos instalados na Linha 4 Amarela do metrô, além de pagar uma indenização de R$ 100 mil. 

Felipe de Paula: O Pablo comentou sobre esse caso e sobre os aplicativos com a gente:

Pablo Nunes: A vigilância do setor privado é algo, arrisco a dizer, quase mais frequente do que a vigilância pelo Estado. Já existe há muito tempo, né, e de certa forma é meio que espalhada. Não só, por exemplo, com o Pic Pay que ficou agora famoso depois do Big Brother, a verificação ali da conta por meio do reconhecimento facial, que acontece em muitos casos, não só na Pic Pay, mas na Uber também a gente tem esse tipo de coleta de informação e em outros aplicativos de mobilidade. Também em outros aplicativos financeiros etc. Mas eu falei mais da Pic Pay porque acho que contribuiu de certa forma para manter essa mistificação com relação a reconhecimento facial. Ou seja, ali você bota a sua carinha, reconheceu, eba, ganhei um dinheiro e tudo mais… Eu acho que a gente vai ainda ter muita dificuldade para desfazer essa ideia de reconhecimento facial uma vez que está mediatizado esse uso benéfico, ali, no caso do Big Brother Brasil. Mas outro caso também muito específico, e aí também caso recente, é a condenação da ViaQuatro, a operadora do metrô de São Paulo, da linha 4, que fazia reconhecimento facial para verificar como os passageiros ali reagiam em relação a determinados conteúdos de merchandising, de propaganda. É óbvio que a gente tem uma violação clara aí de dados pessoais, uma vez que as pessoas não sabiam que estavam com seus rostos sendo capturados e muito menos que essa informação seria utilizada para fazer depois propaganda com relação a determinado produto. 

Anna Venturini: Ou seja, trata-se de um uso da tecnologia para fins preditivos e puramente comerciais. O Rafael Zanatta trouxe essa questão do uso da tecnologia para modular comportamentos.

Rafael Zanatta: É, o setor privado hoje, a capacidade de vigilância dele é muito maior do que a do Estado, especialmente no setor de tecnologia, das grandes empresas de tecnologia. Sem dúvidas, né? Hoje, a literatura que trata do assunto, por exemplo, tem livros que são bestsellers, como o do Harari, sobre o “Homo Deus”, tem o livro da Shoshana Zuboff, “A era do capitalismo de vigilância”, tem outros livros que vendem muito bem e que explicam qual é a capacidade do setor privado de fazer análise preditiva e não só vigiar pelo que aconteceu, mas fazer uma vigilância para o futuro, digamos assim, fazer uma análise de modificação do nosso comportamento, de nos induzir. Como diz Zuboff “não é só um aparato de vigilância, é também uma arquitetura de modulação do nosso comportamento”,é um push, é um empurrãozinho, é uma arquitetura de sistemas que te conduz a agir de certo modo.

Felipe de Paula: Em várias cidades brasileiras e em outros países, as câmeras de reconhecimento facial têm sido instaladas nas ruas para identificar suspeitos de crimes. 

Anna Venturini: Na República Tcheca, por exemplo, as câmeras de reconhecimento facial na vigilância já resultaram em pelo menos 160 detenções no aeroporto de Praga desde 2018. 

Felipe de Paula: No Brasil, Salvador, na Bahia, implementou um sistema de reconhecimento facial. Funciona da seguinte maneira: o rosto de cada pessoa que anda nas ruas é filmado e comparado a uma base de dados com as fichas criminais do estado da Bahia. Se o sistema identifica uma pessoa procurada por um crime, a pessoa é abordada por policiais e pode ser presa na hora. 

 Anna Venturini: Só que o reconhecimento facial feito pelos softwares utiliza inteligência artificial e machine learning. E, como falamos no primeiro episódio, a inteligência artificial depende de programação humana prévia. E essa programação humana está sujeita a muitos vieses, o que pode potencializar a ocorrência de discriminações, principalmente de cunho racial. O Pedro trouxe um caso pra gente:

Pedro Ansel: Um erro causado pela tecnologia de reconhecimento facial usada pela Polícia Militar no bairro de Copacabana, ganhou as páginas dos jornais em seu segundo dia de funcionamento. O caso aconteceu em meados de 2019, quando uma mulher que estava sentada na calçada de uma das principais avenidas do bairro foi abordada por policiais militares e levada à delegacia para prestar depoimento sob suspeita de ter cometido um assassinato. A mulher, que era moradora de Copacabana, foi confundida pelo sistema de vigilância da PM, com uma foragida da justiça acusada de praticar um  homicídio seguido de ocultação de cadáver. A confusão só foi desfeita na delegacia quando os policiais averiguaram que a pessoa que foi de fato acusada de cometer os crimes já estava presa há quatro anos. 

Felipe de Paula: Mas o problema da reprodução dos vieses sociais não está apenas na programação dos algoritmos. O software também depende de bancos de dados para funcionar e, se eles não forem representativos daquela população, também podem gerar efeitos bastante problemáticos. É o que nos lembrou Pablo Nunes:

Pablo Nunes: A gente sabe que esses mecanismos, esses algorítimos de reconhecimento facial eles são criados com treinamento em bancos de dados que são banco de dados com rostos de pessoas brancas, né, já é conhecidíssimo, já foi feito várias auditorias de vários algorítimos de reconhecimento facial mostrando que eles erram muito mais em reconhecer corpos e rostos negros, principalmente de mulheres negras e também asiáticas do que pessoas brancas. Então, esse é um cenário que permite com que vários erros possam acontecer sucessivamente. E aqui no Brasil mais ainda, haja visto que a gente que está no país que a maioria da população é negra, ou seja, há muito mais chances de haver erros acontecendo. No caso de Copacabana, nos primeiros dez dias que teve o projeto, três milhões de faces foram capturadas pelo sistema e menos de três mil matches ocorreram. Desses matches, um número muito menor foram de prisões efetuadas. Acho que a gente conseguiu monitorar, 90% eram pessoas negras e presas por crimes de pequena gravidade, sem violência, como pequeno tráfico de drogas e furtos. Então existem esses dois elementos que operam de maneira clara no que se refere a esse foco na população negra e que no fim das contas acaba reforçando um perfil que a gente já conhece. Se a gente olha o perfil das pessoas que foram presas por reconhecimento facial em 2019, ela é basicamente o perfil da população carcerária que hoje está nas prisões brasileiras. Por mais que essa tecnologia muitas das vezes seja dita como quase que a solução para o problema do racismo nas corporações policiais, a gente já tem visto que na verdade é uma atualização do racismo dentro do policiamento aqui no Brasil. O banco nacional de procurados que a Polícia Militar aqui do Rio de Janeiro utilizou para ser o banco aplicado ao reconhecimento facial, ou seja, aquelas pessoas ali naquele banco seriam as procuradas pelas câmeras de reconhecimento facial, ele estava desatualizado. Eles sabiam que estava desatualizado. E eles usaram mesmo assim. E resultou que no segundo dia uma pessoa foi presa de forma errônea, foi confundida com uma procurada da justiça, só que essa procurada já estava presa há quatro anos. 

Anna Venturini: Além do viés racial na programação e na escolha dos bancos de dados, essa questão também está presente nos locais em que essas tecnologias são utilizadas. Pesquisadores e ativistas têm mostrado que a vigilância é mais recorrente em lugares mais vulneráveis, em bairros nobres que desejam “se proteger” e em transportes públicos usados em sua maioria pela parcela mais pobre da população.

Felipe de Paula: O Rafael Zanatta conversou sobre isso com a gente e lembrou que o viés está presente tanto nos locais, como nos tipos de crimes que são analisados. 

Rafael Zanatta: É claro que existe um viés racial, é notório que existe um viés racial, especialmente nas novas propostas de uso de tecnologia com essa abordagem criminal. Por exemplo: a polêmica renovação do parque de câmeras da linha vermelha do metrô de São Paulo, no contrato de 58 milhões de reais, que foi contestado pela defensoria pública de São Paulo, pelo Idec Artigo 19, várias ONGs, aquilo… o que é a proposta deles: “Queremos fazer análise preditiva de crimes, dentro do metrô. Queremos cruzar banco de dados de pessoas já condenadas ou procuradas pela justiça e queremos, também, impedir que novos crimes aconteçam dentro dessas áreas públicas, por assim dizer. E quando você olha para o detalhe, primeiro tem um pressuposto que é: quando você identifica qual é a base cruzada, que base de dados é essa de condenação? Como é que ela se constitui? Qual que é a natureza dos crimes que estão ali estruturando essa base de dados? São em sua maioria crimes patrimoniais, em sua maioria são crimes patrimoniais no qual a população negra está amplamente mais presente do que outros. Então, tem um primeiro problema aí, que é tipo: a natureza do crime não é o crime no qual a classe média alta ou os brancos cometem. E essa é uma questão que o debate racial coloca muito claramente: são os crimes que os negros estão acometidos no sentido de catalogados e identificados: tráfico de droga, venda de pequenas quantidades, quantidade ínfimas, ou tentativas de roubo, etc. Isso gera base de dados pela qual depois se persegue a pessoa no metrô. O segundo ponto, que eu acho crucial também, é a seletividade de onde implementar a tecnologia. Eles não estão querendo colocar reconhecimento facial para a identificação de criminosos na entrada de bancos privados na Faria Lima; eles querem colocar as câmeras dentro do metrô, na linha vermelha onde a população precisa usar, né? Então, tem um critério de seleção que é justamente, onde essa classe está, para estar submetida a essa tecnologia. Além desses dois problemas, tem uma discussão que é feita com muita qualidade por ONGs americanas como Algorithm Justice, por ativistas lá fora e no Brasil também, que tem produzido muito sobre problemas raciais no reconhecimento facial, que é justamente a pobreza da acurácia no uso das tecnologias, os graves erros de vieses e de falso positivo, que leva a uma conduta extremamente abusiva do Estado, do aparato policial, parando as pessoas que estão indo trabalhar ou enfim, gerando “n” problemas com falsos positivos e gerando uma violação inesquecível para essas pessoas. Imagina a dor de estar indo trabalhar e ser parado por um policial que disparou no celular dele a informação de que você era alguém condenado e você é levado para um canto para conversar, depois para uma delegacia, perde seu dia de trabalho, enfrenta uma série de problemas, e é isso o que está acontecendo no Brasil com o uso experimental das tecnologias. 

Anna Venturini:  Apesar desses poréns já serem conhecidos, muitos argumentam que o uso da tecnologia pelas polícias serviria exatamente para acabar com o viés racial dos policiais. Mas será que isso é possível? O Pablo nos lembra que os algoritmos não são neutros. 

Pablo Nunes: A gente conhece de maneira muito clara, vários estudos já foram produzidos, núcleos de pesquisa que se dedicam ao tema há anos, há décadas com relação à forma pela qual as polícias operam, né, de maneira racista no seu dia a dia. E aí eu acho que é um pouco do desconhecimento, também, e de certa forma uma certa mistificação com relação à tecnologia, essas pessoas creem que os algoritmos eles seriam uma forma de retirar esse componente humano do racismo que seria exatamente o principal foco dessa forma de policiamento, dessa forma de vigilância dos corpos negros. A gente sabe, os algoritmos não saem, eles não brotam da terra, não vêm do céu, eles são construídos por pessoas e são alimentados com dados. E dados são história. Não há como a gente ter esse apartamento deste tipo de tecnologia do que é a sociedade em si. Por mais que a gente esteja discutindo isso e esteja tentando ampliar esse debate, é muito comum que as pessoas considerem que algoritmos eles fazem só uma fórmula matemática, eles calculam a probabilidade de x ser a pessoa procurada no banco de dados e pronto. O objetivo que a gente tem perseguido é exatamente esse, como é que a gente começa a desmistificar esses algoritmos e essas tecnologias, que para muita gente são isentas e são completamente objetivas. E a gente sabe que não são. Isso não é incomum dentro da área de segurança pública. 

Felipe de Paula: Por conta desses riscos e discussões, há países e estados que acabaram aprovando leis banindo o uso do reconhecimento facial.

Anna Venturini: Nos Estados Unidos, depois de uma pesquisa do MIT demonstrar que o reconhecimento facial em pessoas negras tem alta margem de erro, o debate se intensificou. Em 2019,  as cidades de São Francisco e Boston aprovaram leis banindo o uso de tecnologias de reconhecimento facial pela polícia, decisão que já foi seguida por outras cidades do país.

Felipe de Paula: Na França e na Suécia, tribunais e autoridades de proteção de dados se manifestaram contra o uso de reconhecimento facial para controlar o acesso e a frequência em escolas.  Essas medidas são consideradas desproporcionais e o uso da tecnologia viola as normas de proteção de dados, já que os estudantes não são capazes de consentir livremente. 

Anna Venturini: No caso das empresas privadas que fazem uso dessas tecnologias – como o metrô -, apesar do seu uso ser cada vez mais intenso, já temos leis no Brasil estabelecendo como isso pode ou não ser feito, como é o caso da Lei Geral de Proteção de Dados – a LGPD. Então, se uma empresa faz um uso inadequado desses dados, podemos acionar o Poder Judiciário para ter nossos direitos garantidos. 

Felipe de Paula: O ponto é que essas tecnologias também são cada vez mais utilizadas na área de segurança pública e, como vamos ver, nesse caso não temos leis ou mesmo protocolos básicos regulando a montagem dos bancos, a coleta das imagens e o uso dessas informações pela polícia ou por outros órgãos de segurança. Nem há um mínimo de controle social que permita conhecer as regras de uso ou auditá-las. É como explica o Pablo: 

Pablo Nunes: Com relação à Lei, a gente tem uma questão complicada aqui no Brasil. Primeiro de tudo, a gente fez a expansão e o aumento vertiginoso de instrumentos de vigilância, principalmente de reconhecimento facial nos últimos anos, principalmente em 2019, a gente tem todo o movimento de aquisição dessas câmeras pelos governos estaduais, com o dinheiro e incentivo do Governo Federal, por meio do Ministério de Justiça e Segurança Pública e o Fundo Nacional de Segurança Pública, e a gente não tem um arcabouço legal muito claro sobre qual tipo de uso que se pode fazer com essas câmeras e essa informação coletada por essas câmeras. A gente tem no ano passado a aprovação da LGPD, a Lei Geral de Proteção de Dados, mas que em seu artigo 4 diz que a segurança pública não ficará sob o guarda-chuva da LGPD, e que será feita legislação específica para segurança pública. Então, a gente tá num cenário muito arriscado, a gente não tem nem um tipo de normativa geral para controle desse uso de reconhecimento facial, de informações de redes sociais, a gente não tem. A gente tem algumas iniciativas no Distrito Federal, que já está um pouco avançada agora aqui no Rio de Janeiro está se votando a criação de um conselho municipal de proteção de dados, mas que também não prevê questões relacionadas à segurança pública, então a gente ainda está muito incipiente com relação às normativas, e regulações com relação ao uso de reconhecimento facial, principalmente por agentes públicos e o braço armado do Estado, mas no mesmo sentido a gente está no processo de expansão muito grande.

Anna Venturini: Além do reconhecimento facial, também há outras tecnologias que são utilizadas na área da segurança pública e justiça criminal. O Pablo Nunes destacou, por exemplo, como as redes sociais – Facebook, Instagram, Twitter e outras – têm sido utilizadas pelas polícias e também pelo Ministério Público em investigações criminais.

Pablo Nunes: A gente pode falar isso também com relação ao que aconteceu no Jacarezinho. Jacarezinho, não sei se vocês tiveram acesso, mas uma peça do MP foi baseada quase que totalmente em registros das redes sociais das pessoas que foram mortas ou presas naquela operação, naquela chacina que aconteceu. Ou seja, a vigilância das redes sociais dessas pessoas que foram mortas, serviu como base mesmo para a fundamentação da denúncia do Ministério Público que , enfim, justificou aquela operação. Não fiquei muito surpreso mas confesso que me causou um certo estranhamento receber aquele material do MP. Não sabia que o Ministério Público, por exemplo, também estava se dedicando a esse tipo de vigilância de redes sociais, que é algo super comum na Europa, nos Estados Unidos, já tem vários estudos sobre isso mostrando o quão frequente é utilizado esse tipo de vigilância, principalmente em cenários de manifestações.

Felipe de Paula: Também tem sido bastante comum que policiais, vigilantes privados ou mesmo terceiros circulem fotos de abordados em grupos de whatsapp para saber se alguém “procura” aquele potencial suspeito. Isso é feito totalmente à margem da lei. E o monitoramento de redes sociais também têm sido muito utilizado para gerar perfis de pessoas que representam oposição a governos. 

Anna Venturini: Isso é bem grave, Felipe, e já aconteceu aqui no Brasil. Em 2020 tivemos um escândalo envolvendo o Ministério da Justiça e a elaboração de um relatório sigiloso com nomes, fotos e endereços das redes sociais de mais de 500 servidores públicos identificados como integrantes do movimento antifascismo e opositores do governo Jair BolsonaroO relatório foi feito pela Secretaria de Operações Integradas (Seopi), ligada ao Ministério da Justiça. Na época, o Ministério Público Federal pediu explicações ao governo sobre o relatório e afirmou que práticas semelhantes eram usadas na ditadura militar.  

Rafael Zanatta: Acho que esses são os casos mais graves que nós temos enfrentado hoje naquilo que a gente tem chamado de “tecnoautoritarismo”. Não é só o problema do compartilhamento de dados de forma desviante, mas é um problema da ilicitude da criação da base de dados em si. Ou seja, o fato do Ministério da Justiça ter tido a oportunidade de circular internamente dossiês sobre policiais antifascistas, os servidores antifascistas, isso é uma criação de um tipo de dossiê que é ilícito por si. Não pode, é inconstitucional esse tipo de verificação de dados sensíveis de orientação política por um tipo de dossiê que não se presta a nenhuma política pública, ele está completamente desamparado da sua base legal de finalidade específica em política pública e que fere notoriamente qualquer critério de razoabilidade. Porque aquilo seria necessário? Não é necessário aquilo, na verdade só incrementa a capacidade estratégica do governo de agir de forma repressiva. Quem são, então, aqueles que a gente quer enfrentar, quem são aqueles que a gente quer monitorar como potenciais inimigos? Isso é um exemplo, e tem outros, que são muito preocupantes. Ainda não há grandes evidências sobre como a secretaria de comunicação do governo tem comprado serviços de monitoramento de redes sociais. Não ficou muito claro ainda qual é a extensão desse tipo de monitoramento, se há outros, e se também esses dados circulam ou se aquilo era pra uma questão específica pontual. Mas independentemente de ser específico, pontual o fato de ter existido, já mostra um certo modus operandi, uma certa cabeça, uma certa visão, por assim dizer, do governo de que é papel dele identificar esses detratores e confrontá-los publicamente.

Felipe de Paula: Outro uso dos dados pelo governo federal que chama atenção é a construção  do banco de dados de materiais genéticos de pessoas condenadas pela justiça criminal. A Lei 12.654/12 inaugurou a possibilidade de realização  da coleta de material genético e criação de um banco cadastral do DNA de determinadas pessoas. 

Uma das prioridades do Ministério da Justiça e Segurança Pública é investir em ferramentas para agilizar a elucidação de crimes no Brasil. O resultado de um teste de DNA pode identificar ou isentar um suspeito de ter cometido crimes. O DNA é uma prova praticamente incontestável, é uma prova muito robusta e muito bem aceita nos tribunais. A tecnologia de exame de DNA e de bancos de perfis genéticos é utilizada em todos os países envolvidos e é considerada uma ferramenta revolucionária na investigação criminal, indispensável na investigação criminal moderna.

Anna Venturini: O Banco Nacional de Perfis Genéticos é formado por um conjunto de laboratórios mantidos pelo Distrito Federal, Estados e pela Polícia Federal. Há uma Rede Integrada de Banco de Perfis Genéticos que permite o intercâmbio de informações entre vários laboratórios. Essa rede possui um Comitê Gestor que é responsável pela elaboração de relatórios sobre a evolução do número de cadastros de DNA e pela obtenção de coincidências entre perfis genéticos. 

Felipe de Paula: O Banco possui duas finalidades específicas: primeiro, permitir a identificação de pessoas desaparecidas; segundo, contribuir para a elucidação de crimes. Os materiais genéticos são separados em listas cadastrais distintas de acordo com a finalidade e não é permitido que um material coletado para fins de desaparecimento seja usado para fins criminais. 

Anna Venturini: O Banco de perfis genéticos ficou mais popular recentemente, já que o tema foi muito destacado na campanha de Jair Bolsonaro nas eleições de 2018 como uma forma de aumentar as condenações. 

Felipe de Paula: Segundo dados do IBCCrim, o Instituto Brasileiro de Ciências Criminais, no período de um ano, o número de amostras inseridas no Banco saltou 288,7% entre novembro de 2018 e novembro de 2019. Quase 80% dos perfis genéticos cadastrados se destinam a fins criminais.  

Anna Venturini: O Pacote Anticrime idealizado pelo ex-ministro Sérgio Moro trouxe modificações para o cadastramento e funcionamento do banco, já que transformou a negativa do apenado em fornecer material genético em falta grave. Essa possibilidade é muito questionada por ser considerada incompatível com o direito à não incriminação previsto na Constituição Federal. Além disso, a coleta requer uma intervenção corporal, que pode ser incompatível com crenças religiosas. 

Felipe de Paula: É ainda importante entender que o aumento do uso de novas tecnologias de vigilância e segurança não parte apenas de demandas do Estado. Tem como um de seus motores a própria iniciativa privada, ávida por vender novas tecnologias que supostamente auxiliariam o poder público nas atividades de segurança pública. O Rafael Zanatta comentou sobre como essa ideia do banco genético e outras tecnologias de vigilância têm forte influência do mercado privado, que a todo momento tenta convencer o Estado a utilizar essas tecnologias e ferramentas. 

Rafael Zanatta: São os projetos de construção de bancos de dados genéticos de condenados. E aí, a ideia é você criar uma catalogação genética daqueles que foram condenados por crimes de alto potencial ofensivo, ou crimes que chocam a sociedade; crimes de latrocínio com meios torpes, ou estupro, ou enfim, outros tipos de crime, que também é muito fácil você jogar para a população brasileira essa ideia, né? Porque numa visão de mundo repressiva, se tiver um plebiscito, é provável que a maioria da população brasileira vote que sim e diga que é preciso catalogar estupradores, identificar geneticamente quem são, as suas origens, e não só deles, como também da família e de todo mundo está em volta. E aí entra numa série de questões preocupantes porque são questões mais técnicas a esse debate, mas, por exemplo, como é que se promove especificamente a coleta dessas informações numa cena de crime? Uma discussão que está tendo hoje no Brasil: como é que você entrega a coleta na investigação com esse banco de dados genéticos e como você cruza, combina essas bases de dados para outros fins? É uma espécie de mercado, também tem uma estrutura privada de suporte a isso, muito interessado em fazer avançar esses mecanismos de vigilância intensa de condenados ou de quem está dentro da prisão, criando verdadeiramente um mercado de vigilância que pode ser prestado. São agentes estatais que são mobilizados em feiras de negócios, em grandes eventos de tecnologia em segurança pública, empresas que se dedicam a criar soluções que ficam abordando, fazendo lobby, pressionando, precificando, tentando convencer o Estado a fazer essa utilização. Então, isso é algo que, felizmente, está sendo cada vez mais estudado no Brasil. Quem são esses atores? O que continha esse contrato? Quem precifica? Onde eles circulam? Qual que é o aparato por trás que meio que legaliza a dá suporte a essas contratações? 

Anna Venturini: Dito tudo isso, fica a pergunta: será que a tecnologia pode ser benéfica e ajudar o setor de segurança pública e justiça criminal?

Felipe de Paula: Os nossos entrevistados trouxeram alguns exemplos positivos do uso das tecnologias nesse setor. 

Anna Venturini: O Rafael Zanatta contou sobre uma ferramenta que está sendo utilizada na Holanda para identificar crianças que têm sofrido agressões. 

Rafael Zanatta: Por exemplo: existe um uso de cruzamento de base de dados, num projeto piloto em Amsterdam, hoje, que identifica… por exemplo, ele cruza o dado da criança que foi atendida no hospital a partir de uma lesão, uma dor de cabeça, um ombro inchado, com um monitoramento automático da performance dessa criança nas próximas 8 semanas na escola para verificar se há um desempenho em declínio. E faz o monitoramento ativo também de potenciais denúncias de agressão na região onde está aquela criança, de forma automática, e ele só gera o dado mesmo sobre a agressão quando ele consegue identificar que tem um match, ou seja: existe uma inferência possível entre aquele relato da criança do hospital, o mal desempenho escolar e questões denunciadas por vizinhos. E isso tem salvado vidas na Holanda, vidas de crianças espancadas. Isso é uma solução que nós devemos batalhar no Brasil? Claro que sim, porque morre muita criança espancada no Brasil. Isso é um caso escandaloso. O caso do menino Henry, ele é emblemático porque ele mostra uma realidade, tem gente que bate mesmo e tortura, e isso, evidentemente, tem um objetivo social, usar a tecnologia pra mitigar isso.

Felipe de Paula: Outro debate relevante é o uso de câmeras nos uniformes dos policiais, as chamadas bodycams, de forma a dar maior controle sobre as atividades da polícia. Em junho de 2021, o governador do estado do Rio de Janeiro sancionou uma lei que determina a implantação de câmeras de vídeo e áudio em uniformes e aeronaves policiais. 

Anna Venturini: A aprovação gerou discussões, já que o Governador Cláudio Castro vetou os trechos importantes, como o que estabelecia prazos para instalação dos equipamentos, o que determinava a disponibilização dos registros de áudio e vídeo no ato do registro de ocorrência com o objetivo de atestar a inviolabilidade do material, bem como o trecho que garantia o acesso ao material a “todo e qualquer cidadão” envolvido diretamente na ação. 

Felipe de Paula: Em resumo, dá pra pensar em usos que irão efetivamente auxiliar na identificação de crimes e no controle da atividade policial, desde que controlados e limitados a estritos requisitos legais que precisam, necessariamente, existir. 

Anna Venturini: O Pablo Nunes também destacou que as tecnologias têm o potencial de auxiliar na organização das polícias e de suas atividades. Só que muitas das tecnologias adquiridas pelos estados acabam sendo subutilizadas por falta de treinamento, desconhecimento de uso, tornando-se verdadeiros “elefantes brancos”.

Pablo: Com relação à tecnologia em segurança pública, eu acho que sim, eu acho que a tecnologia pode ajudar sim a segurança pública. Na verdade, algo que me chama muito a atenção, é o fato do que acontece não só no Rio de Janeiro, mas em outras polícias, é esse investimento em tecnologias de ponta, com uso de reconhecimento facial e tudo mais, ao mesmo tempo que a boa parte do controle de crimes que ocorrem na região do batalhão de polícia ou da delegacia é feito ainda de maneira quase que artesanal, com mapas, com tabelas e com registros em caneta e papel. Uma das coisas que foi muito importante para a segurança pública do Rio de Janeiro foram as delegacias legais, que foi um projeto pensado pelo Luis Eduardo Soares, e que de certa forma o grande avanço que se fez, foi informatizar os registros criminais que antes eram completamente registrados à mão. Mas algumas delegacias ainda, e batalhões de polícia, por exemplo controle de armas, o policial quando sai do batalhão para ir ao serviço vai lá pegar, retirar a sua arma, o controle é feito com papel, o controle de qual arma e qual número de munições ele está levando. Isso é um ambiente fértil para desvios dessas armas e falta de controle no uso de munições. Então tem várias iniciativas que são super importantes e que precisam, que são necessárias para uma modernização das polícias. Então, há esse fetiche pela tecnologia que é nova, pela tecnologia que faz algo que parece mágico e tudo mais, e vai se criando uma série de elefantes brancos, em muitas das vezes, que são esses equipamentos que são comprados e não são utilizados. Por exemplo, teve uma iniciativa aqui no Rio de Janeiro que foi o chamado ISPGeo, que era uma plataforma que fazia o georreferenciamento das ocorrências criminais gerando mapas de calor para que os policiais alocassem as viaturas e os contingentes de policiais para essas áreas. É uma plataforma que não é utilizada. Simplesmente porque não teve a preocupação de se fazer um processo de formação de policiais para utilizar aquela plataforma. Hoje é isso, nos Campos dos Goytacazes, que é um batalhão que eu conheci, eles ainda faziam o controle desse tipo de crime georreferenciado por meios artesanais. Então, tem várias frentes que a tecnologia seria super importante para as polícias que seriam um avanço do ponto de vista da organização e das polícias.

Felipe de Paula: E o que poderia ser feito para garantir que o uso dessas tecnologias pelo Estado e pelas empresas respeitasse os direitos fundamentais previstos na Constituição?

Anna Venturini: A aprovação de uma lei de proteção de dados específica para segurança pública seria uma primeira possibilidade, já que ainda não temos legislação sobre o tema. Com isso, teríamos um debate nacional sobre o tema e o uso das tecnologias pelo braço armado do Estado teria que seguir parâmetros. 

Felipe de Paula: Outra alternativa destacada pelos nossos entrevistados, é o controle social do uso dessas tecnologias, isso poderia ser feito com protocolos públicos de uso devidamente estabelecidos e com conselhos criados para monitorar seu uso e auditar os bancos de dados utilizados pelos softwares. 

Pablo: É importante que seja aberto para a sociedade civil fazer o controle dessas operações. É um erro enquanto sociedade a gente continuar achando que segurança pública é um caso de polícia. Na verdade, é de todos nós. A gente tem que fazer o controle e de certa forma incidir nessas políticas. Eu acho que a ideia de conselhos que façam controle e o acompanhamento dessas políticas seria fundamental, seria a primeira coisa a se pensar antes de comprar e começar a operar essas novas tecnologias pelas polícias. Então, estados que possuem essa tecnologia sendo empregada, Bahia, Ceará, São Paulo, teve os seus processos também nos municípios do interior, aqui no Rio de Janeiro a gente não tem um uso pelas polícias que seja acompanhado de um comitê, de um conselho de segurança pública. A primeira coisa também acho que é importante, por mais que não haja esse conselho, seria a cobrança da transparência. É algo muito difícil. As polícias já são conhecidas por falta de transparência, em todas as suas atribuições. Muitas delas, por exemplo, se hoje você quiser saber quantas operações policiais a Polícia Militar fez na semana passada no Rio de Janeiro, perguntar para as polícias, você não vai ter esse número. Elas simplesmente não têm esse controle. Outros dados eles simplesmente negam. Então, por exemplo, número de efetivo, que é uma das coisas que é clara aqui no Rio de Janeiro, é quanto que o efetivo é distribuído de maneira desigual no território. E a gente, quando pergunta sobre isso, eles não dão essas informações. Então, por exemplo, com relação ao reconhecimento facial, o que seria básico de se conhecer exatamente qual é o tipo de banco de dados, de onde está vindo esse banco de dados, quais são os tipos de controles que esses bancos de dados estão sendo colocados, qual o tipo de transparência e também na produção desses dados, se esses dados são auditados e controlados, garantindo que eles são atualizados. Mas também, além desses dados que vão alimentar o reconhecimento facial, tem também o banco de dados que é formado também pelas imagens capturadas. Por exemplo, aqui no Rio de Janeiro, o reconhecimento facial foi fruto com uma parceria público-privada da polícia com a Oi e sempre, em qualquer lugar que eles falavam, a Polícia Militar falava sobre esse projeto, falava que não tinha nenhum ônus para os cofres públicos, mas a gente sabe que não existe “almoço grátis”.

Anna Venturini: Uma outra possibilidade já existente em muitos países é a criação de autoridades independentes responsáveis por controlar essas atividades de vigilância que são realizadas pelo Estado. 

Rafael Zanatta: Por exemplo, o Alan Westin, quando estava estudando esse problema dos grampos no contexto macartista estadunidense, e a expansão da capacidade de vigilância, a proposta que ele escreveu em 1955 era a criação que ele chamou de uma “watchdog agency”; uma agência cão de guarda que pudesse fiscalizar os direitos fundamentais do cidadão na atuação estatal que envolvesse vigilância. Olha, isso é interessante, a gente precisa ter uma autoridade que garante os direitos fundamentais, é a ideia que se cria de uma autoridade independente de proteção de dados pessoais. E a OCDE abraça isso fortemente, a OCDE começa a desenvolver, na década de 70, uma série de seminários sobre como equilibrar a política pública e inovação com proteção de dados pessoais e a OCDE passa a defender esse modelo de DPAs, “Data Protection Authorities”. No que consiste esse modelo? Basicamente, consiste na existência de uma carta de direitos nacional, então o cidadão precisa ter direito sobre seus dados, afirmados em lei federal, ele precisa contar com uma autoridade que seja independente, não esteja ligada diretamente ao governo para poder promover denúncias sobre o uso abusivo de dados. E essa autoridade independente tem que ser capaz de identificar as violações pelo próprio Estado, com uma capacidade sancionatória. Então, é isso que acontece em muitos países. Por exemplo, na Hungria, teve um caso recente de problemas do fisco que utilizava dados excessivos que teve uma multa da autoridade de dados, e tem outros casos notórios na França, na Itália, outros países, na Argentina, Uruguai também tem esse modelo, no qual se tenta exercer um controle sobre a atividade estatal relacionada a dados. Do contexto latino-americano, a gente tem dois problemas grandes. O primeiro é a nossa incapacidade de promover uma autoridade efetivamente independente. Então, na Argentina isso é um problema; a autoridade está ainda bastante vinculada ao executivo, no Brasil, ainda é um problema. A nossa recém criada autoridade de proteção de dados pessoais, que começou a funcionar em setembro, está fazendo um ótimo trabalho, diga-se de passagem, mas, institucionalmente, ela está vinculada ainda à presidência da república. O segundo problema é um problema de escassez de recursos, as autoridades latino-americanas são muito pequenas ainda. Ao passo que, em outros países, tem acontecido um investimento bastante massivo de funcionários. Por exemplo: a Senille, na França, completou 40 anos. Há pouco tempo atrás, promoveu um grande planejamento estratégico de expansão dos seus funcionários de carreira, com cargos de carreira, para quem quer trabalhar com investigações de dados pessoais, uma unidade internacional, uma unidade nacional. No Brasil, a gente tem uma autoridade com 35 pessoas trabalhando, com 5 diretores e ainda não foi feito um teste de fogo, né? A prova de fogo sobre a capacidade dessa autoridade de identificar as violações do próprio Estado. Acho que nós veremos isso em breve, porque são muitos os casos candentes. 

Felipe de Paula: Em resumo, Anna, tecnologias de vigilância são uma realidade e elas possuem vantagens e desvantagens. Como já destacamos nos episódios anteriores, a transparência no uso dessas tecnologias e suas finalidades é essencial para garantir que os direitos dos cidadãos sejam protegidos contra eventuais usos abusivos ou autoritários. Por isso, precisamos de um debate público sério sobre o tema para que possamos chegar a um modelo mais protetivo dos dados pessoais e direitos civis. 

Anna Venturini: A gente já tá chegando ao fim deste episódio do Revoar, e assim como nas outras temporadas, a gente vai dar dicas de filmes e livros pra você continuar refletindo sobre o assunto. A Luisa Plastino perguntou aos nossos convidados sobre isso. Primeiro, as dicas do Pablo Nunes:

Pablo: Eu indico o documentário “Coded Bias”, é um documentário muito interessante, fala sobre a perspectiva dos Estados Unidos e o uso de reconhecimento facial, mas que dá muitas pistas para a gente entender também o cenário aqui no Brasil. Ele acompanha a pesquisadora Joy Buolamwini do MIT que constrói ali um protótipo de um espelho mágico que reconheceria o rosto da pessoa e projetaria nesse rosto faces de pessoas de admiração. No caso dela, era Serena Williams. Só que ela descobriu olhando para esse espelho que o algoritmo de reconhecimento facial não reconhecia a sua face, apenas quando ela colocava uma máscara branca na frente da sua face. Então a partir desse momento de uma experiência muito pessoal dela ela vai desenrolando esse fio do reconhecimento facial, mostrando aí os seus vieses e também de maneira muito clara mostrando como está sendo utilizado nos Estados Unidos e como a população preta, negra, está sendo de maneira muito massiva vigiada e controlada ali naqueles seus espaços de moradia.

Felipe de Paula: O Rafael Zanatta também deu as dicas dele:

Rafael Zanatta: Tem várias dicas bacanas para quem curte ativismo e direitos digitais. O filme do Aaron Swartz, “O menino da internet” é um excelente filme sobre alguém que lutava muito por direitos digitais, que faleceu precocemente, aos 27 anos, e que tinha muito a contribuir. Se Aaron Swartz estivesse vivo hoje, ele estaria ativamente neste debate de vigilância, com certeza. E acho que tem livros que são muito fáceis de ler, escritos por gente muito técnica, por exemplo: o livro “Algoritmos de destruição em massa” traduzido no Brasil, da Cathy O’Neil, é um livro fantástico, porque a Cathy é uma matemática que trabalhava com análise preditiva e perfilização e resolveu escrever um livro em linguagem muito simples para explicar o que são os algoritmos, como eles são usados em massa e os seus efeitos danosos a liberdades civis. Então é legal ver essa galera da programação e da computação virando, assim, ativista político hardcore, eu gosto muito de ver essa ponte acontecendo, e como diz o Abramovay, meu orientador: “a gente precisa de mais engenheiros filósofos no mundo”, então é bacana quando a gente vê isso acontecendo.

Anna Venturini:  E a Luisa também tem dicas culturais para dar aqui no Revoar.

Luisa Plastino: A nossa dica de hoje é o livro “Assim na terra como embaixo da terra”, da escritora Ana Paula Maia. Com uma narrativa super envolvente, o livro retrata uma colônia penal desativada, onde permanecem esquecidos e aprisionados os personagens dessa história. Apesar de ser uma ficção, a autora consegue retratar em profundidade várias das tecnologias de vigilância e de controle de corpos que possivelmente encontraremos em qualquer visita aos cárceres, colônias penais, hospitais de custódia e outras tantas instituições de segurança pública que são mantidas no Brasil até hoje. Boa leitura!  

Anna Venturini: Esse foi o terceiro episódio da terceira temporada do Revoar, o seu podcast sobre liberdade e autoritarismo. 

Felipe de Paula: Nosso papo da semana que vem ainda será sobre a vigilância e o sistema de justiça criminal. Nossas convidadas serão a Carolina Haber, que é diretora de estudos e pesquisas de acesso à justiça da Defensoria Pública do Rio de Janeiro; e a Poliana Ferreira, pesquisadora da Fundação Getúlio Vargas e do JUSTA. 

Anna Venturini: Você também pode acompanhar o Revoar pelo Instagram, em @revoar.podcast, e pelas redes sociais do LAUT.
As referências dos áudios que a gente usou nesse programa tão na página do Revoar, no site do LAUT, em laut.org.br/revoar.

Felipe de Paula: O Revoar é uma produção da Rádio Novelo para o LAUT – o Centro de Análise da Liberdade e do Autoritarismo.
A coordenação é da Paula Scarpin e da Clara Rellstab. A produção é da Clara Rellstab, e a edição é da Claudia Holanda.
A pesquisa para este podcast é do Pedro Ansel e da Luisa Plastino, que também participam das entrevistas.
A música original é da Mari Romano, e a finalização e a mixagem do programa são do João Jabace.
A coordenação digital é da Iara Crepaldi, da Andressa Maciel e da Bia Ribeiro, que também faz a distribuição.

Fiquem bem. E até semana que vem.

Anna Venturini: Nos vemos na próxima revoada. Até lá!

Sistemas de reconhecimento facial existem há décadas, mas seu uso se tornou mais intenso nos últimos anos, especialmente na segurança pública. No entanto, justamente nesse campo, não temos leis ou mesmo protocolos básicos regulando a montagem dos bancos de dados, a coleta das imagens e o uso dessas informações pela polícia e por outros órgãos de segurança no Brasil.

Como foi dito no primeiro episódio desta temporada, o uso dessas tecnologias pode potencializar a ocorrência de discriminações, principalmente de cunho racial, pois utilizam inteligência artificial, machine learning e bancos de dados. Isso tudo depende de intervenção humana prévia e nem sempre é representativo da população. Portanto, essas ferramentas correm o risco de serem tendenciosas. Esses vieses também podem ser identificados nos locais em que tecnologia de reconhecimento facial é empregada, como bairros nobres que desejam ‘se proteger’ e transportes públicos. 

Além disso, as redes sociais também têm sido utilizadas na área da segurança pública e justiça criminal, pelas polícias e pelo Ministério Público. Há registro desse uso não só em investigações criminais, mas também para gerar perfis de pessoas que representam uma oposição a governos. Esse fato considerado grave aconteceu no Brasil em 2020, quando o Ministério da Justiça se envolveu na elaboração de um relatório sigiloso com nomes, fotos e endereços das redes sociais de mais de 500 servidores públicos identificados como integrantes do movimento antifascismo e opositores do governo Jair Bolsonaro

Outro uso dos dados pelo governo federal que chama atenção é a construção do banco de dados de materiais genéticos de pessoas condenadas pela justiça criminal, a partir da Lei 12.654/12. Segundo dados do Instituto Brasileiro de Ciências Criminais (IBCCrim), no período de um ano (11/2018 a 11/2019), o número de amostras inseridas no Banco saltou 288,7% , sendo que quase 80% dos perfis genéticos cadastrados se destinam a fins criminais. 

Dito isso, fica a pergunta: será que as tecnologias podem ser benéficas e ajudar o setor de segurança pública e justiça criminal? É possível que seu uso pelas polícias sirva para acabar com o racismo? O que pode ser feito para garantir que sua utilização pelo Estado e pelas empresas respeite os direitos fundamentais previstos na Constituição?

Para refletir sobre essas questões, Anna Carolina Venturini e Felipe de Paula conversam com Rafael Zanatta, diretor da Associação Data Privacy Brasil de Pesquisa, e Pablo Nunes, coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC).

A discussão inclui sugestões para lidar com o assunto, como a criação de uma legislação de proteção de dados específica para segurança pública, o controle social do uso dessas tecnologias e a criação de autoridades independentes, responsáveis por controlar as atividades de vigilância realizadas pelo Estado.

Aprofunde-se no tema

Ao final do episódio, nossos apresentadores e convidados indicam livros, filmes, documentários e artigos que colaboram para o aprofundamento do tema discutido. Confira:

Pablo Nunes recomenda o documentário:   

Rafael Zanatta sugere:

A pesquisadora do Revoar Luisa Plastino indica:

Áudios utilizados no episódio 03

Trecho de propaganda do Ministério da Justiça: ‘Banco Nacional de Perfis Genéticos.

O Revoar é publicado semanalmente, às quintas-feiras, sempre no começo do dia. A temporada Vigilância, vigilantismo e democracia é apresentada por Anna Carolina Ribeiro e Felipe de Paula, com produção da Rádio Novelo.

Para falar diretamente com a equipe, escreva para revoar@laut.org.br.

Acompanhe o Revoar também no Instagram.

Convidados do episódio
Rafael Zanatta

Diretor da Associação Data Privacy Brasil de Pesquisa, mestre em Direito pela Universidade de São Paulo (USP) e doutorando pelo Instituto de Energia e Ambiente (IEE/USP).

Pablo Nunes

Doutor em Ciência Política pelo Instituto de Estudos Sociais e Políticos (IESP) da Universidade do Estado do Rio de Janeiro (UERJ) e coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC).

Ficha técnica

O podcast é uma produção da Rádio Novelo para o LAUT
Apresentação: Anna Carolina Venturini e Felipe de Paula
Coordenação: Clara Rellstab
Roteiro: Anna Venturini, Felipe de Paula, Luisa Plastino e Pedro Ansel
Tratamento de roteiro: Clara Rellstab
Pesquisa: Pedro Ansel e Luisa Plastino
Edição e montagem: Claudia Holanda e Julia Matos
Finalização e mixagem: João Jabace
Engenheiro de som: Gabriel Nascimbeni (Estúdio Trampolim)
Música original: Mari Romano
Identidade visual: Sergio Berkenbrock dos Santos
Coordenação digital: Iara Crepaldi e Bia Ribeiro
Redes sociais: Andressa Maciel e Iara crepaldi

Para falar com a equipe: revoar@laut.org.br