Do riso ao DNA: na Europa, o debate sobre tecnologias que transformam nosso corpo em dados se acirra – GQ

0
58
Links Patrocinados

União Europeia discute os limites éticos do reconhecimento facial e outras tecnologias biométricas (Foto: Getty Images)

Seu corpo é uma mina de ouro de informações. Do jeito que você olha para as coisas à forma uma vez que pensa e sente, empresas operando no mercado efervescente dos dados biométricos estão desenvolvendo novas – e preocupantes – soluções para mapear tudo o que fazemos. E, em muitos casos, você nem sequer sabe que está sendo observado.

Mas os negócios biométricos estão em rota de colisão com os maiores especialistas em proteção de dados da Europa. Tanto o Data Protection Supervisor, que age uma vez que um órgão independente da União Europeia, quanto o European Data Protection Board, responsável por ajudar países do conjunto a implementar leis uniformes de proteção de dados, já pediram pelo expatriação totalidade do uso de perceptibilidade sintético para reconhecer pessoas de forma automatizada.

“Empregar identificação biométrica remota em lugares públicos representa o término da privacidade nesses espaços”, escrevem Andrea Jelinek e Wojciech Wiewiórowski, diretores de ambos os órgãos, em um enviado conjunto publicado no término de junho. IA não deve ser usada para reconhecimento facial, mapeamento da maneira de caminhar ou teclar, da sentimento do dedo, DNA, voz ou qualquer outro tipo de biometria em áreas públicas, dizem. Deveria ter também uma proibição sobre a tentativa de prever a etnia de uma pessoa, seu gênero, orientação sexual e filiação política via IAs.

Mas esse chamado vai de encontro às regulações propostas pela UE para a perceptibilidade sintético. As normas, anunciadas em abril, rotulam “identificação biométrica remota” uma vez que atividade de sobranceiro risco – ela é permitida, mas encara leis mais severas que outros usos da tecnologia. Políticos de todo conjunto passarão anos debatendo regras sobre perceptibilidade sintético e a vigilância biométrica desponta uma vez que um dos tópicos mais polêmicos. Quando as normas virarem lei, essa legislação vai definir uma vez que centenas de milhões de pessoas serão vigiadas por décadas. E o debate começa agora.

Reconhecimento facial já é questionável há anos, mas o verdadeiro boom da biometria é focar em outras partes do seu corpo. Nos 27 países membros da UE, um conjunto de companhias estão desenvolvendo e colocando na prática tecnologias que, em alguns casos, visam prever o gênero das pessoas, sua etnicidade e reconhecer suas emoções. Muitas dessas soluções já estão sendo aplicadas no mundo real. No entanto, usar perceptibilidade sintético para fazer essas classificações pode ser questionável em termos científicos e éticos. O risco é que tecnologias uma vez que essas invadam a privacidade de indivíduos ou discrimine involuntariamente secção da população.

Considere os exemplos da Herta Security e VisionLabs. Ambas firmas desenvolvem tecnologia de reconhecimento facial para um sem número de aplicações e afirmam poderem usar a prática em prol do policiamento e das indústrias de varejo e transporte. Documentos da Herta Security, cuja sede é em Barcelona, informa que clientes incluem equipes da polícia na Alemanha, Espanha, Uruguai, Colômbia, além de estádios esportivos, shoppings, redes de hotéis – uma vez que Marriott e Holiday Inn -, aeroportos e cassinos.

Críticos observam que tanto Herta Security quanto a VisionLabs falam sobre seus sistemas poderem ser usados para mapear dados sensíveis. “Muitos desses programas, mesmo aqueles usados para identificar pessoas, dependem dessas classificações e categorizações potencialmente danosas que estão na raiz de suas lógicas”, diz Ella Jakubowska, conselheira de políticas públicas que pesquisa a biometria uma vez que secção da rede de ONGs European Do dedo Rights. O grupo atualmente faz campanha para banir vigilância biométrica no território europeu.

BioMarketing, a instrumento de estudo facial da Herta Security, é vendida uma vez que uma forma de lojistas e anunciantes aprenderem mais sobre seus clientes, e pode “extrair” tudo deles – da idade ao gênero, se usam óculos ou não, e mesmo mapear suas expressões faciais. A empresa diz que a tecnologia é “ideal” para a construção de campanhas publicitárias com um foco definido ou facilitar companhias que queiram entender quem são seus consumidores. A instrumento, segundo a operário, também pode qualificar pessoas de tratado uma vez que sua “etnicidade”. Sob a GDPR [lei de proteção de dados da UE], informações pessoais que revelem “origem racial ou étnica” são consideradas sensíveis, e prevê um controle estrito na forma uma vez que podem ser usadas.

Jakubowska disse ter confrontado o CEO da Herta Security sobre esse pormenor ano pretérito, e que desde portanto a companhia deletou a informação de seu material de marketing. Ainda não é simples se a função foi ou não removida da instrumento em si. Documentos da empresa recebidos por terceiros ainda listam etnicidade uma vez que uma das características mapeadas através do uso do BioMarketing. Arquivos de 2013 se referem à detecção de “raça”, antes que o termo fosse atualizado para etnicidade na informação usada pela empresa. A firma, que recebeu mais de 500 milénio euros em aportes da UE e recebeu o certificado de superioridade do conjunto, não respondeu à reportagem.

VisionLabs, cuja sede fica em Amsterdã, diz que seu “previsor étnico” visa “mandar o grupo étnico e/ou raça de uma pessoa”. Seu site diz que o sistema é capaz de “enobrecer” indivíduos que sejam indianos, asiáticos, negros ou brancos. Mas suas análises vão mais fundo. A página também informa que seu “previsor de sorrisos” pode antever “oclusão da boca” e a tecnologia consegue ainda proferir se uma pessoa exprime raiva, nojo, terror, felicidade, surpresa, tristeza ou neutralidade. Gênero, idade, o nível de atenção de uma pessoa a um oferecido item e seu tempo de permanência em um sítio são outros exemplos de métricas que podem ser empregadas para ajudarem varejistas a entenderem o movimento de suas lojas.

Especialistas em IA e moral alertam contra o uso de biometria para prever o gênero ou as emoções de um sujeito. Estudos disputam o argumento da perceptibilidade sintético poder ser usada para detectar expressões faciais e corporais, incluindo comparações entre esses sistemas e o indefinível teste do polígrafo. Ainda leste ano, 175 ativistas e grupos de liberdade social assinaram uma missiva oportunidade exigindo o término da vigilância biométrica.

Jakubowska argumenta que o uso dessa tecnologia será provavelmente incompatível com a posição da UE em relação a direitos humanos. “A própria teoria de termos máquinas tentando presumir nosso gênero, tomando decisões que vão impactar nossas vidas, é realmente preocupante”, diz. “É exclusivamente a ponta do iceberg quando o tema são as diferentes formas que nossos corpos e comportamentos estão sendo resumidos em pontos de dados e enfiadas nessas bases de dados biométricos remotas, cuja existência muitas vezes nos passa desapercebida.”

“A adoção e as consequentes normas ao volta da tecnologia de reconhecimento facial ainda estão em sua puerícia”, diz um porta-voz da VisionLabs. Segundo a manadeira, a empresa “encoraja” o debate sobre a proteção da segurança pessoal e que suas implementações da tecnologia não são proibidas pela GDPR.   

Mas biometria é um grande negócio – e suas aplicações existem muito além do marketing. A tecnologia vai do reconhecimento facial e verificação de identidade, uma vez que o que você vê no FaceID do iPhone e outras técnicas de leitura de sentimento do dedo, a sistemas experimentais que tentam entender se uma pessoa está mentindo fundamentado no movimento de seus músculos faciais. Também inclui a ar, o padrão de suas veias, uma vez que você se move, seu DNA, a íris de seus olhos, identificação baseada no formato da ouvido, geometria dos dedos e reconhecimento das mãos. Trocando em miúdos, a biometria pode medir e quantificar o que faz você ser, muito, você.

Por um lado, usar essa tecnologia pode tornar nossas vidas mais convenientes e potencialmente evitar fraudes. Por outro, ela pode ser realmente intrusiva e discriminatória. Cartões de banco estão adotando scanners de sentimento do dedo, aeroportos, usando biometria e mapeamento facial para identificar pessoas, a polícia na Grécia vem colocando em prática sistemas de reconhecimento em tempo real e, no Reino Unificado, equipes policiais estão aparentemente experimentando com IA capaz de detectar se uma pessoa está nervosa ou furiosa.

Até a metade dos anos 2020, estima-se que a indústria global de biometria possa valer entre 68,6 bilhões e 82,8 bilhões de dólares – hoje, esse patamar está entre US$ 24 bi e US$ 36 bi. Enquanto a China e os EUA lideram o mundo na geração de tecnologias biométricas, o mercado europeu está crescendo rapidamente. Na última dez, três programas de pesquisa da União Europeia investiram mais de 120 milhões de euros em 196 grupos de estudos baseados no tema. Grandes empresas dos setores de resguardo e segurança estão desenvolvendo aplicações de biometria, assim uma vez que pequenas startups.

Segundo a proposta de legislação sobre IA da Percentagem Europeia, todo sistema de identificação biométrica é considerado de sobranceiro risco. Mas ainda é impossível saber se essa abordagem vai prometer a segurança da população. Os planos sugerem que criadores de tecnologias ditas de sobranceiro risco terão que vencer uma série de obstáculos legais antes que sua tecnologia possa ser aplicada no mundo real. Entre eles estão o tarefa de um set de dados de subida qualidade e a transparência sobre seu funcionamento num diálogo com legisladores e a própria população. Será preciso ainda realizar testes de risco para prometer que seus sistemas tenham “sobranceiro nível de robustez, segurança e precisão”.

A Associação Europeia de Biometria, uma ONG que trabalha com governos, terceiro setor e indústria, diz estribar “ saudação a direitos fundamentais na União Europeia” quando se trata da geração de novas tecnologias. “Se aplicações específicas da biometria, uma vez que seu uso em ambientes públicos, não exclusivamente colocam em risco esses direitos, mas também tornam impossível o treino da liberdade, uma vez que o recta de se movimentar livremente em áreas públicas sem desistir de sua privacidade, tal sistema não deveria ser usado”, diz a organização. A Associação diz ainda que é preciso ter “leis e normas precisas” sobre o uso ou não uso de tecnologias.

Mas enquanto legisladores discutem sobre o tema – incluindo a proibição completa de biometria – a tecnologia se infiltra pouco a pouco em nossas rotinas. Críticos apontam que o incremento dessa tecnologia carece de transparência e pouco se sabe sobre quem a usa, quando e uma vez que.

“Temos informação escassa sobre quais são as empresas e os termos postos em prática em sua coleta, processamento, estocagem, compartilhamento e segurança de nossas informações mais pessoais”, diz Alexandra Pardal, diretora executiva do Democratic Integrity, uma organização investigativa que observa o uso de biometria na Europa. “Tudo o que sabemos é que organizações policiais, autoridades públicas, companhias privadas e individuais estão coletando e usando dados biométricos das pessoas”.

Essa falta de transparência aparentemente se aplica ao próprio investimento da UE na tecnologia. Entre setembro de 2016 e agosto de 2019, o fundo de inovação do conjunto, Horizon 2020, deu aporte à iBorderCtrl, um projeto que buscava usar dados biométricos pessoais para ajudar na identificação e estudo de “micro-expressões” faciais, que pudessem sinalizar uma patranha sendo dita. 13 companhias e grupos de pesquisa diferentes estavam envolvidas na iniciativa que, uma vez que o nome sugere, visava o uso da tecnologia nas fronteiras europeias.

Embora porta-vozes do iBorderCtrl tenham sugerido que partes de seu trabalho resultaram em “candidatos promissores para futuros sistemas”, investigações sugerem que a IA não havia sido capaz de entender por fim se uma pessoa estava mentindo ou não. Mas muito dessa pesquisa é sigilo. Patrick Breyer, um político do Partido Pirata boche, está processando a Percentagem Europeia por documentos não publicados a saudação das considerações éticas e legais do projeto. Uma decisão será tomada no tribunal nos próximos meses.

Breyer, um opositor da vigilância biométrica, diz que a UE não deveria financiar pesquisa que vá contra suas próprias posições a saudação de proteção de dados e discriminação. “É escandaloso que o conjunto ajude a desenvolver tecnologias que possam magoar pessoas”, comenta, citando uma vez que exemplo um sistema de detecção de emoções sendo testado sobre a população Uighur, em Xinjiang, China.

Enquanto a regulamentação sobre o tema não é definida, a preocupação de Breyer é que a tecnologia se torne um lugar generalidade. “No momento em que elas são postas em prática, não há zero que impeça companhias de vendê-las no mercado privado, ou mesmo fora da UE, a governos autoritários ou ditaduras, uma vez que a China”, diz o político. “Todas essas tecnologias terão o potencial de produzir um sistema grande de vigilância para nos seguir onde formos, seja lá o que fizermos, ou mesmo reportar nossos comportamentos, que diferem de uma pessoa a outra”, conclui.

*Leia a material original na Wired UK

Links Patrocinados

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui