Por Katabella Roberts
A Organização das Nações Unidas advertiu que os sistemas de inteligência artificial (IA) podem representar uma ameaça “negativa, até mesmo catastrófica” aos direitos humanos e pediu que as aplicações de IA que não sejam usadas em conformidade com os direitos humanos sejam banidas.
A chefe de Direitos Humanos da ONU, Michelle Bachelet, pediu em 15 de setembro aos Estados membros que banissem temporariamente a venda e o uso de IA até que os riscos potenciais que isso representa sejam resolvidos e as salvaguardas adequadas sejam postas em prática para garantir que a tecnologia não seja abusada.
“Não podemos continuar jogando quando se trata de IA, permitindo seu uso com limite ou supervisão limitada ou sem supervisão e lidar com as consequências quase inevitáveis para os direitos humanos após o fato”, disse Bachelet em um comunicado .
“O poder da IA para servir às pessoas é inegável, mas também ha sua capacidade de alimentar violações dos direitos humanos em grande escala e praticamente sem visibilidade. É necessário agir agora para colocar barreiras aos direitos humanos no uso da IA, para o bem de todos nós , acrescentou a responsável pelos direitos humanos.
Seus comentários foram feitos logo depois que seu escritório publicou um relatório examinando como a IA afeta o direito das pessoas à privacidade, bem como uma série de outros direitos relacionados à saúde, educação, liberdade de movimento e liberdade de expressão, entre outros.
O documento inclui uma avaliação de criação de perfil, tomada de decisão automatizada e outras tecnologias de aprendizado de máquina.
Embora o relatório indique que a IA pode ser bem aproveitada e pode ajudar “as sociedades a superar alguns dos grandes desafios de nosso tempo”, seu uso como ferramenta de previsão e criação de perfil pode afetar drasticamente “os direitos à privacidade, um julgamento justo, a não detenção arbitrária e o direito à vida”.
De acordo com o relatório, muitos estados e empresas muitas vezes não conseguem passar pela papelada necessária quando correm para adotar os aplicativos de IA e, em alguns casos, isso levou a erros perigosos, já que algumas pessoas foram supostamente abusadas e até presas devido a falhas no reconhecimento facial dos Programas.
Por outro lado, o reconhecimento facial tem o potencial de permitir o rastreamento ilimitado de pessoas, o que pode levar a uma série de problemas relacionados à discriminação e à proteção de dados.
Uma vez que muitos sistemas de IA são baseados em grandes conjuntos de dados, as questões adicionais relacionadas a como esses dados são armazenados a longo prazo também representam um risco, e há a possibilidade de que esses dados sejam aproveitados no futuro, o que pode representar um risco significativo de segurança nacional.
“A complexidade do ambiente de dados, algoritmos e modelos que fundamentam o desenvolvimento e operação de sistemas de IA, bem como o sigilo intencional do governo e atores privados, são fatores que minam os caminhos apropriados para o público entender os efeitos dos sistemas de IA sobre os direitos humanos e a sociedade ”, afirma o relatório.
Tim Engelhardt, um oficial de direitos humanos da Seção de Estado de Direito e Democracia, alertou que a situação é “terrível” e que só piorou com o passar dos anos, pois alguns países e empresas adotaram aplicativos de IA sem investigar os múltiplos riscos potenciais associados à tecnologia.
Ao saudar o acordo da UE para “apertar os padrões de controle”, ele observou que a solução para a miríade de problemas em torno da IA não virá no próximo ano e que os primeiros passos para resolver este problema devem ser dados agora. Ou “muitas pessoas no mundo irão pagar um preço alto”.
“Quanto maior o risco para os direitos humanos, mais rígidos devem ser os requisitos legais para o uso da tecnologia de IA”, acrescentou Bachelet.
O relatório e as declarações de Bachelet surgem depois que se soube, em julho, que um programa de espionagem, conhecido como Pegasus, foi usado para hackear smartphones de milhares de pessoas em todo o mundo, incluindo jornalistas, funcionários do governo e ativistas de direitos humanos.
O número de telefone do ministro da Economia francês, Bruno Le Maire , foi apenas um dos investigados no âmbito do hack com o programa de spyware, desenvolvido pela empresa israelita NSO Group.
O Grupo NSO emitiu uma declaração a vários meios de comunicação não abordando as alegações, mas afirmou que a empresa “continuará a fornecer serviços de inteligência e forças de segurança em todo o mundo com tecnologias que salvam vidas para combater o terrorismo e/ ou o crime”.
Falando na audiência do Conselho da Europa sobre as implicações da controvérsia do spyware Pegasus, Bachelet disse que as divulgações não foram uma surpresa, dado o “nível sem precedentes de vigilância em todo o mundo por atores estatais e privados”.