Aplicativos de IA de alto risco podem enfrentar proibições sob possíveis reformas legais

O governo está considerando a introdução de categorias de risco para aplicações de IA, algumas das quais seriam então proibidas.

Por Rex Widerstrom
19/10/2024 09:02 Atualizado: 19/10/2024 09:02
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

Os australianos estão cada vez mais preocupados com a intrusão da inteligência artificial (IA) na vida cotidiana, e o governo está trabalhando em maneiras de restringi-la, afirmou o deputado trabalhista Patrick Gorman durante a conferência nacional da Australian Lawyers Alliance (Aliança de Advogados Australianos) em Fremantle.

Gorman é Ministro Assistente do Primeiro-Ministro e do Procurador-Geral, além de Ministro Assistente para o Serviço Público.

Antecipando um relatório da Susan McKinnon Foundation (Fundação Susan McKinnon) sobre atitudes públicas em relação à IA, ele mencionou que, entre as 3.000 pessoas entrevistadas, todas concordaram em se opor ao que ele chamou de “a intrusão da IA”.

Os “progressistas e de esquerda” classificaram o problema com uma pontuação negativa de 15%, enquanto os “conservadores e de direita” estavam ainda mais preocupados, atribuindo uma pontuação negativa de 20%.

Neste ambiente de rápida mudança, Gorman afirmou que o papel dos legisladores é “equilibrar risco com oportunidade” e “proteger o público australiano dos perigos da IA, sem restringir o potencial da IA de proporcionar melhorias positivas e profundas nos padrões de vida”.

“Sabemos os riscos de ter nossos dados sensíveis coletados e usados”, disse ele. 

“Suas informações podem estar sendo usadas para treinar IA sem o seu conhecimento ou consentimento. Conteúdos gerados por IA também podem ser criados para imitar as obras de artistas e criativos australianos”. Ele também destacou o potencial da IA para agravar questões como o cibercrime.

Um possível modelo legislativo sob consideração é o Artificial Intelligence Act (Lei de Inteligência Artificial) da European Union (União Europeia), que classifica sistemas e aplicações de IA em três categorias de risco: risco inaceitável, alto risco e risco mínimo.

Nesse modelo, sistemas e aplicações com risco inaceitável são proibidos. Esse modelo tem sido amplamente seguido pelo Canadá, segundo Gorman, e parece ser a direção que outros países estão tomando.

Patrick Gorman, ministro assistente do primeiro-ministro australiano, fala à mídia durante uma entrevista coletiva após uma visita ao North Metropolitan TAFE em Perth, Austrália Ocidental, em 20 de fevereiro de 2023. Imagem AAP/Richard Wainwright

“No ano passado, no Reino Unido, um documento oficial sobre IA foi lançado, defendendo a abordagem baseada em risco”, disse ele aos advogados.

“O documento classifica os sistemas de IA com base no nível de risco que representam. Enfatiza o desenvolvimento de sistemas de IA que sejam centrados no ser humano e confiáveis, ao mesmo tempo que promove a inovação por meio do desenvolvimento de centros de inovação em IA para apoiar a pesquisa e o desenvolvimento”.

Nos Estados Unidos, a primeira legislação estadual sobre IA foi aprovada. Conhecida como o Colorado AI Act (Lei de IA do Colorado), ela entrará em vigor em fevereiro de 2026, exigindo que os desenvolvedores de sistemas de inteligência artificial de alto risco usem cuidados razoáveis para proteger os consumidores contra riscos previsíveis de discriminação algorítmica.

“Esses são todos desenvolvimentos que o Serviço Público Australiano está monitorando de perto”, afirmou Gorman.

Ed Husic, Ministro da Indústria e Ciência, recentemente realizou consultas sobre propostas para introduzir salvaguardas obrigatórias para a IA em ambientes de alto risco, um processo que agora está ajudando a moldar a política de IA do governo.

O Senate Select Committee on Adopting AI (Comitê Seleto do Senado sobre a Adoção de IA) também está investigando as oportunidades e impactos da tecnologia e deve apresentar seu relatório final em 26 de novembro.

O Departamento do Procurador-Geral está atualmente analisando reformas legais relacionadas à IA em várias áreas, incluindo privacidade, direitos autorais, tomada de decisões automatizada, cibercrime e abuso facilitado por tecnologia.

Em outra pesquisa, realizada pelo Office of the Australian Information Commissioner (Escritório do Comissário de Informações da Austrália), os entrevistados manifestaram de forma esmagadora o desejo de saber quando a IA está sendo usada por empresas ou agências governamentais para tomar decisões que possam afetá-los.

Lições aprendidas com Robodebt

Ao destacar que a tomada de decisão automatizada (ADM, na sigla em inglês) já estava em uso em todo o governo, “desde os e-Gates nos aeroportos até o processamento mais rápido de pedidos”, Gorman afirmou que o governo estava ciente do erro cometido durante o Robodebt, e que havia aceitado todas as recomendações da Comissão Real.

Ele acrescentou que o governo está desenvolvendo uma política que garantirá que os sistemas e processos sejam “suficientemente robustos [e que] falhas no design e implementação de ADM sejam identificadas e corrigidas antes que decisões que afetem indivíduos sejam tomadas”.

“Isso poderia incluir garantir que qualquer uso de sistemas de ADM em processos administrativos seja consistente com os princípios do direito administrativo”, afirmou.

O potencial da IA para gerar deepfakes, materiais criados ou alterados por tecnologia, também foi uma preocupação.

“Esses podem ser usados como ferramentas para exploração sexual, abuso e assédio online”, disse o Ministro Assistente.

Ele destacou a recente introdução do Criminal Code Amendment (Deepfake Sexual Material) Act 2024 (Lei de Emenda ao Código Penal — Material Sexual Deepfake), que fortalece as ofensas criminais existentes e cria novos crimes voltados para a criação e o compartilhamento não consensual de material sexualmente explícito online, incluindo deepfakes.

Lembrando como o uso de computadores nos anos 1980 revolucionou o design de iates durante a America’s Cup (Copa América), Gorman disse: “Vejo essa mesma empolgação novamente na possibilidade da Inteligência Artificial. Para liberar o potencial das pessoas onde quer que vivam.

“Mas também é um momento para parar e considerar cuidadosamente os perigos e armadilhas potenciais à medida que avançamos”.