A integração da IA ​​com tecnologia do consumidor levanta preocupações éticas

Por Raven Wu e Sean Tseng
24/06/2024 20:29 Atualizado: 24/06/2024 20:29
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

À medida que a era digital avança, a integração da inteligência artificial (IA) com a tecnologia de consumo está levantando preocupações éticas significativas. As gigantes da tecnologia, tendo quase esgotado as fontes de dados em inglês disponíveis publicamente, estão agora voltando-se para dispositivos eletrônicos pessoais e redes sociais para treinar modelos de IA. Essa mudança gerou desconforto público, com medos de invasão de privacidade ganhando força.

Em um exemplo recente dessa tendência, a Apple revelou avanços significativos em IA, particularmente no que diz respeito ao seu assistente digital, Siri.

Na Worldwide Developers Conference (WWDC) de 2024 da Apple, em 10 de junho, a gigante da tecnologia afirmou que a Siri atualizada agora entende a sintaxe da linguagem natural de maneira semelhante ao ChatGPT, permitindo funções como edição rápida de fotos, composição de emails e geração de emojis e imagens por meio de comandos de voz simples. As melhorias são exclusivas para dispositivos como o iPhone 15 Pro, tablets com chips da série M e computadores Mac equipados com processadores avançados.

Na conferência, a Apple anunciou que também fez parceria com a OpenAI para incorporar o ChatGPT diretamente na Siri, aproveitando o GPT-4 como o motor de IA subjacente.

No discurso de abertura da conferência, Craig Federighi, vice-presidente sênior de engenharia de software da Apple, destacou a importância da privacidade de dados no contexto da IA. Tradicionalmente, a Apple protege essa privacidade com o processamento de dados no dispositivo, que mantém os dados no dispositivo em vez de transmiti-los para servidores externos.

Federighi observou que muitos dos modelos generativos de IA da Apple funcionam inteiramente no dispositivo, mantendo a privacidade dos dados sem depender do processamento em nuvem. No entanto, ele disse, há momentos em que é necessário acessar modelos baseados em servidores para solicitações mais complexas. Nesses casos, ele disse, a nova “Computação em Nuvem Privada” da Apple garantirá que os dados processados em seus servidores em nuvem sejam protegidos de maneira transparente e verificável de forma independente.

Reação pública e críticas de alto perfil

Apesar das garantias da Apple, céticos expressaram preocupações de que informações pessoais poderiam ser exploradas por corporações para treinamento de IA ou experimentos não divulgados.

Um dos críticos mais destacados pode ter sido o CEO da Tesla, Elon Musk, que criticou diretamente o movimento no X após a conferência. Musk expressou preocupações sobre violações de segurança, até mesmo sugerindo uma proibição de dispositivos Apple nas instalações de sua empresa, temendo que a integração da OpenAI no ecossistema da Apple pudesse levar ao uso indevido de dados sensíveis.

A crítica de Musk se estendeu à transparência no manuseio de dados entre a Apple e a OpenAI. Ele descartou a noção de que a Apple poderia monitorar como a OpenAI usa os dados uma vez transferidos.

“O problema de ‘concordar’ em compartilhar seus dados: ninguém realmente lê os termos e condições,” Musk disse no X.

Essa questão foi destacada por um incidente recente envolvendo a atriz Scarlett Johansson. Em maio, Johansson ameaçou tomar medidas legais contra a OpenAI, alegando que uma voz em seu produto ChatGPT, chamada “Sky,” soava surpreendentemente semelhante à dela.

A OpenAI teria supostamente abordado Johansson, buscando usar sua voz para a IA, uma oferta que ela recusou. Meses depois, Johansson e outros notaram a semelhança, o que ela afirmou tê-la chocado e irritado, levando-a a buscar aconselhamento jurídico.

A OpenAI desde então pausou o uso da voz “Sky” e negou que fosse intencionado imitar a voz da atriz, citando razões de privacidade para não divulgar a identidade real do ator de voz. O incidente gerou discussões sobre padrões éticos na replicação de voz por IA.

A photo shows a frame of a video generated by a new artificial intelligence tool, dubbed "Sora," unveiled by OpenAI, in Paris, on Feb. 16, 2024. (Stefano Rellandini/AFP via Getty Images)
Uma foto mostra um quadro de um vídeo gerado por uma nova ferramenta de inteligência artificial, apelidada de “Sora,” revelada pela OpenAI, em Paris, em 16 de fevereiro de 2024. (Stefano Rellandini/AFP via Getty Images)

Implicações mais amplas e desafios legais

O debate se estende além da Apple e da OpenAI, com preocupações sobre dados de redes sociais sendo usados como recurso para treinamento de IA. Recentemente, a Meta—empresa-mãe do Facebook e Instagram—anunciou que a partir de 26 de junho, dados de usuários do Facebook e Instagram no Reino Unido e na Europa seriam usados para treinar o modelo de linguagem Llama AI da Meta.

A Meta afirmou que os dados de treinamento incluiriam conteúdo postado publicamente, fotos e interações com chatbots de IA, mas excluiriam mensagens privadas dos usuários.

Os usuários poderiam optar por não ter seus dados usados para treinar o Llama, disse a Meta. Em um email para usuários do Facebook e Instagram, a empresa disse “você tem o direito de se opor a como suas informações são usadas para esses propósitos. Se sua objeção for aceita, ela será aplicada a partir de então.”

Preocupações sobre essas práticas levaram a NOYB, um grupo europeu de defesa dos direitos digitais, a apresentar queixas a 11 agências nacionais de proteção de dados sobre os planos de treinamento de IA da Meta, de acordo com um anúncio de 6 de junho da organização sem fins lucrativos.

Como resultado das queixas, a Comissão de Proteção de Dados da Irlanda, reguladora principal da Meta, pediu à empresa de tecnologia que pausasse o esquema de treinamento do Llama com conteúdo de redes sociais.

Em uma atualização em 14 de junho, a Meta expressou decepção e chamou a pausa de “um retrocesso para a inovação europeia.”

Attendees visit the Meta booth at the Game Developers Conference 2023 in San Francisco on March 22, 2023. (Jeff Chiu/AP Photo)
Participantes visitam o estande da Meta na Game Developers Conference 2023 em San Francisco, em 22 de março de 2023. (Jeff Chiu/AP Photo)

Riscos da IA nas mãos de regimes autoritários

À medida que a preocupação pública aumenta sobre o uso indevido de IA por grandes empresas de tecnologia, há uma preocupação igualmente urgente sobre regimes autoritários e atores antiéticos usando IA para propagar ideologias nocivas, criar desinformação e manipular a percepção pública.

Em 6 de junho, três legisladores dos EUA—o senador Mark Warner (D-VA), presidente do Comitê de Inteligência do Senado, o deputado Raja Krishnamoorthi (D-IL), chefe do Comitê Especial da Câmara sobre a China, e a deputada Elise Stefanik (R-NY), presidente da Conferência Republicana da Câmara—expressaram sérias preocupações sobre o aplicativo de agregação de notícias NewsBreak.

Satoru Ogino, um engenheiro eletrônico japonês, nos disse que o PCCh usa “IA para gerar desinformação e moldar a opinião pública.” Ele acrescentou, “Sem habilidades fortes de pensamento crítico, os indivíduos são vulneráveis a essas campanhas sofisticadas de desinformação. Os governos devem eliminar software e mídia conectados ao PCCh para proteger o discurso público e manter a integridade da informação.”

Explorando a IA para moldar percepções globais

A OpenAI, em um post no blog de 30 de maio, detalhou o uso indevido da tecnologia de IA por atores estatais e entidades privadas para manipular narrativas globais. Nos últimos três meses, disse a OpenAI, suas investigações revelaram cinco operações clandestinas usando a tecnologia da OpenAI. As operações visavam controlar o discurso público e influenciar a opinião internacional, sem revelar suas verdadeiras origens ou objetivos.

As operações clandestinas abrangeram vários países, incluindo Rússia, China, Irã, e até envolveram uma empresa privada israelense. Elas aproveitaram as capacidades dos modelos avançados de linguagem da OpenAI para uma variedade de propósitos: desde gerar avaliações e artigos falsos até criar perfis em redes sociais, e desde auxiliar na programação e depuração de robótica até traduzir e revisar textos.

O relatório destacou especificamente a campanha “Spamouflage” da China, que empregou IA para monitorar atividades públicas nas redes sociais. Esta operação gerou mensagens falsas em vários idiomas, incluindo chinês, inglês, japonês e coreano, espalhando-as por plataformas como X, Medium e Blogspot. Suas atividades se estenderam ao gerenciamento de bancos de dados e manipulação de códigos de sites, exemplificado pelo uso do domínio obscuro revescum[.]com.

O grupo “Bad Grammar” da Rússia e as operações “Doppelganger,” juntamente com a União Internacional de Mídia Virtual (IUVM) do Irã, também foram nomeados por seu uso indevido de IA para disseminar notícias falsas e conteúdo extremista em vários idiomas. Seus esforços de propaganda abrangeram várias plataformas digitais, incluindo Telegram, X e Facebook.

Ainda em maio, o Instituto Australiano de Política Estratégica (ASPI) publicou um relatório intitulado “Verdade e Realidade com Características Chinesas.”

O estudo abrangente descreveu como a máquina de propaganda do PCCh usa empresas chinesas de propriedade privada em setores como jogos móveis, IA, realidade virtual e plataformas de varejo online no exterior. Essas entidades coletam dados extensivos sobre indivíduos tanto na China quanto globalmente. Esses dados são então usados para adaptar e propagar narrativas alinhadas com o PCCh.

Kane Zhang e Ellen Wan contribuíram para este artigo.

As opiniões expressas neste artigo são as opiniões do autor e não refletem necessariamente as opiniões do Epoch Times