O que a IA traz de bom para a mesa e quais seus riscos | Opinião

Por Graham Young
11/06/2024 19:27 Atualizado: 11/06/2024 19:27
Matéria traduzida e adaptada do inglês, originalmente publicada pela matriz americana do Epoch Times.

Quando penso em Inteligência Artificial, ou IA, lembro-me de uma citação do guru empresarial americano Mark Cuban: “Leva 20 anos para se tornar um sucesso da noite para o dia.” No caso da IA, ele está errado por um fator de 3.

Faz 74 anos desde que Alan Turing escreveu “Computing Machinery and Intelligence” e 68 anos desde que o termo foi criado, mas agora todos estão falando sobre IA… incluindo jornalistas. Por quê?

Por causa do medo. No abstrato, a inovação científica sempre preocupou o homem. Na prática, quem sabe quem vai perder o emprego por causa dela?

O tratado de Mary Shelley, “Frankenstein: ou, O Prometeu Moderno”, permeou a cultura popular como um conto de advertência contra o otimismo tecnológico, e remete a raízes muito mais antigas. Prometeu foi punido pelos deuses gregos por dar ao homem a mais antiga das tecnologias avançadas: o fogo.

A humanidade foi punida pelos mesmos deuses que enviaram Pandora à Terra, onde ela acidentalmente libera todas as desgraças do mundo de sua caixa. Pandora tem ecos em HAL, o robô que assume controle assassino em 2001: Uma Odisseia no Espaço. Ou Skynet, a rede robótica genocida nos filmes do Exterminador do Futuro.

Uma facção significativa de humanos tem sido tecnofóbica desde o início, preocupada que a inteligência artificial possa também ganhar consciência artificial, ou que alguma facção possa subvertê-la para criar uma ameaça destruidora do mundo.

Deixando esses medos de lado, por que a IA ameaçaria meu emprego?

A IA tem trabalhado para melhorar a produtividade ao assumir trabalhos que os humanos fazem atualmente. A maioria das melhorias tecnológicas consegue isso, embora não se possa prever de antemão.

O tear mecânico destruiu os empregos de milhares de tecelões, e eles podiam ver isso chegando. De maneira similar, o computador de mesa, e agora o laptop, destruíram primeiro milhares de empregos de secretariado e, em seguida, empregos clericais e até profissionais.

Isso foi algo ruim?

Pode ser que não tenhamos os mesmos empregos que teríamos há 100 anos, mas em muitos casos temos empregos diferentes.

O que é IA?

Talvez a melhor maneira de pensar nisso seja como mineração de dados automatizada. Em vez de um humano procurar padrões em um conjunto de dados, um programa de computador faz isso.

A recente empolgação tem sido principalmente causada pelos Modelos de Linguagem de Grande Escala (LLMs), como o ChatGPT da OpenAI, uma versão do qual foi integrada ao Bing da Microsoft, permitindo seu uso nas buscas na Internet.

Os LLMs adicionam uma interface conversacional, quase humana, aos sistemas, permitindo que você os consulte usando palavras e frases comuns e eles respondem. Você pode até discutir com eles.

Existe um conceito chamado Teste de Turing. Turing hipotetizou que uma máquina era verdadeiramente inteligente se você pudesse conversar com ela sem perceber que era um computador.

Eu tenho conversado com o ChatGPT sobre aspectos deste artigo e é como falar com um C3P0 muito formal, o droide de protocolo da trilogia Star Wars. Então, ele meio que passa no Teste de Turing, mas, ao fazer isso, prova que o Teste de Turing não é adequado.

As respostas que recebo são razoáveis, poderiam até render uma nota 4, ou talvez 5, (em uma escala de 7) em um curso universitário de primeiro ou segundo ano, mas no terceiro ano o professor seria muito mais rigoroso na avaliação.

A questão que isso levanta para mim não é se a IA é inteligente. Se você não consegue distinguir um aluno mediano de uma IA, então talvez o aluno mediano não seja inteligente, mesmo que eles obtenham credenciais para gerenciar uma grande empresa ou burocracia.

Meios de comunicação embarcando no trem da IA

Bem, no pior cenário, as organizações de notícias poderiam usar IA para escrever matérias, demitindo centenas de jornalistas. Pior ainda, a IA já está sendo usada para escrever conteúdo para sites, o que pode resultar em uma escassez de empregos alternativos que exigem habilidades de escrita.

Há certamente algo nesse medo. Desde 1984, houve uma queda de 43% per capita no número de pessoas envolvidas em Informação, Mídia e Telecomunicações. Isso subestima a queda. Na verdade, houve um aumento entre 1984 e 2007, que foi o pico de emprego, de 19% per capita. Desde o pico, nos últimos 17 anos, houve uma queda de 71%. Em números absolutos, não é tão ruim, com os números de hoje sendo os mesmos de 1995, mas nesse mesmo período a força de trabalho aumentou 78%.

Talvez as coisas piorem. Esse medo não é injustificado, com a News Corporation na Austrália tendo 600 posições na corda bamba. Com a economia sombria na maneira como atualmente produzimos notícias, economias terão que ser encontradas em algum lugar ou nossas instituições existentes irão falir.

Então há um lado um pouco otimista. Recentemente, a Vox e a The Atlantic assinaram acordos com a OpenAI, assim como a News Corp. Esses acordos são promissores porque a OpenAI pagará a eles pelo acesso a seus sites de notícias e arquivos.

Recentemente escrevi sobre o absurdo das organizações de notícias esperarem que redes sociais e motores de busca como Facebook, Twitter e Google lhes paguem por exibir links para artigos de notícias em seus sites, quando as organizações de mídia obtêm grande parte do seu tráfego desses sites, que efetivamente fazem propaganda para elas.

Esse é o objetivo dos motores de busca e, em menor medida, das redes sociais, e a razão pela qual as organizações de mídia cuidam tanto de curar suas páginas para serem amigáveis à descoberta e exibição nesses sites. Os motores de busca são realmente uma forma primitiva de IA.

Eles raspam conteúdo da internet, que depois curam para os usuários, muitas vezes, dependendo do motor, personalizando os resultados com base nas buscas anteriores do usuário. Os LLMs fazem a mesma coisa, mas com mais sofisticação, e apresentam o conteúdo como próprio, o que cria um problema legítimo de direitos autorais. Portanto, algum pagamento é devido.

Além disso, a maioria dos sites de mídia hoje em dia limita o acesso gratuito a uma fração do conteúdo em seu site. Os LLMs adicionam muito mais valor às suas próprias ofertas se puderem acessar esse conteúdo, e se quiserem acessá-lo, uma taxa também é justificada.

Nesse caso, os meios de comunicação efetivamente encontraram uma maneira de distribuir e vender parte do seu conteúdo, melhorando sua economia do lado da receita, para benefício de seus funcionários e acionistas.

Isso também ajuda a resolver um problema para os LLMs. Chatbots foram pegos cometendo erros – fatos errados, e até alucinando – inventando fatos completamente.

Há também o risco de que, à medida que o conteúdo da internet se inclina para a esquerda, os sistemas de IA sigam essa tendência em suas respostas. Ao acessar fontes de notícias credíveis de uma variedade de posições, eles podem terceirizar a neutralidade e fornecer uma saída mais equilibrada para seus usuários.

Os limites da IA

Tenho usado IA há 20 anos e isso criou meu nicho original no jornalismo.

Quando comecei a escrever sobre campanhas políticas, não queria passar vergonha, como a maioria dos jornalistas fazia, tratando como fatos os boatos que eu ouvia nos corredores do poder ou nos churrascos de domingo com meus amigos. Então, junto com Mike Kaiser, que havia sido Secretário de Estado do Partido Trabalhista de Queensland e brevemente membro do parlamento, e que também estava escrevendo comentários, desenvolvemos uma maneira de fazer pesquisas de grupo focal usando a Internet.

Coletávamos nossos dados online através de pesquisas que envolviam milhares de respostas a perguntas abertas. Perguntas como: “Qual é o principal problema para você nesta eleição federal?” Isso era como uma versão científica massiva do vox pop, a forma de jornalismo onde você envia um repórter para um espaço público para perguntar às pessoas o que elas pensam.

Analisar tantos dados não era fácil até que, em 2004, eu descobri o Leximancer. Desenvolvido na Universidade de Queensland, ele procurava a ocorrência de palavras e quão intimamente estavam associadas a outras palavras. Ele podia descobrir associações que eram difíceis de detectar de outra forma.

O Leximancer podia peneirar os dados e fornecer mapas de palavras mostrando, a partir das minhas perguntas de pesquisa, como os problemas afetavam os votos. De repente, com um orçamento muito baixo, eu tinha a melhor inteligência eleitoral do país fora dos principais partidos políticos, que estavam gastando milhões para obtê-la, e eu podia escrever peças precisas e perspicazes para os principais jornais.

O ChatGPT e similares oferecerão muitas oportunidades como essas. Por exemplo, talvez a IA escreva parte do conteúdo de agências de notícias, o tipo de cópia “apenas os fatos”. Mas alguém ainda precisará verificar a cópia, porque você não pode confiar absolutamente que a IA seja precisa, e não ficaria bem no tribunal dizer que sua publicação estava em modo autônomo quando ocorreu a difamação.

Além disso, a IA precisa obter a cópia de algum lugar, que será escrita para outras organizações por pessoas com habilidades jornalísticas. É possível que a IA mova o emprego das organizações de notícias para o lado obscuro das relações públicas.

Pode ser que o maior risco de emprego não seja para as pessoas que usam palavras, mas para aquelas que fazem cálculos e escrevem código. A IA tem sido usada para escrever código de computador, onde aparentemente tem habilidade variável, e também para verificar código, onde é muito melhor.

O autor Luke Burgis acha que a IA pode levar a um mercado em alta nas humanidades porque falta à IA a percepção que um humano traz a uma tarefa, onde fazem conexões que nunca foram feitas antes. Se ele estiver correto, isso exigirá um método diferente de ensinar as humanidades. No momento, os departamentos de humanidades tendem a ser dominados por argumentos de autoridade, o que facilitou a ascensão da teoria crítica.

Talvez o que a IA leve seja uma reforma no pensamento humano onde o pensamento original, por necessidade, é preferido ao plágio anotado, porque as máquinas são tão boas nisso. Afinal, no fundo da caixa de Pandora, depois que todos os males foram liberados, restava a Esperança.

As opiniões expressas neste artigo são as opiniões do autor e não refletem necessariamente as opiniões do Epoch Times