Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
Se a pressa em adotar a inteligência artificial (IA) parece familiar, é porque já vimos esse filme antes. No final dos anos 90, organizações de todos os tamanhos, mas especialmente as grandes ou de nível empresarial, tiveram dificuldades para fazer a transição da funcionalidade legada para a transformação digital. Até a pandemia da COVID-19 e o lockdown global em 2020, as organizações empresariais estavam correndo para concluir suas transições digitais, principalmente quando se tratava de habilitar e proteger trabalhadores remotos amplamente distribuídos com operações de home office, fluxos de trabalho e normas de conformidade.
Além disso, uma corrida armamentista de IA está em andamento, pois a Microsoft, a Apple e outras empresas de tecnologia investem bilhões em produtos de IA, como a OpenAI. Todos sabem muito bem, ou deveriam saber, o quão intensa é a corrida para dominar a IA em nível global e corporativo. Ela é muito transformadora.
IA alterando as práticas de negócios
Não há dúvida de que a IA é o próximo avanço tecnológico que alterará fundamentalmente nosso modo de vida em um futuro muito próximo, e talvez para sempre. Na verdade, ela já está alterando e continua a fazê-lo. Mas nestes primeiros e inebriantes dias de IA, também há obstáculos práticos.
Por exemplo, os executivos e as diretorias das empresas estão encontrando obstáculos de implementação e controle que impedem que suas organizações realizem mais do que apenas uma fração do potencial da IA, sem mencionar a justificativa dos milhões de dólares gastos com uma implantação de IA em nível empresarial para simplificar suas operações, otimizar o fluxo de trabalho, harmonizar divisões em silos e outros desafios organizacionais que as organizações de nível empresarial têm dificuldade de lidar bem.
Mas isso é apenas o começo dos desafios e riscos que a IA representa até mesmo para as empresas de médio porte, bem como para as organizações de nível empresarial.
O risco para a privacidade e a ética
A promessa da IA não está apenas em sua velocidade de análise de dados, mas em seu poder absoluto de acessar rapidamente — e potencialmente abusar do acesso — informações pessoais. Os dados privados dos indivíduos são protegidos por seu direito legal à privacidade, e a responsabilidade de proteger essa privacidade recai sobre as organizações que possuem dados privados. Se um programa ou produto orientado por IA for usado de forma abusiva ou simplesmente não for monitorado, o risco de uma empresa violar as leis de privacidade aumenta.
Há também o risco de perpetuação de preconceitos e o impacto social resultante de quaisquer preconceitos incorporados ao programa de IA. Isso pode muito bem incluir as crenças pessoais do programador ou do servidor de IA, com resultados que prejudicam determinadas pessoas com crenças pessoais que são contrárias àquelas que estão na programação da IA.
A vigilância ilegal é outro risco que a IA traz para organizações de todos os portes. As pessoas têm o direito de não serem vigiadas quando participam de atividades em seu tempo livre? Elas têm o direito de não ter seu comportamento comercializado com análises preditivas e vendido ao mercado repetidamente? Deveriam, mas, na prática, é muito mais um caso em que a tecnologia supera a capacidade do nosso sistema jurídico de lidar com os novos desafios e riscos. O risco de mudanças e recursos tecnológicos é simplesmente muito rápido.
Preconceito na IA
Vale a pena examinar os vieses da IA um pouco mais de perto. O ditado “entra lixo, sai lixo” se aplica aos riscos e ao impacto da parcialidade na IA, pois ela é aplicada a seres humanos e suas crenças, comportamentos e opiniões individuais. Isso também se aplica aos padrões de conduta comercial, às preocupações com a privacidade e a qualquer outro aspecto de um negócio que possa ser avaliado e valorizado — ou desvalorizado — por um processo ou programa subjetivo orientado por IA.
Isso se deve simplesmente ao fato de que a IA é um produto de seu criador e, portanto, dos preconceitos do criador. É difícil, se não impossível, obter ou comunicar a objetividade com relação a questões morais e éticas, o valor da deliberação em detrimento da velocidade, os processos frequentemente complexos de negociação e compromisso, ou o benefício atual versus benefícios futuros, a boa vontade do mercado e assim por diante.
Riscos e desafios da integração de IA
Em termos práticos, muitas empresas estão descobrindo que a integração da IA em suas operações atuais é difícil e perturbadora. Em muitos, se não na maioria dos casos, o crescimento organizacional é orgânico e organizado, simplificado e também em silos. Ou seja, as práticas de negócios e as nuances do fluxo de trabalho evoluíram ao longo do tempo, muitas vezes como resultado de peculiaridades de personalidade, relacionamentos pessoais dentro e fora da organização, práticas de negócios estabelecidas e outros motivos de “fator humano” que levam uma empresa a operar da forma como opera.
O processo de integração de sistemas orientados por IA em organizações com tantas nuances e em seus fluxos de trabalho pode não apenas ser caro, mas também alterar fundamentalmente a própria organização de modo a torná-la irreconhecível para sua própria força de trabalho e/ou executivos. Isso também pode resultar em dispendiosas violações de conformidade. Esses riscos fazem com que as integrações dispendiosas com resultados fracos sejam um temor justificável entre as diretorias e os executivos.
Segurança de dados em IA
Um dos maiores riscos da adoção de sistemas orientados por IA é a velocidade com que eles podem acessar todos os dados em uma empresa. Não apenas os novos ataques cibernéticos são aprimorados pela IA, mas, uma vez dentro de uma rede, os hackers geralmente conseguem acessar identidades humanas ou até mesmo baseadas em máquinas indefesas para aproveitar rapidamente o sistema orientado por IA de uma empresa para acelerar ataques e descobrir dados protegidos, aprimorar o roubo de dados e realizar ataques de ransomware, tudo exponencialmente mais rápido.
De fato, os invasores agora podem usar os sistemas orientados por IA das empresas para ajudar em sua própria perda de dados antes mesmo de saberem que foram violados. A IA é essencialmente uma ferramenta que faz o trabalho de quem a controla. Esse foi o caso do Copilot da Microsoft para o Microsoft 365, em que os pesquisadores usaram o Copilot para localizar e exfiltrar rapidamente dados críticos com apenas algumas instruções, algo que nenhum hacker poderia fazer antes.
Riscos legais
Como vivemos em uma sociedade altamente litigiosa, os riscos que a IA representa para as empresas são significativos e desafiadores. A verdade é que os programas, as ferramentas e as soluções orientados por IA continuarão a ser adotados rapidamente. Ao mesmo tempo, os riscos à propriedade intelectual e a responsabilidade que a IA representa para as organizações em termos de conformidade normativa, responsabilidade, privacidade e preocupações éticas não desaparecerão tão cedo.
As empresas e organizações estão se apressando para adotar a IA e implantá-la o mais rápido possível, se não por outro motivo, porque não querem ficar para trás. “Inovar ou morrer”, afinal, não é apenas um ditado exagerado; para muitas empresas, é uma declaração de fato.
A inteligência artificial é inevitável, não importa o que eu escreva neste artigo. Em pouco tempo, a IA estará monitorando organizações em todo o país e em todo o mundo. Essa transformação será muito mais rápida do que a revolução digital anterior na economia, que levou até 20 anos.
Mas em tudo isso, uma pergunta óbvia permanece: “Quem monitora a IA?”
As opiniões expressas neste artigo são as opiniões do autor e não refletem necessariamente as opiniões do Epoch Times