banner

blog

Aug 05, 2023

6 desafios de aprendizado de máquina enfrentados pelas empresas

Getty Images/iStockphoto

O aprendizado de máquina promete insights que podem ajudar as empresas a aumentar o suporte ao cliente, combater fraudes e antecipar a demanda por produtos ou serviços.

Mas implementar a tecnologia – e concretizar os benefícios esperados – pode revelar-se difícil, para dizer o mínimo. As questões espinhosas da introdução de qualquer nova ferramenta entram em jogo: o investimento insuficiente e a falta de aceitação do utilizador estão entre os obstáculos. Mas as organizações que implementam a aprendizagem automática (ML) devem abordar um conjunto ainda mais amplo de preocupações, desde a ética à incerteza epistémica.

Aqui estão seis desafios de ML que as empresas devem considerar:

As organizações assumem um certo risco ao buscar tecnologias emergentes. No caso do BC, os perigos potenciais são grandes e tendem a ser multidimensionais.

“Os maiores desafios que estamos a ver, que todas as organizações estão a enfrentar, estão realmente relacionados com preocupações éticas, preocupações de segurança, preocupações económicas e considerações legais”, disse Zakir Hussain, líder de dados para as Américas na consultora EY. “Esses quatro são normalmente aqueles sobre os quais muitos de nossos clientes perguntam constantemente.”

O preconceito nos modelos de ML está entre as principais questões éticas. Por exemplo, os dados utilizados para treinar tais modelos podem não incluir dados representativos de todos os grupos de pessoas dentro de uma determinada população. O modelo resultante produzirá resultados sistemicamente prejudicados.

Quanto à segurança, os adotantes de ML devem lidar com diversas questões. Isso inclui cientistas de dados que podem baixar malware junto com os modelos de código aberto que planejam personalizar, bem como ataques imediatos de engenharia, disse David Frigeri, diretor administrativo da Slalom e líder de sua prática de IA/ML na Filadélfia. Slalom é uma consultoria com foco em estratégia e tecnologia.

Ele também citou o envenenamento de dados, um ataque no qual um agente de ameaça se infiltra nos dados de treinamento de uma empresa para influenciar os resultados analíticos ou a produção do modelo.

As questões de segurança articulam-se com preocupações mais amplas de confiança, especialmente com o aspecto de criação de conteúdo da IA ​​generativa. “Em alguns casos, nem sempre você pode confiar no conteúdo que [AI] criou para você”, disse Frigeri. “Tem que haver algumas verificações e equilíbrios para descobrir em que você pode confiar e em que não pode confiar.”

As preocupações económicas, por sua vez, giram em torno de questões relacionadas com o local de trabalho e dos estimados 300 milhões de empregos que a IA deverá afectar, disse Hussain. Ele observou que algumas empresas já pararam de contratar pessoas para cargos em que acreditam que a IA pode fazer o trabalho.

E na área jurídica, Hussain apontou o caso de um advogado da cidade de Nova York que contou com o ChatGPT para criar uma petição. A ferramenta de IA compôs citações legais, o que ressalta como a tecnologia pode alucinar e introduzir erros.

As organizações que implantam o ML devem abordar essas questões de frente, disse Hussain. As medidas que ajudam a mitigar o risco incluem o estabelecimento de directrizes éticas e governação claras, priorizando a qualidade dos dados, enfatizando a justiça no desenvolvimento de modelos e garantindo a explicabilidade dos modelos, acrescentou.

Na pressa de construir modelos, as organizações podem contornar a difícil tarefa de enquadrar um problema que o ML possa resolver.

“Começamos a conversa com nossos clientes com a simples noção de amar o problema”, disse Frigeri. "Muitas vezes, as pessoas ficam encantadas com a solução antes de compreenderem completamente, qualitativa e quantitativamente, qual é o problema."

Os projetos evaporam quando as organizações não conseguem selecionar um forte candidato problemático para ML. Se o problema escolhido não mover a proverbial agulha, as provas de conceito ficarão com poucos recursos e não conseguirão fornecer “aprendizado ou operacionalização”, observou Frigeri.

As organizações que lutam para enquadrar o problema também terão dificuldade em encontrar casos de uso apropriados, dificultando a implantação. Mais da metade dos 200 estrategistas corporativos entrevistados pelo Gartner citaram “estabelecer um caso de uso claro” como o principal obstáculo na implementação de tecnologias emergentes. O relatório de julho de 2023 da empresa de pesquisa de mercado observou que apenas 20% dos estrategistas usaram ferramentas relacionadas à IA, como ML.

COMPARTILHAR