A inteligência artificial generativa continua avançando nas empresas, ganhando espaço em diversas áreas, do marketing à automação de documentos jurídicos. Mas por trás dos investimentos e experimentações, existe uma lista concreta de preocupações que ainda limitam o ritmo de adoção e a profundidade de uso.
Os dados do relatório da SAS mostram com clareza quais são os fatores que mais geram incertezas nas organizações em relação à GenAI. Esses pontos de atenção, longe de serem obstáculos intransponíveis, revelam onde as lideranças precisam atuar com mais estratégia e responsabilidade para transformar potencial em valor real.

Privacidade e segurança ainda são os temas mais críticos
A preocupação com privacidade de dados lidera com 76% das menções, seguida de perto por segurança da informação, com 75%. Esses dois fatores não apenas aparecem no topo da lista como também estão profundamente conectados entre si.
Organizações que adotam GenAI sem uma política clara de proteção de dados expõem suas operações a riscos jurídicos, regulatórios e reputacionais. A confiança em modelos generativos depende diretamente da capacidade de garantir que informações sensíveis não sejam usadas, expostas ou replicadas indevidamente.
Essas preocupações exigem investimento não apenas em tecnologia, mas em governança de dados, compliance e processos de validação contínua.
Falta de governança ainda é o calcanhar de Aquiles da GenAI
A terceira maior preocupação é a ausência de estruturas formais de governança (56%). Isso reflete o fato de que, mesmo com a rápida disseminação da tecnologia, muitas empresas ainda operam GenAI de forma descentralizada, sem diretrizes claras, critérios éticos ou planos de contingência bem definidos.
Sem governança, aumenta o risco de decisões automatizadas mal calibradas, uso inadequado de IA em fluxos sensíveis e falhas na supervisão humana. Isso também compromete a capacidade de escalar GenAI com segurança e previsibilidade.
Criar um framework de governança não é um desafio técnico, mas uma decisão estratégica. E quanto antes ela for tomada, melhor será a experiência futura com a tecnologia.
A confiança depende da capacidade de explicar, supervisionar e corrigir
Outras preocupações relevantes incluem implicações éticas (52%), dependência excessiva da tecnologia (51%) e falta de talento interno (51%). Todos esses pontos se conectam ao desafio de usar IA com responsabilidade, clareza e domínio.
A explicabilidade dos modelos, citada por 49% dos respondentes, é particularmente importante. Se a IA gera uma resposta que não pode ser auditada, explicada ou reproduzida, ela se torna uma caixa-preta. Isso mina a confiança de usuários, clientes e reguladores.
Construir confiança passa por capacitar equipes, definir limites para o uso da tecnologia e criar mecanismos de revisão e correção contínua.
O desafio cultural também pesa, especialmente em setores tradicionais
Dois fatores culturais completam a lista: resistência à mudança (43%) e percepção de viés nos modelos (43%). Esses dados mostram que, mesmo em um cenário de entusiasmo, existe receio de que a IA possa reproduzir preconceitos, reforçar desigualdades ou não ser bem recebida por times que não se sentem preparados.
A resposta para isso não está apenas na tecnologia, mas em comunicação clara, programas de inclusão digital e capacitação multidisciplinar.
GenAI só funciona quando a cultura está pronta para recebê-la.
Siga nossas Redes Sociais e veja mais Conteúdos como Este!