Apesar de o avanço da digitalização ampliar significativamente as possibilidades dentro das organizações, a modernização também impõe desafios relevantes associados ao uso de novas tecnologias. O volume crescente de informações processadas diariamente torna os ataques cibernéticos uma ameaça cada vez mais frequente. Soma-se a isso o risco de vazamento de dados e de práticas fraudulentas originadas internamente, fatores que exigem atenção constante das lideranças, especialmente em setores que lidam com informações sensíveis e estratégicas.
Segundo levantamento divulgado pela Deloitte, organizações de grande porte intensificaram a adoção de soluções de inteligência artificial em 67% nos últimos anos. O estudo também aponta que 45% das empresas já estão investigando ou utilizando aplicações de inteligência artificial generativa (GenAI).
Ainda assim, o relatório Deloitte’s State of Generative AI in the Enterprise indica que a falta de confiança permanece como um dos principais entraves para a implementação e a escalabilidade dessas tecnologias.
Suelen Pandini Odorizzi, advogada especialista em Direito Digital e segurança cibernética, com atuação internacional na estruturação de governança jurídica para tecnologias emergentes, alerta que o uso de ferramentas de IA não verificadas na elaboração de contratos e documentos oficiais expõe as empresas a riscos jurídicos relevantes.
À frente de projetos de compliance tecnológico e governança algorítmica em ambientes corporativos e institucionais, ela observa que soluções genéricas podem gerar conteúdos com informações inexistentes, como jurisprudência falsa, cláusulas ambíguas ou incompatíveis com a legislação vigente.
"A IA pode perpetuar ou até amplificar vieses presentes nos dados com os quais foi treinada, resultando em cláusulas discriminatórias ou desiguais, o que compromete a justiça e a equidade contratual", afirma.
A especialista também destaca que, por serem treinados com grandes volumes de dados, os modelos de IA podem gerar textos que, em tese, configurem plágio ou uso indevido de material protegido, abrindo espaço para disputas sobre autoria e titularidade. Esse risco, segundo Odorizzi, é particularmente crítico em operações transnacionais, nas quais regimes jurídicos distintos tratam de forma diversa a propriedade intelectual e a responsabilidade civil.
Além disso, a advogada alerta que contratos produzidos exclusivamente por IA tendem a ser genéricos, sem considerar o contexto operacional ou os objetivos estratégicos das partes, o que pode torná-los frágeis e pouco eficazes na prática — um problema recorrente identificado em auditorias jurídicas de sistemas automatizados conduzidas em ambientes corporativos de grande escala.
Riscos da automação sem auditoria
Suelen ressalta que automações sem mecanismos de auditoria comprometem diretamente o compliance e a governança documental, ao criarem riscos que se acumulam de forma silenciosa ao longo do tempo. Em sua atuação na avaliação jurídica de sistemas automatizados, ela observa que a ausência de controles estruturados pode gerar impactos jurídicos relevantes e de difícil reversão.
Entre as principais preocupações estão a falta de transparência — o chamado efeito "caixa-preta" —, que dificulta a rastreabilidade e a responsabilização, além da inconsistência na aplicação de regras, gerando documentos desalinhados e dificultando a gestão centralizada de riscos.
Outro ponto crítico citado pela especialista é a erosão da governança documental. A automação sem controle pode levar à proliferação de documentos fora dos padrões internos, formando um ecossistema difícil de auditar, incompatível com práticas sólidas de governança e com exigências regulatórias nacionais e internacionais.
Nesse contexto, a advogada defende que a segurança cibernética deve caminhar junto ao compliance documental, com controle rigoroso de acesso às ferramentas de IA, políticas claras sobre o uso de dados, adoção de soluções seguras em ambientes privados e capacitação contínua das equipes quanto a riscos, segurança e privacidade — modelo de governança que vem sendo adotado em projetos estruturantes assessorados por Odorizzi.
Supervisão humana e responsabilização
Outro aspecto central destacado pela advogada é a necessidade de adotar uma abordagem em que a tecnologia atue como suporte, nunca como substituta. "A principal diretriz, conforme recomendação da OAB, é a supervisão humana qualificada, garantindo que todo conteúdo gerado por IA seja revisado por um profissional do direito", afirma.
Ela acrescenta que a adoção de soluções mais avançadas exige práticas estruturadas de auditoria e monitoramento, incluindo auditorias de algoritmos para mitigar vieses, manutenção de trilhas de auditoria e realização de testes e validações contínuas — procedimentos que integram modelos de governança jurídica de IA aplicados em ambientes regulados.
Quanto à responsabilização por eventuais falhas, Suelen explica que ela recai sobre os agentes humanos e corporativos envolvidos, já que a IA não possui personalidade jurídica.
O modelo mais adotado é o de responsabilidade compartilhada, envolvendo a empresa usuária, o fornecedor da tecnologia e o operador humano. Enquanto o Projeto de Lei nº 2.338/2023 busca estabelecer regras específicas para o uso da IA no Brasil, atualmente a análise se baseia no Código Civil e no Código de Defesa do Consumidor.
LGPD como pilar inegociável
Ao tratar da redação de documentos, a advogada reforça que a Lei Geral de Proteção de Dados (LGPD) é um elemento central e inegociável. Segundo ela, é fundamental que a empresa tenha base legal para o tratamento de dados pessoais, assegure a confidencialidade das informações inseridas — especialmente em ferramentas online ou gratuitas —, observe o direito à revisão de decisões automatizadas e respeite o princípio da necessidade.
"A verdadeira inovação consiste em construir um sistema integrado no qual a tecnologia executa tarefas com eficiência, enquanto o profissional do direito se dedica ao pensamento estratégico, à negociação, à compreensão das nuances do cliente e ao exercício do julgamento ético", conclui.















