Responsabilidade civil na era da IA: de quem é a culpa quando o algoritmo erra?

A inteligência artificial otimiza decisões, mas um erro pode custar caro. Quem responde?
Publicado em:
3/9/2025
Categoria:
Inovação

A crescente integração de sistemas de inteligência artificial (IA) nas operações empresariais — desde a automação de linhas de produção e análise de dados para concessão de crédito até a gestão de frotas autônomas e diagnósticos médicos — representa uma das mais profundas transformações no mundo corporativo. Contudo, essa evolução tecnológica caminha lado a lado com um vácuo de previsibilidade jurídica que aflige gestores e diretores: quando um sistema autônomo toma uma decisão que causa dano a um terceiro, sobre quem recai a responsabilidade civil?

Essa questão não é mais um exercício de futurologia, mas uma realidade com consequências trágicas e complexas. Pense no caso do homem belga que, sofrendo de ansiedade climática, cometeu suicídio após ser incentivado por um chatbot de IA a se "sacrificar para salvar o planeta". Ou, em um contexto corporativo, considere a proliferação de perfis falsos e vagas fraudulentas em plataformas de recrutamento como Gupy e LinkedIn, onde algoritmos são explorados por golpistas para roubar dados de candidatos, gerando prejuízos e levantando sérias dúvidas sobre a responsabilidade da plataforma em filtrar esses atores maliciosos. Estes casos expõem a ponta de um iceberg: o desafio reside no fato de que a IA, especialmente em seus modelos de machine learning, opera com um grau de autonomia que rompe a tradicional e linear ligação de causa e efeito entre a ação humana (do programador ou do usuário) e o dano resultante. O algoritmo não é um mero martelo, uma ferramenta passiva; ele aprende, adapta-se e, em certo sentido, "decide". Desvendar o novelo dessa responsabilidade é crucial para a segurança jurídica de qualquer empresa que deseje inovar.

A autonomia decisória da IA quebra a tradicional cadeia de comando, gerando incertezas sobre a imputação de responsabilidade.

A insuficiência das regras clássicas de responsabilidade

Para entender o tamanho do desafio, podemos traçar uma analogia com a indústria automobilística. Quando um carro apresenta uma falha de freio e causa um acidente, o Código de Defesa do Consumidor e o Código Civil oferecem um caminho relativamente claro: a responsabilidade pode ser do fabricante (defeito de fabricação), da oficina (serviço defeituoso) ou do motorista (mau uso). Existe uma cadeia de causalidade rastreável. Com a IA, essa cadeia se torna nebulosa. O dano pode ter sido causado por uma falha no código original? Pela qualidade dos dados utilizados para treinar o algoritmo? Pela forma como o sistema aprendeu e evoluiu após sua implementação? Ou por uma interação imprevisível com o ambiente em que operava?

A legislação brasileira, como a de muitos países, não possui um capítulo específico para a "responsabilidade civil de sistemas de IA". Assim, a análise recai sobre as estruturas existentes. O artigo 927 do Código Civil, que estabelece a obrigação de reparar o dano para aquele que, por ato ilícito, o causar, exige a demonstração de culpa. Provar a culpa de um programador por um resultado que nem ele mesmo poderia prever com exatidão é uma tarefa hercúlea. A alternativa seria a responsabilidade objetiva, prevista no parágrafo único do mesmo artigo, aplicável quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem. A operação de sistemas complexos de IA, especialmente em áreas críticas como saúde e transporte, certamente se enquadra como uma atividade de risco, o que tende a deslocar o foco da discussão da culpa para o risco do negócio.

O conceito de "defeito do algoritmo" e a responsabilidade pelo fato do produto

Uma das abordagens mais promissoras para solucionar a questão é enquadrar o dano causado pela IA como um "fato do produto", nos termos do Código de Defesa do Consumidor. Nessa ótica, o software ou o sistema autônomo seria considerado um produto, e um resultado danoso e inesperado seria um "defeito". O artigo 12 do CDC estabelece a responsabilidade objetiva do fabricante, do produtor e do construtor por danos causados por defeitos de seus produtos.

Contudo, o que define um "defeito" em um algoritmo que, por sua natureza, é probabilístico? Um sistema de IA que acerta 99% das vezes é defeituoso por causa do 1% em que falha? A jurisprudência ainda engatinha nesse tema, mas a tendência é que se considere defeituoso o algoritmo que não oferece a segurança que dele legitimamente se espera. Isso não significa perfeição, mas sim a ausência de vieses discriminatórios injustificados, a capacidade de operar de forma segura dentro dos parâmetros informados ao usuário e a transparência sobre suas limitações. Empresas que desenvolvem ou utilizam IA, portanto, precisam investir pesadamente não apenas na eficácia de seus sistemas, mas na robustez de seus processos de auditoria, validação e mitigação de vieses, documentando cada etapa para, se necessário, demonstrar que o produto não possuía um defeito de concepção ou informação.

A responsabilidade da empresa usuária: a culpa na escolha e na vigilância

Se a responsabilidade do desenvolvedor é uma ponta do problema, a responsabilidade de quem implementa e utiliza a tecnologia é a outra. A empresa que adquire um sistema de IA para tomar decisões de negócio não pode simplesmente se isentar de responsabilidade atribuindo eventuais falhas a um "algoritmo de terceiro". O Código Civil, em seu artigo 932, III, estabelece a responsabilidade do empregador por atos de seus empregados ou prepostos. De forma análoga, a empresa responde pelas "decisões" de seus sistemas automatizados.

Aqui, a discussão se concentra na culpa in eligendo (culpa na escolha) e na culpa in vigilando (culpa na vigilância). A empresa foi diligente ao escolher seu fornecedor de tecnologia de IA? Verificou suas credenciais, os testes realizados, as medidas de segurança e a conformidade com a Lei Geral de Proteção de Dados (LGPD)? E, após a implementação, a empresa monitora o desempenho do sistema? Audita seus resultados para identificar comportamentos anômalos ou discriminatórios? A manutenção de uma supervisão humana qualificada sobre as operações de IA não é apenas uma boa prática de governança, mas um fator que pode ser decisivo para mitigar ou definir a responsabilidade da empresa em um eventual litígio. Delegar uma função crítica a um algoritmo sem os devidos controles é, em si, um ato que pode configurar negligência.

O futuro da regulação e a necessidade de uma governança de IA

Enquanto o Poder Judiciário busca adaptar as leis existentes a essa nova realidade, o Poder Legislativo começa a se movimentar. O Projeto de Lei 21/2020, que busca criar o marco legal do desenvolvimento e uso da Inteligência Artificial no Brasil, já aponta para um sistema de responsabilidade baseado na gradação do risco do sistema de IA. Aplicações de "alto risco", como as usadas em veículos autônomos ou em recrutamento, estariam sujeitas a regras mais rígidas de transparência, segurança e responsabilidade civil, provavelmente objetiva.

Independentemente do ritmo da legislação, a mensagem para as empresas é clara: a espera por uma lei definitiva é a estratégia mais arriscada. A implementação de uma sólida estrutura de governança de IA é a única forma de mitigar os riscos jurídicos e reputacionais. Isso inclui a criação de comitês de ética em IA, a realização de avaliações de impacto algorítmico antes da implementação de novos sistemas, a manutenção de registros detalhados sobre os dados de treinamento e as decisões do sistema (logs), e a garantia da "explicabilidade" — a capacidade de explicar, em termos compreensíveis, por que um sistema de IA tomou uma determinada decisão.

A supervisão humana qualificada e a auditoria constante são essenciais para mitigar os riscos e a responsabilidade no uso de sistemas de IA.

Considerações finais

A inteligência artificial não é uma entidade com personalidade jurídica própria para sentar no banco dos réus. A responsabilidade por seus atos será, invariavelmente, atribuída a um ou mais atores humanos ou corporativos em sua cadeia de desenvolvimento e uso: o programador, a empresa de tecnologia, a empresa que a utiliza ou até mesmo o gestor que falhou em seu dever de vigilância. A complexidade do tema exige que as empresas adotem uma postura proativa, enxergando a governança de IA não como um custo ou um entrave burocrático, mas como um investimento estratégico essencial para a inovação responsável.

Em um cenário de incerteza regulatória, a melhor proteção é a diligência. Compreender as limitações da tecnologia, auditar constantemente seus resultados, garantir a transparência de suas operações e manter uma supervisão humana eficaz são os pilares que sustentarão a defesa de uma empresa quando, inevitavelmente, um algoritmo cometer um erro. A culpa, no final, pode não ser do robô, mas da falta de preparação para lidar com ele.

Decisões precipitadas custam caro. Descubra como preservar seu patrimônio, pagar menos tributos e evitar surpresas jurídicas. Fale com a gente!

Inscreva-se na
nossa newsletter

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.