jota logo
Entrar
exclusivo
Apostas da Semana
Impacto nas Instituições
Risco Político
Alertas
editorias
Executivo
STF
Justiça
Legislativo
exclusivo
Apostas da Semana
Direto do CARF
Direto da Corte
Direto do Legislativo
Matinal
Relatórios Especiais
exclusivo
Apostas da Semana
Direto da Corte
Direto da Fonte
Giro nos TRT's
Relatórios Especiais
exclusivo
Apostas da Semana
Bastidores da Saúde
Direto da Anvisa/ANS
Direto da Corte
Direto do Legislativo
Matinal
Relatório Especial
Alertas
Energia
Análise
Colunas
Artigos
Aluguel por Temporada
Caso Mariana
Diálogos da COP30
Direito e Desenvolvimento
Joule
Jurisprudente
Meio Ambiente e Gestão de Resíduos
Mobilidade e Tecnologia
Oportunidades ao Ambiente de Negócios
Segurança Jurídica e Investimento
Transporte Marítimo e Concorrência
Transporte Rodoviário de Passageiros
Transportes e Mobilidade
Newsletters
Estúdio JOTA
Contato
jota logo
Entrar
Banner Top JOTA INFO
InícioOpinião & AnáliseArtigos
tecnologia

Inteligência artificial e responsabilidade civil

Devemos nos afastar do medo e abraçar os inúmeros potenciais que a inteligência artificial pode trazer para a humanidade

Luísa Canziani, Ana Paula Bialer
24/10/2021|05:05
inteligência artificial
Crédito: Unsplash

O Brasil deu um enorme passo para a criação de um ambiente favorável para o desenvolvimento de sistemas de inteligência artificial com a aprovação, pela Câmara dos Deputados, do PL 21/2020.

Esse projeto, cauteloso em alcançar um equilíbrio entre inovação tecnológica e respeito aos direitos e garantias fundamentais do cidadão brasileiro, adotou uma abordagem principiológica e baseada em gestão de riscos, trazendo claras obrigações e princípios a serem seguidos pelos agentes de mercado e reconhecendo a amplitude ainda pouco tangível dessa tecnologia, assim como seu caráter horizontal. Essas características tornam a proposição, além de favorável ao desenvolvimento tecnológico, plenamente alinhada a compromissos assumidos internacionalmente, como a Recomendação da OCDE sobre Inteligência Artificial, à qual o Brasil aderiu em 2019.

A inteligência artificial está presente em usos absolutamente triviais já experimentados em nosso dia a dia, bem como naqueles que podem, pelo seu grau de sofisticação, mudar as formas como as cadeias produtivas e relações econômicas são estruturadas, como a saúde é oferecida e como o Estado é administrado. Em face de tanta relevância que a inteligência artificial passa a ter na nossa sociedade, natural que o debate em torno de um marco legal se dedique, em parte, para a definição de uma estrutura de responsabilidade civil apta a endereçar os novos desafios e, ao mesmo tempo, não criar obstáculos ao seu desenvolvimento e adoção.

A discussão da responsabilidade civil decorrente do desenvolvimento e uso de sistema de inteligência artificial deve ser pautada por uma abordagem de gestão de riscos, uma constante que tem norteado de forma geral o debate regulatório no Brasil e no mundo sobre novas tecnologias e, em especial, a discussão do PL 21/2020. A gestão de riscos nada mais é do que o processo sistemático de identificação, avaliação, tratamento e monitoramento de riscos e eventuais danos, pretendendo mitigar ou até mesmo eliminar impactos negativos em relação a sujeitos de direito.

A adoção desta abordagem tem como principal vantagem, além de garantir um alto nível de proteção a direitos e liberdades individuais, permitir que as organizações tenham flexibilidade para decidir, com base em fatores como porte, estrutura, atividades negociais, dentre outras características, quais são as medidas mais adequadas para a salvaguarda destes direitos e liberdades. Além disso, a lógica de gerenciamento de riscos incentiva a inovação, na medida em que o instrumento normativo permanece neutro em relação à tecnologia empregada, permitindo sua aplicabilidade a diversas atividades e práticas de negócio que empregam a inteligência artificial.

A gestão de risco é pautada por algumas premissas normativas, como a existência de medidas de transparência, de responsabilidade e prestação de contas (accountability).

O termo accountability é de difícil tradução, podendo ser definido como a obrigação de uma organização de adotar todas as medidas técnicas, administrativas e organizacionais para implementar princípios amplos e estruturantes definidos no arcabouço legal, bem como a adoção de procedimentos, processos e políticas para efetivamente conseguir demonstrar o cumprimento dos preceitos legais, assim como os valores éticos e morais orientadores da sociedade. A incorporação do princípio no PL aprovado – lá com a denominação de responsabilidade e prevenção – requer um olhar e postura responsáveis por parte dos agentes econômicos para além da expectativa de mercado, no sentido de compliance e responsabilidade corporativos, mas passando ao patamar de obrigação legal propriamente dita.

A discussão do regime jurídico de responsabilidade civil decorrente do desenvolvimento e uso dos sistemas de inteligência artificial deve ocorrer, necessariamente, de maneira associada à lógica de gestão de riscos e accountability, que estabelecem salvaguardas legais para o uso responsável tais sistemas, sem inibir a inovação.

Um arcabouço normativo coerente com tais premissas deve seguir a regra geral da responsabilidade civil extracontratual no ordenamento brasileiro, pautada na responsabilização subjetiva. Isto é, há dever de reparar apenas quando houver um dano efetivo, a culpa por parte do agente, e um nexo de causalidade entre a conduta e o evento danoso, decorrente da violação do dever jurídico. A responsabilidade subjetiva contrapõe-se à responsabilidade objetiva, que é desencadeada pela ocorrência de atividade especificada em lei, e implica na obrigação de reparação do dano independentemente de culpa por parte do agente.

Há um motivo pelo qual o direito brasileiro, via de regra, valoriza a responsabilidade subjetiva em detrimento da objetiva, que só ocorre em situações especificadas em lei. A responsabilidade subjetiva tem como destaque a conduta, valorizando a atuação diligente e demonstrável do agente econômico para evitar, mitigar ou reparar o dano. Ou seja, a boa-fé na conduta do agente é adotada como medida para sua valoração normativa. Já a responsabilidade objetiva não confere a mesma relevância à conduta do agente, bastando que o agente cause o dano para que a responsabilização seja desencadeada. A adoção da responsabilidade subjetiva como regra geral visa estimular os indivíduos a se portarem de forma cuidadosa e respeitadora em relação aos direitos alheios, sabendo que seu comportamento será valorado em caso de responsabilização.

Dessa forma, é possível observar a íntima conexão entre os fundamentos da gestão de riscos, a accountability, e a responsabilidade subjetiva quanto à apreciação da conduta do agente. A abordagem de gestão de riscos, como mencionado, fornece um enquadramento flexível das responsabilidades previstas para o agente, cabendo a este decidir quais medidas adotará para a observância dos princípios e preceitos legais. Já o princípio da accountability requer a demonstração da tomada de medidas e, de forma geral, de que o agente agiu de forma diligente e responsável, observando as salvaguardas estabelecidas quanto a direitos e liberdades fundamentais. Isto é: a valoração da responsabilidade do agente deverá ter como referência a apreciação da sua conduta, não devendo ser responsabilizado aquele que teve sua atuação pautada pela observância à lei.

Portanto, a lógica da responsabilidade subjetiva não se encontra apenas na previsão expressa do art. 6º, VI, do substitutivo aprovado ao PL 21/2020. Ela permeia todo o projeto, que tem uma linguagem principiológica, baseada em gestão de riscos, valorizando instrumentos como boas práticas e a autorregulação – ou seja, a conduta dos agentes econômicos.

Caso se admitisse a responsabilidade objetiva para o desenvolvimento dos sistemas de inteligência artificial, atraindo-se a responsabilidade civil dos agentes independentemente de culpa, estaríamos descartando os próprios princípios da lei como orientadores da atividade, deixando de reconhecer as salvaguardas adotadas pelos agentes de boa-fé, e desincentivando as atividades de desenvolvimento de tais sistemas e mesmo a adoção de medidas de conformidade, sob a distorcida premissa do risco inerente à atividade. Assim, seriam desvalorizados os esforços dos agentes para a adoção de medidas técnicas e administrativas em prol das salvaguardas estabelecidas no projeto. Tal arcabouço ameaçaria o desenvolvimento de sistemas de inteligência artificial no país, assim como a sua ampla adoção em prol da sociedade.

É possível mesmo dizer que, enquanto a lógica da responsabilidade subjetiva incentiva a diligência do agente, a responsabilização objetiva cria incentivos para que os agentes econômicos realizem uma espécie de “precificação” do risco ao invés da adoção de medidas para sua mitigação – afinal, um comportamento mais ou menos cuidadoso não será um critério balizador da responsabilização. A manutenção da regra da responsabilidade subjetiva também é central levando-se em conta o conceito do “ciclo de vida de IA” – isto é, o fato de que o desenvolvimento de tecnologias de inteligência artificial envolve inúmeras etapas, desempenhadas por cadeias complexas de fornecedores.

O ecossistema de IA como um todo seria significativamente prejudicado caso a lei viesse a prever uma estrutura de responsabilidade objetiva e/ou solidária, considerando uma aplicação de forma automática e em cascata em relação ao agente que estiver desempenhando as atividades pertinentes a uma determinada etapa do ciclo de vida de IA – independentemente da verificação da culpa em relação ao dano em questão. Isso dificulta o estabelecimento de confiança nas relações negociais a longo prazo em uma cadeia ampla de fornecedores, visto que uma organização poderá ser responsabilizada pela conduta de outra, e a diligência na conduta do agente não será levada em conta.

A regra geral da responsabilidade subjetiva não afasta, de outro lado, que se comporte as exceções ao princípio já contidas no ordenamento jurídico pátrio, assegurando assim a responsabilidade objetiva do agente que no uso do sistema de inteligência artificial em relações de consumo venha a causar dano a cidadão, reconhecendo-se nesses casos a natureza hipossuficiente da relação e a dispensa da comprovação de culpa.

A experiência internacional tem demonstrado que a temática da regulação da inteligência artificial é, de fato, bastante complexa, merecendo, via de regra, uma regulamentação cautelosa, permitindo-se que conheçamos os efeitos da tecnologia, antes de esboçarmos normativos ex ante para endereçar preocupações que, no mais das vezes, não são inerentes aos sistemas de inteligência artificial e poderiam ser tratadas mediante a aplicação do arcabouço legal vigente.

Temos diante de nós o desafio de montar um importante quebra-cabeça que irá, se bem enfrentado, oferecer ao Brasil as ferramentas para o país despontar como um líder nesse processo de transformação digital. Para tal, uma estrutura de responsabilidade que honre os compromissos assumidos pelas organizações, reconheça os mecanismos de gestão de risco por ela adotados e considere a centralidade da conduta dos agentes econômicos para o reconhecimento de eventual responsabilidade civil é premissa basilar e necessária, inclusive para a manutenção da coerência  do instrumento normativo.

A inteligência artificial por vezes assusta, especialmente por seu caráter de novidade, de menor previsibilidade e domínio, por vezes nos fazendo crer que seja um fenômeno inexplicável e incontrolável. Devemos nos afastar do medo de estarmos diante do indomável, do exterminador do futuro, e abraçar os inúmeros potenciais que os sistemas de inteligência artificial podem trazer para a humanidade, ajudando na otimização de processos produtivos, melhoria da qualidade de vida, cura de doenças e o nosso bem-estar social e individual.

Conquistaremos esse ambiente com uma lei principiológica, vinda da aprovação do PL 21/2020 pelo Parlamento, que crie incentivos para as condutas responsáveis e éticas, assim como obrigações de reparação quando as salvaguardas não sejam suficientes e haja um dano efetivo ao indivíduo.


logo-jota

avatar-container

Luísa Canziani

Deputada federal (PSD-PR) e diretora de Inovação da Frente Parlamentar pelo Brasil Competitivo

avatar-container

Ana Paula Bialer

Sócia-fundadora da Bialer Falsetti Associados (BFA), advogada nas áreas de Tecnologia, Internet, Telecomunicações e Audiovisual, consultora jurídica, regulatória e de políticas públicas

Tags inteligência artificialtecnologia
COMPARTILHAR
jota

Nossa missão é tornar as instituições brasileiras mais previsíveis.

PRO Poder
Apostas da SemanaImpacto nas InstituiçõesRisco PolíticoAlertas
PRO Tributos
Apostas da SemanaDireto do CARFDireto da CorteDireto do LegislativoMatinalRelatórios Especiais
PRO Trabalhista
Apostas da SemanaDireto da CorteDireto da FonteGiro nos TRT'sRelatório Especial
PRO Saúde
Apostas da SemanaBastidores da SaúdeDireto da Anvisa/ANSDireto da CorteDireto do LegislativoMatinalRelatório EspecialAlertas
Editorias
ExecutivoLegislativoSTFJustiçaEnergiaOpinião e AnáliseCoberturas EspeciaisDireito trabalhistaTrabalhistaEleições 2026
Sobre o JOTA
Estúdio JOTAÉtica JOTAPolítica de PrivacidadePolítica de diversidadeSeus DadosTermos de UsoQuem SomosBlog
  • FAQ |
  • Contato |
  • Trabalhe Conosco

Siga o Jota