O Novo Marco Legal da Inteligência Artificial no Brasil e os rumos da Responsabilidade Civil

14 de março de 2023

Coluna Direito Civil

Pensar na acomodação da responsabilidade civil ao novo contexto de danos oriundos de tecnologias não é uma tarefa simples. A transformação do mundo físico com o advento da internet e das novas tecnologias é inegável. Nunca foi tão fácil se comunicar com qualquer pessoa, em qualquer lugar do mundo, a qualquer momento. Vivemos na era da conexão. Uma era com promessas de desenvolvimento, informação, progresso e integração. Para muita gente, sequer é possível elencar o que, afinal, poderia dar errado.

No entanto, diante de uma sociedade hiperconectada é fundamental que haja uma compreensão mínima acerca dos riscos que estão envolvidos no desenvolvimento tecnológico. Isso porque a hiperconectividade é um dos principais fatores que estimula a modificação decisiva do modelo de sociedade de consumo atual e a compreensão dos direitos envolvidos.

Em uma perspectiva de hiperconsumo e hiperconexão, o indivíduo deixa de ser somente um sujeito de direito, titular de vontades e autonomia de aquisição, para ser também um objeto, sendo ele mesmo uma mercadoria que serve de vitrine de dados a serem utilizados nos mais variados serviços. E o advento da inteligência artificial potencializa esses efeitos e riscos de uma maneira exponencial.

Na oportunidade da publicação da obra “Responsabilidade Civil e Inteligência Artificial: os desafios impostos pela inovação tecnológica”, sustenta-se que não é adequada a consagração apriorística de regimes únicos de responsabilidade civil, uma vez que a modalidade poderá ser subjetiva ou objetiva a depender das especificidades do caso concreto, máxime tendo em vista os influxos dos âmbitos civis, consumeristas, empresariais ou trabalhistas. Torna-se necessário, portanto, pensar em um sistema de múltiplas responsabilidades, que considere a complexidade, os sujeitos envolvidos e a natureza da relação jurídica posta em apreciação.

Diante da multiplicidade de interesses que orbitam a questão, iniciou-se a discussão de novos textos legislativos e de um marco regulatório específico para a inteligência artificial no Brasil. A regulação assume caráter relevante por ser o norte que direciona o desenvolvimento das novas tecnologias.

O Projeto de Lei n. 21/2020, de autoria do Deputado Eduardo Bismarck e relatoria da Deputada Luísa Canziani, estabeleceu princípios, direitos e deveres para o uso de inteligência artificial no Brasil. O projeto foi aprovado em regime de urgência pela Câmara dos Deputados e seguiu para o Senado Federal, o que, por si só, demonstra a inadequação de sua tramitação, eis que a regulação tecnológica necessariamente demanda uma participação multissetorial, ampla e dialógica.

Em que pese a manifestação parlamentar no sentido de que o texto seria notadamente principiológico, observam-se disposições que restringem ou modificam algumas garantias fundamentais, especialmente no regime de responsabilidade civil. É o caso do art. 6º, VI, do PL, que prevê de modo abstrato a responsabilidade subjetiva como regra geral nos casos de inteligência artificial, desprestigiando a cláusula geral do risco prevista no art. 927 do Código Civil e a análise de caso concreto que norteia a operacionalização dos casos de responsabilidade.

A previsão vulnerabiliza diretrizes fundamentais como a solidariedade social e o direito da vítima à reparação integral de seus danos, caracterizando inegável retrocesso no campo do Direito de Danos. No mesmo sentido, o PL não enfatizou suficientemente preceitos básicos para a proteção dos direitos fundamentais no ramo do desenvolvimento tecnológico, tais como a transparência e o dever de informação.

Ao restringir a responsabilidade somente à esfera subjetiva, o dispositivo desconsidera que a avaliação da responsabilidade civil como subjetiva ou objetiva depende do caso concreto, notadamente quando se trata de inteligência artificial, cuja aplicação pode ocorrer nas formas e nos contextos mais distintos possíveis[1]. As diferentes características da inteligência artificial trazem distintos desafios regulatórios e se refletem também nos diferentes regimes de responsabilização[2]. Para além disso, verifica-se que não há uma adequada definição de quem seriam esses agentes mencionados no dispositivo, o que torna ainda mais difícil a compreensão da imputação de responsabilidade[3].

Diante de toda a problemática, houve a instalação de uma Comissão de Juristas, instituída pelo ato do Presidente do Senado n. 4 de 2022, destinada a subsidiar a elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei nºs 5.051, de 2019, 21, de 2020, e 872, de 2021, que versam sobre o marco de princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

Em 6 de dezembro de 2022, a Comissão de Juristas publicou parecer em que apresenta proposta de substitutivo aos projetos de lei, trazendo, simultaneamente, avanços e pontos que ainda precisam de atenção e cautela. O texto avança ao buscar a conciliação entre uma abordagem baseada em riscos e uma modelagem regulatória baseada em direitos fundamentais, incluindo proposições de gestão de risco, de avaliação de impacto, de ampliação da transparência e de capacidade de contestação desses sistemas[4]. Por outro lado, ainda há muito a ser discutido no que tange ao uso do reconhecimento facial, segurança pública, autoridade competente e riscos excessivos[5].

No que tange à responsabilidade civil, o substitutivo optou, no art. 27, por um regime que abranja o fornecedor e o operador de sistema de IA, evidenciando que sempre que algum desses agentes causar dano patrimonial, moral, individual ou coletivo, será obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema[6].

Em continuidade, estipulou-se uma diferenciação no capítulo da responsabilidade civil: quando se tratar de sistema de IA de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida da participação de cada um no dano, ao passo em que, tratando-se de IA que não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

A previsão do substitutivo é semelhante à proposta demonstrada na Resolução do Parlamento Europeu de 3 de maio de 2022 sobre a inteligência artificial na era digital, onde se salienta que

embora os sistemas de IA de alto risco devam ser abrangidos pela legislação em matéria de responsabilidade objetiva, a que se deve juntar um seguro obrigatório, todas as outras atividades, dispositivos ou processos baseados em sistemas de IA que causem danos ou prejuízos devem continuar a estar sujeitos à responsabilidade culposa; considera que as pessoas afetadas devem, contudo, beneficiar da presunção de culpa por parte do operador, a menos que este seja capaz de provar que respeitou o seu dever de diligência[7].

A modalidade de culpa presumida é um estágio intermediário em que a culpa mantém a sua condição de requisito indispensável para a configuração do dever de indenizar, gozando, no entanto, da inversão do ônus da prova, de modo que a responsabilidade será afastada se o ofensor comprovar que não agiu com imprudência, negligência ou imperícia.

De nítida inspiração europeia, compete refletir se a importação, nesse caso, é compatível e adequada com a realidade brasileira. Ao estipular a culpa presumida para os danos causados para sistemas que não sejam caracterizados como alto risco, o substitutivo, em realidade, determina que a regra geral será a responsabilidade subjetiva, relegando as hipóteses de responsabilidade objetiva para situações excepcionais de risco alto ou excessivo.

Retorna-se, portanto, ao ponto inicial de discussão sobre a determinação apriorística de uma responsabilidade subjetiva para regimes de IA, que enfrenta diversas dificuldades, especialmente no que tange à complexidade da cadeia de produção, à verificação da culpa e do causador e à determinação de quais sistemas serão considerados de alto ou baixo risco.

Questiona-se, ainda, se há efetiva necessidade de uma alteração legislativa desse teor no campo da responsabilidade civil, considerando a cláusula geral do risco existente no ordenamento jurídico brasileiro, a escassa maturação do debate e a fragilização da reparação integral da vítima com a centralização de uma responsabilidade subjetiva, ainda que acompanhada da presunção de culpa.

Ademais, quando se determina que os fornecedores ou operadores responderão objetivamente pelos danos causados na medida da participação de cada um no dano, o texto parece indiciar obstáculo no acesso à justiça pela vítima, eis que a averiguação da participação de cada agente no dano é especialmente complexa em cadeias de produção de sistemas de inteligência artificial.

Fica a expectativa sobre como será apreciado o relatório da Comissão de Juristas, pontuando-se que a relevância da regulação da inteligência artificial e a multiplicidade de seus impactos torna necessário o aprofundamento da discussão por todos os setores interessados: iniciativa privada, sociedade civil, academia e Estado. Na medida em que o desenvolvimento proporcionado pela IA é crescente e se alastra por todos setores sociais, torna-se imprescindível debater o que o Legislativo brasileiro entende como termos de uso, limites e responsabilidades nesse ramo tecnológico, com a consciência de que o debate está apenas começando e que a reparação integral do dano da vítima deve ser uma diretriz imprescindível para a compreensão do tema.

 


Gabriela Buarque

Advogada. Mestra em Direito pela Universidade Federal de Alagoas. Secretária-Geral da Comissão de Inovação, Tecnologia e Proteção de Dados da OAB/AL. Coordenadora do GT de Inteligência Artificial e Novas Tecnologias no Laboratório de Políticas Públicas e Internet (LAPIN).

 

Notas:

[1] LABORATÓRIO DE POLÍTICAS PÚBLICAS E INTERNET. Nota técnica ao substitutivo ao PL 21/2020. Disponível em: https://lapin.org.br/wp-content/uploads/2021/09/notatecnica-ia-pl.pdf. Acesso em: 01 fev. 2023. P. 35.

[2] LABORATÓRIO DE POLÍTICAS PÚBLICAS E INTERNET. Nota técnica ao substitutivo ao PL 21/2020. Disponível em: https://lapin.org.br/wp-content/uploads/2021/09/notatecnica-ia-pl.pdf. Acesso em: 01 fev. 2023. P. 35.

[3] LABORATÓRIO DE POLÍTICAS PÚBLICAS E INTERNET. Nota técnica ao substitutivo ao PL 21/2020. Disponível em: https://lapin.org.br/wp-content/uploads/2021/09/notatecnica-ia-pl.pdf. Acesso em: 01 fev. 2023. P. 35.

[4] COALIZÃO DIREITOS NA REDE. Nota técnica sobre a proposta do novo texto do marco legal da IA. Disponível em: https://direitosnarede.org.br/2022/12/19/nota-tecnica-sobre-a-proposta-de-novo-texto-do-marco-legal-da-ia/. Acesso em: 31 jan. 2023.

[5] COALIZÃO DIREITOS NA REDE. Nota técnica sobre a proposta do novo texto do marco legal da IA. Disponível em: https://direitosnarede.org.br/2022/12/19/nota-tecnica-sobre-a-proposta-de-novo-texto-do-marco-legal-da-ia/. Acesso em: 31 jan. 2023.

[6] BRASIL. CJUSBIA. Disponível em: https://legis.senado.leg.br/comissoes/comissao?codcol=2504 . Acesso em: 31 jan. 2023.

[7] UNIÃO EUROPEIA. Resolução do Parlamento Europeu de 3 de maio de 2022 sobre a inteligência artificial na era digital. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_PT.html. Acesso em: 31 jan. 2023.

Deixar uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *