A Responsabilidade Civil pelos danos causados por Sistemas de Inteligência Artificial | Coluna Direito Civil

19 de setembro de 2022

Coluna Direito Civil

 

A inteligência artificial (“IA”) sempre fez parte do imaginário humano seja por meio da literatura, seja por meio dos filmes de ficção cientifica e desenhos como Os Jetsons. Colocada como algo inalcançável, a IA retratava o que seria o futuro da humanidade com carros autônomos voadores, máquinas e assistentes virtuais. No entanto, o que antes era visto como um futuro distante, hoje passou a ser parte do nosso cotidiano, sendo incabível pensar a vida sem todas as facilidades que os sistemas inteligentes proporcionam. Desde as plataformas de streaming aos computadores capazes de realizar laudos de exames médicos, a IA veio para ficar e atuar de infinitas formas em todos os campos da atividade humana. 

Diversos são os exemplos da presença de sistemas dotados de IA no cotidiano da sociedade: desde os mais tradicionais, como a automação fabril, até os mais recentes, como softwares e robôs de relacionamento. 

Diante desse cenário, diversas são as problemáticas envolvendo os danos causados por esses agentes não humanos que foram programados para desenvolver tarefas com autonomia.

De fato, as preocupações geradas pela utilização de IA autônoma são decorrentes tanto dos erros cometidos quanto dos “acertos” desempenhados pelos sistemas inteligentes que, por meio dos processos de machine e deep learning¹, passam a simular o pensamento humano²  e tomam decisões que, por exemplo, podem definir quem terá plano de saúde e sobre que condições, quem será promovido ou demitido, quem terá crédito e sob que formas de pagamento, dentre outras mais diversas tomadas de decisões que reverberam e impactam diretamente a vida dos indivíduos.

O mundo dos algoritmos e de inteligência artificial apresenta muitos desafios. Nesse sentido, é certo que os atos praticados por inteligências artificiais, por vezes, podem repercutir dentro do campo da responsabilidade civil quando causarem danos injustos a alguém ou a uma coletividade. 

Falar da responsabilidade civil na IA é diferente do que se falava anos atrás, quando ainda prevalecia a visão extremamente otimista de que máquinas decidiam melhor que os humanos, sob o fundamento de que as decisões humanas são mais viesadas e arriscadas. Assim, por um viés pragmático, investiu-se nesses sistemas que, aparentemente, são mais preventores do que causadores de danos. No entanto, sabe-se hoje que a objetividade matemática muitas vezes é incompatível com valores como justiça e outros constitucionalmente consagrados. 

Assim, muito embora ainda não tenha sido desenvolvido um sistema de inteligência completamente autônomo, acredita-se que muito em breve isso vai virar realidade, o que tornará ainda mais complexa toda a discussão. Nesse interim, a imprevisibilidade da conduta das IAs autônomas gera diversos questionamentos, tais como: (i) quem deve reparar as vítimas que porventura venham a sofrer com danos injustos cometidos por inteligência artificial?; (ii) houve falha no funcionamento (bug) ou simplesmente foi uma tomada de decisão equivocada? (iii) é possível se auditar os caminhos tecnológicos percorridos por um sistema de Inteligência Artificial para entender o porquê de determinada predição/recomendação? (iv) como resolver juridicamente demandas relacionadas a esses agentes? 

Pois bem, em 16 de fevereiro de 2017, o Parlamento Europeu discutiu a Resolução 2015/2113(INL), a qual contém recomendações à Comissão de Direito Civil sobre Robótica a respeito do regime de responsabilidade civil aplicável à IA³. Naquela oportunidade, os autores da proposta submetida ao Parlamento entenderam que os institutos de direito civil hoje existentes eram insuficientes para dirimir as questões demandas pelas novas tecnologias4. Essa insuficiência normativa estava umbilicalmente relacionada à imprevisibilidade no comportamento dos agentes autônomos dotados de inteligência artificial. Chegou-se a cogitar a criação de uma nova categoria de personalidade jurídica, as chamadas e-person, cujo objetivo seria imputar-lhe responsabilidade civil em caso de ocorrência de danos injustos causados por seus atos autônomos ou omissões. Acertadamente, a tese foi duramente criticada como uma visão excessivamente inspirada em ficção cientifica, tanto que a Resolução mais recente do Parlamento Europeu, de 20 de outubro de 2020, a (2020/2014(INL), afastou a criação de uma personalidade jurídica própria aos sistemas comandados por IA5 . 

No entanto, a problemática envolvida está longe de ser solucionada. O Direito da Robótica ganhou forças mundo afora, sendo apontado como alternativa para regular as questões atinentes às demandas decorrentes das novas tecnologias ligadas à inteligência artificial. Nesse sentido, Gustavo Tepedino e Rodrigo da Guia defendem, de forma acertada, que a criação de um novo ramo do direito é um verdadeiro risco para a unidade do ordenamento jurídico6, de modo que não há supostos vazios normativos. Segundo eles, mesmo que determinada questão relacionada à IA ainda não corresponda ao alcance tradicional de certas previsões normativas, cabe ao intérprete o papel de empreender esforços para buscar soluções com fundamentos nos valores do ordenamento de modo a encontrar, dentro dos institutos já conhecidos pela civilística, a resposta para o novo problema7.

Tomando como base tal posicionamento, passa-se a expor as possíveis correntes que poderão ser utilizadas para regulamentar a responsabilidade civil relativa aos danos ocasionados por IA8

(a) Irresponsabilidade da IA e dos agentes desenvolvedores: os defensores dessa primeira tese entendem que a vítima ficará sem reparação por dois principais fundamentos. O primeiro deles diz respeito à impossibilidade de se atribuir capacidade jurídica a uma inteligência artificial; e o segundo relaciona-se à ausência de conhecimento dos desenvolvedores do motivo pelo qual o agente tomou aquela decisão equivocada, haja vista que uma das características das IAs autônomas é sua opacidade. A “caixa-preta” dos algoritmos gera uma baixa transparência e explicação limitada de como foi o processo decisório. Além disso, a referida tese baseia-se na ideia de que eventual reparação desencoraja o desenvolvimento tecnológico tão importante para a vida em sociedade. Sabendo que serão responsáveis por indenizações – por vezes milionária –, as empresas e desenvolvedores seriam desincentivadas. Ainda, há quem considere a teoria do risco do desenvolvimento uma excludente de responsabilidade dos agentes desenvolvedores9, no sentido de que se eles utilizaram a melhor tecnologia que se tinha à época, o posterior desenvolvimento de algo mais novo e mais seguro não implica em defeito da IA. A responsabilidade acarretaria uma penalização excessiva considerando-se que os defeitos, em tese, não seriam detectáveis pelo fabricante; 

(b) Responsabilidade objetiva da IA: por meio da criação de uma nova categoria jurídica – as e-persons – os sistemas de inteligência artificial passariam a ter personalidade e patrimônio de modo que eles respondam diretamente pelos danos que causarem. Como mencionado linhas acima, essa teoria foi explicitamente rejeitada na nova apreciação pelo Parlamento Europeu sobre o tema ocorrida em 2020; 

(c) Responsabilidade subjetiva do programador: de acordo com essa tese, o programador que elaborou os algoritmos iniciais seria responsabilizado caso comprovado sua culpa. Caberia à vítima o trabalho hercúleo de comprovar a culpa do referido agente, haja vista que a autonomia da IA rompe o nexo de causalidade; 

(d) Responsabilidade objetiva da sociedade que aufere lucro com a IA: nos termos do artigo 927, parágrafo único, do CC/02 – teoria do risco criado – a IA seria classificada como bem perigoso. Dessa forma, a responsabilidade não se concentra na pessoa que atuou de forma culposa, mas em quem era capaz de minimizar riscos e lidar com impactos negativos10. Aqui se incrementa com a teoria do deep-pocket (literalmente, “bolso profundo”), conforme a denominação cunhada no direito norteamericano. Por meio da sua aplicação, toda pessoa envolvida em atividades que apresentam riscos, mas que, ao mesmo tempo, são lucrativas e úteis para a sociedade, deve compensar os danos causados pelo lucro obtido11. Seja o criador da IA, seja o fabricante de produtos que empregam IA, seja uma empresa ou um profissional que não está na cadeia produtiva da IA, mas que a utiliza em sua atividade, como uma transportadora que usa os veículos autônomos, isto é: aquele que tem o “bolso profundo” e aproveita os lucros dessa nova tecnologia deve ser o garante dos riscos inerentes às suas atividades; 

(e) Responsabilidade objetiva do fornecedor com aplicação do Código de Defesa do Consumidor: a referida tese parte da presunção de que o dano foi ocasionado em razão de um defeito no produto oferecido, ainda que o defeito seja desconhecido quando a IA foi desenvolvida, conforme a teoria do risco do desenvolvimento. Observa-se que, diferentemente dos que aplicam a teoria do risco de desenvolvimento para excluir a responsabilidade, a corrente mais acertada a utiliza para fundamentar o dever de indenizar12.

Em suma, é inegável que a busca por um sistema de responsabilidade à luz dos novos preceitos constitucionais, em que há uma preocupação maior com a vítima do dano injusto, inverteu a lógica até então operacionalizada. Se antes buscava-se punir o ofensor, hoje se busca ressarcir a vítima13. Essa virada conceitual é extremamente importante para entender que a reparação deve ocorrer seja ela resultado de um ato culposo, seja decorrente de uma atividade lícita que porventura ocasionou um dano a alguém. Dessa forma, sendo certa a necessidade de se reparar o dano injusto sofrido por alguém em razão de um ato ocasionado por uma IA autônoma, não parecem acertadas as teses que suprimem a responsabilidade desses agentes. 

No entanto, isso não significa dizer que em toda e qualquer conjuntura haverá o dever de indenizar. Acredita-se não ser possível entabular uma única resposta ou teoria para o direito dos danos em sede de inteligência artificial14, haja vista a impossibilidade de se escolher um só regime quando se tem uma grande pluralidade de circunstâncias relativas a esses sistemas. Dessa forma, caberá ao intérprete a análise pormenorizada do caso concreto de modo que, se existir relação de consumo, aplicar-se-á a responsabilidade civil objetiva do fornecedor pelo risco do desenvolvimento. Por sua vez, existindo relação empresarial, como é o caso dos danos decorrentes da atuação de administradores que delegam decisões para mecanismos automatizados no seio de companhias, aplica-se o regime de natureza subjetiva, baseado no dever de diligência15

Percebe-se, em síntese, que a estipulação de uma regra geral de responsabilidade civil nunca foi suficiente para amparar todas as demandas sociais, razão pela qual o sistema como um todo também deve ser usado para resolução dos conflitos existentes nessa seara.

 
Marcelo Junqueira Calixto
Doutor e Mestre em Direito Civil (UERJ). Professor Adjunto da PUC-Rio. Professor dos cursos de Pós-Graduação da FGV, UERJ e EMERJ. Advogado.

 

 

Stefannie Billwiller
Mestranda em Direito Civil na PUC-Rio. Bacharel em Direito na PUC-Rio. Advogada.

 

Aprofunde-se sobre o tema

Conheça a obra Responsabilidade Civil e Inteligência Artificial, da autora Gabriela Buarque, que repensa as categorias clássicas da responsabilidade civil, indagando se são suficientes para tutelar os novos imbróglios oriundos do cenário científico e quais seriam os parâmetros de responsabilização em tais hipóteses. Trata-se de uma investigação acerca da suficiência da disciplina de responsabilidade civil contemporânea com os desafios impostos pela inteligência artificial, verificando como se daria a aplicabilidade dos institutos permanentes, os fundamentos respectivos e como compatibilizá-la com o incentivo tecnológico constitucional em um contexto de risco. Visite nossa loja virtual e conheça este e outros títulos relacionados.

 


Notas
¹ “A complexidade dos sistemas dotados de inteligência artificial incrementa-se exponencialmente a partir dos modelos de machine learning (aprendizado de máquina), caracterizados pela aptidão da máquina a adquirir aprendizado a partir das suas próprias experiências. Caso se verifique, ainda, a utilização de modelos baseados em redes neurais à semelhança do funcionamento do cérebro humano, alude-se, no estágio mais atual da evolução tecnológica, ao deep learning (aprendizado profundo).” TEPEDINO, Gustavo e SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil – RBDCivil | Belo Horizonte, v. 21, p. 61-86, jul./set. 2019, p. 63-64.
² “Em uma camada da machine learning está a espécie denominada de deep learning, o qual ‘orienta’ máquinas para executarem determinadas atividades tal qual um ser humano as faria, considerando operações como, por exemplo, a identificação de locais, objetos, plantas, animais ou pessoas por meio de imagens; o reconhecimento de sons (como a fala das pessoas ou o canto de pássaros), ou o estabelecimento de padrões de acordo com decisões relacionadas a dados antecedentes.” SOARES, Flaviana Rampazzo. Levando os algoritmos a sério. In: CORDEIRO, A. Barreto Menezes, et al. Coord. Fellipe Braga Neto, et al.  Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba: Editora Foco, 2021, p. 46.
³ A Resolução de 2017 foi lacunosa no aspecto de responsabilidade civil, e teve a função maior de debater o tema do que apresentar solução propriamente dita. – Resolução 2015/2113(INL) do Parlamento de 16 de fevereiro de 2017. Disponível em < http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8+TA-2017-0051+0+DOC+XML+V0//PT >. Acessado em 26/12/2021.
Na oportunidade, Paulius Cerka fez uma comparação bastante interessante entre as IAs autônomas com o estatuto jurídico dos escravos no direito romano. Com base nessa teoria, na medida em que os atos realizados tanto por um quanto por outro são inteligentes e autoconscientes, fugindo do controle de seus “mestres” aquele que detém a IA seria o responsável por danos causados por ela. Essa teoria obviamente esbarra em questões sociopolíticas que inviabilizam a sua aplicação.
Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (2020/2014(INL)). Disponível em < Textos aprovados – Regime de responsabilidade civil aplicável à inteligência artificial – Terça-feira, 20 de outubro de 2020 (europa.eu)> Acesso em 10/09/2021.
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Op. Cit. p. 305: A rigor, enunciação de novo ramo do Direito voltado especificamente para as questões da robótica e da inteligência artificial traz consigo o grave risco de tratamento assistemático da matéria. Os fundamentos para a tutela da vítima de danos injustos não devem ser buscados em novos e esparsos diplomas normativos, mas sim – e sempre – no ordenamento jurídico em sua unidade e complexidade.
TEPEDINO, Gustavo. SILVA, Rodrigo da Guia. Op. Cit. p. 306.
8  Um resumo das teses jurídicas até hoje apresentadas pode ser encontrado em MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em sistemas de Inteligência Artificial (IA): autonomia, imputabilidade e responsabilidade. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coords.). Inteligência Artificial e Direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2ª ed. 2020, pp. 345 e seguintes.
9  TEPEDINO, Gustavo e SILVA, Rodrigo da Guia. Op. Cit. p. 313.
10  PIRES, Thatiane Cristina Fontão e SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial. Disponível em < 4951-22025-7-PB.pdf > Acesso em 10/09/2021.
11 Ibid.
12 Sobre o tema seja consentido remeter a CALIXTO, Marcelo Junqueira. A Responsabilidade Civil do Fornecedor de Produtos pelos Riscos do Desenvolvimento. Rio de Janeiro: Renovar, 2004.
13 BODIN de MORAES, Maria Celina. “A constitucionalização do direito civil e seus efeitos sobre a responsabilidade civil”. In: MORAES, Maria Celina Bodin de. Na medida da pessoa humana. Rio de Janeiro: Renovar, 2010, p. 335. 
14  MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020, p. 410.
15  FRAZÃO, Ana. Responsabilidade civil de administradores de sociedades empresárias por decisões tomadas com base em sistemas de inteligência artificial In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coords.). Inteligência Artificial e Direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2ª ed. 2020, p. 525.

 

Deixar uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *