Pixabay

Algoritmos e inteligência artificial

Repercussões da sua utilização sobre a responsabilidade civil e punitiva das empresas

Não é novidade que os algoritmos1 têm sido utilizados não apenas para dar respostas a questões objetivas, mas também para decidir questões subjetivas, complexas e que envolvem juízos sofisticados de valor, tais como: quem deve ser contratado para trabalhar em uma empresa; que contrato deve ser celebrado e em quais bases; qual a probabilidade de reincidência de determinado criminoso; dentre outros. No exemplo extremo dos carros autônomos, é o algoritmo que decidirá quem será ou não atropelado, diante de um acidente iminente.

A exploração de algoritmos para tais fins encontra-se no contexto de um mercado multibilionário, cuja proposta é a de substituir as decisões humanas, consideradas naturalmente falhas e enviesadas, pelas escolhas algorítmicas, vistas como mais eficientes, objetivas e imparciais. Grandes empresas investem fortemente nesse segmento, não somente para ajudar clientes e consumidores – incluindo aí o próprio governo – em suas escolhas, como também para orientar seus próprios processos decisórios internos.

+JOTA: Faça o cadastro e leia até dez conteúdos de graça por mês!

A matéria-prima utilizada pelos algoritmos para tais decisões é o big data, ou seja, a enorme quantidade de dados disponíveis no mundo virtual que, com o devido processamento, pode ser transformada em informações economicamente úteis2, que servirão como diretrizes e critérios para o processo decisório algorítmico.

Nesse contexto, é supreendentemente o campo de aplicação desses recursos. Apenas a título de exemplo, há hoje algoritmos que (i) identificam a orientação sexual da pessoal a partir do seu rosto; (ii) medem ondas cerebrais; (iii) reconhecem, a partir da análise cerebral, imagens vistas pelas pessoas, (iv) identificam estados emocionais, mentiras e intenções ocultas das pessoas; (v) reconhecem sinais de depressão, episódios de mania e outros distúrbios antes mesmo da manifestação de qualquer sintoma.

Paulatinamente os algoritmos estão adquirindo o poder de decodificar as pegadas digitais das pessoas, inferindo e predizendo até mesmo aquilo que ninguém revela e que muitas vezes não tem nem mesmo consciência. Por meio do aprendizado de máquina, os algoritmos ainda podem “aprender” e modificar sua própria estrutura e conduta, sem que haja propriamente controle ou mesmo previsibilidade sobre tais alterações e os resultados que daí decorrerão.

Todas essas transformações têm ocorrido em ritmo acelerado, sem que haja maior reflexão sobre as questões éticas e jurídicas envolvidas na utilização cada vez mais abrangente desses algoritmos. Pelo contrário, em muitos casos, parece haver a aceitação implícita de uma ética puramente utilitarista, justificada a partir de estatísticas. Exemplo disso, constatado em recente reportagem da Wired3, é que a melhor defesa da Tesla em relação ao seu sistema de autopilotagem é estatística, ou seja, que o sistema reduziria acidentes em 40%.

Entretanto, ainda que tais estatísticas estejam corretas4, certamente que não resolvem os problemas éticos e jurídicos daí decorrentes. Imagine-se o caso em que um carro autônomo atropelasse uma pessoa em hipótese absolutamente injustificável, diante de erro manifestamente grosseiro. Certamente que a estatística não poderia ser utilizada como excludente de responsabilidade nem no plano ético nem no plano jurídico.

Entretanto, é difícil julgar ética e juridicamente algo que pouco se conhece. Nesse sentido, os algoritmos têm se mostrado verdadeiras caixas pretas, pois, salvo seus desenvolvedores, normalmente ninguém sabe ao certo como funciona o seu poder de ação e predição: nem os usuários nem aqueles que sofrerão as consequências da referida decisão.

Diante da inteligência artificial, o controle sobre os inputs e outputs dos sistemas torna-se ainda mais precário. De fato, se o próprio código está em constante mutação, não se sabe em que medida será possível compreender a relação entre inputs e outputs, ainda que haja auditagem e transparência.

É por isso que a experiência recente está permeada de casos em que as máquinas erram, sem que se saiba ao certo porque erraram. Basta lembrar os flash crashes5 nas bolsas de valores e o caso Tay6. Por outro lado, mesmo quando acertam, é comum que não se saiba exatamente porque e como acertaram. Não seria exagero afirmar que a transferência de processos decisórios para máquinas e algoritmos, tal como vem sendo feita na atualidade, transforma-os em verdadeiros oráculos do nosso tempo.

+JOTA: Contratos de integração do agronegócio: principais repercussões do atual regramento legal à luz da função econômica do contrato

Ocorre que a delegação das decisões e escolhas para as máquinas não pode ser vista como uma alternativa isenta de responsabilidades no plano jurídico, dando ensejo ao processo que alguns já chamam de mathwashing. A questão a ser enfrentada aqui é saber em que medida podemos terceirizar nossas responsabilidades para máquinas e quais as repercussões jurídicas disso.

No recente livro The rise of big data policing: surveillance, race, and the future of law enforcement7, são propostas algumas perguntas que deveriam pautar a utilização de algoritmos: (i) é possível identificar os riscos que a tecnologia escolhida está tentando endereçar?; (ii) é possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)?; (iii) é possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias?; (iv) é possível testar a tecnologia, oferecendo accountability e alguma medida de transparência?; (v) a política de uso da tecnologia respeita a autonomia das pessoas que elas irão impactar?

Tais questões devem ser entendidas diante da preocupação de se evitar o determinismo tecnológico, justificado pelo cômodo argumento de que os agentes que transferiram determinadas decisões para as máquinas não mais responderiam pelo que estas fizessem. Ora, se assim fosse, haveria verdadeiro convite à irresponsabilidade organizada, o que obviamente não pode ser admitido. De alguma maneira, há que se pensar na responsabilidade dos agentes empresariais pelas tecnologias que adotam e por meio das quais auferem lucros e proveitos.

No que diz respeito à responsabilidade civil, os caminhos são menos áridos, pois seria possível se cogitar da responsabilidade objetiva pelo fato da coisa – no caso de máquinas ou robôs que tomem decisões – ou também pelo risco. Por mais que se saiba tal discussão deva encontrar um equilíbrio entre regulação e inovação – de que a questão do risco do desenvolvimento é um tema a ser enfrentado -, ao menos já existem ferramentas jurídicas que possibilitam o equacionamento de muitas questões daí resultantes.

+JOTA: Questões concorrenciais podem ser resolvidas pela arbitragem?

Já na seara punitiva, seja no âmbito do Direito Penal ou no âmbito do Direito Administrativo Sancionador, as questões são mais complexas, pois se trata de âmbito normalmente refratário à responsabilidade objetiva8. Entretanto, há que se pensar se tais obstáculos poderiam ser afastados quando estamos falando não propriamente de condutas humanas, mas sim de condutas praticadas por máquinas.

Já no âmbito da responsabilidade subjetiva, há pelo menos duas alternativas que merecem ser pensadas. A primeira diz respeito à constatação da reprovabilidade da conduta a partir da teoria do defeito de organização, que tem grande alcance para justificar os ilícitos corporativos9. De acordo com tal teoria, os agentes econômicos devem criar, manter e supervisionar organização compatível para controlar e monitorar os riscos assumidos. Assim, se houver transferência de capacidade decisória para algoritmos sem os devidos cuidados, seria possível se falar em ação culposa tanto da pessoa jurídica, como de seus gestores.

O outro caminho diz respeito à responsabilidade subjetiva por violação ao dever de diligência e cuidado dos gestores. Imagine-se o caso de um cartel implementado pelos algoritmos utilizados pelos diversos agentes econômicos de determinado mercado. Seria razoável considerar pelo menos culposa a conduta do agente que se utiliza, voluntariamente e sem os cuidados devidos, de mecanismos de tomada de decisão (como a precificação) que podem levar a práticas concertadas ou outros tipos de ilícito antitruste.

Dessa maneira, é possível falar em ato ilícito, ainda que não doloso, quando a empresa (i) adota algoritmo sem saber como ele age – violação ao dever de diligência por tomar decisão não informada –; ou (ii) não toma as providências necessárias para, a partir do monitoramento dos resultados práticos da utilização dos algoritmos, evitar a colusão ou outros tipos de conduta anticoncorrencial – violação ao dever de diligência por ausência de controle de risco. Nesse caso, seria possível se cogitar da responsabilidade tanto da pessoa jurídica, como dos gestores.

Na verdade, o próprio defeito de organização pode ser visto como uma violação ao dever de diligência, pois já se viu que, no atual contexto, este último ganha uma dimensão organizativa10, relacionada ao compromisso de criar e manter organização eficiente e idônea para o controle do risco assumido. Logo, a violação do referido dever tanto poderá ensejar a responsabilidade civil, como também a responsabilidade no âmbito do direito punitivo.

Logo, há vários caminhos a serem percorridos quando se está diante do desafio de entender as repercussões que a transferência de decisões para algoritmos apresentam no âmbito da responsabilidade civil e punitiva. É fundamental que possamos avançar nessas reflexões, a fim de encontrar uma justa medida para equilibrar inovação e responsabilidade, assim como evitar a indesejável irresponsabilidade organizada.

——————————

1 Para considerações iniciais sobre algoritmos, ver FRAZÃO, Ana. Dados, estatísticas e algoritmos. Jota. Disponível em: <https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/dados-estatisticas-e-algoritmos-28062017>.

2 FRAZÃO, Ana. Big data e impactos sobre a análise concorrencial. Parte I. Jota. Disponível em: <https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/big-data-e-impactos-sobre-a-analise-concorrencial-29112017>; FRAZÃO, Ana. Big data e impactos sobre a análise concorrencial. Parte II. Jota. Disponível em: < https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/big-data-e-impactos-sobre-analise-concorrencial-13122017>; FRAZÃO, Ana. Big data e impactos sobre a análise concorrencial. Parte III. Jota. Disponível em: < https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/big-data-e-impactos-sobre-analise-concorrencial-2-07022018>.

3 MARSHALL, Ariaan. Tesla’s favorite autopilot safety stat just doesn’t hold up. Wired. 4 maio 2018. Disponível em: < https://www.wired.com/story/tesla-autopilot-safety-statistics/>.

4 Sobre os riscos e a falibilidade das estatísticas, ver FRAZÃO, Ana. Dados, estatísticas e algoritmos. Jota. Disponível em: <https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/dados-estatisticas-e-algoritmos-28062017>.

5 EASLEY, David; PRADO, Marcos M. López; O’HARA, Maureen. The microstructure of the “flash crash”: flow toxicity, liquidity crashed, and the probability of informed trading. The journal of portfolio management. v. 37, n. 2, pp. 118-128, 2011.

6 HORTON, Helena. Microsoft deletes ‘teen girl’ AI after it became a Hitler-loving sex robot within 24 hours. The Telegraph. Disponível em: < https://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/>.

7 FERGUSON, Andrew Guthrie. The rise of big data policing: surveillance, race, and the future of law enforcement. Nova Iorque: New York University Press, 2017.

8 Trata-se de opinião defendida pela autora em vários dos seus escritos, dentre os quais FRAZÃO, Ana. Programas de compliance e critérios de responsabilização de pessoas jurídicas por ilícitos administrativos. In: ROSSETTI, Maristela A.; PITTA, Andre G. Governança corporativa: avanços e retrocessos. São Paulo: Quartier Latin, 2017.

9 Ver: FRAZÃO, Ana. Programas de compliance e critérios de responsabilização de pessoas jurídicas por ilícitos administrativos. In: ROSSETTI, Maristela A.; PITTA, Andre G. Governança corporativa: avanços e retrocessos. São Paulo: Quartier Latin, 2017.

10 Ver: FRAZÃO, Ana. Dever de diligência. Novas perspectivas em face de programas de compliance e de atingimento de metas. Publicado no Portal Jota, em 15 de Fevereiro de 2017. Disponível em: http://jota.info/colunas/constituicao-empresa-emercado/dever-de-diligencia-15022017.

Os artigos publicados pelo JOTA não refletem necessariamente a opinião do site. Os textos buscam estimular o debate sobre temas importantes para o País, sempre prestigiando a pluralidade de ideias.

Comentários