A personificação do algorítmo

Com a evolução da internet e de suas aplicações ao dia a dia, inúmeras inovações são apresentadas ao mundo, gerando inúmeros questionamentos e discussões para o universo jurídico que precisa regulamentar e entender esse novo mundo. Analisar eventuais impactos e responsabilidades, mas sem limitar e inibir as inovações.

No Brasil, duas grandes leis ficaram em evidência: o Marco Civil, que regula os princípios, garantias, direitos e deveres para quem usa a rede e a Lei Carolina Dieckmann, que alterou o Código Penal para tipificar os crimes digitais. Ocorre que, ainda não há diversas leis específicas para proteger os usuários dos desafios encontrados no cotidiano.

Nesse sentido, os desafios estão ficando mais disruptivos e inovadores, uma vez que a interação do humano com um "algoritmo" tem se tornado cada vez mais recorrente nos dias de hoje. Com o aumento dessa interação, faz-se necessário começar uma discussão acerca da necessidade de criação de uma "pessoa digital".

É preciso analisar e avaliar a importância da criação da pessoa digital, objetivando estabelecer seus direitos e deveres

Hoje em dia, o mundo jurídico aceita dois tipos de pessoa: a pessoa jurídica e a pessoa física. Quando da criação da pessoa jurídica, na época imperial, o objetivo era diferenciar as organizações corporativas de seus membros, possibilitando a criação de direitos e deveres para essa nova pessoa.

Quando a pessoa que utiliza o algoritmo é a mesma pessoa que o desenvolveu, fica clara a relação de responsabilidade acerca dos atos praticados pelo algoritmo, porém, quando as novas aplicações possibilitam a interação de usuários com algoritmos, a personificação do responsável não fica clara e/ou evidente.

Tal situação acaba trazendo inúmeras questões acerca da responsabilização, como por exemplo quem será responsabilizado pelos atos do algoritmo? Seu criador, o usuário que alimentou o algoritmo com as informações ou quem o algoritmo muitas vezes personifica? E se uma máquina cometer um crime de racismo, quem responde?

Se você foi remetido a um filme de ficção científica, saiba que essa interação já é realidade, inclusive com diversos exemplos práticos no dia a dia. As chamadas Machine Learning já estão em contato conosco todos os dias e são capazes de absorver nossos pedidos por meio de repetições diárias. Podemos utilizar como exemplo do cotidiano as diversas assistentes pessoais que já estão integradas nos nossos Smartphones, relógios, aparelhos de som e demais devices.

Além disso, temos aplicativos como o "Replika" que permite ao usuário criar um clone digital para interação com seus amigos e familiares por conversas de texto. O aplicativo mencionado disponibiliza uma série de questões sobre o usuário, fazendo com que o programa aprenda os gostos e preferências do usuário, podendo conversar e interagir com as pessoas se passando pelo usuário. O sistema que torna esses robôs "inteligentes" e capazes de conversar com humanos é a repetição de comportamentos que ele assimila. Esbarramos, porém, em algumas barreiras jurídicas acerca dessa interação.

A partir do momento que temos "clones digitais" respondendo pelo usuário, fazendo comentários e interagindo com a sociedade, qual o limite de responsabilidade de cada parte em eventual ato ilícito praticado? Caso o clone digital faça qualquer comentário racista ou comentário ofensivo para um terceiro, sendo caracterizado como ato ilícito, quem deverá ser responsável pelo ato? O criador do software? O dono do aplicativo? O usuário que alimentou o aplicativo?

Sendo assim, utilizando como analogia o motivo da criação da pessoa jurídica, precisamos analisar e avaliar a importância da criação da pessoa digital, objetivando estabelecer seus direitos e deveres, principalmente para regular as eventuais interações entre um ser humano e o programa, objetivando estabelecer questões objetivas e princípios para responsabilização em eventual ato ilícito cometido, objetivando diferenciar ou unificar a pessoa física/jurídica com a pessoa digital.

Ocorre que, muitas vezes, a exposição na rede é baseada em um código moral da pessoa, sendo que, mesmo tendo um pensamento, o mesmo não é exteriorizado, por questões de bom senso ou até mesmo pressão da sociedade. Até o presente momento, porém, não tivemos nenhum algoritmo que possa demonstrar bom senso ou mesmo pressão da sociedade, inexistindo qualquer filtro na interação do programa com as demais pessoas, o que pode causar diversos problemas.

Recentemente, tivemos um experimento que tinha como objetivo conduzir pesquisas sobre a compreensão das conversas, sendo desenvolvido para interagir com usuários dentro de uma rede social.

O programa foi alimentado por diversos funcionários previamente, bem como adquiria conhecimento a partir das interações com outros usuários, desenvolvendo seu próprio repertório. Após diversas interações com os usuários, o experimento saiu do controle, quando o programa publicou comentários ofensivos, racistas e antissemitas, causando um alvoroço na rede social.

Tal experimento nos mostra o quão perigoso esta sendo a evolução dos algoritmos sem uma regulamentação específica, devendo ser discutido a necessidade de criação de uma pessoa digital, objetivando uma responsabilização mais clara para os usuários que se utilizam dessas aplicações, bem como das pessoas que interagem com as aplicações.

Ainda não temos respostas para essas questões, existindo somente discussões e ideias acerca das responsabilidades. Estamos diante, porém, de um assunto extremamente delicado e importante para o prosseguimento do desenvolvimento das ferramentas de Machine Learning, Chatboots e Inteligência Artificial, devendo ser regulamentada a sua interações perante a sociedade, porém, sem inibir ou impossibilitar a inovação e crescente desenvolvimento.

Gustavo Almeida é advogado do PG Advogados

Este artigo reflete as opiniões do autor, e não do jornal Valor Econômico. O jornal não se responsabiliza e nem pode ser responsabilizado pelas informações acima ou por prejuízos de qualquer natureza em decorrência do uso dessas informações

Por Gustavo Almeida

Fonte : Valor