[ editar artigo]

Move fast and break things: essa abordagem funciona para o Direito?

Move fast and break things: essa abordagem funciona para o Direito?

O lema trazido no título desta coluna tem sido utilizado pelo Facebook desde seus primórdios e representa o espírito difundido em ecossistemas de inovação mundo afora, a partir da experiência do Vale do Silício. Ao passo que a rede social amadureceu enquanto empresa, esse slogan foi perdendo sua atratividade, ocasionando a reflexão sobre o quão prejudiciais podem ser ferramentas digitais que se movem de modo excessivamente veloz.

Analisando essa tendência, Simon Chesterman, reitor e professor da Faculdade de Direito da National University of Singapore, em artigo intitulado “Move Fast and Break Things”: Law, Technology, and the Problem of Speed, publicado em janeiro deste ano, dissecou três exemplos de problemas gerados pelo aumento da eficiência na capacidade de processamento de sistemas de software, culminando em soluções de inteligência artificial (IA) que, por sua velocidade, excedem a capacidade de serem regulados efetivamente pelas ferramentas jurídicas atualmente existentes.

É preciso ressalvar que o autor observa os efeitos da inteligência artificial estreita – isto é, aquela que desempenha funções específicas – ao funcionar em velocidade acima daquela passível de controle racional por humanos. Por realizar esse recorte metodológico, Chesterman reflete que muitas das transformações na economia digital são mais precisamente vinculadas à velocidade e à eficiência do processamento de dados do que à verdadeira capacidade cognitiva ou “inteligência” per se.

Com isso, os exemplos mencionados são analisados enquanto barreiras práticas à regulação da tecnologia da informação num mundo globalizado. Em se tratando de sistemas de IA autônomos e opacos, tais obstáculos demonstram o perigo de operarem de forma incontrolável, imparável ou indetectável.

Analisemos, então, como esses riscos se concretizam na prática.

1. Globalização da Informação

Como primeiro exemplo, Chesterman analisa o fenômeno da globalização da informação por meio da internet, que disponibilizou mais conhecimento às pessoas do que em qualquer outro período histórico, o que significou que em diversos regimes autoritários, a internet assumiu um papel libertador justamente por conta da dificuldade de se conter o fluxo da informação.

Por outro lado, as estruturas que facilitam esse trânsito de informações impedem que se limite a circulação de materiais difamatórios e prejudiciais a terceiros, como as fake news, ou mesmo que pertençam exclusivamente a alguém, por meio de propriedade intelectual.

À medida que sistemas de IA ocupam mais espaço na geração de conteúdo informacional, os esforços direcionados à sua contenção – mediante localização, filtro ou outras formas de redução da velocidade do fluxo da informação – trazem consigo o risco de afetar os fundamentos da economia digital e podem ser, na hipótese mais otimista, apenas uma solução de curto prazo para um problema que se hiperdimensiona rapidamente.

2. High-frequency trading (HFT)

O segundo exemplo de dificuldade na regulação de fluxos rápidos de processamento de dados apontado o autor diz respeito a algoritmos que compram e vendem ações e derivativos visando à lucratividade incremental por conta da enorme quantidade de transações realizadas (HFT’s). Surpreendentemente ou não, tais ferramentas já representam metade do volume de negociações nos mercados americano e europeu.

Os HFT’s proveem liquidez ao mercado ao aumentar a quantidade de compradores e vendedores em qualquer momento e auxiliam na descoberta de preços. Entretanto, ao operarem tão rapidamente, também podem aumentar a volatilidade nos preços e desestabilizar o mercado, acarretando a atuação de circuit breakers em bolsas de valores, que buscam possibilitar aos investidores tomar tempo para assimilar informações supervenientes e retomar a capacidade de tomar decisões informadas em tempos de alta volatilidade no mercado.

Isso importa pois demonstra de forma clara uma das diferenças entre as tomadas de decisão – e o tempo que elas levam – para agentes humanos e HFT’s, que operam dentro da racionalidade que lhes é imposta pela programação em seus algoritmos, sem considerar a subjetividade e a racionalidade própria dos primeiros.

De modo a apurar a gama de informações em que fundamentam as decisões de compra e venda, diversos HFT’s seguem diretamente noticiários e informativos de mercado para que possam realizar negociações de papeis quase imediatamente após receberem informações tidas como públicas, garantindo vantagem competitiva com base em informações antes de qualquer outro agente.

Esse caráter de prontidão dos HFT‘s, que já foram até comparados a uma forma avançada de insider trading em virtude das vantagens que possuem sobre analistas humanos, demonstra que sua atuação deve ser mais transparente em relação a seus algoritmos do que traders humanos em relação a suas estratégias de investimento, o que hoje ocorre no mercado europeu.

Em última instância, a existência desse tipo de software implica uma mudança em como o mercado opera, o que sugere a necessidade de novos tipos de regulação, que demandam divulgação mais ampla dos mecanismos pelos quais funciona um algoritmo de HFT. Espera-se obter, com isso, a identificação de polos de responsabilidade para os casos em que as consequências da atuação desses programas sejam danosas ao mercado e, individualmente, a investidores e terceiros prejudicados pela volatilidade causada pela grande quantidade de negociações realizadas em frações de segundo.

3. Impactos Concorrenciais

Em terceiro lugar, Chesterman aponta os desafios que o aumento da velocidade de processamento e do fluxo de informações apresentam ao Direito Concorrencial, tendo em vista a ascensão de ferramentas de análise de dados, que tornam negócios mais eficientes e geram novas oportunidades de crescimento, mas, ao mesmo tempo, criam potencial para condutas anticompetitivas.

O enfoque se dá em instrumentos de precificação dinâmica de produtos e serviços em meio digital. Como é de conhecimento geral, mercados digitais permitem maior transparência na estipulação de preços e menores custos de busca, o que, ao menos em tese, seria benéfico para a concorrência, uma vez que consumidores que podem comparar preços de diferentes fornecedores deveriam se empoderar para selecionar opções mais baratas ou serviços de maior qualidade. A realidade, contudo, é mais complexa do que isso.

À medida que dados se tornam disponíveis e podem ser analisados em tempo real, a questão sobre se uma empresa decide voluntariamente divulgar informações pode se tornar inócua. Isso porque a velocidade com que preços podem ser ajustados hoje em dia significa que colusões tácitas (acerto de preço entre concorrentes) podem ocorrer sem qualquer intenção dos agentes de mercado – ou mesmo sem qualquer coordenação formal entre programas de computador.

Portanto, sem qualquer forma tradicional de colusão dos agentes, os próprios algoritmos podem concluir que o aumento de preços, de maneira alinhada, pode significar a resposta racional à movimentação da concorrência. Isso nos leva um questionamento bastante pertinente: sem que haja intenção humana, é possível considerar tal alinhamento de preços uma conduta anti-competitiva?

Como se isso não bastasse, é ainda mais intricado o questionamento sobre se algoritmos que processam dados envolvendo todo o mercado poderão manipular preços de maneira a dificultar ou impossibilitar sua detecção, ou seja, se trarão em seu bojo os antídotos formais à verificação de acerto. Não à toa, o fenômeno da colusão tácita entre algoritmos com aprendizado autônomo foi reconhecido pela OCDE como um dos maiores desafios já enfrentados pelas autoridades concorrenciais, cuja resolução tende a se estender pelos próximos anos.

O Problema da Velocidade

A verificação dos exemplos trazidos acima leva consequentemente à busca por soluções jurídicas. Uma delas tem sido justamente a intenção de se reduzir a velocidade de processamento de softwares, possibilitando seu monitoramento por humanos.

Essa opção, embora permita que continuemos a depender de ferramentas regulatórias concebidas para operar numa escala temporal humana, acaba por trazer o risco de comprometer aquilo que torna tais sistemas valiosos.

Tal solução pode se revelar insustentável, ainda por cima, uma vez que a perspectiva de desaceleração da capacidade de processamento é bastante remota. Logo, novas regras e instituições serão necessárias para enfrentar esse cenário, em conjunto com a inserção de funções de autoinvestigação e compliance nos próprios sistemas de IA, garantindo parâmetros mínimos de accountability sobre quem os opera.

Em face dos desafios identificados, Chesterman conclui seu artigo lançando a provocação de que limitar, parar ou mesmo detectar a atuação de tais sistemas poderá expandir ou reduzir ferramentas regulatórias, mas eventualmente forçará autoridades e empresas a realizar o debate sobre o que é mais importante: mover-se rapidamente ou evitar que as coisas quebrem.

Eis uma reflexão que nós, operadores do Direito, devemos realizar a todo instante ao atuarmos na economia digital.

Comunidade Legal Hub
Paulo Kroeff Baggio Silva
Paulo Kroeff Baggio Silva Seguir

Advogado graduado pela UFPR e pós-graduado em Direito Societário pela FGV/SP e pela UNICURITIBA. Suas experiências profissionais incluem operações de M&A envolvendo companhias-alvo no Sul do Brasil e desenvolvimento de modelos de negócio de startups.

Ler conteúdo completo
Indicados para você