Big Data no Judiciário: como análises preditivas e machine learning podem acelerar os processos judiciais no Brasil

18/11/2016 | 4 min. de leitura

Nós, da Aquarela Advanced Analytics, aceitamos o desafio de escrever como análises preditivas e machine learning podem acelerar os processos judiciais do Brasil. Antes disso, topamos o desafio de aplicar nossas técnicas e a ferramenta VORTX Big Data para encontrar padrões nos dados do Judiciário brasileiro. A ideia das análises é visar melhorias significativas nos serviços prestados aos cidadãos.

Começamos este trabalho no último mês, em outubro. Nosso estudo exploratório concluiu que há significativas oportunidades de ganhos de produtividade dos Tribunais de Justiça a ser obtidos a partir da adoção de tecnologias de Big Data e analytics (análises preditivas, machine learning, aplicação de algoritmos) combinadas com inteligência de negócio aplicada.

Para esclarecer alguns pontos e o tamanho deste ambicioso projeto, divido o meu texto em 5 fases:

1 – Entendendo a complexidade do trabalho

Quando falamos em volume de dados, não apenas do judiciário, existem duas coisas importantes a ser pensadas. A primeira é o volume em termos de quantidade de transações e a outra é a complexidade delas. Assim, um formulário contendo apenas dois campos (nome e e-mail) e aproximadamente 1 milhão de respostas, resultaria em uma planilha de Excel com duas colunas chegando quase no seu limite de linhas. Agora imagine que o formulário passa a ter 10 campos ou seja, 10 colunas, isso faz com que o volume de dados e a possibilidade de combinações (complexidade) destes aumente exponencialmente e se torne impossível elaborar hipóteses de gestão sem o auxílio da inteligência computacional.

Em uma das amostragens (recorte aleatório da base) de dados extraídos do sistema SAJ, obtivemos um conjunto de dados (dataset) de processos judiciais baixados com 118 mil linhas e 26 colunas. Boa parte destas colunas apresentavam dados quantitativos como:

  • Duração de cada processo;
  • Quantidade de atos em cada processo;
  • Quantidade de partes envolvidas e outros.

2- Processo de descoberta

Quando falamos de descoberta de padrões preditivos em dados,  referi-mo-nos ao trabalho criativo dos analistas de:

  • Reduzir a complexidade computacional da análise selecionando e validando apenas melhores linhas e colunas amostrais.
  • Otimizar ao máximo o poder de cada tipo de algoritmo em cada uma das fases do projeto sem perder de vista as hipóteses sobre os comportamentos estudados.
  • Validar ou refutar hipóteses levantadas por todas as equipes.

Utilizando uma metáfora para resumir nosso trabalho exploratório, o que fizemos com dados do SAJ seria algo como abrir um motor de um carro, descobrir pontos de melhoria nos pistões e recomendar à fábrica uma nova versão desse motor, o qual poderá ser mais econômico, mais forte ou até com outro combustível.

É importante salientar que o processo de mineração de dados é obrigatoriamente um processo multidisciplinar feito no mínimo a 4 mãos. Neste caso, tivemos o apoio integral dos analistas de negócio e desenvolvedores da Softplan com mais de 15 anos de experiência na área atuando de forma sincronizada com o time da Aquarela por meio da metodologia DCIM (Data Culture Introduction Methodology).

As ferramentas utilizadas foram:

  • Higienização de dados e estatística: Rapidminer, R e Stata.
  • Visualização de dados: Aquarela VORTX, Power BI Microsoft, Rapidminer e R.
  • Algoritmos: Aquarela VORTX, Redes Neurais, Regressão Linear, Redes Naive Bayesianas.

3 – Resultados

 Os resultados preliminares do projeto apontam para as seguintes conclusões:

  • Cada classe de processo tem um fluxo e procedimentos específicos bem marcados;
  • Processos digitais e físicos se comportam de forma bastante distinta;
  • Selecionamos como base para nossa análise os processos físicos da classe Procedimento Comum;
  • Os processos de curta duração (média de 538 dias), divididos por meio da técnica de clusterização, possuem as seguintes características frente aos processos de longa duração (média de 1.999 dias):

5 vezes mais documentos emitidos por dia de tramitação;

2,5 vezes mais intervenções do magistrado por dia de tramitação;

3 vezes mais atos por dia de tramitação;

O Magistrado executa a primeira intervenção 20% mais rápido;

Processos tendem a durar menos na entrância inicial;

Processos com idosos duram menos.

  • Conseguimos prever com uma margem de erro de 3,6% a quanto tempo um processo está tramitando, abrindo a possibilidade de se chegar a previsões sobre a duração de cada processo novo de acordo com suas características.

 4 – Lições aprendidas da primeira incursão

Os estudos revelaram a viabilidade de melhorias (otimização) dos serviços jurídicos com a aplicação de inteligência computacional (machine learning) permitindo a validação ou refutação de hipóteses administrativas do Judiciário.

Durante  o projeto ficou evidente que para se chegar a modelos preditivos com alta confiabilidade existe uma lacuna que vem sendo trabalhada na fase de extração e higienização das amostragens de dados. Nesta lacuna estão as fases mais demoradas e trabalhosas dos projetos de mineração que tipicamente variam de 80 a 90% do tempo.

5 – Cenários futuros

Com o conhecimento adquirido neste primeiro estudo, temos a expectativa dos seguintes cenários operacionais:

  • Dados brutos dos processos e varas sendo extraídos de forma recorrente dos sistemas transacionais sem impacto no desempenho;
  • Dados sendo transformados e higienizados automaticamente para modelos de análise já pré-estabelecidos e validado pelas equipes;
  • Processamento periódico de forma exploratória com ferramentas de machine learning para manter sempre atualizada a base de conhecimento, capturando novas tendências de comportamento.
  • Relatórios monitorando com os melhores e mais importantes indicadores de desempenho de cada setor. A definição, validação e criação desses indicadores devem ser derivadas dos processos recorrentes de mineração.
  • Com o amadurecimento da orquestração dos sistemas transacionais, sistemas de Analytics e machine learning, haverá um aumento na taxa de acertos dos modelos preditivos e a possibilidade do estabelecimento de gatilhos automatizados aos gestores sobre situações de alta relevância administrativa, gerando ganhos em escala na otimização dos recursos de operação e melhoria do atendimento aos cidadãos consumidores dos serviços.
  • Aplicação contínua e intensiva de inteligência humana, por meio de cientistas de dados e especialistas de negócio, orientando as técnicas computacionais, realizando perguntas relevantes, interpretando os dados e aplicando o conhecimento de laboratório nas unidades judiciais e estruturas internas de gestão dos Tribunais.

Seus comentários são sempre muito bem-vindos. Comente!

Este espaço destina-se às repercussões sobre notícias e artigos publicados no SAJ Digital. São de responsabilidade de seus autores. Não servem como abertura de chamados e atendimentos para o portal e-SAJ.

Leia também

Receba nossas novidades por e-mail:

Fale com o
especialista
Desenvolvido por: Linkedin Instagram