NJ Especial: Segunda Oficina Gedel de direito eletrônico foca nos impactos da inteligência artificial na área jurídica e na democracia

O impactos do Big Data para o direito, a democracia e para a liberdade dos cidadãos. Esse foi o foco da II Oficina do Grupo de Estudos sobre Justiça e Direito Eletrônicos – GEDEL: Democracia e Direito no contexto do Big Data, da Inteligência Artificial e da Linguagem Maquinal, que lotou o plenário do TRT de Minas na tarde da última sexta-feira, 07 de julho.

Desembargador José Eduardo de Resende Chaves Júnior, coordenador da oficina, e os palestrantes: o cientista da computação Leonardo da Silva Souza, o engenheiro agrônomo Carlos Barbieri e o professor das cadeiras de Informação e Contrainformação do MBA em Gestão de Negócios da Faculdade Unimed, Cláudio Andrade Rego.

Fruto de uma parceria entre o Gedel, a Escola Judicial do TRT-MG e o Programa de Apoio às Relações de Trabalho e à Administração da Justiça – Prunart, da UFMG, a oficina foi coordenada pelo desembargador José Eduardo de Resende Chaves Júnior e apresentou, como palestrantes do dia, o cientista da computação Leonardo da Silva Souza, o engenheiro agrônomo Carlos Barbieri e o professor das cadeiras de Informação e Contrainformação do MBA em Gestão de Negócios da Faculdade Unimed, Cláudio Andrade Rego.

E, como era sexta-feira, tudo terminou em show: pelo Programa 6ª Cultural, uma bela e animada apresentação do desembargador Gabriel Napoleão, diretor da Escola Judicial do TRT do Pará, que, após os debates, assume a “persona artística” de Chacal e mostra aos mineiros um pouco da rica cultura regional do Norte do país, em especial, o chamado “brega paraense”.

Desembargador Gabriel Napoleão, o Chacal, artista e diretor da Escola Judicial do TRT do Pará.

Convidamos o leitor a acompanhar, nos tópicos a seguir, uma breve incursão pelos principais momentos dessas exposições, lembrando que a íntegra do evento, inclusive com os debates e o show do Chacal, está disponível no YouTube. Clique aqui para acessar o vídeo (Live) da oficina.

Palestra 1: Mundo governado pelos dados X dados governados

Abrindo a tarde de oficina, o engenheiro agrônomo Carlos Barbieri trouxe o conceito de big data como sendo algo ligado a um maior Volume, Velocidade e Variedade de informações. A esses três “V”s somam-se a questão da Veracidade (qualidade) e, ainda, o Valor que se pode extrair desses dados. “E esse valor tem aspectos éticos, que será preciso discutir”, pondera.

O palestrante lembra que hoje, queiramos ou não, estamos inseridos no contexto tecnológico, gerando e emitindo dados que vão alimentar o big data. Por exemplo, mesmo no silencioso, nosso celular está mandado dados para uma torre, nos localizando geograficamente, e isso é transmitido para uma central que processa e reenvia para outros servidores, onde tem pessoas interessadas em fazer algum uso disso.

Um exemplo do uso útil e benigno do big data é quando ele é aplicado em programas ligados à saúde, como o sistema da IBM usado pelo Memorial Sloan Kattering Cancer Center, de Nova York, para catalogar e analisar milhões de informações extraídas de portadores de câncer, que serão usadas pelos médicos, caso a caso, no tratamento da doença. Também na área da segurança o uso do big data tem sido positivo, como o sistema usado após o ataque de 11 de setembro que, cruzando milhões de informações, chegou a um quadro de 1.200 suspeitos do ataque. E, de fato, verificou-se depois que cinco dos terroristas identificados como culpados estavam presentes nessa lista. O engenheiro avalia que, embora tenha havido uma certa invasão de privacidade dos imigrantes pesquisados pelo sistema, o uso dos megadados teve um resultado útil e promissor.

Mas, onde mais se explora o big data é mesmo no setor comercial. De acordo com o palestrante, o Wall Mart, assim como todas as grandes corporações atuais, registra dados de todos os que compram na sua rede (o que compram, quando compram, quanto gastam etc), e tudo isso fica armazenado na rede mundial deles. A partir desses dados, a empresa adota estratégias comerciais, apropriadas para cada localidade onde atuam, aumentando em muito os seus lucros.

Assim, temos que hoje nossas atividades cotidianas são permanentemente monitoradas e podem servir de base para tomadas de decisões comerciais, industriais, eleitorais ou outras mais. A partir do gráfico do nosso consumo de energia, por exemplo, é possível saber a que horas tomamos banho, quando saímos de casa por curto período, quando estamos viajando, etc. “Isso traz aspectos inquietantes relativos à privacidade”,alerta o palestrante.

Para resolver o problema do manejo desses dados, as empresas têm trabalhado com dois conceitos básicos: a Governança de dados (que seria o legislativo e o judiciário dos dados), ou seja, protocolos, políticas e premissas a serem respeitados em relação aos dados que utiliza; e a Gerência de dados (o executivo dos dados), que seriam os bancos de dados, segurança da informação etc. “Quem define as leis e as faz serem cumpridas é a governança de dados”, explica o professor, acrescentando que, enquanto nos Estados Unidos existem uns 500 profissionais atuando nessa seara (os CPO Chief Protection – Privacy officer), no Brasil, apenas duas empresas têm uma pessoa exclusiva para verificar se os dados estão sendo devidamente utilizados, sobretudo em termos de privacidade.

Na avaliação do palestrante, temos muito a avançar nesse aspecto. Quem sabe, seguir o exemplo da União Europeia que, a partir de 25 maio 2018, adotará uma lei leonina de proteção de dados, a General Data Protection Regulation. A partir da entrada em vigor dessas normas, a empresa que deixar seus dados vazarem ou que praticar invasão terá de cumprir protocolos rigorosos ou pagará multas astronômicas (por volta de 20 milhões de euros ou 4% do seu faturamento global).

Entre essas normas incluem-se:

– Proteção territorial e extraterritorial (onde estão armazenados os meus dados);

– Notificação de vazamentos (quem tiver seus dados vazados, terá direito de ser notificado);

– Direito de acesso aos dados e de saber quem acessou, para onde foram fornecidos;

– Direito de esquecimento (de não mais autorizar que os seus dados sejam usados por determinada empresa);

– Portabilidade (direito de pegar os dados que estão armazenados em uma empresa de forma digital);

– Explicitação de uso (direito de dar o consentimento de forma aberta, explícita, inteligível, e não naqueles termos de adesão genéricos e confusos);

– Privacidade (até porque, os novos dados envolvidos serão os genéticos e biométricos).

De acordo com Barbieri, as empresas que adotam governança de dados estão se movimentando com mais desenvoltura e segurança no mercado. Mas, acrescenta, ainda é muito difícil o controle desses dados e há “zonas cinzentas” na legislação. “A governança de dados vem para colocar um pouco de ordem nesses conceitos”, conclui.

Tese da NewsWeek – Para ilustrar todo o dito, o palestrante cita uma reportagem de capa da revista americana NewsWeek, intitulada “Big data corrompendo a democracia via lavagem cerebral”. A matéria revela como o então candidato à presidência dos EUA, Donald Trump, virou o jogo das eleições americanas: o genro dele, Jared Kushner, que comandava a equipe digital da campanha, buscou no Facebook 220 milhões de registros de quase todos os eleitores americanos. Com isso em mãos, traçaram um algoritmo a partir do perfil psicográfico dos cidadãos americanos, no qual apuraram aspectos íntimos da personalidade dos eleitores, como o grau de abertura, concordância, instabilidade emocional, extroversão etc. A partir daí, identificaram subconjuntos e fizeram um marketing direcionado àqueles que tinham maior afinidade com as ideias de Trump. “Usaram um produto Analytica com conceitos de IA de Cambridge”, explica Barbieri, alertando para o poder e os riscos dessa forma de uso dos megadados.

Finalizando, ele explica que a Inteligência Artificial existe desde os anos 60-70, mas o volume crescente de dados leva a um refinamento dos resultados. Entretanto, acentua, é preciso muita cautela para não se fazer algoritmos equivocados, ou seja, que induzam a uma ideia falsa e a efeitos inversos aos pretendidos. “A privacidade será um ponto sensível na relação das pessoas com seus dados e com a tecnologia. Ou seja, é preciso atentar para a questão da privacidade versus vida pública e exposta nas redes”, conclui, frisando que, no Brasil, ainda é muito tímida a movimentação em relação à proteção dos dados.

Palestra 2 – Direito e informática: como unir profissionais antagônicos?

O professor das cadeiras de Informação e Contrainformação do MBA em Gestão de Negócios da Faculdade Unimed, Cláudio Andrade Rego, inicia sua fala colocando um dilema. Ele lista características dos profissionais das áreas de Direito e de Informática, levando à conclusão de que são, praticamente, antagônicas. Para ele, o que leva alguém a escolher o curso de Direito (pensamento dialético) é o contrário de quem escolhe o curso de informática, este necessariamente cartesiano. E questiona: existe a possibilidade de harmonia entre esses dois profissionais?

Ele, que é perito em informática ou tecnologia da informação, explica que, como existe o “juridiquês”, existe também o “informatiquês”. Diante disso, alerta ao fato de que, quando o juiz tem de tomar decisões dentro do processo que envolvam questões técnicas de informática, tende, comumente, a tomar decisões equivocadas, por não dominar essa linguagem.

Explica o palestrante que a programação de computador envolve apenas três elementos: EXECUÇÃO, CONDIÇÃO E REPETIÇÃO. Ou seja, pode-se determinar ao computador a execução de uma ordem, que se repetirá sob determinada condição. E aí ele propõe uma brincadeira para se tentar entender a mente de um programador de computador: “Minha mulher diz: amor, vá ao supermercado e compre uma garrafa de leite. Se tiverem ovos, traga seis. E eu voltei com seis garrafas de leite”. Ou seja, estabelecida a condição, o computador processa e obedece cegamente o comando literal. “Computador não faz o que você quer, faz o que você manda, literalmente”, completa.

Assim, trabalhando com essa realidade, o profissional de informática jamais vai se convencer de que faz sentido uma decisão, como a apresentada por ele, a qual determina que “o esperma é de propriedade da mulher que o recebe na relação sexual”, já que, na ausência de um contrato específico estabelecendo o contrário, o julgador presume que a propriedade do material se transfere a quem o detém. “Daí a dificuldade de unir esses dois profissionais em uma equipe de trabalho”, argumenta.

Entretanto, apontando o que considera ser “uma luz no fim do túnel”, o palestrante cita um conselho do professor Túlio Viana. Há muitos anos, ele já dizia aos seus alunos para não se especializarem em Direito Informático porque ele, simplesmente, não existe. Isto porque, o fato de uma compra e venda ser realizada pela internet não faz com que ela deixe de ser regida pelo Direito Civil. Por seu turno, os impostos sobre essa transação serão determinados pelo Direito Tributário e eventuais fraudes no uso do cartão de crédito serão punidas pelo Direito Penal. Assim, o aconselhamento do mestre a seus alunos é que se especializem na área do Direito na qual tiverem mais afinidade, mas que aprendam, ao menos, conceitos básicos de informática, “pois muito em breve todo o direito será informático”, profetiza.

Falando sobre o avanço das tecnologias, Cláudio Rego explica que as fontes de dados mudaram de empíricas para teóricas, passando pelas computacionais e, agora, as massivas, até se chegar ao big data e seus já conhecidos 4 “V”s (velocidade, volume, variedade e veracidade). “Big data, para mim, está em algo como o SKA – Square Kilometre Array, projeto que perscruta o universo a uma velocidade de cem pentaflops (cem mil milhões de milhões de operações de ponto flutuante por segundo)”.

Nesse ponto, o palestrante expressa o seu ponto de vista, no sentido de que o big data, no combate ao terrorismo, fracassou. Reportando-se a um livro editado, ele conta que, uma equipe sigilosa do exército americano trabalhava com milhares de dados, tentando evitar um já previsível grande ataque aos EUA, mas era como “tentar achar uma agulha no palheiro colocando mais palha”, como sugere o título da obra citada.

E bota palha nisso: conforme lembrou o palestrante, 90% de todos os dados estocados hoje foram criados nos últimos dois anos. “Estamos nadando em sensores e nos afogando em dados”, comenta, e deixa no ar uma dúvida: seria o big data um “big mistake”? Para ele, hoje, a grande questão já não é mais a busca por volume e sim, por variedade de dados. “No fim, o big não é mais big”, brinca, acrescentando que a maioria dos executivos não está segura de que há um produto certo, ou certeiro, resultante desse gigantesco volume de dados.

Para respaldar essa visão, ele exemplifica com alguns algoritmos que, da forma como usados, demonstram a sua tese de que “como plataforma preditiva, o big data faliu”. Segundo explicou, o big data é baseado em estatísticas, estimativas, padrões. E, para decodificar esses algoritmos é preciso ter um pensamento estatístico. “Quem não sabe decodificar algoritmos, fica como o bêbado no poste: ou seja, ele usa o poste apenas para servir de apoio e não para iluminar. Assim também, quem não domina a decodificação de estatísticas, não vai usar o big data para tomar decisões, mas, ao inverso, vai apenas tomar decisões e usar o big data para apoiá-las”.

Exemplos disso, como apontou, são as chamadas correlações espúrias que, por vezes, surgem como resultados da interpretação incorreta dos megadados. Recentemente, uma pesquisa revelou que, no verão, aumenta o consumo de sorvete e aumenta também o número de afogamentos. Assim, a conclusão, obviamente equivocada, foi a de que o maior consumo de sorvete aumentaria as chances de afogamento! Ou seja, ambos os dados estão corretos, mas a correção entre eles é espúria, já que uma coisa não explica e não é causa da outra. E isso pode passar a ser determinante na vida das pessoas atingidas por pequisas conduzidas por quem não entende de estatística.

Com isso, o professor finaliza sua palestra, com uma provocação: “Agora temos de dar um salto. Temos de usar os conhecimentos passados e avançar para o pensamento criativo. Vejam: o disquete não existe mais, mas, até hoje, permanece como o eterno símbolo do ato de salvar documentos nos diversos softwares. Ou seja, foi praticamente extinto, mas, como referência, não saiu da mente dos programadores até hoje”.

Palestra 3: Na era das criptomoedas e do Google Analytics

Fechando o ciclo, o cientista da computação Leonardo da Silva Souza, doutorando em arte e tecnologia pela UFMG, trouxe elucidações sobre as famosas e misteriosas criptomoedas, fenômeno típico do universo no qual se insere o cidadão 2.0, tema da sua palestra na oficina anterior. Oficina essa, aliás, que gerou um interessante experimento desenvolvido pela equipe do cientista, a fim de obter uma equação entre quantidade e qualidade de dados. A ideia era não lidar com grandes massas de dados, mas usar a criatividade para ver o que se poderia extrair deles.

Funcionou assim: Leonardo e sua equipe criaram um site de pesquisa e o monitoraram detidamente, entrando, como inevitável, na privacidade do visitante. A primeira questão que preocupou os pesquisadores foi: o que temos o direito de perguntar para o nosso visitante e, por outro lado, o que os nossos visitantes desejam e autorizam revelar?

Entretanto, segundo explicou o doutorando, o resultado da pesquisa é, simplesmente, tudo o que se consegue extrair pelos algoritmos de análise de tráfico do Google. “Foram 900 visitas de março pra cá e extraímos informações tipo sexo, idade, localização, idioma, navegador que usam, telefone, interesses etc, sem que os visitantes tivessem que responder a uma única pergunta!” revelou, explicando que o Google Analytics dá acesso aos rastros de navegação do visitante antes da chegada ao site em questão. “Nenhum visitante foi avisado de que estaria submetido a essa extração de informações. O perfil do usuário é identificado só pela análise do algoritmo, ou seja, sem consentimento”, pontua e alerta para o fato de que cada pesquisa que fazemos na web gera uma informação sobre nós, que é registrada e compartilhada por quem maneja os megadados.

Dito isso, o palestrante passa a colocar o chamado “problema do sujeito e a linguagem programada”. Para ele, trata-se de um problema estratégico, que se propõe a responder questões sobre o impacto da inteligência maquinal na vida dos cidadãos. “O risco de deixar de lado esse problema é começarmos a correr atrás de explicações para fatos que em breve, não compreenderemos mais”, alerta. A partir daí, surge o questionamento: Algoritmo é sujeito ou ferramenta? Ele age autonomamente? Há casos de extrapolação das ordens, ou seja, ele pode extrapolar os limites da sua programação? É essa a preocupação que passa a nortear a nova linha de pesquisa do cientista mineiro, que, com certeza, enriquecerá as próximas oficinas.

Criptomoedas – Quem não já ouviu falar em Bitcoin, LiteCoin, Ethereum, Dash, ZCash ou alguma outra das centenas de moedas baseadas em criptografia, utilizadas para as compras virtuais? Afinal, são a febre do momento. Para o pesquisador, este é um momento notável na história das exchanges (Bolsas de Valores Mobiliários), “no qual os algoritmos assumem as decisões das transações comerciais de curta duração e auxiliam na tomada de decisões de compra e venda de determinados ativos.”

Para quem não sabe, ele explica que toda transação de uma criptomoeda é baseada numa operação matemática complexa, que depende da validação feita pelo chamado “minerador”, pessoas com computadores potentes que calculam sequências numéricas e as combinam criando um hash, código que será aceito na rede das transações dessas moedas virtuais. Isso fica registrado em uma “carteira” virtual, que guarda o par de chaves públicas usadas na autorização das transações.

O palestrante chama a atenção para o fato de que hoje os algoritmos atuam na compra e venda de ativos, determinando as transações, por sua ação direta e autônoma. “É preciso criar regras para as criptomoedas que, no Brasil, até hoje, não têm regulação e podem sofrer movimentos extremos de valorização ou desvalorização, sem qualquer interferência humana”, pondera. E exemplifica com o caso da moeda Ethereum que, em questão de segundos, foi a um nível altíssimo e, em seguida, caiu a um nível crítico. Com isso, alguns ficaram milionários em questão de segundos, outros empobreceram no mesmo e fugaz instante.

Transpondo toda essa problemática para o campo da informatização do processo jurídico, Leonardo Souza volta ao problema do sujeito e a linguagem programada e coloca a teoria do Bottom Up x Top down, em que as teses geradas pelos algoritmos são postas à análise de cima para baixo e de baixo para cima. E aí a questão é entender até que ponto eles podem influenciar as decisões judiciais. Como exemplo, toma o seguinte fato, com a leitura de cima para baixo:

1- Um juiz está equivocado

2 – O desembargador entendeu que o juiz estava equivocado

3 – O algoritmo indicou ao desembargador que o juiz estava equivocado

Pressupõe-se aí uma conclusão autônoma do desembargador e o algoritmo apenas confirma o acerto da decisão. Mas, se fizermos a leitura de baixo para cima, ou seja, se iniciarmos com o algoritmo indicando ao desembargador que o juiz estava equivocado, haverá, ao final, uma premissa pautada pela aceitação da indicação feita pelo algoritmo. E aí, inverte-se a lógica: ao invés de primeiro buscarem-se os fatos determinantes, parte-se do fato objetivamente posto pelo sistema e passa-se, a partir daí, a procurar o motivo. É justamente aí, onde muitos apontam como solução, que pode morar o perigo.

Por fim, o cientista aponta as novas questões que agora se colocam para a análise e debate dos estudiosos no assunto: Qual o papel do programador, do hacker? Quem é o dono do big data? Ele deve ser livre? Como regulamentar? Democracia combina com monopólio de informações? Dados pessoais devem ser expostos? O que é o cidadão no contexto do big data? Um perfil de dados coletados por Analytics? Como se dá a terceirização do processo decisório para o agente maquinal?

Ao encerrar, pondera que o “hacker ativismo” está produzindo soluções para instituições que sempre estarão lucrando com isso: “Nossas reflexões estão caminhando por possibilidades que essa tecnologia está proporcionando. Renovação dos parâmetros éticos, políticos e de convivência. Algoritmos vão, sim, gerar problemas, inclusive éticos, com certeza. Isso tudo é muito novo. É preciso apropriar-se da estatística em proveito do cidadão, assim como nos apropriamos da tecnologia e, contra toda a tendência tradicional, a trouxemos para as artes, gerando algo antes impensável”.

 Questões para o próximo encontro

São essas, entre outras, as questões que ficam no ar, à espera da terceira oficina Gedel, ainda sem data marcada para acontecer, mas já com o tema proposto pelo coordenador e aprovado pelos participantes: os algoritmos decisórios que podem vir a ser criados, impactando decisivamente o mundo jurídico. Será isso viável ou aceitável? Serão discutidas questões de lógica jurídica, linguagem e Direito.

Após os ricos debates que se seguiram às exposições, o desembargador José Eduardo fez uma síntese precisa das conclusões da oficina: “A grande questão hoje em torno do big data não é mais a questão individual da privacidade, em que a única preocupação era com a proteção dos dados sensíveis, privados. A questão agora é entender como o big data pode influenciar ou desviar a democracia. Ou seja, a preocupação com o individual foi ultrapassada e as atenções agora se voltam para os efeitos de tudo isso na esfera coletiva, republicana. Esse é um novo estudo, nosso novo desafio”, finalizou.

Clique aqui para acessar a gravação do evento transmitido AO VIVO pelo YouTube

Clique aqui e confira a matéria sobre a I Oficina Gedel

Fonte: https://portal.trt3.jus.br/internet/imprensa/noticias-juridicas/segunda-oficina-gedel-de-direito-eletronico-foca-nos-impactos-da-inteligencia-artificial-na-area-juridica-e-na-democracia