fbpx

Inteligência artificial: O oxímoro, a atividade notarial e o seu método

O artigo que apresentamos resulta do desafio que me foi proposto pelo Senhor Doutor Sérgio Jacomino, ilustre registrador e cultor da ciência jurídica, no IX encontro de Direitos Reais, de Direito Registal Imobiliário e de Direito Notarial que teve lugar no colégio da Trindade, em Coimbra, no passado dia 22 de maio de 2024.

No referido evento apresentei umas breves notas, tentando contribuir, como debatedor, para ampliar/apelar ao debate sobre as implicações da Inteligência Artificial (doravante “IA”) no método jurídico e em especial na atividade notarial e registal.

A IA aparece como produto da inovação científica sem paralelo e que se vem desenvolvendo desde há, pelo menos, sete décadas, procurando imitar o cérebro humano com a finalidade de o aperfeiçoar e de superar as nossas capacidades cognitivas.1

Há quem afirme que estamos perante uma concorrência de inteligências!

A IA vai, paulatinamente, afastando e substituindo o trabalho intelectual dos seres humanos, especialmente no âmbito de profissões mais técnicas, como por exemplo, construir uma ponte, fabricar um automóvel, construir um edifício, controlar o tráfego aéreo. O surgimento da IA poderá representar, assim, impacto sobre a História da humanidade muito diferente daquele que teve a revolução agrícola ou a revolução industrial – esta é a primeira revolução a pôr em causa, também, as profissões que exigem um nível superior de diferenciação.

Perante este cenário, qual o nosso papel, enquanto seres humanos, num mundo em que a IA cresce exponencialmente e nos afasta como medida de todas as coisas?2

Que valor podemos acrescentar à IA quando esta cresce em capacidade que lhe permite “pensar” mais (que não melhor) em termos estatísticos do que a inteligência humana?

A resposta estará no controlo, direção e governo da IA.

Empresas como a Google, Amazon, Facebook (Meta) e Apple, conhecidas pelo acrónimo GAFA são o produto da “Era do Petabyte”, uma nova era da nossa História reveladora do aumento exponencial da massa de dados digitalizados cada vez mais acessíveis porque se encontram hoje numa “nuvem” e já não em disquetes, discos duros ou pen drives.

Como referiu o ilustre notário espanhol Manuel González-Meneses García-Valdecasas3, o método científico sempre foi construído sobre hipóteses submetidas a testes.

Na verdade, continuando a acompanhar o autor citado, quer a física (não só a clássica newtoniana, mas também a quântica), quer a biologia, têm oferecido aproximações à verdade, mas incapazes de nos dar conta de toda a complexidade do real. Hoje, com os petabytes, é possível afirmar que a correlação é suficiente: deixou de ser necessário lançar mão de modelos explicativos, isto é, podemos analisar dados sem necessidade de formular hipóteses, bastando lançar números sobre potentes computadores e deixar que os algoritmos estatísticos encontrem soluções em padrões que os cientistas não são capazes de ver.

Exemplos desta nova forma de fazer ciência são a sequenciação genética aleatória levada a cabo já no início deste século pelo biólogo J. Craig Venter e que permitiu descobrir novas formas de vida. Mas também o programa Cluster Exploratory, plataforma destinada a mimetizar o cérebro e o sistema nervoso.4

O ritmo é estonteante e hoje, face à quantidade de dados disponíveis e ao seu tratamento, assistimos a fenómenos como o machine learning, o processamento de linguagem natural e a própria inteligência artificial generativa.

Esta revolução no método científico será transponível para o método jurídico?

Perante todo este ruído, toda esta massa de dados, todo o avanço tecnológico de que é exemplo candente o ChatGPT, partilhamos algumas das questões levantadas por González-Meneses:

Vamos continuar a ter necessidade de juristas? É necessário fazer um curso de Direito, com a memorização de doutrina, jurisprudência, definições e antecedentes históricos? Afinal, toda essa informação não está já na nuvem?

Vamos continuar a fazer todo um percurso de estágio e de experiência profissional para sermos magistrados, notários, conservadores dos registos ou advogados?

Continuamos vinculados a uma lógica jurídica baseada em normas, regras ou princípios gerais e na consequente qualificação jurídica ou aplicação da regra geral ao facto concreto?

Uma análise superficial pode levar-nos a concluir que esta é uma tarefa de fácil tratamento algorítmico. Em breve, não teremos ferramentas informáticas que permitirão processar, de forma automática, todos os dados disponíveis nos tribunais, nos cartórios, nos serviços de registo e nos escritórios dos advogados para correlacionar padrões que possam servir de base a decisões adequadas ao caso concreto?

Continuaremos vinculados à lógica jurídica de subsunção de um facto concreto a uma regra geral, ou seja, ao silogismo legal que é uma forma de dedução?

Aparentemente, este exercício de qualificação encaixaria bem numa ferramenta informática desenvolvida pela IA, mas aquele exercício convoca uma tarefa intelectualmente bem mais complexa que requer ao aplicador do Direito um entendimento do significado da norma, regra ou critério geral e da sua relação com os interesses ou valores do caso concreto a subsumir. Requer, ainda, a seleção da norma que será relevante para o caso concreto, de entre as inúmeras normas de diferentes ordenamentos jurídicos.

O tradutor DeepL ou outros disponíveis à distância de um click, para traduzir de forma aceitável um determinado texto, não precisa de compreender as regras gramaticais de determinado idioma, pois o processo de tradução é estatístico, baseado na comparação e análise de uma massa infinita de dados. Também não lhe interessa o significado dos textos que traduz, nem a relevância dos mesmos para quem requer a tradução ou a adaptação linguística ao destinatário da tradução.5

No limite, podemos optar por um sistema de decisão jurídica que não subsuma factos a regras ou princípios gerais e que não precise de nenhum modelo conceptual. Este sistema, alimentado por milhões de textos jurídicos anteriores (sentenças, articulados, escrituras públicas, registos), operaria de forma indutiva e estatística gerando, automaticamente, soluções com base em semelhanças ou padrões detetados sem necessidade de perceber o significado ou sentido de nenhuma norma, conceito, ou teoria abstrata.

Poderia ser uma opção política, legitimada pelo povo, no contexto de uma democracia.

A este propósito é muito interessante a posição assumida pelo norte americano, Erik J. Larson, um informático e empreendedor tecnológico, no livro “The Myth of Artificial Intelligence. Why Computers Can’t Think the Way We Do?”6 que se mostra muito crítico com o projeto científico e tecnológico da IA e, em particular, com a ideia de que o aparecimento da IA de nível humano ou sobrehumano é uma inevitabilidade quase iminente. Segundo este autor, os promotores da IA cometem um grave erro intelectual: por um lado, sobrestimam de forma pouco científica a capacidade real da IA, mesmo no estado da arte atual e, por outro, subestimam a inteligência natural humana.

Para fundamentar esta posição, Larson invoca a autoridade do filósofo Charles Peirce, para explicar que a inteligência diferencial humana não é aquela que se manifesta em processos lógicos de dedução (que se limita a tornar explícito o conhecimento que já estava implícito em algumas premissas) ou da indução (que pretende obter um conhecimento geral, partindo da acumulação de observações particulares ou singulares), processos que os computadores já conseguem fazer com êxito.

Aquele filósofo defende que a inteligência diferencial humana se manifesta num processo a que chamou “abdução”, ou seja, a capacidade de conjeturar ou prever por forma a obter uma hipótese explicativa com base em determinados dados. Ora, segundo este autor, o único tipo de pensamento que funcionaria para uma IA de nível humano é justamente aquele relativamente à qual não há ainda ideia de como desenhar ou programar.7

A pretensão de que as máquinas, por si só, e em função da quantidade massiva de dados que estão à sua disposição, são capazes de avançar o nosso conhecimento científico é posta em causa por Larson ao afirmar que: “(q)uando Copérnico defendeu que a terra girava à volta do sol e não o inverso, teve de ignorar montanhas de evidências e dados acumulados durante séculos por astrónomos que trabalhavam o modelo ptolomaico. Copérnico redesenhou tudo com o Sol no centro e fabricou um modelo heliocêntrico. Ora, só ignorando todos os dados anteriores ou, ao menos, reconceptualizando-os, pôde Copérnico afastar o modelo geocêntrico e introduzir uma estrutura radicalmente nova para o sistema solar”. E conclui: “como é que o big data poderia ter ajudado neste processo se todos os dados se encaixavam num modelo equivocado?”.

A IA que combina a base massiva de dados e a aprendizagem automática (big data e machine learning) usa um sistema de indução automatizada e não uma verdadeira inteligência com capacidade cognitiva. O problema de conhecimento não será, assim, quantitativo. A disponibilidade de mais dados, de novos dados, pode ajudar-nos a detetar um modelo explicativo erróneo, mas não nos oferece, por si só, uma nova explicação.

Assim, só o controlo efetivo da IA poderá manter a nossa capacidade de preservar a inteligência natural, a inteligência humana, como defende o ilustre Professor de Filosofia do Direito da Universidade Pontifícia de Comillas, José María Lasalle Ruiz8.

E esse controlo implicará a aplicação da nossa inteligência e capacidades cognitivas, restaurando a sabedoria aristotélica que procurava a prudência como suporte da equidade.

A prudência, a par da justiça, da força e da temperança, é uma das quatro virtudes cardeais da Antiguidade e talvez a mais esquecida. Virtude intelectual, explicava Aristóteles, na medida em que tem a ver com a verdade, com o conhecimento e com a razão. A prudência é a disposição que permite deliberar corretamente acerca do que é bom ou mau, não em si, mas no mundo tal como ele é, não em geral, mas nesta ou naquela situação e que nos leva a agir de acordo com o bem. A prudência condiciona todas as outras virtudes e é o que separa a ação do impulso.9

Sem a prudência como suporte da equidade, a decisão humana será substituída, também no Direito, pela lógica do conhecimento que nasce da gestão algorítmica de uma massa infindável de dados. E se as regras passarem por aqui, então já perdemos o “jogo” para as máquinas.

Se a IA é algo ou uma coisa que aspira em ser alguém, então cabe ao ser humano ser a sua consciência crítica e decisória, garantido o seu controlo.

É um desafio para inteligência humana que no campo do Direito implica a restauração da iuris prudens principio que interpretou o Direito como “ars iuris” (arte de fazer o justo), do “suum quique tribuire”  (dar a cada um aquilo que é seu).

 Devemos resistir à tentação de aceitar a oferta de uma segurança jurídica infalível imposta por uma ditadura da IA.

 O ser humano deve, pelo contrário, afirmar a sua condição, acrescentado um valor que não pode ser deixado ao tratamento algorítmico. Só os seres humanos poderão decidir o que significa dar a cada um o que é seu.

O aplicador do Direito tem de ir mais além, entendendo o significado da norma que vai aplicar e a sua relação com os interesses e valores em causa, num determinado caso concreto a subsumir com as regras ou princípios gerais, porque presenciou, viu, ouviu, relacionou.

Acredita-se que uma civilização apoiada na tecnologia da informação pode disponibilizar ferramentas mais sofisticadas e eficientes para a manutenção da paz social, mas o problema do conhecimento não é quantitativo. Mais dados, novos dados, ajudam-nos a detetar que um determinado modelo pode estar errado, mas não nos oferecem, por si só, novas explicações. Há que atribuir um significado aos dados, construir um novo modelo.

Em recente entrevista ao diário espanhol ABC, o matemático, Pablo Morales10, galardoado com o “Premio Talento Joven Fundación BBVA” por ter desenhado algoritmos que permitem detetar ondas gravitacionais afirmou: “(t)rabalho com algoritmos, mas por vezes surpreendem-me, pois tomam decisões, mas não sabem explicar porquê! Mesmo quando acertam, não existe a explicação que se exige a um médico, a um juiz.” e continua: “[o]s algoritmos são treinados com milhões de dados disponibilizados pelas pessoas, e cada vez precisam menos de nós. Mas eu confio em fontes de prestígio, de cientistas que conheço. A reputação continua a ser um assunto dos seres humanos.”

Como bem assinalou Sérgio Jacomino11, “(d)evemos manter a inquietação, o inconformismo, em face da investida neopositivista que esta vaga tecnológica representa. Como o Dr. Pangloss, na novela de Voltaire, a IA fala sobre tudo e todos, pontifica como o eixo plenário do conhecimento humano.. Mas Voltaire não pode compreender a dimensão de Leibniz. O melhor mundo possível não é aquele que exonera o homem e Deus”. E conclui: “(a) IA é a expressão de um otimismo idealista. Os idealismos provaram ser o veneno da liberdade humana”.

Por tudo o que fica dito, parece-nos que atribuir à IA capacidades cognitivas de que esta ferramenta realmente carece pode levar-nos a delegar competências decisórias sobre questões humanas que excedem, verdadeiramente, a sua capacidade


1 Geoffrey Hinton em entrevista à revista XL Semanal, 1928, de 6 de outubro de 2024.

2 Recuperamos a sentença de Protágoras na sua obra A Verdade. Para mais desenvolvimentos, cf. Danilo Pereira dos Santos “Observações Sobre a Doutrina do Homem-Medida: Uma Tentativa de Reconstrução do Pensamento de Protágoras” disponível aqui.

3 “Big data” y “machine learning”: ¿el fin del método jurídico? In Notario del Siglo XXI, nº 113.

4 Chris Anderson, “The end of theory.” In Wired Magazine, de 23.06.2008

5 “Big data” y “machine learning”: ¿el fin del método jurídico? In Notario del Siglo XXI, 113.

6 Erik J. Larson, “The Myth of Artificial Intelligence. Why Computers Can’t Think the Way We Do?”, Harvard University Press, 2021.

7 Contra, Geoffrey Hinton, na já citada entrevista à revista XL Semanal, quando afirma que …”[d]evemos compreender que a IA é uma forma de inteligência mais potente do que a nossa. E muito superior a todos nós em muitos aspetos”. E prossegue: “[a] IA tornar-se- á incontrolável, pois teremos várias superinteligências. Imaginemos uma IA da Google, outra da Microsoft e várias de origem chinesa. A IA tem já as suas próprias necessidades: se perguntarmos à Alphazero, a IA de xadrez da Google se quer ganhar ao seu adversário, a resposta será: claro!”. E conclui:”[a]lgumas pessoas pensam que a IA é limitada porque só é alimentada com os dados disponíveis na internet. Isso é um engano. A IA superinteligente já viu coisas que os humanos nunca viram. Sobretudo poderá fazer analogias melhores do que as nossas. Entendi isto mesmo quando perguntei ao ChatGPT porque é que um monte de compostagem funciona como uma bomba nuclear. À medida que o monte de compostagem aquece, gera calor de forma mais rápida (por ação microbiana). E, à medida que uma bomba nuclear produz neutrões, fá-lo cada vez mais rápido. A escala entre uma e outra é completamente diferente, mas a lógica é a mesma: uma reação em cadeia. O ChatGPT chegou a esta conclusão, mas onde encontrou esta ideia? É possível encontrar esta analogia na internet? Pedi ao Sergey Brin, fundador da Google, para pesquisar este fenómeno e não o encontrou. A IA atual é extremamente eficaz a criar analogias. A sua capacidade de aprendizagem nada tem a ver com o passado. O que aprende não é um conjunto de regras lógicas; o que aprende é a ter intuição.”

8 “Inteligencia artificial, sabiduría humana y justicia”, in Notario del Siglo XXI, 117.

9 Acompanhamos José Maria Lasalle Ruiz, no citado artigo.

10 Entrevista ao diário espanhol ABC de 17 de maio de 2024, disponível aqui.

11 Declarações produzidas no IX Encontro de Direitos Reais, de Direito Registal Imobiliário e de Direito Notarial, Colégio da Trindade, Coimbra, 22 de maio de 2024.

Fonte: Migalhas

Você deve gostar

O que há de novo
Ver mais
testeVisit Us On LinkedinVisit Us On InstagramVisit Us On FacebookVisit Us On Youtube