António da Costa Alexandre, Jornal i online

Os particulares devem ser informados previamente a qualquer tratamento por sistemas de IA do processo judicial em que são partes, bem como ser-lhes reconhecido o direito de manifestarem a sua oposição

A implementação de Inteligência Artificial (IA) nos tribunais motivou a publicação por parte do Conselho Europeu, em 2018, da Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu ambiente (Carta Ética), acessível em https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c. Ficaram estabelecidos cinco princípios fundamentais: (i) respeito dos direitos fundamentais; (ii) não discriminação; (iii) qualidade e da segurança; (iii) transparência, imparcialidade e equidade, e; (v) controlo do usuário.

A implementação da IA nos tribunais parece ser inevitável como medida de eficiência e qualidade no âmbito da justiça preditiva com o recurso a sistemas que permitem a identificação de jurisprudência e de doutrina, mas também na resolução de conflitos online, na elaboração e na própria realização de escrituras públicas.  A este propósito, foi noticiado recentemente a realização da primeira escritura pública realizada online no nosso país.

Estes princípios fundamentais visam preparar o funcionamento prático da Inteligência Artificial (IA) nos sistemas judicias dos Estados-membros, respeitando a ética e os valores jurídicos. Embora os princípios éticos possam parecer insuficientes como softlaw, principalmente devido à ausência de coercibilidade, com adesão voluntária por parte da sociedade e dos indivíduos, no entanto, promovem uma IA ética orientada para o «bem social» e para o respeito pelos «valores éticos e normas legais».

A conjugação da ética com os direitos fundamentais no domínio destas tecnologias tem sido considerada essencial por entidades internacionais. Na União Europeia, do elevado acervo de publicações em que as questões éticas da IA são abordados, embora nem sempre coincidentes, importa destacar as “Orientações Éticas para uma IA de Confiança”, elaboradas por um Grupo Independente de Peritos” criado pela Comissão Europeia, que constitui o primeiro documento oficial à escala mundial, com propostas no âmbito da ética da IA, disponível no link https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/language-pt/format-PDF.

No mesmo sentido, diversas entidades como a OCDE, ONU, G-7, G-20, entre outras, têm divulgado documentos, orientações e princípios éticos no domínio da IA. A UNESCO apresentou o Acordo Mundial sobre Ética da Inteligência Artificial (AI) adotado pelos 193 Estados-membros da UNESCO na 41ª Sessão da Conferência Geral, realizada em novembro de 2021, acessível em https://unescoportugal.mne.gov.pt/pt/noticias/acordo-mundial-sobre-a-etica-da-inteligencia-artificial. Na realidade, esta matéria tem merecido abordagens de uma multiplicidade de atores, como organizações não governamentais, entidades empresariais e corporações, mas também da sociedade civil e dos próprios cidadãos.

A Carta Ética pretende acautelar a tendência já evidenciada nos sistemas de IA para refletir as discriminações existentes na sociedade, desde logo inerentes aos dados que alimentam estas tecnologias, recomendando a utilização de métodos que não reproduzam ou agravem essas discriminações nas múltiplas dimensões em que se revelam. Confere especial atenção aos dados considerados sensíveis, como as origens raciais ou étnicas, aspetos socioeconómicos, opiniões políticas, crenças religiosas ou filosóficas, filiação sindical, dados genéticos, dados biométricos, dados no âmbito da saúde, assim como os dados relativos à orientação sexual.

No âmbito da qualidade e da segurança, a Carta Ética recomenda, no tratamento de decisões e dados judiciais, a utilização de “fontes certificadas e dados incorpóreos com modelos concebidos de forma multidisciplinar”. A questão da multidisciplinariedade na conceção de sistemas de IA tem sido considerada como um dos fatores críticos para o sucesso de projetos de inovação, principalmente quando há tecnologia envolvida determinante para num ambiente tecnológico seguro, v.g, OCDE in Hello, World: Artificial Intelligence and its Use in the Public Sector, acessível em https://www.oecd.org/governance/innovative-government/working-paper-hello-world-artificial-intelligence-and-its-use-in-the-public-sector.htm  Importa considerar a experiência dos agentes judiciários como magistrados, procuradores, funcionários judiciais, mas também de outros profissionais nas áreas mais diversas como a matemática, estatística, psicologia e ciências sociais.

O princípio da transparência, imparcialidade e equidade, recomenda a acessibilidade aos métodos de tratamento de dados, procurando um equilíbrio entre os direitos de propriedade intelectual e a necessidade de transparência nas decisões judiciais promovidas pelos sistemas de IA. Refere, concretamente, a Carta Ética: “O sistema também pode ser explicado em linguagem clara e familiar (para descrever como os resultados são produzidos) comunicando, por exemplo, a natureza dos serviços oferecidos, as ferramentas que foram desenvolvidas, o desempenho e os riscos de erro.” Estes sistemas requerem grandes quantidades de dados, os big data, envolvendo a proteção dos dados pessoais prevista no Regulamento Geral de Proteção de Dados (RGPD), mas também as regras de proteção dos dados em regime aberto.

Recomenda ainda, o princípio "sob controle do usuário”, com o objetivo de garantir que os utilizadores sejam agentes informados e controlem as suas escolhas. As decisões dos sistemas de IA devem ser passíveis de intervenção humana, por parte dos profissionais do sistema judicial, revendo decisões e/ou dados utilizados, em função das vicissitudes específicas de casos concretos. No entanto, está identificada a tendência humana para a reverência perante a tecnologia, evitando por vezes, questionar os seus resultados, importa que os profissionais sejam alertados, conferindo confiança para questionarem a máquina, quando tal se justificar.

Os particulares devem ser informados previamente a qualquer tratamento por sistemas de IA do processo judicial em que são partes, bem como ser-lhes reconhecido o direito de manifestarem a sua oposição, pedindo a apreciação da causa judicial por um tribunal conforme previsto na Convenção Europeia dos Direitos do Homem e na Declaração Universal dos Direitos do Homem.

De modo a evitar a exclusão digital, a Carta Ética recomenda ainda a implementação de “alfabetização informática” para os utilizadores. Também a Carta Portuguesa de Direitos Humanos na Era Digital, acessível no link https://dre.pt/dre/detalhe/lei/27-2021-163442504, prevê: “A execução de programas que garantam o acesso a instrumentos e meios tecnológicos e digitais por parte da população, para potenciar as competências digitais e o acesso a plataformas eletrónicas, em particular dos cidadãos mais vulneráveis”. Como nos foi referido nas entrevistas do trabalho de campo da nossa investigação académica, é necessário trazer os excluídos para o digital e levar os que têm capacitação digital média para um grau mais avançado. De facto, saber enviar um email, um whatsapp ou utilizar o Facebook não oferece qualquer garantia na procura de emprego.

No nosso país existem alguns programas no âmbito da capacitação digital que têm vindo a ser executados por entidades públicas,  direcionados quer para a Administração Pública, quer para o setor privado, com especial enfoque nas PME’s, resultante da articulação de entidades públicas, como a Estrutura de Missão Portugal Digital e do programa «Iniciativa Nacional Competências Digitais e.2030 - INCoDe.2030», que apoiam iniciativas de outras entidades, também com o recurso aos apoios financeiros da Fundação para a Ciência e Tecnologia.

Em anexo à Carta Ética foi publicado um estudo sobre a utilização da IA nos sistemas judiciais, em particular no que se refere ao processamento de decisões judiciais, do qual merecem destaque alguns pontos:

  • De notar a influência do lobby comunitário também nesta matéria: “A iniciativa para o desenvolvimento destes instrumentos provém em grande parte do sector privado, cuja clientela até agora tem sido maioritariamente constituída por companhias de seguros, advogados e serviços jurídicos que pretendem reduzir a insegurança jurídica e a imprevisibilidade das decisões judiciais. No entanto, os decisores públicos começam a ser cada vez mais solicitados por um sector privado que deseja ver estas ferramentas - que são por vezes versões "beta", ou seja, que evoluirão com o tempo - integradas nas políticas públicas.”
  • Neste documento também é referido que em 2018, a utilização de algoritmos de IA nos sistemas judiciais europeus tinha como principal mercado as companhias de seguros, departamentos jurídicos de empresas, advogados e particulares. No entanto, a Carta Ética teve o propósito de incentivar a implementação da IA nos sistemas judiciais dos Estados-membros, visando a uniformização, considerando que alguns países mais vanguardistas já vinham adotando uma “abordagem extremamente avançada” na utilização da IA no apoio a decisões judiciais.
  • Reconhece a importância fundamental dos dados, considerados o "petróleo" do século XXI. Como já referimos em artigos anteriores a IA através de uma grande quantidade de dados conjugados com as capacidades de computação permite alcançar resultados mais eficientes, aumentando a qualidade e a rapidez na resolução das questões que lhe são submetidas.
  • O documento refere a experiência americana nesta matéria, referindo nomeadamente o algoritmo COMPAS, cuja utilização tem motivado críticas, como referimos no nosso artigo anterior https://ionline.sapo.pt/artigo/791331/intelig-ncia-artificial-algoritmos-e-preconceito-racial?seccao=Opiniao_i .
  • Quanto à anonimização ou pseudoanonimização de dados no âmbito do quadro europeu de proteção de dados, foi identificada a dificuldade da utilização destes dados uma vez que os mesmos eram essencialmente reutilizados por privados visando uma clientela profissional.
  • O software "justiça preditiva”, efetiva-se através da modelação estatística de decisões anteriores utilizando métodos da computação como processamento de linguagem natural e aprendizagem automática (os programas de computador aprendem com a experiência).
  • Alerta também para risco da existência de falsas correlações por aplicação dos modelos estatísticos e probabilísticos, “quanto maior a base de dados utilizada para correlações, maiores as chances de encontrar padrões recorrentes e maiores as chances de cometer erros”.

No que se refere a sistemas de avaliação de risco de reincidência como o COMPAS, Pereira & Lopes, 2020, in “Máquina Éticas – Da Moral da Maquinaria à Maquinaria Moral”, disponível na Wook, referem que estes sistemas são um exemplo claro de “mau uso, efetivo e real, destes algoritmos simplistas. Não quer dizer que tais algoritmos não tenham o seu recesso próprio de grande utilidade, no qual poderão apresentar soluções muito boas para um dado nicho. Em sua defesa, neste caso de aplicação, argumenta-se que os juízes atarefados como estão e sobretudo depois do almoço, decidem pior!”

Os sistemas de IA que recorrerem à aprendizagem automática ou a um método mais evoluído, a chamada aprendizagem profunda (deep learning) que incluem redes neuronias, têm dificuldade em explicar as decisões que tomam. Por isso, são com frequência designados sistemas opacos ou de “caixa negra”, o que reforça a necessidade da intermediação do humano nos processos de tomada de decisão de modo a mitigar os efeitos indesejáveis de decisões baseadas em propostas dos sistemas de IA que não possibilitam, ainda, a explicabilidade das mesmas.

Uma das limitações da IA relaciona-se com o facto de se basear em dados que refletem o passado, não tendo capacidade para prever ou analisar situações novas, como foi o caso da pandemia provocada pelo COVID 19. De acordo com as entrevistas que realizamos, não houve nenhum sistema de IA que tenha previsto esta pandemia, por se tratar de uma realidade absolutamente nova e porque não existiam dados disponíveis que permitissem a sua previsão. Na verdade, é muito difícil prever situações novas com estas técnicas da IA, afigurando-se, portanto, essencial ter human in the loop.