António da Costa Alexandre, Jornal i online

Breves considerações sobre o seu primeiro Regulamento que reflete princípios éticos e respeito pelos direitos humanos

De acordo com alguma informação que temos vindo a recolher, Portugal regista um atraso significativo na implementação da Inteligência Artificial (IA). É caso para começarmos pela seguinte questão: Quem tem medo da IA? Ou quem tem medo da IA, não obstante existirem políticas públicas da União Europeia (UE) que promovem uma IA ética, responsável e de confiança?
Mia Couto, escritor e biólogo moçambicano, galardoado como Prémio Camões em 2013, entre inúmeras distinções e prémios que tem conquistado, escreveu um ensaio intitulado: “Murar o medo” que proferiu numa conferência que decorreu no Estoril em 2011, abrindo a sua intervenção com esta ideia inicial: “O medo foi um dos meus primeiros mestres”, referindo também: “Nessa altura algo me sugeria o seguinte: que há, neste mundo, mais medo de coisas más do que coisas más propriamente ditas.” Nessa altura a IA ainda não assustava a sociedade em geral, mas também ainda não tinha projeção suficiente para entusiasmar, nomeadamente os decisores políticos e em particular a academia, obviamente com exceção das Universidades que ministravam computer sciences, e naturalmente investigavam esta nova área da ciência e do conhecimento.
Desconhecemos se existe algum estudo credível que analise os motivos do atraso nacional na implementação e uso destas tecnologias no nosso país. Quando iniciei uma fase prospetiva, para perceber se me aventurava numa investigação destas matérias que pudesse conduzir a bom porto a redação de uma dissertação de mestrado, na área da Administração Pública, foram evidentes duas situações. Com exceção dos académicos que vinham acompanhando a IA, percecionei um grande desconhecimento e por outro lado, o medo, talvez motivado pelos filmes de ficção científica, estava muito presente. O medo da IA poder dominar o ser humano era uma realidade não despicienda.
Entretanto, foi publicado no passado dia 12 de julho o AI Act - Regulamento da IA (Acessível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689), que constitui a primeira regulamentação sobre IA no mundo. Teve na sua origem uma proposta da Comissão Europeia de 21 de abril de 2021 (Disponível em https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206), que assentava nos diversos níveis de risco que os sistemas de IA representam para os utilizadores em diferentes aplicações e que já estão presentes em todas as áreas da nossa vida.
É a primeira regulamentação que tem na sua origem a ética, preparada em torno de princípios éticos e direitos humanos e que resulta de estudos, discussões, investigações, fóruns, seminários, etc. É de uma importância assinalável o trabalho do Grupo de Peritos de Alto Nível, nomeados pela Comissão Europeia que publicou em 2019: “Orientações Éticas para uma IA de Confiança” (Acessível no link: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai), que constituiu uma primeira abordagem à escala mundial da IA em termos éticos e de acordo com o respeito pelos direitos humanos fundamentais plasmados na Convenção Europeia dos Direitos do Homem (Acessível no link: https://gddc.ministeriopublico.pt/sites/default/files/convention_por.pdf).
O Regulamento da IA estabelece vários níveis de risco que podem decorrer da implementação dos sistemas de IA: (i) Risco inaceitável; (ii) Alto risco; (iii) Risco limitado; (iv) Risco mínimo.
Risco inaceitável
O risco inaceitável, sendo o nível mais elevado, é proibido pelo Regulamento da IA. Está presente em várias aplicações, nomeadamente:
(i) manipulação subliminar que permite alterar o comportamento de uma pessoa sem que esta se aperceba, p. ex. manipulações que influenciam a decisão de voto;
(ii) exploração das vulnerabilidades dos utilizadores que resulta em comportamentos prejudiciais, considerando a sua situação social ou económica, a idade e a capacidade física ou mental;
(iii) categorização biométrica das pessoas com base em características sensíveis como o género, a etnia, a orientação política, a religião, a orientação sexual e as crenças filosóficas;
(iv) pontuação social utilizando sistemas de IA que avaliam os indivíduos com base nas suas características pessoais, comportamento social e atividades, como compras online ou interações nas redes sociais. Podem limitar ou mesmo impedir, por ex. a concessão de empréstimos bancários e outros benefícios sociais. Este sistema já está a ser aplicado na China (Cfr. How China Is Using “Social Credit Scores” to Reward and Punish Its Citizens, publicado pela revista TIME, acessível no link: https://time.com/collection/davos-2019/5502592/china-social-credit-score/);
(v) identificação biométrica remota em tempo real, em espaços públicos, admitindo-se, contudo, exceções quando está em causa a prática de certos crimes;
(vi) avaliar o estado emocional de uma pessoa no local de trabalho ou na educação;
(vii) policiamento preditivo que permite a avaliação do risco de determinados indivíduos cometerem um crime futuro com base em características pessoais.
Todos os sistemas de IA que sejam enquadráveis no nível de risco inaceitável são proibidos pelo Regulamento da IA.
Sistemas de IA de alto risco
O segundo nível engloba os sistemas de IA de alto risco, com uma regulamentação mais abrangente. A sua implementação obedece a um processo de verificação e autorização exigente e com critérios específicos detalhados com algum pormenor. Carecem de autorização prévia à sua colocação no mercado e devem preencher, desde logo, condições cumulativas.
A Comissão fornecerá orientações, o mais tardar no prazo de 18 meses a contar da data de entrada em vigor do Regulamento da IA, para especificar a aplicação prática das regras de classificação para sistemas de IA de alto risco, identificando ainda, as condições excecionais.
Os sistemas de IA de alto risco devem cumprir um número significativo de requisitos, tendo em conta os fins a que se destinam, o estado da técnica geralmente reconhecido e o sistema de gestão de riscos implementado. Estes sistemas, para a sua implementação, dependem de condições cumulativas:
(i) sistema de gestão de risco durante todo o ciclo de vida do sistema, com o objetivo de identificar riscos previsíveis para a saúde, a segurança ou para os direitos humanos fundamentais, bem como, a aplicação de medidas adequadas para fazer face aos esses riscos concretos identificados; e ainda uma avaliação de riscos futuros.
(ii) os dados de formação, validação e teste utilizados para desenvolver sistemas de IA de alto risco devem estar sujeitos a práticas adequadas de governação e gestão de dados, tendo em conta a finalidade pretendida pelo sistema.
Também está prevista a avaliação prévia dos eventuais preconceitos, mas também a suscetibilidade dos sistemas afetarem a saúde e a segurança dos indivíduos e os direitos fundamentais ou conduzir a outras discriminações proibidas pela legislação da UE preparando as respetivas medidas.
OS sistemas de IA de alto risco devem permitir o registo automático das operações durante a sua utilização, com o objetivo de garantir a rastreabilidade do funcionamento do sistema adequado ao fim a que se destina.
Na implementação destes sistemas de IA também deve ser disponibilizada informação transparente que permita interpretar as respostas do sistema com vista a uma utilização adequada, de modo que seja possível proceder aos ajustamentos necessários caso se verifique alguma desconformidade na sua aplicação.
Risco limitado
Inclui sistemas de IA com risco de manipulação ou engano. Devem os mesmos ser transparentes, com obrigatoriedade de informação ao utilizador de que está a interagir com um sistema de IA, por exemplo, os chatbots.
Risco mínimo:
Este nível inclui todos os restantes sistemas de IA que não se enquadrem nas categorias acima referidas, como p. ex. os filtros de correio eletrónico não solicitado (spam) ou os jogos de vídeo baseados na IA. Estes sistemas não têm quaisquer restrições ou condições obrigatórias. No entanto, o Regulamento da IA refere a necessidade do respeito pelos princípios gerais como a supervisão humana, a não discriminação e a justiça. Também está prevista a adoção voluntária de códigos de conduta pelas empresas.
No ensaio de Mia Couto que referimos anteriormente é citado o escritor Eduardo Galiano referindo-se ao medo global do seguinte modo: «“Os que trabalham têm medo de perder o trabalho; os que não trabalham têm medo de nunca encontrar trabalho; quando não têm medo da fome têm medo da comida; os civis têm medo dos militares; os militares têm medo da falta de armas e as armas têm medo da falta de guerras.”». O escritor moçambicano termina com esta frase: “há quem tenha medo que o medo acabe.”
Termino com a questão inicial: “E nós, ainda temos medo da IA, agora que estas tecnologias estão regulamentadas, com um normativo europeu que se aplica diretamente a todos os países da União Europeia?”