Mário Tavares da Silva , Visão online

Uma IA de confiança constitui, inegavelmente, uma ambição fundamental da modernidade, dado que por natureza, como sabemos, o homem e as comunidades em que insere, só tenderão a confiar no desenvolvimento tecnológico se o mesmo se concretizar de acordo com um quadro legal claro, equilibrado e que, sobretudo, se revele capaz de garantir a sua fiabilidade

É hoje consensual que a inteligência artificial (IA) veio para ficar.

Pelo seu potencial, ela revela-se suscetível de desempenhar um papel da maior importância no futuro da nossa civilização, influenciando, sobretudo, o modo de pensar e de agir em atividades tão diversas que vão desde a agricultura, passando pelo consumo de energia e até à gestão de riscos financeiros.

Ao mesmo tempo, a IA revela também um potencial não negligenciável nas tarefas de deteção de fraudes e ameaças, em especial no sempre complexo domínio da cibersegurança, criando condições efetivas para a existência de um combate mais eficaz a todo o tipo de criminalidade.

Mas como será que tudo isso se fará? Qual o “preço” a suportar? E que limites éticos e jurídicos se deverão respeitar?

As organizações internacionais têm procurado colocar o tema nas suas desafiantes agendas, em busca de resposta a estas e a outras questões. Ou pelo menos, um princípio de resposta que, refira-se, não se antecipa tarefa fácil.

A palavra mágica que anima o caminho é “confiança”.

Uma IA de confiança, desde logo pela conformidade às normas e regulamentos em vigor, uma IA ética porque alinhada com os princípios e valores éticos vigentes e, por fim, uma IA sólida, técnica e socialmente, dado o potencial de danosidade que encerra, mesmo quando utilizada com boas intenções.

Uma IA de confiança constitui, inegavelmente, uma ambição fundamental da modernidade, dado que por natureza, como sabemos, o homem e as comunidades em que insere, só tenderão a confiar no desenvolvimento tecnológico se o mesmo se concretizar de acordo com um quadro legal claro, equilibrado e que, sobretudo, se revele capaz de garantir a sua fiabilidade.

Surge esta nossa reflexão a propósito das comunicações de 25 de abril e 7 de dezembro de 2018, em que a Comissão Europeia apresentou a sua visão para a IA e, concomitantemente, das orientações éticas para uma IA de confiança, apresentadas pelo grupo independente de peritos de alto nível sobre a IA, criado pela Comissão Europeia em junho de 2018.

Trata-se de um trabalho de elevada qualidade e de assinalável natureza inovatória, em que mais do que problemas, se procuram equacionar caminhos e desenhar soluções.

Resulta claro, entre outros interessantes aspetos, que a IA deve partir, em primeira linha, dos direitos fundamentais plasmados nos Tratados da União Europeia, na Carta dos Direitos Fundamentais da União Europeia e, ainda, no direito internacional, no que aos direitos humanos concretamente respeita.

Uma IA em que a base seja o respeito pela dignidade da pessoa humana, esse valor que constitui, sem dúvida, o ADN, a substância mais elementar e intrínseca de todos e de cada um de nós e que, em circunstância alguma, pode ser perigado ou de alguma forma comprimido naquelas que são as suas faculdades essenciais.

A tecnologia da IA não deve pois, em momento algum, reduzir ou coartar os direitos de qualquer ser humano, pois todos merecem igual respeito como seres morais e não ser tratados, como por vezes existe a tentação por parte dos poderes instituídos, como objetos suscetíveis de serem agrilhoados e manietados, sem que perante tal agressão possam esboçar uma qualquer reação.

A IA deve, nessa exata medida, desenvolver-se sob a ação e supervisão humanas.

Neste particular, importará identificar eventuais impactos negativos no plano dos direitos fundamentais, ponderando soluções de compromisso entre os diversos direitos e princípios em jogo. Mais do que identificar direitos e princípios, o sistema da IA deverá ser construído de forma a salvaguardar a esfera de liberdade autonómica e decisória de cada cidadão.

É importante que todos e cada um de nós, sempre que confrontados com uma decisão tomada em contexto de tecnologia de IA, possamos tomar perfeita consciência de que a interação estabelecida e a decisão comunicada provem diretamente da aplicação e desenvolvimento de complexas fórmulas algorítmicas.

Ou seja, é crítico que o homem, sempre que estabeleça contato com um sistema de tecnologia de IA, tome perfeito conhecimento de que a sua interação se desenvolve com um ser não humano.

Essa é a condição primeira de dignificação do homem perante a tecnologia de IA.

Um sistema de IA que não cumpra essa primeira condição, esvazia de dignidade o homem que era suposto proteger.

Por outro lado, é imperioso também salvaguardar, nos casos em que a tecnologia IA seja aplicada num específico contexto de processo de trabalho, que ocorram excessos de confiança ou de dependência do homem face à real e efetiva capacidade da IA em melhorar ou incrementar as suas capacidades. E como definir o controlo humano no contexto de utilização de tecnologia de IA? Qual o nível adequado que deverá revestir esse controlo? Quem é o ser humano responsável pelo controlo? E que mecanismos poderão ser utilizados? E a governação da IA é suscetível de ser auditada?

Em caso afirmativo, sob que condições e de acordo com que critérios?

E se algo correr mal que tipo de mecanismos de deteção e de resposta foram estabelecidas?

Como se vê, é ainda longo o caminho a percorrer para podermos dar, com segurança, respostas robustas a estas e a outras questões.

Saibamos, no entanto, na procura de soluções que se desejam o mais consensual possíveis, ter sempre presente uma inevitabilidade.

É que a IA não deve, em momento algum, ser encarada como um fim em si mesma, mas sim como um meio ou uma ferramenta, tendo como objetivo principal aumentar o bem-estar de todos e de cada um de nós.

Uma IA fiável deve, pois, ser sinónimo de uma IA que garanta a iniciativa e o controlo humanos, a robustez e a segurança dos algoritmos utilizados, a privacidade e a governação de dados, uma total transparência dos dados (incluindo a rastreabilidade dos sistemas de IA), diversidade e equidade de todos os que a ela recorrem e o bem-estar social e ambiental. Para lá de tudo isso, a responsabilização de todos os que trabalham para que tenhamos em tempo toda a informação que necessitamos.

O caminho é sinuoso mas muito desafiante!

A nós, com lucidez, cumpre-nos ir desvelando a melhor forma para que o verdadeiro ambiente digital em que nos movemos, possa tornar-se no muito curto prazo uma efetiva e abrangente realidade.