{"id":48654,"date":"2024-10-14T14:06:34","date_gmt":"2024-10-14T14:06:34","guid":{"rendered":"https:\/\/obegef.pt\/wordpress\/?p=48654"},"modified":"2024-10-19T14:19:10","modified_gmt":"2024-10-19T14:19:10","slug":"a-anormalidade-da-fraude-3-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-3-2-2-2-2-2-3-2-2-3-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-2-3-2-2-2-2-2-3-2-2-2-2-2-2-2-2-2-2-2-2-2-2-3-2-2-2-4-2-2-2-2-2-2-280","status":"publish","type":"post","link":"https:\/\/obegef.pt\/wordpress\/?p=48654","title":{"rendered":"Quem tem medo da Intelig\u00eancia Artificial?"},"content":{"rendered":"\n<p class=\"has-text-align-left\"><strong><span style=\"color: #ff0000;\"><span style=\"color: #005500;\"><span style=\"color: #ff0000;\">Ant\u00f3nio da Costa Alexandre, Jornal i online<\/span><\/span><\/span><\/strong><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft is-resized\"><a href=\"https:\/\/ionline.sapo.pt\/2024\/10\/14\/quem-tem-medo-da-inteligencia-artificial\/\" target=\"_blank\" rel=\"noreferrer noopener\"><img loading=\"lazy\" decoding=\"async\" width=\"16\" height=\"16\" src=\"http:\/\/obegef.pt\/wordpress\/wp-content\/uploads\/2009\/01\/go2.png\" alt=\"\" class=\"wp-image-19\" style=\"width:20px;height:auto\" title=\"Liga\u00e7\u00e3o \u00e0 Publica\u00e7\u00e3o\"\/><\/a><\/figure><\/div>\n\n\n<p><em>Breves considera\u00e7\u00f5es sobre o seu primeiro Regulamento que reflete princ\u00edpios \u00e9ticos e respeito pelos direitos humanos<\/em><\/p>\n\n\n\n<!--more-->\n\n\n\n<p>De acordo com alguma informa\u00e7\u00e3o que temos vindo a recolher, Portugal regista um atraso significativo na implementa\u00e7\u00e3o da Intelig\u00eancia Artificial (IA). \u00c9 caso para come\u00e7armos pela seguinte quest\u00e3o: Quem tem medo da IA? Ou quem tem medo da IA, n\u00e3o obstante existirem pol\u00edticas p\u00fablicas da Uni\u00e3o Europeia (UE) que promovem uma IA \u00e9tica, respons\u00e1vel e de confian\u00e7a?<br>Mia Couto, escritor e bi\u00f3logo mo\u00e7ambicano, galardoado como Pr\u00e9mio Cam\u00f5es em 2013, entre in\u00fameras distin\u00e7\u00f5es e pr\u00e9mios que tem conquistado, escreveu um ensaio intitulado: \u201cMurar o medo\u201d que proferiu numa confer\u00eancia que decorreu no Estoril em 2011, abrindo a sua interven\u00e7\u00e3o com esta ideia inicial: \u201cO medo foi um dos meus primeiros mestres\u201d, referindo tamb\u00e9m: \u201cNessa altura algo me sugeria o seguinte: que h\u00e1, neste mundo, mais medo de coisas m\u00e1s do que coisas m\u00e1s propriamente ditas.\u201d Nessa altura a IA ainda n\u00e3o assustava a sociedade em geral, mas tamb\u00e9m ainda n\u00e3o tinha proje\u00e7\u00e3o suficiente para entusiasmar, nomeadamente os decisores pol\u00edticos e em particular a academia, obviamente com exce\u00e7\u00e3o das Universidades que ministravam computer sciences, e naturalmente investigavam esta nova \u00e1rea da ci\u00eancia e do conhecimento.<br>Desconhecemos se existe algum estudo cred\u00edvel que analise os motivos do atraso nacional na implementa\u00e7\u00e3o e uso destas tecnologias no nosso pa\u00eds. Quando iniciei uma fase prospetiva, para perceber se me aventurava numa investiga\u00e7\u00e3o destas mat\u00e9rias que pudesse conduzir a bom porto a reda\u00e7\u00e3o de uma disserta\u00e7\u00e3o de mestrado, na \u00e1rea da Administra\u00e7\u00e3o P\u00fablica, foram evidentes duas situa\u00e7\u00f5es. Com exce\u00e7\u00e3o dos acad\u00e9micos que vinham acompanhando a IA, percecionei um grande desconhecimento e por outro lado, o medo, talvez motivado pelos filmes de fic\u00e7\u00e3o cient\u00edfica, estava muito presente. O medo da IA poder dominar o ser humano era uma realidade n\u00e3o despicienda.<br>Entretanto, foi publicado no passado dia 12 de julho o AI Act - Regulamento da IA (Acess\u00edvel em: https:\/\/eur-lex.europa.eu\/legal-content\/EN\/TXT\/?uri=CELEX%3A32024R1689), que constitui a primeira regulamenta\u00e7\u00e3o sobre IA no mundo. Teve na sua origem uma proposta da Comiss\u00e3o Europeia de 21 de abril de 2021 (Dispon\u00edvel em https:\/\/eur-lex.europa.eu\/legal-content\/EN\/TXT\/?uri=celex%3A52021PC0206), que assentava nos diversos n\u00edveis de risco que os sistemas de IA representam para os utilizadores em diferentes aplica\u00e7\u00f5es e que j\u00e1 est\u00e3o presentes em todas as \u00e1reas da nossa vida.<br>\u00c9 a primeira regulamenta\u00e7\u00e3o que tem na sua origem a \u00e9tica, preparada em torno de princ\u00edpios \u00e9ticos e direitos humanos e que resulta de estudos, discuss\u00f5es, investiga\u00e7\u00f5es, f\u00f3runs, semin\u00e1rios, etc. \u00c9 de uma import\u00e2ncia assinal\u00e1vel o trabalho do Grupo de Peritos de Alto N\u00edvel, nomeados pela Comiss\u00e3o Europeia que publicou em 2019: \u201cOrienta\u00e7\u00f5es \u00c9ticas para uma IA de Confian\u00e7a\u201d (Acess\u00edvel no link: https:\/\/digital-strategy.ec.europa.eu\/en\/library\/ethics-guidelines-trustworthy-ai), que constituiu uma primeira abordagem \u00e0 escala mundial da IA em termos \u00e9ticos e de acordo com o respeito pelos direitos humanos fundamentais plasmados na Conven\u00e7\u00e3o Europeia dos Direitos do Homem (Acess\u00edvel no link: https:\/\/gddc.ministeriopublico.pt\/sites\/default\/files\/convention_por.pdf).<br>O Regulamento da IA estabelece v\u00e1rios n\u00edveis de risco que podem decorrer da implementa\u00e7\u00e3o dos sistemas de IA: (i) Risco inaceit\u00e1vel; (ii) Alto risco; (iii) Risco limitado; (iv) Risco m\u00ednimo.<br>Risco inaceit\u00e1vel<br>O risco inaceit\u00e1vel, sendo o n\u00edvel mais elevado, \u00e9 proibido pelo Regulamento da IA. Est\u00e1 presente em v\u00e1rias aplica\u00e7\u00f5es, nomeadamente:<br>(i) manipula\u00e7\u00e3o subliminar que permite alterar o comportamento de uma pessoa sem que esta se aperceba, p. ex. manipula\u00e7\u00f5es que influenciam a decis\u00e3o de voto;<br>(ii) explora\u00e7\u00e3o das vulnerabilidades dos utilizadores que resulta em comportamentos prejudiciais, considerando a sua situa\u00e7\u00e3o social ou econ\u00f3mica, a idade e a capacidade f\u00edsica ou mental;<br>(iii) categoriza\u00e7\u00e3o biom\u00e9trica das pessoas com base em caracter\u00edsticas sens\u00edveis como o g\u00e9nero, a etnia, a orienta\u00e7\u00e3o pol\u00edtica, a religi\u00e3o, a orienta\u00e7\u00e3o sexual e as cren\u00e7as filos\u00f3ficas;<br>(iv) pontua\u00e7\u00e3o social utilizando sistemas de IA que avaliam os indiv\u00edduos com base nas suas caracter\u00edsticas pessoais, comportamento social e atividades, como compras online ou intera\u00e7\u00f5es nas redes sociais. Podem limitar ou mesmo impedir, por ex. a concess\u00e3o de empr\u00e9stimos banc\u00e1rios e outros benef\u00edcios sociais. Este sistema j\u00e1 est\u00e1 a ser aplicado na China (Cfr. How China Is Using \u201cSocial Credit Scores\u201d to Reward and Punish Its Citizens, publicado pela revista TIME, acess\u00edvel no link: https:\/\/time.com\/collection\/davos-2019\/5502592\/china-social-credit-score\/);<br>(v) identifica\u00e7\u00e3o biom\u00e9trica remota em tempo real, em espa\u00e7os p\u00fablicos, admitindo-se, contudo, exce\u00e7\u00f5es quando est\u00e1 em causa a pr\u00e1tica de certos crimes;<br>(vi) avaliar o estado emocional de uma pessoa no local de trabalho ou na educa\u00e7\u00e3o;<br>(vii) policiamento preditivo que permite a avalia\u00e7\u00e3o do risco de determinados indiv\u00edduos cometerem um crime futuro com base em caracter\u00edsticas pessoais.<br>Todos os sistemas de IA que sejam enquadr\u00e1veis no n\u00edvel de risco inaceit\u00e1vel s\u00e3o proibidos pelo Regulamento da IA.<br>Sistemas de IA de alto risco<br>O segundo n\u00edvel engloba os sistemas de IA de alto risco, com uma regulamenta\u00e7\u00e3o mais abrangente. A sua implementa\u00e7\u00e3o obedece a um processo de verifica\u00e7\u00e3o e autoriza\u00e7\u00e3o exigente e com crit\u00e9rios espec\u00edficos detalhados com algum pormenor. Carecem de autoriza\u00e7\u00e3o pr\u00e9via \u00e0 sua coloca\u00e7\u00e3o no mercado e devem preencher, desde logo, condi\u00e7\u00f5es cumulativas.<br>A Comiss\u00e3o fornecer\u00e1 orienta\u00e7\u00f5es, o mais tardar no prazo de 18 meses a contar da data de entrada em vigor do Regulamento da IA, para especificar a aplica\u00e7\u00e3o pr\u00e1tica das regras de classifica\u00e7\u00e3o para sistemas de IA de alto risco, identificando ainda, as condi\u00e7\u00f5es excecionais.<br>Os sistemas de IA de alto risco devem cumprir um n\u00famero significativo de requisitos, tendo em conta os fins a que se destinam, o estado da t\u00e9cnica geralmente reconhecido e o sistema de gest\u00e3o de riscos implementado. Estes sistemas, para a sua implementa\u00e7\u00e3o, dependem de condi\u00e7\u00f5es cumulativas:<br>(i) sistema de gest\u00e3o de risco durante todo o ciclo de vida do sistema, com o objetivo de identificar riscos previs\u00edveis para a sa\u00fade, a seguran\u00e7a ou para os direitos humanos fundamentais, bem como, a aplica\u00e7\u00e3o de medidas adequadas para fazer face aos esses riscos concretos identificados; e ainda uma avalia\u00e7\u00e3o de riscos futuros.<br>(ii) os dados de forma\u00e7\u00e3o, valida\u00e7\u00e3o e teste utilizados para desenvolver sistemas de IA de alto risco devem estar sujeitos a pr\u00e1ticas adequadas de governa\u00e7\u00e3o e gest\u00e3o de dados, tendo em conta a finalidade pretendida pelo sistema.<br>Tamb\u00e9m est\u00e1 prevista a avalia\u00e7\u00e3o pr\u00e9via dos eventuais preconceitos, mas tamb\u00e9m a suscetibilidade dos sistemas afetarem a sa\u00fade e a seguran\u00e7a dos indiv\u00edduos e os direitos fundamentais ou conduzir a outras discrimina\u00e7\u00f5es proibidas pela legisla\u00e7\u00e3o da UE preparando as respetivas medidas.<br>OS sistemas de IA de alto risco devem permitir o registo autom\u00e1tico das opera\u00e7\u00f5es durante a sua utiliza\u00e7\u00e3o, com o objetivo de garantir a rastreabilidade do funcionamento do sistema adequado ao fim a que se destina.<br>Na implementa\u00e7\u00e3o destes sistemas de IA tamb\u00e9m deve ser disponibilizada informa\u00e7\u00e3o transparente que permita interpretar as respostas do sistema com vista a uma utiliza\u00e7\u00e3o adequada, de modo que seja poss\u00edvel proceder aos ajustamentos necess\u00e1rios caso se verifique alguma desconformidade na sua aplica\u00e7\u00e3o.<br>Risco limitado<br>Inclui sistemas de IA com risco de manipula\u00e7\u00e3o ou engano. Devem os mesmos ser transparentes, com obrigatoriedade de informa\u00e7\u00e3o ao utilizador de que est\u00e1 a interagir com um sistema de IA, por exemplo, os chatbots.<br>Risco m\u00ednimo:<br>Este n\u00edvel inclui todos os restantes sistemas de IA que n\u00e3o se enquadrem nas categorias acima referidas, como p. ex. os filtros de correio eletr\u00f3nico n\u00e3o solicitado (spam) ou os jogos de v\u00eddeo baseados na IA. Estes sistemas n\u00e3o t\u00eam quaisquer restri\u00e7\u00f5es ou condi\u00e7\u00f5es obrigat\u00f3rias. No entanto, o Regulamento da IA refere a necessidade do respeito pelos princ\u00edpios gerais como a supervis\u00e3o humana, a n\u00e3o discrimina\u00e7\u00e3o e a justi\u00e7a. Tamb\u00e9m est\u00e1 prevista a ado\u00e7\u00e3o volunt\u00e1ria de c\u00f3digos de conduta pelas empresas.<br>No ensaio de Mia Couto que referimos anteriormente \u00e9 citado o escritor Eduardo Galiano referindo-se ao medo global do seguinte modo: \u00ab\u201cOs que trabalham t\u00eam medo de perder o trabalho; os que n\u00e3o trabalham t\u00eam medo de nunca encontrar trabalho; quando n\u00e3o t\u00eam medo da fome t\u00eam medo da comida; os civis t\u00eam medo dos militares; os militares t\u00eam medo da falta de armas e as armas t\u00eam medo da falta de guerras.\u201d\u00bb. O escritor mo\u00e7ambicano termina com esta frase: \u201ch\u00e1 quem tenha medo que o medo acabe.\u201d<br>Termino com a quest\u00e3o inicial: \u201cE n\u00f3s, ainda temos medo da IA, agora que estas tecnologias est\u00e3o regulamentadas, com um normativo europeu que se aplica diretamente a todos os pa\u00edses da Uni\u00e3o Europeia?\u201d<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ant\u00f3nio da Costa Alexandre, Jornal i online Breves considera\u00e7\u00f5es sobre o seu primeiro Regulamento que reflete princ\u00edpios \u00e9ticos e respeito pelos direitos humanos<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_bbp_topic_count":0,"_bbp_reply_count":0,"_bbp_total_topic_count":0,"_bbp_total_reply_count":0,"_bbp_voice_count":0,"_bbp_anonymous_reply_count":0,"_bbp_topic_count_hidden":0,"_bbp_reply_count_hidden":0,"_bbp_forum_subforum_count":0,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[72,129],"tags":[],"class_list":["post-48654","post","type-post","status-publish","format-standard","hentry","category-cronicas","category-jornal-i-online"],"_links":{"self":[{"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/posts\/48654","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=48654"}],"version-history":[{"count":3,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/posts\/48654\/revisions"}],"predecessor-version":[{"id":48660,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=\/wp\/v2\/posts\/48654\/revisions\/48660"}],"wp:attachment":[{"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=48654"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=48654"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/obegef.pt\/wordpress\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=48654"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}