Ricardo Passos, OBEGEF

As LLMs representam uma ferramenta poderosa de processamento e compreensão de linguagem natural, mas a sua utilização também acarreta responsabilidades relacionadas com considerações éticas e potenciais impactos sociais.

O aparecimento do chatGPT criou um evento disruptivo na percepção que o comum dos mortais tem sobre a interacção com algoritmos de Inteligência Artificial. Embora genericamente o chatGPT seja um chatBot, adequado para diversas aplicações em assistentes virtuais, sistemas de suporte ao cliente e afins, foi treinado para compreender e gerar texto de forma a simular uma conversação natural como se fosse um humano. A sua capacidade de estabelecer uma conversação contextualizada, focando em função da interação que vai tendo na conversa, permite que muita gente o utilize como alternativa a um motor de busca genérico. A forma como gera linguagem natural, com um aspecto claro e profissional tem levado a que muita gente de repente possa ficar na dúvida se é de facto um chatBot ou um humano a comunicar.

Foi um instante até que a comunidade estudantil começasse a utilizar o chatGPT para a realização de “estudos”, “análises” e até para algumas “teses”… De igual forma, muitos profissionais das mais diversas áreas passaram a ser sapientes interlocutores dos mais variados temas e a produzir artigos em grande profusão, quase comparáveis ao Prof. Marcelo.

Alarme! E agora? Proibe-se o chatGPT? A Itália a 31 de Março decidiu proibir o chatGPT com o pretexto que recolhia dados dos utilizadores de forma ilegal. Mas para que é que serve proibir? A tecnologia existe, está disponível, não vai voltar para trás, temos é que entender do que é que estamos a falar e como é que essa tecnologia nos pode ser útil – tendo sido sempre assim desde a invenção da roda.

O chatGPT é uma variante do GPT (Generative Pre-trained Transformer) lançadio pela OpenAI. O GPT é um modelo da família dos LLMs (Large Language Models). Os LLMs são sistemas de inteligência artificial (IA) que foram treinados com grandes quantidades de dados de texto para compreender e gerar linguagem semelhante à humana. Esses modelos são um subconjunto de uma categoria mais ampla de modelos de IA conhecidos como modelos de processamento de linguagem natural (NLP). Têm como características distintivas um número de parâmetros imenso, com milhões ou até milhares de milhões de parâmetros (considerando como parâmetros os pesos e as ligações dentro da rede neuronal que permitem ao modelo criar associações para processar e gerar texto) configurados a partir do treino com vastos conjuntos de dados que incluem uma grande panóplia de informação disponível na Internet, textos, notícias, artigos, livros, sites e outras fontes.

Naturalmente, a capacidade de utilização de uma LLM depende da quantidade de dados, da qualidade dos dados (não esquecer a grande quantidade de “lixo” existente na internet) e da qualidade do treino. Não é de surpreender que o chatGPT se engane, ou que tenha apreciações preconceituosas. Depende dos dados e da forma como foi treinado. Podemos até ter a tendência de o considerar como um humano, com as suas virtudes e defeitos: o chatGPT também mente, por vezes com todos os “dentes” que não tem.

Nos últimos tempos têm aparecido uma profusão de LLMs. Além do GPT apareceram o BERT, o RoBERT, o BART, o T5, o PaLM, a Chinchilla e mais recentemente o LLAMA, o LLAMA-2 e o Code Llama da Meta AI, este último dedicado especificamente à geração de código fonte de programas em várias linguagens de programação. Muitos deste modelos são de utilização livre quer para investigação quer para exploração comercial.

Isto vai levar a uma utilização exponencial destes modelos nos próximos anos, mas não podemos esquecer que os LLMs levantam um grande conjunto de preocupações éticas desde utilização indevida de dados não autorizados, apreciações enviesadas devido a bias nos dados de treino, potencial de utilização indevida (por exemplo, geração de notícias falsas ou texto falso ou apropriação indevida de propriedade intelectual) e preocupações sobre privacidade e segurança.

Note-se ainda que os LLMs não são explicáveis segundo o conceito de XAI (eXplainable AritificiaI Intelligence) e como tal o resultado produzido necessita da supervisão de alguém. Sobre o tema do XAI e da sua importância – daria assunto para outra crónica - apenas refiro a preocupação que a UE (União Europeia) tem tido com a profusão de algoritmos de IA (Inteligência Artificial), tendo produzido o “AI Act” em Abril de 2021 que levará a legislação específica a adoptar em 2024 em toda a UE referente ao tipo de algoritmos que podem ser tratados por IA, em função do risco. A UE proibirá a utilização de algoritmos de IA perante um nível de risco considerado inaceitável, por exemplo quando está em causa vida humana, segurança, meios de subsistência ou direitos dos cidadãos. Nos outros casos, a utilização poderá ser válida, mas no nível definido como “alto risco”, apenas serão certificados algoritmo de IA que cumpram determinados critérios incluindo serem explicáveis.

(https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206)

Em resumo, as LLMs representam uma ferramenta poderosa de processamento e compreensão de linguagem natural, estou convicto que vão levar ao desenvolvimento de novos modelos de ensino – mais do que temer, as escolas terão de evoluir e poderão aproveitar estas ferramentas que vão surgindo para melhorar o processo de ensino ao mesmo tempo que têm de conseguir controlar utilizações indevidas e falsa autoria – e de desenvolvimento profissional – as pesquisas utilizando LLMs têm mostrado ser muito mais eficientes que a utilização habitual do motor de busca para a resolução de um problema específico ou até para a geração de código fonte com vista a determinada funcionalidade - mas a sua utilização também acarreta responsabilidades relacionadas com considerações éticas e potenciais impactos sociais.