Contribuir small-arrow
Voltar à home
Experimentem

ChatGPT

Participem

Webinar «A Pedagogia e o ChatGPT» | 30 de Maio

Leiam

Mais opiniões

Opinião | ChatGPT: o bom, o mau e o falso

Por António Dias Figueiredo

Partilha

Fotografia: Viralyft via Unsplash

Experimentem

ChatGPT

Participem

Webinar «A Pedagogia e o ChatGPT» | 30 de Maio

Leiam

Mais opiniões

O ChatGPT é a figura do momento, apesar de não ser humano. Distingue-se dos sistemas tradicionais, como o Google, porque comunica com os utilizadores em diálogo: recebe pedidos por escrito e responde por escrito, construindo textos com elevada correção gramatical. Para o fazer, acede a grande parte da informação da internet e, apesar de não compreender uma única das palavras que manipula, consegue construir textos completos. Fá-lo recorrendo a processos estatísticos idênticos aos que são usados pelos corretores ortográficos dos nossos telemóveis para completarem por antecipação os textos que estamos a teclar. 

Claro que os corretores dos telemóveis não podem adivinhar o que iremos escrever, mas analisam estatisticamente os textos que escrevemos no passado e a partir deles procuram adivinhar o que iremos escrever no futuro. Por exemplo, se escrevermos ‘meu’, o corretor pode concluir que a palavra seguinte mais provável é ‘caro’, e propõe a expressão ‘meu caro’. Se não a rejeitamos, toma-a como boa e propõe a palavra seguinte, por exemplo, ‘amigo’: ‘meu caro amigo’. Se aceitamos, anota o sucesso, para o futuro. Se recusamos, ensaia nova palavra, por exemplo, o nome de um destinatário habitual provável.

O ChatGPT baseia-se em modelos de inteligência artificial que operam de forma semelhante, encadeando palavras que tendam estatisticamente a ocorrer em sequência. A maior diferença, quando comparado com os corretores dos telemóveis, é que possui um repositório de milhões e milhões de textos e mobiliza potências colossais de processamento. Quando lhe surge uma palavra ou expressão que não consta no seu repositório, regista-a (diz-se que ‘aprende’ com o utilizador, ou que é ‘treinado’ por ele) e da vez seguinte que a palavra ou expressão ocorre não hesitará em inseri-la no lugar próprio. 

Antes de serem tornados públicos, estes modelos são ‘treinados’ pela interação intensiva com utilizadores humanos que dialogam com eles. É assim que atualizam os índices de que necessitam para acederem com eficiência ao seu gigantesco repositório. Uma vez tornados públicos, passam a ser treinados pelos próprios utilizadores – cada diálogo que mantêm é uma oportunidade para aprenderem. Para além do mecanismo básico de antecipação estatística de palavras, semelhante ao dos corretores ortográficos, têm outras funcionalidades algorítmicas que reforçam o seu desempenho como assistentes de construção de textos, incluindo ‘filtros’ que os impedem de dar respostas inconvenientes. 

A grande fragilidade destes modelos resulta da incapacidade de perceberem as palavras que manipulam. No caso do ChatGPT, quando lhe pedimos que explique um conceito que não existe, não hesita em inventar uma resposta, mobilizando construções prováveis, mas que não existem. Chega a referenciar obras que não existem e autores que não as escreveram, mas que, à luz das probabilidades, poderiam tê-las escrito. Como é exímio a construir frases elegantes e convincentes, há que ter cuidado em verificar todos os resultados que produz. Nunca se sabe quando é que as suas divagações estatísticas irão levá-lo a afirmar disparates, ou, como se diz agora, quando começa a “alucinar”.

Antes da criação deste tipo de sistemas, talvez nunca ninguém tivesse pensado no que poderia acontecer se se utilizassem motores estatísticos tão poderosos para combinar volumes tão grandes de informação textual. No entanto, os resultados têm sido surpreendentes, mesmo para os criadores dos modelos. Custa acreditar que um sistema que não faz ideia da informação que está a usar possa combiná-la por processos meramente estatísticos e obter resultados que fazem tanto sentido, muitos deles de elevada qualidade. Este aparente absurdo tem levado um número crescente de pessoas a experimentarem o ChatGPT e a descobrirem mais e mais aplicações surpreendentes, como o auxílio na procura de emprego, a orientação na escolha de carreira, o auxílio no atendimento de clientes, o apoio técnico, a revisão bibliográfica, o desenvolvimento do pensamento crítico, o estímulo à aprendizagem ativa, a tradução, o resumo de textos, a poesia, a preparação de aulas, ou a análise literária. 

Alguns entusiastas mais empolgados, atónitos com alguns dos resultados, têm chegado a atribuir-lhes atributos humanos superiores, mas estão enganados.  A verdade é que funcionam, e funcionam muito bem, nas situações que podem ser resolvidas pela combinação estatística de textos já escritos, mas são inúteis em todas as outras, e serão perigosos se confiarmos neles para esses casos, porque não hesitarão em responder-nos sem saberem o que estão a dizer.

O pecado original destes sistemas é a falta de qualidade da informação da internet, muita dela sem rigor e impregnada de preconceitos, para além de contaminada por elevados volumes de desinformação. 

Outro problema é o seu treino. Antes de colocados no mercado, são treinados a custo reduzido por pessoas com perfis de conhecimento estreitos, pouco capazes de fornecer um treino de qualidade. Depois de colocados no mercado, são treinados pelos utilizadores com quem dialogam, o que os expõe às mais inesperadas distorções. Basta recordar que a Tay, um robô criado pela Microsoft em 2016 para dialogar no Twitter, teve de ser desativada ao fim de apenas vinte e quatro horas porque se tinha transformado numa intolerante ativista nazi e racista. 

Este exemplo também serve para nos recordar que há muita gente mal-intencionada na internet e que as ferramentas mais inofensivas podem ser desviadas dos seus propósitos originais e usadas para fins perversos. Eric Smith, que presidiu ao conselho de administração da Google entre 2001 e 2011, alertava para a possibilidade de estes sistemas auxiliarem a planear ciberataques e desenvolver sistemas biológicos capazes de matar milhões de pessoas.

Para além destes males, há uma forte componente de falsidade e mistificação nos modelos algorítmicos em que se baseia o ChatGPT. Desde logo porque, ao contrário dos sistemas de inteligência artificial clássicos, de base lógica e simbólica, que tentam reproduzir os processos do raciocínio humano, se limitam a combinar estatisticamente milhões de textos escritos por seres humanos e a produzir a partir deles sínteses que os faz parecerem originais e inteligentes. Emily Bender, professora de linguística computacional da Universidade de Washington, que escreve sobre o assunto há vários anos, descreve-os como “papagaios estocásticos”, visto que se limitam a repetir o que foi dito por outros.

Os seres humanos produzem conhecimento por dois processos complementares: o raciocínio lógico e as aproximações sucessivas. O raciocínio lógico produz cadeias de inferências a partir de dados teóricos e experimentais. As aproximações sucessivas constroem novidade recorrendo a ciclos de tentativa e erro. Embora o raciocínio e a aprendizagem através do erro sejam os atributos mais poderosos da inteligência humana, os modelos de linguagem de larga escala não recorrem a nenhum deles: limitam-se a emitir palpites estatísticos para completar frases, apropriando-se, para o efeito, de textos alheios

Esse uso do trabalho de outros desrespeita de forma flagrante os direitos de propriedade intelectual. Quando lhes pedimos, por exemplo, que façam a análise literária de um poema, poderemos ficar boquiabertos com a qualidade invulgar da resposta que nos dão, mas teremos de ficar chocados quando pensarmos que os autores reais dessas análises foram expropriados do seu trabalho e que, ao contrário do que acontece com alguns dos concorrentes do ChatGPT, nem sequer são mencionados como autores.

Em resumo, o ChatGPT e os seus congéneres representam um passo de gigante no sentido de uma parceria virtuosa entre seres humanos e máquinas. Uma parceria que mudará irreversivelmente os modos de funcionar das nossas sociedades. Apresentam, contudo, limitações e perigos que teremos de conhecer em permanência para que possamos construir com eles um mundo melhor.


.

.

António Dias Figueiredo é professor da Universidade de Coimbra. Cultiva há muitos anos o estudo da natureza filosófica e social das tecnologias.

Gostaram do que leram?
E repararam que não temos publicidade?

Para fazermos este trabalho e o disponibilizarmos de forma gratuita as leituras e partilhas são importantes e motivantes, mas o vosso apoio financeiro é essencial. Da mesma forma que compram um lanche ou um bilhete para um espectáculo, contribuam regularmente. Só assim conseguimos alcançar a nossa sustentabilidade financeira. Vejam aqui como fazer e ajudem-nos a continuar a fazer as perguntas necessárias, descobrir as histórias que interessam e dar-vos a informação útil que afine o olhar sobre Coimbra e envolva nos assuntos da comunidade.

Contamos convosco.

Contribuir small-arrow

Discover more from Coimbra Coolectiva

Subscribe now to keep reading and get access to the full archive.

Continue reading