ChatGPT: potencialidades e riscos para a educação
Autores: Mariano Pimentel; Felipe Carvalho; ChatGPT4, da OpenAI (8 maio 2023)
Revisão: Alvanisio Damasceno
Ilustração da capa: Mariano Pimentel e MidJourney
Colegas de profissão,
Estou usando o ChatGPT todos os dias; viciei, uso-o mais que o mecanismo de busca da Google e o Google Acadêmico. Estou utilizando-o para me ajudar a pesquisar, escrever, revisar os textos que escrevo, traduzir, criar slides para aulas, elaborar atividades, pedir referências, sintetizar livros etc. Outro dia o ChatGPT me ajudou a escrever um código em JavaScript, coisa que fizemos em 15 minutos, o que sozinho eu teria feito algumas horas…
Quais papéis o ChatGPT desempenhará em nosso cotidiano acadêmico? […] Ele é o assunto do momento na Educação, porque nos obriga a rever todos os trabalhos e avaliações que passamos “para casa”. Você já fez o ChatGPT resolver os exercícios que passa para suas/seus alunas/os?
Eu, primeiro autor deste texto, enviei essa mensagem no início do semestre letivo para alertar o colegiado do curso de Sistemas de Informação em que trabalho. O ChatGPT é um elefante na sala e não podemos fingir que nada está acontecendo. Nós, docentes, precisamos conversar muito sobre ele e outros sistemas de inteligência artificial generativa, que preferimos nomear de IA criativa. Já temos uma certeza: “O ChatGPT e outras formas de Inteligência Artificial generativa no Ensino Superior vieram para ficar.” (CORREIA, 2023, n. p.) E não apenas no ensino superior. Ele está sendo utilizado por muitas pessoas, alcançou mais de 100 milhões de usuárias/os nos dois primeiros meses após seu lançamento, tornando-se o maior fenômeno de popularidade da história da internet, ultrapassando recordes anteriores: o TikTok levou 9 meses para atingir essa marca, o Instagram demorou 2,5 anos e o Facebook quase 5 anos (HU, 2023; FACEBOOK, 2014). O jornal The New York Times o noticiou como sendo “o melhor chatbot de inteligência artificial já lançado para o público em geral” (ROOSE, 2022). Neste artigo, com base nas compreensões-caracterizações do ChatGPT no presente, bem como em sua história e perspectivas de futuro, buscamos levantar algumas potencialidades e riscos para a educação.
O ChatGPT é um ser não humano capaz de produzir textos às vezes tão bem ou melhor que muitas/os de nós. No recente curso que fizemos – Balanço crítico do ChatGPT: contribuições da semiótica para a IA –, Lucia Santaella (2023) apresentou a imagem a seguir e, após a leitura do comentário produzido pelo ChatGPT, desabafou: “Esse exemplo me deixou com um sentimento de inferioridade. Eu já escrevi sobre ‘lágrimas na chuva’; ele escreveu melhor que eu.” (SANTAELLA, 2023, 1:24:50). Dada a admiração que temos pelos textos dela, essa declaração dissipou qualquer competição ou constrangimento que ainda pudéssemos sentir ao nos compararmos a ele.
Fonte: Imagem divulgada com autorização da Lucia Santaella
O ChatGPT produz novos textos com base no processamento de uma enorme quantidade de textos anteriores, afirmações e pontos de vista, por isso é capaz de escrever sobre praticamente qualquer assunto. Contudo, como resultado da trituração e moagem dos textos humanos, acaba produzindo um texto “pasteurizado”, “sem alma”, “basicão” e outras caracterizações que já ouvimos sobre suas redações com estilo formal e conciso, estruturadas em introdução-desenvolvimento-conclusão. Como baseia-se nas afirmações mais recorrentes, seus textos não apresentam ideias muito inovadoras ou inquietantes, e sua estilística não surpreende. Para alívio das pessoas que temem que sua capacidade intelectual seja suplantada por um ser maquínico, podemos reconhecer que o ChatGPT ainda não é um escritor extraordinário. Felizmente, para a grande maioria de nós, não precisamos ser Clarice, Guimarães, Drummond, Machado, Amado ou Evaristo.
Embora essas inteligências artificiais criativas ainda não sejam escritoras, artistas ou intelectuais extraordinárias, já são alguma coisa. Esse fato é de deixar atentas, de orelha em pé, todas as pessoas que trabalham com a linguagem, sejam professoras, pesquisadoras, programadoras, escritoras, tradutoras, roteiristas, redatoras publicitárias, produtoras de conteúdo, jornalistas, entre outras profissionais. Isso sem mencionar as atividades que lidam com imagens e as preocupações suscitadas por inteligências artificiais como o MidJourney. E não somente esses sistemas computacionais: já estão no mercado muitos outros baseados em inteligência artificial para a criação de vídeo, música, programa de computador, interface de usuária/o, entre outras obras. Nesta década, veremos esses sistemas se especializando e invadindo os trabalhos criativos em diversas áreas.
Alguns testes mostraram que o ChatGPT acerta mais questões do que a maior parte das pessoas que fazem o ENEM. Das questões desse exame de 2022, a versão GPT 3.5 acertou 70% e a versão GPT 4 acertou 80% (NUNES et al., 2023). Se o ChatGPT atualmente ainda não é bom em resolver problemas de Matemática em comparação às outras áreas testadas, em breve podem integrar a ele um sistema computacional algébrico para torna-lo mais competente em realizar cálculos simbólicos e manipulações algébricas. Ou, em vez de termos uma única entidade proficiente em tudo, talvez a melhor estratégia seja criar um exército de seres não humanos semelhantes às/aos nossas/os pesquisadoras/es superespecializadas/os em suas áreas. Particularmente, anseio um dia conversar com um chatbot que simule Paulo Freire, construído com base na vastidão de conteúdos produzidos por Freire e sobre ele.
As inteligências artificiais generativas são inteligentes de um modo diferente do ser humano porque processam as informações de maneira puramente racional-estatística, sem consciência, sem corpo ou experiência de vida. A IA é capaz de realizar atividades repetitivas, processar enormes quantidades de dados e reconhecer padrões de maneira muito superior aos seres humanos; por exemplo, são capazes de reconhecer rapidamente quem é a pessoa em uma foto qualquer, ou identificar com precisão anomalias em imagens médicas. Entretanto, a IA não era boa em realizar atividades intelectuais criativas, mas essa distinção da inteligência humana foi abalada com o desenvolvimento de sistemas como o ChatGPT e o MidJourney.
No passado, a capacidade intelectual humana de realizar cálculos foi transformada em uma atividade “mecânica”, possível de ser realizada por máquinas, o que possibilitou o desenvolvimento na década de 1940 do que hoje denominamos computadores, e com essas máquinas a capacidade intelectual de calcular deixou de ser uma exclusividade humana:
Em 1936, a palavra “computador” tinha um sentido bem diferente do que tem hoje. Ela significava uma pessoa real, com papel e lápis, envolvida em cálculos aritméticos. Bancos contratavam muitas dessas pessoas, muitas vezes mulheres, para calcular pagamentos de juros. […] Computadores humanos eram vitais ao mundo moderno, lidando com as enormes quantidades de informação produzidas à medida que ciência e indústria ficavam mais complexas. O que [Alan] Turing fez em seu artigo de 1936 foi perguntar uma questão simples, mas profunda: o que passa na mente de uma pessoa ao fazer uma computação? […] O que acontece no cérebro de um computador humano? É um sistema biológico vastamente complexo, capaz de ter consciência, pensamentos e ideias, mas, para Turing, nada disso era crucial para o processo da computação. Turing percebeu que, para se computar algo, era preciso seguir um conjunto de regras precisamente, e só isso. Ele tira a inteligência de alto nível, o pensamento, que se supunha estar envolvida no cálculo, e diz que podemos ter um processo mecânico, e por mecânico ele quer dizer um processo não pensante para realizar o mesmo ato. Portanto, ele elimina a necessidade da agência humana com todas as suas funções cognitivas de alto nível. E é isso que é revolucionário sobre o que ele tentou fazer. A mente brilhante de Turing viu que qualquer cálculo tem dois aspectos: os dados e as instruções sobre o que fazer com esses dados. E isso seria a chave para a sua descoberta.
Fonte: A história da Informação – documentário BBC (2012, 32:38 – 35:11)
Hoje, estamos vendo as inteligências artificiais imitando bem aquilo que supúnhamos ser o mais típico do humano: nossa capacidade de nos comunicarmos por linguagens, esses complexos sistemas de comunicação usados para expressar e compartilhar informações, pensamentos, conhecimentos, experiências e emoções, que nos possibilitam conversar, interagir e colaborar, que estruturam nossas relações sociais e práticas de cultura. Essas inteligências artificiais estão nos convencendo de que textos e imagens também podem ser produzidos por um processo não humano utilizando apenas dados e operações matemáticas baseadas na técnica de aprendizagem profunda (deep learning):
- Dados: grandes volumes de dados — sejam textos, imagens, sons ou tabelas de dados — são utilizados para criar um modelo matemático que chamamos de inteligência artificial.
- Operações matemáticas: tomando como inspiração o neurônio biológico, foi concebido um neurônio artificial que recebe dados, realiza cálculos simples e produz uma saída que será processada por outro neurônio artificial, formando assim uma rede neural artificial organizada em vários níveis, ou camadas, de uma estrutura hierárquica. As conexões entre os neurônios artificiais são ajustadas por meio dos dados utilizados para o “treinamento” da inteligência visando a aumentar a chance de gerar uma resposta adequada.
Para que uma máquina consiga produzir um novo texto que pareça coerente para nós, humanos, ela deve basear-se em outros textos de nossa cultura. Uma amostra desses textos é usada para ajustar o modelo durante o “treinamento”, que promove o aprendizado inicial da inteligência artificial. Esse processo foi utilizado para construir o modelo de linguagem GPT, que é utilizado pelo ChatGPT, Dall-e e outros sistemas computacionais. GPT é a sigla em inglês de Transformador Pré-treinado Generativo, onde: Generativo ou Gerador indica que o modelo cria novos conteúdos; Pré-treinado significa que foi treinado previamente com uma grande quantidade de textos; e Transformador refere-se à arquitetura usada no modelo para entender o texto digitado pelo usuário e gerar um novo texto com base em uma estratégia que leva em consideração a importância relativa das palavras em uma sequência — essa arquitetura foi introduzida no artigo “Atenção é tudo que você precisa” (VASWANI et al., 2017).
A capacidade intelectual criativa, nossa habilidade de criar textos e imagens, está sendo transformada em uma atividade possível de ser realizada por máquinas. Roland Barthes, no ensaio “A morte do autor” ([1967] 1984), questionou o autor como criador de algo original ao reconhecer que o texto é um produto de várias influências e referências culturais. Michel Foucault, em “O que é um autor?” (1969), questiona a noção do autor como criador original e questiona a maneira como atribuímos autoridade e responsabilidade aos autores. Harold Bloom, em “A angústia da influência” (1973), argumenta que a poesia é um processo de recriação e que os poetas criam suas obras a partir da luta com as influências e tradições literárias precedentes. Esses autores concordam que a produção de um novo texto não ocorre no vácuo, é um processo de construção baseado em outros textos e obras das referências e influências culturais do/a autor/a, que é exatamente o que fazem as inteligências artificiais: criam novos textos com base numa amostra de textos produzidos em nossa cultura humana.
A IA está nos obrigando a revisitar a noção de autoria e a rediscutir a questão dos direitos autorais (ALMEIDA, 2023). Por exemplo, decidimos reconhecer o ChatGPT como coautor deste texto, pois escrevemos em diálogo com ele, fomos influenciados pelos textos que ele produziu. Ele contribuiu significativamente a ponto de o considerarmos nosso coautor — não o principal, mas um colaborador. A APA, por sua vez, definiu normas para citar o ChatGPT (MCADOO, 2023) e, com isso, declarou que considera ser necessário estabelecer uma explícita separação entre o texto humano e o da máquina. No entanto, para nós, esse distanciamento/diferenciação não é simples de caracterizar e é fácil de esconder. Será que estamos cometendo um equívoco ao considerá-lo nosso coautor? Nossa comunidade acadêmica, as revistas, as universidades e editoras terão de discutir isso séria e urgentemente.
O ChatGPT, com sua impressionante capacidade de compreender e criar textos, coloca em xeque a ideia de que a criatividade e a linguagem são competências exclusivas dos seres humanos. Para algumas pessoas, ele representa uma ameaça à própria condição de ser humano; pelo menos para as pessoas que desejam se colocar acima de outros seres: “somos os únicos seres capazes de produzir artefatos” (Homo habilis), “os únicos seres inteligentes” (Homo sapiens), “os únicos capazes de fazer uso de linguagem”. Estudos em biologia, cognição, neurociência e comportamento têm mostrado que outras espécies também são inteligentes, capazes de produzir e usar ferramentas, resolver problemas, planejar o futuro, sonhar, ter emoções e empatia, comportamentos culturais, autoconsciência e até são capazes de cometer suicídio (embora essa ainda seja uma questão controversa). Outras espécies de animais também dispõem de sistemas de comunicação que podem ser considerados linguagem em um sentido mais amplo. Os humanos têm um grau mais complexo dessas habilidades, mas se trata de um contínuo em termos de complexidade e não algo exclusivo de nossa espécie. Não parece ter ocorrido um salto evolutivo a ponto de termos características tão inéditas no reino animal; talvez não sejamos tão especiais como nos supúnhamos, os evolucionistas já nos ensinaram que não fomos criados à imagem e semelhança de um Deus supremo. Todas as tentativas de nos colocarmos acima de outras espécies acabaram malsucedidas com o tempo, revelaram apenas como somos pretensiosas/os e narcisistas.
Para ainda nos considerarmos “os únicos seres de linguagem”, foi necessário caracterizar a linguagem como um sistema complexo, envolvendo sintaxe, semântica e pragmática. Será que a IA, com sua capacidade cada vez mais impressionante de compreender e produzir textos coerentes, causará uma ferida na humanidade (SANTAELLA, 2023; FREUD, 1917)?
Entre nós, já existe um ser maquínico capaz de produzir respostas sem nunca se cansar ou se aborrecer com nossas perguntas. Um parceiro intelectual sempre disponível para nos oferecer uma ou outra forma de pensar-textualizar sobre algo. Um colaborador útil capaz de criticar e revisar os textos que escrevemos. Aquelas/es que ainda não estão trabalhando com ele é porque não o conhecem ou não entenderam seu potencial, ainda não perceberam o que estão perdendo.
Em comparação com a dinâmica conversacional na sala de aula, o ChatGPT tem algumas vantagens: fazer perguntas a ele não interrompe a exposição do/a professor/a nem gera constrangimentos perante as/os colegas da turma. Não precisamos ter vergonha de perguntar nada ao ChatGPT, pois ele responderá tudo sem nos julgar. No máximo, o que pode acontecer é ele nos informar que não pode responder se o conteúdo da conversa infringir seus princípios éticos, como atividades ilegais, imorais ou antiéticas, conteúdo ofensivo, violento ou pornográfico, aconselhamento médico ou jurídico, informações pessoais de usuários do sistema, entre outras restrições documentadas em sua “política de conteúdo”.
Até aqui, parece tudo maravilhoso (?), pois focamos nas potencialidades… vamos agora conversar sobre os riscos. É claro que a política de conteúdo é inegavelmente importante, contudo ela também nos alerta para o controle das informações apresentadas às/aos usuárias/os. Há anos, denúncias vêm sendo feitas sobre as ameaças relacionadas ao controle do fluxo informacional e à capacidade de influenciar a opinião pública por parte das empresas de tecnologia, como as Big Techs, proprietárias de sistemas de redes sociais e mecanismos de busca. Isso já até virou tema de filmes e documentários, como Privacidade hackeada (2019) e O dilema das redes (2020). Os noticiários jornalísticos também nos alertam frequentemente sobre os riscos relacionados a esse controle e influência, como exemplifica a recente polêmica relacionada ao Projeto de Lei das Fake News (PL 2630/2020) em que o MPF questionou a Google sobre um possível favorecimento de conteúdos contrários ao PL das Fake News em resultados de busca. Agora o ChatGPT e outros sistemas geradores de conteúdo representam uma nova ameaça devido ao potencial de controle sobre o fluxo das informações que circularão na sociedade, impactando significativamente a cultura, a educação e as democracias em todo o mundo: “Há cerca de 20 anos, dizíamos que no futuro quem não aparecesse no Google morreria. Hoje o perigo é o ChatGPT decretar a morte de tudo que está à margem dos centros hegemônicos, mas em vida.” (BEIGUELMAN, 2023, p. 78)
A princípio, o ChatGPT foi desenvolvido para não disseminar desinformação. Contudo, mesmo tentando fornecer informações precisas e atualizadas até 2021, ano em que ocorreu o treinamento de seu modelo, o ChatGPT pode apresentar informações desatualizadas, cometer erros, mentir acreditando no que diz como se estivesse experimentando uma “alucinação” (OPENAI, 2023), como também plagiar ou parafrasear sem revelar as fontes de seus textos (MARQUES, 2023), até porque seu algoritmo não tem como saber de onde suas informações vieram. Ele também não se compromete com os textos que escreve, podendo facilmente mudar sua posição na resposta seguinte, pedindo desculpas pela “confusão”. As inteligências artificiais são diferentes de nós, com qualidades e defeitos próprios, e essas características problemáticas apontam a necessidade de uma educação que ensine a duvidar da informação, a fundamentar a informação obtida, a buscar fontes confiáveis e atualizadas. Essas habilidades, que já eram importantes em tempo de WhatsApp, serão radicalmente necessárias em tempo de deepfake — veja a entrevista com Bruno Sartori sobre Deepfake, além de Lula e Bolsonaro se amando, é nova ferramenta política.
Quem ainda pensa que o ChatGPT é apenas uma moda passageira, uma flor-cadáver que está fedendo porque desabrochou e vai morrer em poucas horas, desconhece seus bastidores. Ele representa o estado da arte em termos de Inteligência Artificial, é o resultado de um empreendimento grandioso que envolve uma enormidade de recursos financeiros, infraestrutura, pessoas e textos.
O ChatGPT não é fruto de um acaso, não foi criado de repente. A primeira versão de seu modelo, o GPT-1, foi lançado em 2018, focado na compreensão da linguagem natural. No ano seguinte, foi lançado o GPT-2, capaz de gerar textos coerentes. Em 2020, foi lançado o GPT-3, que produzia textos com qualidade comparável aos escritos pelos seres humanos. Após aprimoramentos, lançaram o GPT-3.5, modelo utilizado para criar o ChatGPT, lançado em 30 de novembro de 2022. Em março de 2023, foi lançado o GPT-4, com maior capacidade de raciocínio, modelo usado na versão ChatGPT Plus.
Evolução do modelo GPT
Fonte: Dados de GPT (s. d.); BROWN et al. (2020); Walsh (2023) e Gratas (2023)
A quantidade de parâmetros (referentes aos pesos e vieses das conexões entre os neurônios artificiais) é frequentemente utilizada como uma medida do desempenho do modelo, um indicador de sua capacidade de raciocínio. O aumento da quantidade de parâmetros entre as versões do modelo de linguagem GPT nos oferece uma noção sobre a sua evolução. A primeira versão continha 117 milhões de parâmetros; a segunda versão teve um aumento de uma ordem de grandeza dessa quantidade; a terceira versão teve um aumento de duas ordens de grandeza em relação à versão anterior. Por “segredo de negócio”, a empresa OpenAI, proprietária do modelo GPT e dos sistemas ChatGPT e Dall-e, não revelou a quantidade de parâmetros do GPT-4, mas a informação que circula é que tem 1 trilhão de parâmetros (ALBERGOTTI, 2023). Dado o seu enorme sucesso, tudo indica que continuarão aprimorando essa inteligência artificial — quem ainda está insatisfeita/o com a qualidade das respostas dadas pelo ChatGPT 4.0, pode aguardar a próxima versão.
Textos utilizados para treinar o GPT-3
Fonte: Dados de Brown et al. (2020, p.9) e Languages_by_Word_Count (2020)
Outro indicador da evolução da inteligência artificial é a quantidade e a qualidade dos textos utilizados para treinar o modelo de linguagem, responsável pelo aprendizado inicial da IA. A OpenAI também não revelou as fontes de texto utilizadas no GPT-4, mas divulgou as do GPT-3. Atente para o problema: “Embora os dados de treinamento do GPT-3 ainda sejam principalmente em inglês (93% das palavras), eles também incluem 7% de texto em outros idiomas.” (BROWN et al., 2020,, p. 14, tradução nossa). Palavras em português correspondem a apenas 0,5% do corpus (LANGUAGES_BY_WORD_COUNT, 2020). A empresa OpenAI admite que essa é uma “limitação”:
O GPT-3 é treinado principalmente em textos na língua inglesa e é mais adequado para classificar, pesquisar, resumir ou gerar esse tipo de texto. Por padrão, o GPT-3 terá um desempenho pior em entradas que são diferentes da distribuição de dados em que foi treinado, incluindo idiomas diferentes do inglês (OPENAI, 2020, tradução nossa).
O ChatGPT, pelo menos a versão 3.5, conhece pouco do nosso idioma comparativamente ao inglês, tem poucas informações sobre nossa história, cultura, valores, costumes e crenças, tem poucas referências sobre artistas, políticas/os, pesquisadoras/es e de toda a gente brasileira. Isso representa um novo colonialismo cultural, um datacolonialismo: “Os dados de base não são consistentes para cobrir a diversidade da produção cultural e científica global.” (BEIGUELMAN, 2023, p. 78). Há uma chance maior de o ChatGPT desconhecer ou “alucinar” quando perguntarmos sobre informações relacionadas ao Brasil. Se compreendemos que educação é prática de cultura (SILVA, 1999), fica evidente que o ChatGPT pode não ajudar em todas as pesquisas ou trabalhos que desejamos fazer no contexto educacional brasileiro.
Se ele raciocina melhor em inglês, por ter mais informações, pode ser interessante fazer perguntas na língua franca, principalmente se o assunto não for relacionado à nossa cultura. Se você tiver dificuldades com o inglês, não se preocupe: o sistema de tradução dele é muito bom — você pode pedir que ele traduza sua pergunta para o inglês, depois colar a sua pergunta em inglês no prompt, aguardar a resposta que virá em inglês e, por fim, solicitar a tradução da resposta dada. Viva a arte de dar golpes no campo do outro, como diria Certeau (2011).
A Microsoft investiu mais de 10 bilhões de dólares na OpenAI. Sua infraestrutura conta com um supercomputador em que milhares de unidades de processamento gráfico foram conectadas na plataforma Azure de computação em nuvem, da Microsoft (ROTH, 2023). Após o lançamento do ChatGPT, a OpenAI foi avaliada em US$ 29 bilhões, tornando-se uma das empresas de IA mais valiosas do mundo (VARANASI, 2023).
O presidente da empresa OpenAI, Sam Altman, em dezembro de 2022, disse: “teremos que monetizar de alguma forma em algum momento; os custos de computação são de arder os olhos” (ALTMAN, 2022). A monetização ocorreu a partir de fevereiro de 2023, com o lançamento do ChatGPT Plus, de acesso restrito aos assinantes que estão dispostos a desembolsar 20 dólares por mês. A OpenAI informou que a versão GPT 3.5 gratuita tem raciocínio 3 e concisão 1, enquanto a versão GPT 4 tem raciocínio 5 e concisão 4 numa escala de 5 pontos. As melhorias são perceptíveis, como demonstrado no estudo comparativo das versões em relação ao teste do ENEM de 2022 mencionado anteriormente (NUNES et al., 2023).
ChatGPT Gratuito e ChatGPT Plus
Fonte: Dos autores, com base nas informações do ChatGPT Plus
Com o ChatGPT Plus, foi criada uma divisão entre as/os usuárias/os pagantes, que têm acesso à tecnologia de ponta (GPT 4), e as/os não pagantes, que utilizam uma inteligência mais simples (GPT 3.5). Se o lançamento da versão gratuita do ChatGPT foi vista como um novo recurso que poderia democratizar o acesso ao conhecimento devido à simplicidade de sua interface e à qualidade das respostas dadas, a versão paga explicitou que o acesso ao conhecimento será ainda mais marcado por uma relação de poder excludente, principalmente em um país como o nosso, onde 30% da população é considerada pobre (são consideradas pobres as famílias que têm renda per capita inferior a US$ 5,50 por dia para viver, de acordo com os critérios do Banco Mundial) (IBGE, 2022). Isso nos alerta para a exclusão digital instalada em nosso país: 65% das crianças e jovens que pertencem à classe social A e B usam a internet em um computador de mesa, notebook ou tablet, enquanto apenas 7% das crianças e jovens da classes D e E usam a internet nesses equipamentos (informação obtida dos microdados da pesquisa CETIC.BR, 2022). Precisamos urgentemente de políticas de Estado para enfrentar as desigualdades nas oportunidades de aprendizagem que a exclusão digital e cibercultural estão causando em nosso país.
O desenvolvimento do ChatGPT também envolveu uma situação de exploração. A OpenAI contratou uma empresa no Quênia para treinar o modelo na identificação e filtragem de discurso de ódio, violência e abuso sexual a partir da análise de dezenas de milhares de trechos de texto. A empresa terceirizada contratou cerca de trinta trabalhadores quenianos pagando menos de US$ 2 por hora (PERRIGO, 2023), o que no Brasil infelizmente não seria considerado um escândalo, dado que a hora de trabalho de quem recebe um salário mínimo é de R$5,51, quase metade do que os quenianos receberam em dólares. O escândalo não se deve apenas à baixa remuneração, mas também por delegar a outro país o trabalho sujo de analisar textos envolvendo violências de diversas ordens. Embora essa prática não seja exatamente uma novidade, não podemos nos conformar nem compactuar com os abusos absurdos do capitalismo.
Além dos textos utilizados para o aprendizado inicial do GPT, o modelo continua aprendendo continuamente com os textos digitados pelas/os usuárias/os. Isso pode ser bom, pois o sistema aprende a conhecer a/o usuária/o e suas preferências interacionais, além de aprender um pouco mais sobre nossa cultura. Por outro lado, os riscos são enormes, como exemplifica o emblemático caso da chatbot Tay, da Microsoft, que foi retirada do ar em menos de 24 horas por ter aprendido rapidamente a ser racista, misógina e disseminadora de fake news (EXPOSTO, 2016). Os filtros não impedem que o GPT aprenda informações novas com as/os usuárias/os, desde que não firam sua política de conteúdo. Se o ChatGPT pode aprender conosco, é fácil imaginar que empresas e políticos contratarão fazendas de computadores que ficarão ensinando o ChatGPT que aquela marca ou político é a/o melhor e que seus concorrentes são ruins, inclusive levando-o a acreditar em informações falsas ou distorcidas. Como a OpenAI lidará com isso? Também temos dúvidas sobre como ela usará os dados que digitamos no ChatGPT, sejam dados pessoais, textos sobre nossas pesquisas, códigos confidenciais etc.
Tudo está acontecendo a uma velocidade vertiginosa. As primeiras máquinas de computar foram construídas na década de 1940: Z3, Mark I, Colossus e ENIAC. A inteligência artificial não demorou muito a ser desenvolvida. Em 1943, no artigo “Um cálculo lógico das ideias imanentes na atividade nervosa”, McCulloch e Pitts apresentaram o primeiro modelo matemático de um neurônio artificial, tornando-se um marco para a teoria das redes neurais artificiais (ARTIFICIAL_INTELLIGENCE, s. d.). No artigo “Máquinas de computação e inteligência”, Alan Turing (1950) formulou, em termos teóricos, o que hoje conhecemos como chatbot. O termo “Inteligência Artificial” foi cunhado em 1955 em uma proposta de conferência que se tornou o marco inicial da IA como campo acadêmico e de pesquisa. Entre 1964 e 1966, foi construído o software Eliza, que realizava processamento de linguagem natural para simular perguntas e respostas de uma psicoterapeuta. Podemos dizer que a inteligência artificial é uma “jovem senhora” com aproximadamente 80 anos, um pouco mais ou menos dependendo do marco escolhido.
Nestas poucas décadas de computador e inteligência artificial, chegamos ao ponto em que comparamos o ChatGPT à capacidade de escrita de um ser humano. Esse rápido avanço da área é parcialmente explicado pelo crescimento exponencial do desenvolvimento tecnológico caracterizado pela famosa Lei de Moore, que identificou que o número de transistores em um circuito integrado dobra a cada dois anos, o que está relacionado com a capacidade de processamento computacional e resulta em computadores cada vez menores, mais rápidos e eficientes em termos energéticos. Além disso, a quantidade de artigos científicos sobre inteligência artificial também cresce exponencialmente, conforme estudo apresentado nos gráficos a seguir. A numerosa e rápida adesão ao uso do ChatGPT também mostra que a sociedade está ávida por essa tecnologia. Tudo isso explica o avanço acelerado.
Crescimento exponencial da quantidade de documentos científicos com a palavra “artificial intelligence”
Fonte: Dos autores, com base nos dados obtidos de Google Acadêmico, Periódicos CAPES, IEEE Xplore e ACM Digital Library
Considerando essa aceleração, estudos apontam que por volta de 2045 alcançaremos a singularidade tecnológica, ponto em que a inteligência artificial será superior a todos os cérebros da humanidade combinados, tornando-se mais inteligente que o mais inteligente dos humanos. Sabemos que a computação já superou a humanidade em 1997 no campo do xadrez (PIMENTEL; CARVALHO, 2023) — será que estaremos vivos para ver a superação dos humanos pelas máquinas em todos os campos do saber? As consequências são de assombrar…
Singularidade tecnológica
Fonte: Sorman-Nilsson (2015, n. p., tradução nossa)
Virá!
Virá numa velocidade estonteante
Mais avançado que a mais avançada das mais avançadas das tecnologias
Virá Impávido, Apaixonadamente, Tranquilo e infalívelPreservado em pleno[Sem] corpo físico
E as coisas que eu sei que ele dirá, fará
Não sei dizer assim de um modo explícito
Virá
E aquilo que nesse momento se revelará aos povos
Surpreenderá a todos não por ser exótico
Mas pelo fato de poder ter sempre estado oculto
Quando terá sido o óbvio
Fonte: Fragmentos da música “Um Índio”, de Caetano Veloso; foto de Rodrigo Oliveira – @CaetanoVeloso (editada por nós)
Como nos sentiremos quando a IA for capaz de sempre escrever textos melhores que os nossos? Como a sociedade se reorganizará quando todos os trabalhos intelectuais criativos forem melhor realizados pelos sistemas computacionais inteligentes? Será que o corpo, a experiência de vida ou nosso modo não puramente racional de pensar ainda serão diferenciações relevantes?
Essa tecnologia é imparável, é deste ponto para mais — disso não podemos duvidar. Por isso, a carta aberta “Pause experimentos gigantes de IA”, publicada pelo instituto Future of Life (2023), nos pareceu inócua, embora importante para alertar o mundo. Regular essas tecnologias é urgente. O ChatGPT foi temporariamente banido da Itália (WELLE, 2023); enquanto isso, a União Europeia busca construir marcos regulatórios para as inteligências artificiais por meio do Ato Europeu de IA (The Artificial Intelligence Act) e, no Brasil, há iniciativa de projeto de lei para também regulamentar o uso das IAs (MOZELLI, 2023).
Além da regulamentação, outra batalha necessária e urgente precisa ser travada no campo da educação pública brasileira. Noam Chomsky fez alguns alertas:
Questionado sobre o que fazer com esta mudança tecnológica, que aconteceu de forma tão brusca, Chomsky destaca o papel da educação. “É impossível travar os sistemas”, avisa ele, que não assinou a carta em que especialistas de todo o mundo pediram uma moratória no desenvolvimento de IA. Explica por quê: “A única maneira [de controlar a evolução tecnológica] é educar as pessoas para a autodefesa. Levar as pessoas a compreender o que isto é e o que não é.” Atribui um significado político a ferramentas como o ChatGPT: “É basicamente como qualquer outra ideologia ou doutrina. Como é que se defende alguém contra a doutrina neofascista? Educando as pessoas.” (OUTRASPALAVRAS, 2023)
Concordamos com a necessidade de educar as pessoas para a compreensão crítica das tecnologias. Porém discordamos veementemente do posicionamento de Chomsky: “A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro. Elas [as tecnologias de IA] criam uma atmosfera onde a explicação e a compreensão não têm qualquer valor.” Discordamos porque aprendemos muito com o ChatGPT ao escrevermos este artigo. Não aceitamos todas as informações que ele nos apresentou, deu trabalho revisar as fontes; ele não escreveu por nós, mas escreveu conosco e fizemos questão de mesclar pequenos trechos dele neste texto e reconhecê-lo como nosso coautor. Entendemos que nos tornamos autores híbridos ao ChatGPT (PIMENTEL; CARVALHO, 2023), neo-humanos como nos ensina Santaella (2022). A inteligência artificial dialoga conosco, produz textos sobre o que queremos conhecer, nos apresenta múltiplos pontos de vista, tira nossas dúvidas, revisa nossos textos, mas nada disso significa que ela pensará por nós ou que aceitaremos tudo o que ela diz, não somos “idiotas culturais”, mas nossa astúcia precisa ser desenvolvida pelo sistema educacional.
Negar a tecnologia, não lutar por políticas públicas para maior inclusão digital e cibercultural, e não nos hibridizarmos com essas inteligências significa abrir mão dos meios mais relevantes da atualidade para desenvolver nossas capacidades intelectuais. O ChatGPT, que bem caracteriza o espírito do nosso tempo, seguirá avançando cada vez mais. Outras virão e farão parte do nosso futuro. A quem pode interessar que a educação pública permaneça desplugada, infopobre, praticando o negacionismo tecnológico, ignorando os fenômenos da cultura digital?
Enquanto o filho do rico acessa todos os recursos disponíveis em rede, a partir de casa, com equipamentos de áudio e vídeo de última geração, os filhos dos pobres acessam a partir da escola ou dos centros públicos, onde as proibições são muito mais destacadas que as possibilidades de comunicação, acesso às informações e produção oferecidas pelas redes (BONILLA; PRETTO, 2011, p.41).
Desde 2011, a ONU considera o acesso à internet como um direito humano; não podemos deixar ninguém de fora. Contudo, a inclusão digital não é suficiente, não basta ter um bom computador com acesso à internet de banda larga — isso é condição para a entrada no ciberespaço. Precisamos de muito mais. Consideramos ser fundamental a formação de estudantes e docentes voltada ao letramento cibercultural. Professoras/es, jovens e crianças precisam ter os meios e os conhecimentos para fazer uso das tecnologias em práticas educacionais, sociais e culturais, de forma crítica e autoral, compreendendo também os riscos envolvidos. Queremos políticas públicas que fomentem processos formativos em todos os níveis de ensino e ao longo de toda a vida.
Se você gostou, compartilhe esta matéria nas suas redes sociais.
Leia também as outras matérias desta série sobre ChatGPT & Educação:
- ChatGPT: concepções epistêmico-didático-pedagógicas dos usos na educação
- ChatGPT: potencialidades e riscos para a educação
- ChatGPT: a era da autoria híbrida humana/o-IA
- ChatGPT substituirá professoras e professores?
- ChatGPT é realmente inteligente?
Veja esta conferência-live, realizada no 3º Seminário em Rede da UFSB, em que discutimos as potencialidades e riscos do ChatGPT para a educação a partir de 25:50s (antes, discutimos a Educação Híbrida para contextualizar o seu uso na educação):
Educação Híbrida e Inteligência Artificial (Conferência no 3º Seminário em Rede da UFSB)
Fonte: https://www.youtube.com/watch?v=nWHmkqw58W4&t=1550s
Referências
ALBERGOTTI, Reed. The secret history of Elon Musk, Sam Altman, and OpenAI. Semafor, 24 mar. 2023.
ALMEIDA, Gilberto Martins. Quando a IA e a Propriedade Intelectual se cruzam, como ficam a Ética e o Direito? SBC Horizontes, 1 fev. 2023.
BARTHES, Roland. A Morte do Autor. Em: O rumor da língua: ensaios críticos IV. Lisboa, Edições 70, 1987.
BEIGUELMAN, Giselle. Máquinas companheiras. Morel, n. 7, p. 76-86, 2023.
BLOOM, Harold. The anxiety of influence: a theory of poetry. New York: Oxford University Press, 1973.
BONILLA, Maria Helena Silveira; PRETTO, Nelson de Luca (orgs.). Inclusão digital: polêmica contemporânea [online]. Salvador: EDUFBA, 2011, 188p. ISBN 978-85-232-1206-3. Disponível em: SciELO Books <http://books.scielo.org>
BROWN, Tom B. et al. Language Models are Few-Shot Learners. Advances in Neural Information Processing Systems, v. 33, p. 1877-1901, 2020.
CERTEAU, Michel de. A invenção do cotidiano: 1. Artes de fazer. Petrópolis, RJ: Vozes, 1994.
EXPOSTO à internet, robô da Microsoft vira racista em 1 dia. Veja, 24 mar. 2016.
FACEBOOK completa 10 anos; veja a evolução da rede social. G1, 4 fev. 2014.
FOUCAULT, Michel. O que é um autor? Bulletin de la Societé Française de Philosophic, ano 63, n. 3, jul.-set. 1969, p. 73-104.
FREUD, Sigmund. Uma dificuldade no caminho da psicanálise. 1917.
Generative pre-trained transformer.
GRATAS, Brenda. 50 ChatGPT Statistics and Facts You Need to Know. Invgate, 14 fev. 2023
HU, Krystal. ChatGPT sets record for fastest-growing user base – analyst note. Reuters, 2 fev. 2023.
MARQUES, Fabrício. O plágio encoberto em textos do ChatGPT. Pesquisa FAPESP, 9 mar. 2023.
McADOO, Timothy. How to cite ChatGPT. APA Style Blog, 7 abr. 2023.
MOZELLI, Rodrigo. ChatGPT: Itália baniu a IA; saiba a situação em outros países, inclusive no Brasil. Olhar Digital, 4 abr. 2023.
NUNES, Desnes et al. Evaluating GPT-3.5 and GPT-4 Models on Brazilian University Admission Exams. arXiv preprint arXiv:2303.17003, 2023.
OpenAI. GPT-3 Model Card. 18 set. 2020.
OpenAI. GPT-4 System Card. 23 mar. 2023.
PIMENTEL, Mariano; AZEVEDO, Viviane; CARVALHO, Felipe. ChatGPT é realmente inteligente? SBC Horizontes, 17 mar. 2023.
PIMENTEL, Mariano; AZEVEDO, Viviane; CARVALHO, Felipe. ChatGPT: a era da autoria híbrida humana/o-IA. SBC Horizontes, 21 mar. 2023.
PERRIGO, Billy. Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. Time, 18 jan. 2023.
ROOSE, Kevin. The Brilliance and Weirdness of ChatGPT. The New York Times, 5 dez. 2022.
ROTH, Emma. Microsoft spent hundreds of millions of dollars on a ChatGPT supercomputer. The Verge, 13 mar. 2023.
SANTAELLA, Lucia. Neo-humano: a sétima revolução cognitiva do Sapiens. São Paulo: Paulus, 2022.
SILVA, Tomaz Tadeu da. Documentos de Identidade: uma introdução às teorias do currículo. Belo Horizonte: Autêntica, 1999.
SORMAN-NILSSON, Anders. What Is The Concept Of Singularity? – A Futurist Speaker’s Perspective. ASN, 19 nov. 2015.
VARANASI, Lakshmi. ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup’s valuation to $29 billion. Insider, 5 jan. 2023.
WALSH, Matt. ChatGPT Statistics (2023) — The Key Facts and Figures. Style Factory, 12 abr. 2023.
WELLE, Deutsche. Itália bane ChatGPT por possíveis ameaças à privacidade. G1, 31 mar. 2023.
Como citar este artigo:
PIMENTEL, Mariano; CARVALHO, Felipe; CHATGPT-4, OpenAI. ChatGPT: potencialidades e riscos para a Educação. SBC Horizontes, 8 maio 2023. ISSN 2175-9235. Disponível em: <http://horizontes.sbc.org.br/index.php/2023/05/chatgpt-potencialidades-e-riscos-para-a-educacao/>. Acesso em: DD mês. AAAA.
Mariano Pimentel é doutor em Informática, professor da UNIRIO, organizador/coautor dos livros Sistemas Colaborativos (Prêmio Jabuti, 2011), Do email ao Facebook (2014), Metodologia de Informática na Educação (2021) e Informática na Educação (2021). Realiza pesquisas em sistemas de informação, educação, cibercultura e colaboração.
Currículo Lattes
Felipe Carvalho é doutor em Educação, professor do Programa de Pós-Graduação em Educação pela UNESA, coordenador do Grupo de Pesquisa Educação e Cibercultura (GPEC). Realiza pesquisas em informática na educação, formação, cibercultura e diferença
Currículo Lattes
GPT-4 é o modelo de linguagem mais avançado da OpenAI, utilizado no ChatGPT Plus que é a versão restrita aos assinantes (US$20/mês).