>

ChatGPT é realmente inteligente?

ChatGPT é realmente inteligente?

Autores:  Mariano PimentelViviane AzevedoFelipe Carvalho (17/03/2023)
Revisão: Alvanisio Damasceno
Ilustração da capa: Mariano Pimentel, DALL-E e ChatGPT

   

A pergunta que intitula esta postagem — “ChatGPT é realmente inteligente?” — nos foi feita por um professor universitário. Para nós, que somos da Computação, a resposta é óbvia: o consideramos inteligente porque é um robô de conversação (chatbot), porque baseia-se em um algoritmo de Inteligência Artificial (IA). Mas, para aquele professor que não é da nossa área, não importa o algoritmo por trás do sistema computacional, o que ele realmente quer saber é se o ChatGPT pensa como nós, seres humanos, se é inteligente de fato, se entende o que está escrevendo, se tem consciência. A partir desse questionamento, decidimos escrever este texto para aquele professor e outros/as que estejam com as mesmas dúvidas. Queremos discutir as características, potencialidades e limitações do ChatGPT para que assim possamos (re)pensar a Educação na era da Inteligência Artificial Criativa.

Perguntamos ao ChatGPT: O que você é?

Eu sou uma inteligência artificial, especificamente um modelo de linguagem de grande escala, treinada pela OpenAI, projetada para processar e compreender a linguagem natural. Meu objetivo é ajudar a fornecer informações e assistência em tarefas que me forem solicitadas, usando meus conhecimentos e habilidades de processamento de linguagem natural para entender e responder a perguntas de maneira coerente e precisa (CHATGPT, 13/3/2023).

Em seguida, quisemos saber a resposta que ele próprio daria ao questionamento desta postagem: Você é inteligente?

Como uma inteligência artificial, eu sou capaz de processar e compreender a linguagem natural, além de fornecer respostas baseadas em meus conhecimentos e na análise de grandes volumes de dados. Embora eu não tenha consciência ou inteligência próprias, fui treinado com algoritmos de aprendizado de máquina que me permitem aprender com grandes quantidades de dados e melhorar minha capacidade de compreender e responder às perguntas. Em outras palavras, minha inteligência é limitada aos conhecimentos e habilidades que foram programados em mim e às informações [a] que tenho acesso (CHATGPT, 13/3/2023).

Dizemos que o ChatGPT é “inteligente” porque ele tem a capacidade de produzir textos e resolver problemas como nós, seres humanos. Para algumas pessoas leigas em IA, a máquina precisaria ser melhor que nós, caso contrário não deveria ser considerada “inteligente”. Contudo, na Computação, não é esse o critério adotado; denominamos inteligente qualquer sistema computacional capaz de realizar atividades intelectuais de modo semelhante ao de um/a humano/a, sem exigir que ele consiga acertar sempre, conhecer tudo ou resolver qualquer problema — nós também não conseguimos.

Na reportagem do Fantástico apresentada em 12/3/2023 (“Inteligência artificial pode ter sentimentos? Veja o que a ciência diz sobre robô do ChatGPT que fez declaração de amor para humano”), achamos engraçado dizerem que o ChatGPT “alucina” quando apresenta informações absurdas, incorretas, fake news. Empregaram essa palavra porque a reportagem estava analisando esse sistema do ponto de vista psiquiátrico, comparando-o aos seres humanos. Essa aproximação/semelhança/metáfora entre o algoritmo e nós nos leva a empregar termos como “inteligência”, “consciência”, “sentimento” e “alucinação”, que são conceitos que caracterizam a nossa espécie humana e outros animais, mas não as máquinas.

Essa sensação que a gente tem, que é inevitável — quem conversa tem a sensação de que existe uma pessoa que está por trás, que está pensando, que está raciocinando — isso fala sobre a gente, sobre a nossa mente, o nosso cérebro: você dá características humanas a coisas que não são humanas [projeção antropomórfica]. Isso é um funcionamento da nossa mente. (Daniel Martins de Barros, na reportagem do Fantástico sobre o ChatGPT em 12/3/2023, 2:21 – 2:43).

A comparação/analogia entre computadores e humanos é feita há muitos anos. “As máquinas podem pensar?” — essa é a questão que abre o artigo “Máquinas de computação e inteligência”, de Alan Turing (1950). Reconhecendo que as máquinas “pensam”, ou melhor, computam de modo diferente de nós, Turing propôs abordar essa questão de outro modo: se os computadores conseguirem imitar o comportamento humano em uma conversação, de tal modo que não conseguiremos ter certeza se estamos conversando com uma pessoa ou com uma máquina, então poderemos afirmar que a máquina é inteligente por apresentar uma capacidade intelectual compatível com a nossa, que nos consideramos da espécie sapiens. Essa discussão também foi retratada no filme O jogo da imitação (TYLDUM, 2014), disponível na Netflix e no YouTube (para algumas curiosidades sobre o filme, ver a postagem “Alan Turing e a Enigma” [MOCHETTI, 2016]). No filme, durante o interrogatório em que Alan Turing estava sendo investigado por um suposto ato homossexual, o que era crime na Inglaterra daquela época (a maior parte do filme se passa durante a 2ª Guerra Mundial, mas o interrogatório se passa em 1951), ele explicou o “jogo da imitação”, que ficou conhecido como Teste de Turing:

Investigador: — As máquinas podem pensar?
Alan Turing: — Ah, andou lendo alguns artigos meus, não é?
— Por que acha isso?
— Bom, porque estou sentado em uma delegacia acusado de pagar um jovem para tocar no meu pênis, e você vem me perguntar se máquinas podem pensar?
— E aí, elas podem? As máquinas podem vir a pensar como seres humanos?
— A maioria das pessoas diz que não.
— O senhor não é a maioria.
—O problema é que está fazendo uma pergunta idiota.
— Estou?
— É claro que as máquinas não podem pensar como as pessoas. Uma máquina é diferente de uma pessoa. Bom, elas pensam diferente. A pergunta interessante é: só porque algo pensa diferente de você, isso significa que ela não está pensando? Nós aceitamos que os humanos tenham tantas divergências entre si: você gosta de morangos e eu detesto patinar, você chora em filmes tristes e eu sou alérgico a pólen. Qual é a vantagem de tantas diferenças, tantas preferências, a não ser dizer que nosso cérebro funciona diferentemente, que pensamos diferentemente? Se podemos dizer isso de nós mesmos, por que não podemos dizer o mesmo para cérebros feitos de cobre e aço?
— E foi esse o artigo que escreveu? Qual o nome dele?
— Se chama “O jogo da imitação”.
— Certo… e é esse o assunto dele?
— Gostaria de jogar?
— Jogar?
— Um jogo. Um teste cego para determinar se algo é uma máquina ou um ser humano.
— E como eu jogo?
— Bom, tem um juiz e um suspeito. O juiz faz perguntas ao suspeito, dependendo das respostas do suspeito, o juiz determina com quem ele está falando, com o que ele está falando. Tudo o que precisa fazer é uma pergunta.

Fonte: O jogo da imitação (TYLDUM, 2014, 01:06:43 – 01:09:18)

O Teste de Turing é um marco importante na busca por sistemas de inteligência artificial que possam imitar o comportamento humano. O ChatGPT é um modelo de linguagem de inteligência artificial avançado que foi treinado em grandes volumes de dados para gerar respostas humanas a perguntas e outras tarefas linguísticas. Embora o ChatGPT possa ser capaz de enganar algumas pessoas em um teste de Turing, há limitações para o seu conhecimento e compreensão do mundo que podem levar a respostas imprecisas ou inadequadas. Portanto, ainda há muito trabalho a ser feito no desenvolvimento de sistemas de inteligência artificial que possam replicar completamente a inteligência humana. No entanto, o ChatGPT representa um avanço significativo na busca por sistemas de IA capazes de gerar respostas linguísticas que se assemelham às de um ser humano e pode ser visto como um passo importante em direção a esse objetivo.

Você descobriu que o parágrafo anterior foi escrito pelo ChatGPT em vez de nós, autora e autores humanos desta postagem? Se passou batido, então o ChatGPT passou no Teste de Turing, pois aquele texto foi produzido por ele quando pedimos: “Escreva um parágrafo discutindo se o ChatGPT passaria no Teste de Turing.” Para você não se sentir mais enganada/o, não faremos outras pegadinhas, estamos lhe garantindo que os demais parágrafos deste texto foram todos escritos por nós, autora/es humana/os. Mas agora você já não tem certeza se as outras partes do texto foram realmente escritas por nós ou pelo ChatGPT? Pois é… ele imita bem, apresenta uma escrita razoavelmente elaborada, com qualidade talvez acima da média de nossas/os estudantes, com um texto bem estruturado em introdução, desenvolvimento dos argumentos e conclusão, como geralmente cobramos nas redações e nos textos acadêmicos. E produz textos originais a uma velocidade incrível, em poucos segundos produz a resenha de um livro, monta uma redação sobre os aspectos positivos e negativos relacionados a um tema, elabora a revisão da literatura de uma área etc.

Por vezes tememos perder nossa humanidade quando os computadores se tornam capazes de fazer coisas que supúnhamos que somente nós pudéssemos fazer. Um marco de nossa derrota enquanto “espécie mais inteligente do planeta”, como nos supúnhamos, foi no século anterior, em 1997, quando um computador venceu o campeão mundial de xadrez Garry Kasparov. Na década anterior, em 1985, Kasparov havia jogado contra 32 computadores simultaneamente e ganhado todas as partidas (KASPAROV, 2010). O que o fez perder 12 anos depois é o fato de ele ter enfrentado um computador e uma inteligência artificial muito mais potentes, o Deep Blue, “um supercomputador e um software criados pela IBM especialmente para jogar xadrez; com 256 coprocessadores capazes de analisar aproximadamente 200 milhões de posições por segundo” (DEEP BLUE, s.d.). Aquela inteligência artificial consultava uma base de dados com mais de 700 mil partidas dos melhores jogadores de xadrez, analisava matematicamente as consequências de várias jogadas para calcular quais teriam maior probabilidade de ganhar ou perder. Quanto maior a base de dados, mais exemplos o computador tem sobre como agir bem em determinadas situações; quanto mais capacidade de processamento, mais movimentos podem ser analisados por segundo. O computador venceu o maior jogador de xadrez porque tinha muitos dados para consultar, muita capacidade para processar os dados e um algoritmo inteligente para tomar uma boa decisão dentro do limite de tempo estabelecido para cada jogada. O documentário The man vs the machine (MARSHALL, 2014), da ESPN, conta uma versão dessa história:

The man vs. the machine

O xadrez, por milhares de anos, tem sido algo que nós costumávamos usar para medir a inteligência; e se um computador pudesse derrotar um humano que realmente sabe o que está fazendo no tabuleiro de xadrez, então você sabe que estamos falando de 2001: uma odisseia no espaço — os computadores podem fazer qualquer coisa!
Fonte: The man vs. the machine (MARSHALL, 2014, 1:00-1:20)

Saber jogar xadrez é uma habilidade usada como um exemplo dado por Turing (1950) para investigar se o respondente é uma máquina ou um ser humano. O computador vencer o campeão mundial de xadrez tornou-se um marco da inteligência artificial porque deixou evidente que os computadores poderiam ser programados para fazer muito bem uma atividade humana, até melhor que o melhor de nós. Sabemos que os computadores são bons em realizar atividades repetitivas, pois nunca se cansam nem se aborrecem. Sabemos que resolvem perfeitamente bem os problemas técnicos, resolvíveis seguindo um conjunto de passos bem determinados, por mais complexo que possa ser cada passo. Acabamos nos acostumando com algoritmos capazes de reconhecer texto escrito à mão, transcrever a fala, traduzir um texto, recomendar referências, reconhecer a face e marcar automaticamente nossas/os amigas/os em uma foto, entre tantas outras atividades úteis que permeiam a nossa rotina sem nos causar mais espanto. Contudo, muitas pessoas ainda achavam que o computador jamais seria capaz de escrever uma poesia, fazer uma pintura ou compor uma música — para cada uma dessas atividades já temos sistemas como o ChatGPT (textos), DALL-E e MidJourney (imagens), AIVA (música), entre outros. A criatividade não é mais uma exclusividade dos seres humanos.

As técnicas de inteligência artificial avançaram muito na última década (SANTAELLA, 2019), mas não o suficiente para desenvolver uma consciência computacional. Mas pode parecer que sim, a tal ponto de enganar algumas pessoas — por exemplo, o ChatGPT fala de si como se reconhecesse a própria existência e os conhecimentos que tem: “eu sou uma inteligência artificial”, “meus conhecimentos e habilidades”, “minha inteligência”, “meu objetivo é”, como apareceu nas respostas dele que estão registradas no início deste texto. Muitos filmes e literatura de ficção científica já discutiram um futuro possível em que os computadores passariam a ter consciência. No filme Ex­_machina: instinto artificial (GARLAND, 2015), um programador de computadores é convidado a fazer uma avaliação inspirada no Teste de Turing, mas mais avançado: sabendo que você está conversando com uma máquina, conseguirá definir se ela tem ou não consciência?

Ex_Machina

O desafio é mostrar-lhe que ela é um robô e saber se, ainda assim, você acha que ela tem consciência.
Fonte: Ex_Machina: instinto artificial (GARLAND, 2015)
Disponível na Prime Video e YouTube

Não, o ChatGPT não tem consciência, não entende realmente o significado dos textos que ele mesmo produz, não tem intencionalidade, ideologia ou desejo próprios. Embora seus textos não sejam neutros, ele não tem um real comprometimento com as posições éticas e políticas que aparecem em seus escritos, pois não tem a mesma capacidade humana de refletir/racionalizar sobre as coisas, as ideias e a si próprio. O que o ChatGPT faz é uma imitação de outros textos humanos, desses zilhões de textos que publicamos a cada segundo no ciberespaço, de mensagens nas redes sociais a livros e artigos online. Em outras palavras: ele pratica o plágio descaradamente.

Pesquisadores da Universidade do Estado da Pensilvânia (Penn State), nos Estados Unidos, investigaram até que ponto modelos de linguagem natural como o ChatGPT, que usam inteligência artificial para formular uma prosa realista e articulada em resposta a perguntas de usuários, conseguem gerar conteúdo que não se caracterize como plágio. Isso porque esses sistemas processam, memorizam e reproduzem informações preexistentes, baseadas em gigantescos volumes de dados disponíveis na internet, tais como livros, artigos científicos, páginas da Wikipédia e notícias.

O grupo analisou 210 mil textos gerados pelo programa GPT-2, da startup OpenAI, criadora do ChatGPT, em busca de indícios de três diferentes tipos de plágio: a transcrição literal, obtida copiando e colando trechos; a paráfrase, que troca palavras por sinônimos a fim de obter resultados ligeiramente diferentes; e o uso de uma ideia elaborada por outra pessoa sem mencionar sua autoria, mesmo que formulada de maneira diferente.

A conclusão do estudo foi de que todos os três tipos de cópia estão presentes (MARQUES, 2023).

O conhecimento verdadeiro, o conhecimento sobre o conhecimento, o conhecimento de segunda ordem, o conhecimento epistêmico — já era uma questão debatida pelos filósofos da Grécia antiga. O personagem Sócrates-platônico, no livro V da República (PLATÃO, 1996), escrito na década de 370 a.C., já desenvolveu uma teoria de conhecimento diferenciando opinião (δόξσ) e ciência (επιστήμη), sendo que a primeira se refere às aparências, obtida pelo exercício da visão, e a ciência se refere a um conhecimento sobre as ideias, obtido pelo exercício da razão; trata-se de uma distinção ontológica entre o sensível e o inteligível (LAFRANCE, 2011). Ao longo da história, consolidou-se a Epistemologia, área da filosofia que se dedica ao estudo da natureza, origem, limites e validade do conhecimento humano. Isso que chamamos de conhecimento verdadeiro, um entendimento/ciência do mundo, os algoritmos de inteligência artificial ainda não têm — é por isso que às vezes produzem informações equivocadas. Convenhamos, nem opinião o ChatGPT tem. Ele não tem gostos, não tem sentimentos. Mas ele conhece muitos textos e faz manipulação da língua-linguagem, processa os textos humanos para produzir respostas ao que perguntamos a ele, é o que denominamos de processamento de linguagem natural (PLN). Já a sigla GPT, que compõe o nome do chatbot, refere-se ao seu algoritmo Transformador Pré-treinado Generativo (traduzido do inglês Generative Pre-trained Transformer):

ChatGPT é um robô de conversação desenvolvido pela empresa OpenAI que usa um modelo de geração de linguagem natural baseado em modelos pré-treinados que vão se ajustando usando a técnica de aprendizado não supervisionado, isto é, acha padrões de relações e conceitos nos textos disponíveis na grande base de textos não previamente classificados da Web para gerar respostas às perguntas feitas. Apesar de não gerar perguntas (essencial em um diálogo), a qualidade das respostas geradas pelo ChatGPT é impressionante (BICARRA; SALGADO; PINTO, 2023, n.p.).

Uma vez que o algoritmo do ChatGPT se baseia nos textos humanos utilizados como fonte de consulta, o algoritmo escreve novos textos com alta probabilidade de nos parecerem coerentes. Mas não confunda inteligência computacional/artificial com consciência, por mais surpreendente que seja a capacidade desse chatbot.

Até este momento, o ChatGPT não parece ser capaz de imitar um autor específico, mas ele pode ser treinado para identificar e imitar a estilística de um/a autor/a, reconhecendo suas estratégias discursivas, os temas que mais discute, suas preocupações, sua base teórica, suas/seus autoras/es preferidas/os etc. Seria interessante termos um bom chatbot que nos fizesse acreditar que estamos realmente conversando com Paulo Freire, Anísio Teixeira, Maria Montessori, Jean Piaget, John Dewey… Pronto, já estamos aqui querendo mais e mais dos chatbots! Eles seguirão sendo aperfeiçoados: a versão ChatGPT4, anunciada em 14/3/2023, tem por objetivo evitar a criação de conteúdos relacionados a temas sensíveis e estimular ainda mais a criatividade na elaboração das respostas (SANTANA, 2023). Esse tipo de sistema também pode aprender autonomamente com o passar do tempo, seja considerando o feedback que podemos dar sobre suas respostas durante as interações que ele estabelece conosco, seja processando mais textos — ele foi treinado com informações coletadas da internet em 2021 e, na página de abertura desse sistema, somos avisados: “conhecimento limitado de mundo e eventos após 2021”.

Muitas pessoas estão surpresas com a competência linguística do ChatGPT, e tudo seguirá sendo aperfeiçoado. As técnicas de inteligência artificial estão evoluindo e possibilitando os computadores produzirem coisas cada vez mais impressionantes. Os computadores, por sua vez, estão se tornando cada vez mais potentes, capazes de processar mais informações por segundo. A capacidade computacional de processar informações avança exponencialmente, dobra a cada dois anos de acordo com a Lei de Moore. Por exemplo, quando o primeiro autor desta postagem ingressou na universidade em 1993, comprou um computador pessoal com o processador Intel 386, que tinha a velocidade de 33MHz, o que significa uma velocidade de 33 milhões de ciclos de relógio por segundo (essa medida está relacionada com a capacidade de processar informações). Hoje, três décadas depois, esse mesmo autor digita este texto em um laptop com processador Intel i7 com velocidade de 2,1 GHz, que tem velocidade de 2,1 bilhões de ciclos de relógio por segundo. Nesses 30 anos, a velocidade do computador pessoal tornou-se 64 vezes maior. Bem… pela Lei de Moore, esperávamos um aumento de 215 vezes, ou seja, 32.768 vezes superior, e não de apenas 64 vezes superior… será que a Lei de Moore ainda é válida? Perguntamos isso para o ChatGPT, que fez boas ponderações, mas ainda ficamos com algumas dúvidas e precisaríamos consultar especialistas em arquitetura de computadores para discutir melhor a diferença que encontramos entre o previsto pelo modelo teórico e os dados da realidade que obtivemos de nosso contexto. Esse caso exemplifica que professores ainda são necessários, pois mesmo com as explicações do ChatGPT, nós, autora e autores, ficamos com dúvidas para analisar e discutir a nossa realidade.

Com esse caso queremos ilustrar o que concluímos até o presente momento sobre o uso do ChatGPT na educação. Temos o utilizado como a um oráculo, cujas respostas não são totalmente cofiáveis e por isso ainda precisamos conferir algumas informações consultando o Google Acadêmico e o mecanismo de busca do Google — portanto, o ChatGPT não será a única, mas sim mais uma entre outras tecnologias úteis para apoiar o processo de aprendizagem de estudante e também para nos apoiar enquanto professoras/es-pesquisadoras/es-autoras/es. Embora tenhamos utilizado o ChatGPT para nos apoiar a escrever algumas partes deste texto, a concepção, a intenção, a curadoria de conteúdos, os exemplos, as histórias de vida e formação que foram aqui tecidas partiram de nós, autora/es. Embora já tenhamos adotado o ChatGPT para nos ajudar a revisar o texto que escrevemos (como nos ensinou Igor Couto [2023]), ainda consideramos importante passá-lo por um revisor/a humano/a profissional em letras.

O ChatGPT nos provoca a repensar a educação. Ele precisa ser entendido como mais uma tecnologia para apoiar o processo de aprendizagem-ensino, não deve ser visto como um substituto do/a professor/a, embora infelizmente isso também esteja ocorrendo como já discutimos na postagem anterior (“ChatGPT substituirá professoras e professores?” [PIMENTEL; AZEVEDO; CARVALHO, 2023]). É certo que precisamos repensar muitos dos trabalhos escolares e universitários que temos passado, pois as/os alunas/os já estão usando o ChatGPT em suas práticas cotidianas escolares e universitárias. Dada a sua capacidade em produzir textos e resolver problemas, será que finalmente chegou a hora de a educação superar a ênfase nas práticas instrucionistas, de memorização de conteúdos e aplicação de fórmulas para resolver problemas descontextualizados, o que há mais de meio século Paulo Freire (1970) já denunciava como “Educação Bancária”?

 


Se você gostou, compartilhe esta matéria nas suas redes sociais.

Leia também as outras matérias desta série sobre ChatGPT & Educação:

Veja esta live, realizada para a Sociedade Brasileira de Computação, em que discutimos o ChatGPT e seus usos na educação:

https://www.youtube.com/watch?v=tqGQfFb0OhA

 


Referências

COUTO, Igor. Você acha que o ChatGPT conseguiu salvar o discurso da Dilma? TikTok, 2023.

DEEP BLUE. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation. Disponível em: <https://pt.wikipedia.org/wiki/Deep_Blue>. Acesso em: 1 mar. 2023.

FREIRE, Paulo. Pedagogia do oprimido. Rio de Janeiro: Paz e Terra, 1970.

GARLAND, Alex. Ex_Machina: instinto artificial. Reino Unido: DNA Films, 2014.

KASPAROV, Garry. The chess master and the computer. The New York Review of Books, v. 57, n. 2, p. 16-19, 2010.

LAFRANCE, Yvon. O conhecimento: ciência e opinião. In: FRONTEROTTA, F.; BRISSON, L. Platão: leituras. São Paulo: Edições Loyola, 2011. p.149-166.

LEI DE MOORE. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation. Disponível em: <https://pt.wikipedia.org/wiki/Lei_de_Moore>. Acesso em: 1 mar. 2023.

MARQUES, Fabrício. O plágio encoberto em textos do ChatGPT. Pesquisa FAPESP, 9 mar. 2023.

MARSHALL, Frank. The Man vs. The Machine. EUA: ESPN, 2014.

MOCHETTI, Karina. Alan Turing e a Enigma. SBC Horizontes, 22 nov. 2016.

PLATÃO. A República. Introdução, tradução e notas de Maria Helena da Rocha Pereira, 9ª ed. Lisboa: Fundação Calouste Gulbenkian, 1996.

SANTAELLA, Lucia (org.). Inteligência artificial e redes sociais. São Paulo: EDUC, 2019

SANTANA, Wesley. ChatGPT-4: OpenAI anuncia atualização no modelo de linguagem do aplicativo. InfoMoney, 14 mar. 2023.

TYLDUM, Morten. O jogo da imitação. EUA: Black Bear Pictures, 2014. 115 min.

  

Como citar este artigo:

PIMENTEL, Mariano; AZEVEDO, Viviane; CARVALHO, Felipe. ChatGPT é realmente inteligente? SBC Horizontes, 17 mar. 2023. ISSN 2175-9235. Disponível em: <http://horizontes.sbc.org.br/index.php/2023/03/chatgpt-e-realmente-inteligente/>. Acesso em: DD mês AAAA.

 

Mariano Pimentel

Mariano Pimentel é doutor em Informática, professor da UNIRIO, organizador/coautor dos livros Sistemas Colaborativos (Prêmio Jabuti, 2011), Do email ao Facebook (2014), Metodologia de Informática na Educação (2021) e Informática na Educação (2021). Realiza pesquisas em Sistemas de Informação, Informática na Educação e Sistemas Colaborativos.
Currículo Lattes

Viviane Azevedo

Viviane Azevedo é mestra pelo Programa de Pós-Graduação em Informática (PPGI/UNIRIO), colaboradora do Grupo de Pesquisa ComunicaTEC (UNIRIO) e Gerente dos cursos de Educação Executiva da Fundação Getulio Vargas (FGV).
Currículo Lattes, LinkedIn

Felipe Carvalho

Felipe Carvalho é doutor pelo Programa de Pós-Graduação em Educação ProPEd/UERJ, membro do Grupo de Pesquisa Docência e Cibercultura (GPDOC) e do Grupo de Estudos de Gênero e Sexualidade em Interseccionalidades na Educação e na Saúde (GENI).
Currículo Lattes

Compartilhe: