A inteligência artificial e a alma de Platão
Imagem criada pelo Copilot (prompt: criar uma imagem do filósofo Platão conversando com uma IA e contemplando uma paisagem bucólica no estilo grego, com toque futurista)
No estágio atual da inteligência artificial, podemos dizer que o desenvolvimento operacional dela
está mais acelerado do que a teoria que a sustenta. Essa assincronia, já vista anteriormente na
história humana, não é necessariamente um problema, na verdade, desvela questões filosóficas
universais, como a da alma platônica.
Quando se fala em inteligência artificial, é comum ouvir a expressão ‘espaço latente’. Em termos
simples, trata-se de um “mundo abstrato” onde a máquina armazena representações compactas e
significativas dos dados: imagens, textos, sons e vídeos. Em vez de trabalhar diretamente com
cada pixel de uma imagem ou com cada palavra de uma frase, o modelo aprende uma espécie de
“linguagem interna”, mais resumida e organizada, que permite reconhecer, gerar e transformar
informações com eficiência. Essa ideia insere-se no contexto mais amplo de aprendizado de
representações, aprendizado profundo (Bengio et al, 2016).
Durante muito tempo, fazer uma máquina reconhecer imagens parecia uma tarefa quase intransponível. Imaginava-se que seria necessário inspecionar cada pixel isoladamente e programar, à mão, todas as regras de detecção de bordas, formas e objetos. Nas abordagens de visão computacional clássica, era comum projetar manualmente descritores, como SIFT, HOG ou LBP, e depois aplicar algoritmos de classificação tradicionais (Lowe, 2004; Dalal e Triggs, 2005).
No caso do reconhecimento facial, por exemplo, a imagem de uma pessoa é capturada pela
câmera e convertida em uma grade de pixels, assim, cada posição recebe um valor numérico. Em
abordagens mais antigas, algoritmos tentavam extrair, de forma explícita, medidas como a
distância entre os olhos, o formato do nariz, o contorno do rosto e assim por diante, para associar
esse conjunto de medidas ao nome de uma pessoa específica.
Os modelos modernos de aprendizado de máquina seguem outro caminho. Eles não precisam
que o programador defina manualmente quais características procurar. Em vez disso, o modelo
aprende sozinho quais padrões são importantes, construindo uma representação interna —
justamente o tal espaço latente. Redes neurais profundas, em particular, aprenderam a extrair
automaticamente hierarquias de características a partir dos dados brutos, substituindo grande
parte da engenharia manual de atributos (LeCun et al., 2015). De forma simplificada, pode-se
dizer que, ao ser treinada com muitos exemplos, a máquina “descobre” uma maneira de codificar
imagens em vetores de números que capturam o que é relevante para a tarefa (por exemplo,
distinguir rostos diferentes).
Podemos ilustrar isso com um exemplo simples: o reconhecimento de cadeiras. Há cadeiras de plástico, de madeira, de metal, com ou sem braço, altas, baixas, clássicas, modernas. A variedade é enorme. Ainda assim, nós, humanos, reconhecemos facilmente uma cadeira como cadeira, mesmo quando vemos um modelo pela primeira vez. Não decoramos cada cadeira do mundo; reconhecemos algo como “estrutura de cadeira”.
Do ponto de vista do aprendizado de máquina, o espaço latente é justamente o lugar em que essa
“estrutura de cadeira” é codificada. Ao treinar o modelo com muitas imagens rotuladas como
“cadeira” e “não cadeira”, ele aprende a extrair, no espaço latente, um conjunto de características
que, combinadas, fazem com que o vetor correspondente a uma cadeira seja diferente do vetor
correspondente a uma mesa, um sofá ou um carro. Modelos gerativos, como autoencoders
variacionais, GANs e, mais recentemente, modelos de difusão, explicitam ainda mais essa ideia,
pois geram novas imagens a partir de pontos escolhidos no espaço latente (Kingma e Welling,
2014; Goodfellow et al., 2014; Yang et al., 2024). Não se trata de uma compreensão no sentido
humano, mas de uma organização matemática que permite distinguir padrões.
Essa discussão assemelha-se à outra na filosofia: Platão, em seu livro Menon (Platão, 2001),
afirmava que nós, seres humanos, possuímos alma e corpo. Nesse ponto, vale ressaltar que a
alma de Platão não é a mesma alma cristã. Esse conceito só viria muitos séculos depois, quando
Agostinho fez uma interpretação da filosofia platônica para o cristianismo. Segundo Platão,
existiria um mundo ideal, onde tudo era perfeito, de onde vinham as almas, e um mundo real,
imperfeito, onde vivem os homens. Agostinho fez a transposição: perfeito é o céu (lugar de Deus);
imperfeito é a terra (lugar dos homens).
Platão dizia que reconhecemos os objetos do mundo real porque temos a ideia (ou forma) perfeita desses objetos em nossas mentes, trazidas do mundo ideal pelas nossas almas. Dessa maneira, quando observamos uma cadeira, assim a reconhecemos porque ela se aproxima da ideia perfeita de cadeira que temos em nossa mente.
De certa forma, o espaço latente do aprendizado de máquina funciona numa estruturasemelhante. Se quisermos que a máquina reconheça uma cadeira, precisamos ensiná-la a entender as características essenciais de uma cadeira, assim, ela pode reconhecer qualquer modelo, mesmo que nunca tenha visto aquele modelo específico antes.
Nesse contexto platônico, podemos entender que a máquina está tentando chegar à ideia perfeita de uma cadeira? Teria o espaço latente a ideia perfeita de cadeira? De certa forma, sim. Em Platão, a Ideia (ou Forma) de cadeira não é uma cadeira concreta, mas uma estrutura abstrata que reúne o que é essencial a todas as cadeiras possíveis. No aprendizado de máquina, o espaço latente faz algo muito parecido: concentra, em uma representação matemática, o que é estável e recorrente em todas as cadeiras vistas pelo modelo, separando o que é essencial (estrutura, proporções,funcionalidade) do que é acidental (cor, estilo, decoração).
Porém, no sentido estrito, não, pois podemos argumentar que o espaço latente não contém uma Forma perfeita, eterna e imutável, como em Platão, mas sim uma organização matemática dos dados, baseada em estatística e otimização. Em sentido analógico e didático, porém, podemos dizer que a máquina constrói uma representação interna que funciona, na prática, como uma “noção abstrata” de cadeira. E isso já é, por si só, impressionante. Metaforicamente, a ação do espaço latente levanta uma questão filosófica tão profunda, que nos leva a questionar a própria natureza da realidade e do conhecimento, vem sendo explorada por meio da tecnologia de aprendizado de máquina. Sendo assim, a máquina faz o que se pretende, ou seja, reconhece esse objeto, por meio do processamento de dados, mas os humanos não entendem exatamente como ela faz isso!
Antes de nos desesperarmos, vale entender o atual estágio da tecnologia como: sabemos, na prática, como construir e treinar esses modelos para que funcionem bem em muitas tarefas (prática), mas ainda não compreendemos completamente, em termos teóricos e interpretáveis, tudo o que acontece dentro deles (teoria). Além do mais, a humanidade já passou por isso antes, no período da Revolução Industrial, com as máquinas a vapor, por exemplo.
Naquele tempo, as pessoas sabiam que as máquinas funcionavam, mas não entendiam exatamente como elas funcionavam e isso criava problemas de segurança. Num exemplo fictício, imagine que uma máquina a vapor, numa locomotiva, consiga puxar dois vagões; então, num raciocínio linear, uma máquina duas vezes maior poderia puxar quatro vagões. Os engenheiros sabiam, na prática, como construir e operar essas máquinas, mas ainda não havia uma compreensão teórica unificada de seus limites de eficiência e dos riscos associados. Então, se a máquina maior fosse construída, poderia haver um risco de explosão. Foram necessários estudos aprofundados para compreender as leis da termodinâmica e, portanto, o funcionamento das máquinas térmicas, o que permitiu a construção de máquinas a vapor mais seguras e eficientes.
Será, então, que, com o avanço da teoria da aprendizagem de máquina, poderíamos imaginar que
as máquinas consigam não apenas reconhecer objetos, mas também compreender o significado
deles? Será que a teoria da aprendizagem de máquina pode nos ajudar a compreender melhor a
proposta de Platão? É fascinante refletir sobre o futuro da inteligência artificial e sobre sua relação
com o conhecimento humano. Será que esse fato nos ajudaria a promover discussões filosóficas
tão importantes? Bem, parece-nos que a busca na inteligência artificial não deixa de ser mais uma
forma de o homem de buscar compreender a si mesmo.
Referências:
BENGIO, Y.; COURVILLE, A.; VINCENT, P. Representation learning: A review and new
perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 35, n. 8, p.
1798–1828, 2013.
DALAL, N.; TRIGGS, B. Histograms of oriented gradients for human detection. In: CVPR 2005 –
IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2005.
GOODFELLOW, I. et al. Generative adversarial nets. In: Advances in Neural Information
Processing Systems 27 (NeurIPS), 2014.
GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep Learning. MIT Press, 2016.
KINGMA, D. P.; WELLING, M. Auto-encoding variational Bayes. In: Proceedings of the 2nd
International Conference on Learning Representations (ICLR), 2014.
LECUN, Y.; BENGIO, Y.; HINTON, G. Deep learning. Nature, v. 521, p. 436–444, 2015.
LOWE, D. G. Distinctive image features from scale-invariant keypoints. International Journal of
Computer Vision, v. 60, n. 2, p. 91–110, 2004.
PLATÃO. Mênon. Texto estabelecido e anotado por John Burnet; tradução de Maura Iglésias. Rio
de Janeiro: Ed. PUC-Rio; Loyola, 2001.
YANG, L. et al. Diffusion models: A comprehensive survey of methods and applications. ACM
Computing Surveys, v. 56, n. 4, art. 105, 2024.
Autoria

Ronaldo Pereira de Melo Júnior
Sou físico e licenciado em filosofia, atualmente trabalho como professor sênior e colaborador da
Universidade Federal Rural de Pernambuco (UFRPE) no Mestrado em Ensino de Física Há mais
de uma década, atuo em Educação, Letramento e Divulgação Científica,com foco em
interdisciplinaridade, linguagem e metodologias ativas.

Tsang Ing Ren
Sou professor associado do Centro de Informática da Universidade Federal de Pernambuco
(UFPE), onde atuo também como vice-coordenador da graduação em Inteligência Artificial.
Graduado em Engenharia Eletrônica pela UFPE e doutor em Visão Computacional pelo Vision Lab
da Universitaire Instelling Antwerpen, na Bélgica. Minha pesquisa concentra-se em aprendizagem
de máquina e profunda, visão computacional, processamento de imagens, reconhecimento de
padrões e aplicações de inteligência artificial em diferentes domínios.