Inteligência Artificial, faces, emoções e transtornos mentais
(Especial Núcleo de Referência em Inteligência Artificial Ética e Confiável)
Por Carlos Teixeira, Mariza Ferro
A prevalência crescente de problemas mentais, incluindo depressão, ansiedade e transtornos relacionados, afeta negativamente as condições de saúde da população. A depressão, p.ex., talvez seja uma das importantes e mais divulgadas questões de saúde mental na sociedade atual. Uma pessoa que se encontra num quadro depressivo pode reduzir significativamente suas atividades, mostrando, por vezes, uma anedonia, uma falta de prazer junto às coisas de um modo geral, repercutindo em seus relacionamentos tanto familiares quanto sociais. Nesta situação pode, também, andar às voltas com determinados pensamentos que levam a sensação de incapacidade, de desesperança, que podem evoluir para diferentes situações, entre elas a ansiedade, a hipertensão, a diabetes e até mesmo a ideação suicida.
O avanço recente da Inteligência Artificial (IA), especialmente em aplicações de Aprendizado de Máquina (AM) para o processamento de imagem e voz, vem se dedicando a criar uma ferramenta que está sendo vista como uma oportunidade promissora para cooperar de modo substancial na avaliação, prevenção e diagnóstico que possibilite auxiliar no cuidado do complexo campo da saúde mental.
Mesmo sem a pretensão de entrarmos em detalhes de algum quadro específico de algum transtorno, gostaríamos de contribuir, através deste artigo, na discussão que se abriu na sociedade sobre a preocupação com a saúde mental. Tema este que vem a cada dia ganhando mais destaque na sociedade, não por ser novo, mas pela necessidade de se falar em público e, também, para sair daquele manto que tentava encobrir este campo ainda envolto em preconceitos da saúde e para deixar de ser tratado através de um silêncio que não ajuda a quem passa de diferentes maneiras pela questão. Atualmente, este silêncio já não cabe, principalmente dentro deste movimento de abertura que rege os novos meios de comunicação onde encontramos espaços variados para se apresentar e debater inúmeras questões.
Já começa a haver uma literatura variada e crescente na detecção de transtornos mentais com aplicações de IA e AM, apresentando resultados promissores [1]. Entre as abordagens está a detecção de emoções nos indivíduos por meio de imagens e vídeos. Após a detecção facial usando métodos de visão computacional, algoritmos de AM para o reconhecimento facial, frequentemente usando redes neurais profundas (Deep Learning – DL), são utilizados para extrair marcadores visuais a partir das expressões faciais e classificar as emoções. Neste caso, observando o rosto das pessoas e nos movimentos de olhos, nariz e boca, os algoritmos podem detectar macro e microexpressões que revelam emoções. Microexpressões são frequentemente detectadas quando pessoas tentam esconder suas emoções, e como são extremamente sutis e breves (0,03 – 0,1 segundos), podem ser difíceis de serem percebidas por humanos, mas reconhecidas com precisão pelos algoritmos de DL, desde que corretamente treinados.
Embora o momento atual ainda seja de grandes e controversas discussões, há diferentes trabalhos indicando que a aparência e a expressão facial podem carregar sinais não verbais significativos que podem ser interpretados para avaliar a possibilidade de transtornos mentais, como depressão, bipolar, ansiedade social e ideação suicida. Características faciais (testa franzida, sorriso, movimento da cabeça e sobrancelhas levantadas), do movimento dos olhos (evitar o contato visual, comportamentos de olhar para baixo, olhar fixo) e posturais (velocidade de movimento da cabeça e altura da cabeça) são indicadores comportamentais [2]. As aplicações com detecção de emoção a partir de expressões faciais em desenvolvimento incluem: apoio clínico a profissionais da psiquiatria e da psicologia, monitoramento de pacientes com depressão e ideação suicida por meio da análise de vídeos de entrevistas com pacientes ou durante atividades diárias. Em psiquiatria, para fins de diagnóstico, apoio na avaliação diária dos pacientes e na prescrição de medicamentos. Identificação de pacientes com alto risco de cometer suicidio.
Visto que a saúde mental é uma das questões de saúde pública ainda das mais intrigantes e ainda muito negligenciada, que vem através dos tempos sofrendo frequentes mudanças de rumo em seus modos de tratamentos, basta olharmos para um passado recente, para vermos que faz pouco tempo que conseguimos retirar as pessoas de celas e livrá-las das correntes. Mas ainda tanto o diagnóstico clínico quanto o tratamento destas questões têm um custo por vezes elevado e, que se mantêm cercados por um estigma social pela própria falta de conscientização e até mesmo aceitação. A IA parece ter um alto potencial para contribuir com os diferentes agentes da sociedade nos diversos estágios da saúde mental, seja na divulgação, detecção de sinais precoces, tratamentos bem como, num possível gerenciamento de risco de suicídio.
Levando-se em conta que a IA ainda tem muito espaço para desenvolvimento, isso nos leva a podermos imaginar um futuro em que ela será utilizada para monitorar a nossa saúde mental, até ao poder conjugar com o que já se está tornando hábito numa fatia da população de monitorar a saúde e atividade física, coletando dados sobre o sono, batimentos cardíacos e outros indicadores físicos. Neste sentido, vemos que os aparelhos como os smartwatches, smartphones e outros que podem vir a existir, poderão sinalizar não apenas uma alteração cardíaca ou uma queda, mas, também, uma crise emocional, fornecer os recursos necessários para diagnosticar a chegada de uma depressão ou até prevenir um suicídio. Já pensaram no que pode estar por vir e como iremos lidar com tudo isso e muito mais?
Hoje em dia, a mídia social online tornou-se o modo preferido de comunicação, que as pessoas usam para expressar seus pensamentos, desejos, fantasias, sentimentos e emoções. Cabe ressaltar que todo este conteúdo gerado pelo próprio usuário da mídia social online poderá ser aproveitado para avaliação e vigilância não clínica de saúde mental. As técnicas convencionais de aprendizado de máquina têm sido usadas para a detecção automatizada de problemas de saúde mental usando dados de mídia social há muito tempo, no entanto, boa parte utiliza abordagens de análise de texto. Mas e se as fotos também pudessem ser utilizadas para auxiliar na avaliação e vigilância não clínica de saúde mental? Afinal, estamos praticamente o tempo todo conectados às nossas telas, então nossas emoções e comportamentos podem ser usados como fonte para identificar o estado de nossa saúde mental como na série de ficção científica “Amanhã” em que um aplicativo de smartphone é usado para alertar uma equipe de prevenção ao suicidio sobre o risco de uma pessoa cometer o ato baseado no seu grau de emoções negativas. A série é totalmente fictícia, mas ela pode nos ajudar a imaginar o futuro.
Neste sentido, e se partirmos da premissa de que o ser humano é um ente que está sempre e de algum modo numa disposição afetiva e, também em algum tipo de relação, seja com ele próprio, com outros e com o seu meio por onde realiza diversos movimentos de aproximações e afastamentos, podemos dizer que todo esse movimento que faz nas redes sociais e todas as disposições que têm para se conectar a aparelhos, coloca-o como uma fonte inesgotável de informações que abastecem a IA. É neste aspecto que podemos ver a possibilidade de criação de mecanismos, cada vez mais sofisticados, que buscam aproximar os diversos movimentos realizados nos inúmeros temas que estão disponibilizados em toda a rede social. Estes mecanismos ajudam a observar como cada usuário dos diferentes sistemas está articulando-se quanto à sua atenção, liberdade, timidez, euforia, compulsão, tristeza acentuada. Dependendo do modo como os dados vão sendo tratados, como os algoritmos vão sendo desenvolvidos, resultados vão aparecendo, com seus entrecruzamentos algumas questões podem apresentar-se e despertar atenção e até exigir um cuidado diferente como a indicação de ajuda. Estes dados podem advir dos diversos meios digitais, seja pelos próprios instrumentos de buscas, pelas inserções nas pesquisas, por aproximações ou afastamentos das redes sociais, pelo tom da voz, pelo reconhecimento facial e até mesmo o tempo entre as inserções e a utilização podem ser um fator significativo neste rol.
Exemplos como estes podem se tornar realidade num futuro próximo. Porém, antes disso precisamos discutir e resolver deficiências de robustez e ética da IA no seu atual estágio, antes de trazê-las às clínicas, consultórios ou ao mercado. Neste particular, estamos inseridos num grupo que participa dessa dinâmica de divulgação, não só pela divulgação, mas com o intuito de estar lidando com a colheita e tratamento de dados, pensando e desenvolvendo produtos, não só no que diz respeito a informação, mas numa imersão que busca criar recursos para a construção de sistemas, que em sua complexidade proporcione novas ferramentas para facilitar a lida com determinados temas.
Os algoritmos de AM são facilmente afetados por vieses, como o racismo e o sexismo, e ainda é difícil garantir a robustez necessária dos sistemas de IA. Situações diversas de vieses e discriminação aos grupos minoritários ou culturas são encontradas em uma rápida pesquisa sobre o uso de algoritmos de reconhecimento facial ou manipulação de imagens. Por exemplo, a dificuldade em reconhecer rostos de pessoas negras, a classificação automática deste mesmo grupo como gorilas, aplicações que transformam fotos em caricaturas e que despiram as mulheres na versão final, e até aplicativos em câmeras fotográficas que apresentam erros em fotos automáticas de pessoas orientais de olhos puxados indicando que elas estão com os olhos fechados. Se a IA ainda enfrenta problemas de robustez e viéses com estes marcadores faciais, identificar emoções pode ser ainda mais problemático.
Outro ponto é que a análise das emoções com base nas expressões faciais pode não ser precisa, pois as expressões faciais podem variar entre os indivíduos de acordo com a sua própria personalidade. Além disso, as emoções das pessoas não são tão simples de serem classificadas, pois podem misturar diferentes estados emocionais experimentados ao mesmo tempo tais como, medo e raiva, alegria e tristeza, e não expressar, ou expressar a indiferença. Na psicopatia as emoções podem vir de formas que contradizem ou que não acompanham a ação. Por outro lado, existem emoções que podem não ser identificadas no rosto de algumas pessoas. Fatores adicionais podem aumentar a ambiguidade das expressões faciais, como questões contextuais como o sarcasmo, e contexto sociocultural. Portanto, inferências baseadas apenas na expressão facial podem levar a impressões erradas e por isso precisam ser muito aprimoradas antes de serem amplamente utilizadas.
Além disso, o problema vai além do uso para identificação de transtornos mentais. A mesma tecnologia usada para diagnosticar transtornos por meio de emoções também pode ser usada para aplicações que infringem direitos fundamentais dos cidadãos, tais como leis de defesa do consumidor e direito à privacidade. Transformar expressões humanas em uma fonte de dados para inferir emoções toca claramente no direito à privacidade das pessoas. Por exemplo, o uso da identificação e análises de emoções para análise do comportamento do cliente e posterior publicidade durante as compras com foco nos produtos ou em sua disposição na loja, sem conhecimento dos clientes. A ViaQuatro, empresa que tem a concessão da linha 4-amarela do metrô de São Paulo, foi processada pelo Instituto Brasileiro de Defesa do Consumidor por usar câmeras que liam as emoções e coletar esses dados dos passageiros para serem usadas pela companhia, sem o consentimento dos passageiros. “O sistema inteligente conseguiria identificar se o passageiro está feliz, insatisfeito, surpreso e neutro. Além disso, detectaria o gênero e a faixa etária das pessoas. Os dados capturados seriam usados para a empresa fazer a gestão de seu conteúdo institucional e até de anúncios publicitários” [3]. A captação de dados sensíveis, como biométricos, precisam de consentimento do usuário, de acordo com a LGPD. Além disso, a finalidade da coleta também deve ter propósitos legítimos e comunicados aos titulares dos dados.
A IA também levanta preocupações éticas na comunidade dos profissionais de saúde que atuam na área, principalmente no que se refere ao lugar do profissional no cuidado e à responsabilização.
A IA pode se tornar numa excelente ferramenta para o profissional auxiliando-o na avaliação, até porque o campo das ciências médicas trabalha, muitas vezes, entre parâmetros sutis, em que o diagnóstico se apresenta levando-se em conta uma gama de informações com o fim de separar uma coisa da outra, de diferenciar, de ser um diferencial que distingue uma gama de quadros que encontram-se muitos próximos uns dos outros. Este diagnóstico diferencial a que se chega, por vezes, passa a ser o resultado de diferentes meios de observação, inclusive a própria experiência que proporciona um olhar e uma ausculta própria, e, mesmo assim, algumas vezes, é obtido ou confirmado, entre os profissionais em grupos de supervisões e intervisões.
O crescimento exponencial e contínuo das mídias digitais e os consequentes tratamentos dos dados aí coletados vem promovendo uma revolução no modo de enxergar a sociedade e, assim os seres humanos, de uma forma em que não era possível a poucos anos atrás, a disposição à visibilidade por um número cada vez maior de pessoas trouxe com ela a exposição da intimidade, algo que se partilhava entre poucos, o íntimo, que tornou-se projetado para uma multidão. Do mesmo modo que abriu as portas de um novo modo de estar no mundo, com inclusive a criação de novas profissões, trouxe, também, a interrogação para as diferentes áreas do conhecimento: – como é que eu posso participar desta revolução?
No princípio as diferentes áreas da Ciência resolveram fazer suas pesquisas de modo particular, mas logo foi sentida a necessidade de articulação com outros saberes, pois a partir do momento em que o humano passou a se abrir em sua diversidade, os campos do saber já não se sentiram, por si só, suficientes para dar conta de alguma coisa que ainda nem sequer se sabe o tamanho, pois discutir a abrangência da IA e a sua dimensão enquanto desenvolvimento e interação com os seres humanos, é o mesmo que tentar prever até onde chega a inteligência humana. Sem contar o fato de que pelo seu modo de ser o ser humano não se deixa apreender de uma única maneira, tentar parar o homem para o estudar é se afastar de sua essência, o que não deixa de ser uma espécie de violência.
Neste ponto já fica evidente a necessidade da intermediação da ética, pois as inúmeras possibilidades de usos de todos esses dados postados pode ter diversas consequências e, muitas delas desastrosas para aquele que a sofre. A ética buscará trazer a reflexão sobre como queremos habitar este espaço que está sendo criado. Como resultado destas reflexões, vão surgindo os limites que retiram a possibilidade deste ambiente ser como um deserto onde se é possível perder-se pela própria ausência de parâmetros. Limite é uma palavra que nesta sociedade atual pode, a princípio, não ser bem vista, mas é só impressão, pois é ele que nos permite ver uma coisa. A IA, por enquanto, é quase que ilimitada, mas é só uma impressão, pois ela mesma para existir, precisa deixar claro quais são os seus limites e a ética ajudará a traçá-los, tornando o seu espaço o mais seguro possível.
Diante destes aspectos o Núcleo de Referência em Inteligência Artificial Ética e Confiável, ao pensar nos recursos e nas propostas sobre o que poderia fazer com todo essas informações captadas, e o que se poderia oferecer à sociedade, busca pensar sobretudo no que realmente pode ser considerado como disponível, até onde essa circulação de informações sobretudo com relação às imagens pode se ir e até que ponto podemos dizer que ajudamos? Quanto disso tudo não está inserido num furor que faz parte do modo de ser da nossa humanidade e como andar junto a este sentimento que nos é próprio e, ao mesmo tempo, aceitarmos as restrições que temos e que precisamos ter.
Este texto pensou na difícil questão da saúde mental, trouxe alguns pontos que estão sendo estudados e pensados como possibilidades de ajuda da IA. Mas, não podemos nos esquecer de que lidar com o sofrimento também é, de certa forma, entrar nele, e ao entrar queremos ter meios que sejam suficientes para terminar com ele e, nem sempre é assim que se é possível cuidar. Cuidar também tem limites, quando não o respeitamos, passamos a um modo de cuidar em que saltamos sobre a existência do outro, como se fosse possível qualquer meio para chegar ao fim que desejamos. Foi citado acima a série Amanhã, chamamos atenção para uma cena logo no seu início no momento em que a pessoa que socorre um grupo que estava na prática do suicídio coletivo, entra no carro em que eles estavam e começa a dirigir pelas ruas com extrema violência e o grupo começa sentir medo, neste momento ela pergunta: -“O que deu em vocês? Não se reuniram para morrer?” Isso, conforme Teixeira (2018) [4] mostra o despreparo e a forma preconceituosa como ainda são tratadas as pessoas que passam por uma tentativa de suicídio, que acabam por receber um tratamento inadequado. Também mostra-nos como o suicídio é capaz de mexer com os sentimentos das pessoas que, de algum modo se aproximam dele. Muitas vezes queremos a todo custo retirar uma pessoa do sofrimento, mas isso também precisa ser acompanhado da ética e do respeito pelo outro e suas decisões.
Referências
[1] Lejeune A, Le Glaz A, Perron PA, Sebti J, Baca-Garcia E, Walter M, Lemey C, Berrouiguet S. Artificial intelligence and suicide prevention: a systematic review. Eur Psychiatry. 2022 Feb 15;65(1):1-22. doi: 10.1192/j.eurpsy.2022.8. Epub ahead of print. PMID: 35166203; PMCID: PMC8988272.
[2] Dhelim, S., Chen, L., Ning, H. et al. Artificial intelligence for suicide assessment using Audiovisual Cues: a review. Artif Intell Rev (2022). https://doi.org/10.1007/s10462-022-10290-6
[3] Souza Cruz, B. Concessionária do metrô é processada por câmeras que leem nossas emoções. Do UOL, em São Paulo. publicado em 31/08/2018. https://www.uol.com.br/tilt/noticias/redacao/2018/08/31/concessionaria-do-metro-de-sp-e-processada-por-ter-cameras-que-leem-emocoes.htm
[4] Teixeira, C.H.M., A visão do suicídio a partir do “ser-no-mundo”: uma abordagem fenomenológica-existencial. – 1a. ed. – Rio de Janeiro: Via Verita, 2018.
Sobre os autores
Mariza Ferro é professora adjunta do Instituto de Computação da Universidade Federal Fluminense (UFF). Idealizadora e coordenadora do Núcleo de Referência em Inteligência Artificial Ética e Confiável. Tem doutorado em modelagem computacional, mestrado em Ciências da Computação e Matemática Computacional e bacharelado em ciências da computação. Seus interesses de pesquisa são em IA Ética, IA Verde e Sustentabilidade.
Carlos Henrique Martins Teixeira é psicólogo, psicoterapeuta fenemenológico-existencial, supervisor clínico, Mestre em Psicologia pelo ISPA – Instituto Universitário e Doutor em Psicologia pela Universidade Federal Fluminense – UFF, membro do grupo de pesquisa de Fenomenologia Hermenêutica da UFF.
Como citar esta matéria
Ferro, Mariza; Martins Teixeira, Carlos Henrique. Inteligência Artificial, faces, emoções e transtornos mentais. SBC Horizontes, SBC Horizontes, Fevereiro 2023. ISSN 2175-9235. Disponível em: <http://horizontes.sbc.org.br/index.php/2023/02/inteligencia-artificial-faces-emocoes-e-transtornos-mentais/>. Acesso em:<data>