>

O impacto do fine tuning no uso do aprendizado de máquina: o lado da IA que quase ninguém discute

O impacto do fine tuning no uso do aprendizado de máquina: o lado da IA que quase ninguém discute

por Kate Oliveira, Mariana de Siqueira e Márjory Da Costa-Abreu

(Especial GEDI)

Com o avanço da tecnologia, a Inteligência Artificial (IA) tem se tornado parte integrante de nossas vidas. Para fins de ilustração, podemos citar os comandos de voz em smartphones pela identificação da voz do usuário; indicações das melhores rotas pelos aplicativos de trânsito, tendo por base a avaliação em tempo real das condições de tráfego; e sistemas que recomendam em aplicativos, a partir de informações de preferências coletadas mediante sua utilização, séries, filmes, vídeos e músicas (Porto, 2018, p. 131).

Definida no âmbito da computação como “a ciência e engenharia de produzir máquinas inteligentes” (Gubern, 2000), a IA também pode ser compreendida como o ramo que estuda métodos computacionais capazes de simular, empregar e ampliar as capacidades humanas de pensar, refletir, auto aprender e solucionar problemas (Porto, 2018, p. 131).

Nos últimos tempos, tem sido bem comum que notícias de jornal divulguem a chegada da inteligência artificial a espaços até então não marcados por sua presença. O Judiciário, o Fisco e o setor de segurança pública são exemplos dessas áreas supostamente incrementadas pela inovadora chegada das IAs.

Sobre esse assunto, convém refletir a partir de algumas questões.


Será mesmo que sabemos diferenciar uma mera decisão automatizada de uma inteligência artificial? Será que aquilo que está sendo apresentado como inteligência artificial é isso realmente?

Existe uma diferença importante entre o uso de tecnologia ‘não inteligente’ e que apenas auxilia nossas atividades diárias e o uso generalizado de algo que pode ‘pensar por si’ ou ‘decidir por si’.

Diferente daquelas ideias futuristas dos filmes de ficção científica, o objetivo da IA é o aumento da performance ou a transferência de funções repetitivas delegáveis a um robô, a partir da reprodução parcial das ações cognitivas humanas, sem jamais se confundir em plenitude com o cérebro humano (Hartman Peixoto, 2020, p. 17-18).

De posse da informação sobre o que é uma IA e considerando a sua avançada forma de funcionar, é possível entender que ela é tecnologia capaz de resolver definitivamente problemas humanos complexos?

Um aspecto a ser ressaltado na atualidade, é o de que a IA tem sido vista como uma panaceia, uma solução milagrosa para todo e qualquer tipo de situação, como um sinônimo inafastável de modernidade, inovação, eficácia e eficiência.

Nesse sentido, convém destacar que a IA é sim uma tecnologia muito poderosa, mas que implica em riscos, pois suas consequências podem ser imprevisíveis, especialmente quando o processo de desenvolvimento da inteligência artificial é feito sem a atenção e o respeito às várias etapas do ciclo de vida do sistema inteligente.

Assim, as discussões sobre como encontrar maneiras de ‘governar’ a tecnologia têm se tornado cada vez mais acentuadas, diante do receio de que o ser humano perca o seu papel de protagonista no tema da inovação tecnológica.

É necessário entender como a regulação da IA em vários aspectos pode afetar nossas vidas e como seu uso é percebido, aceito e influencia nossas próprias decisões pessoais. Por exemplo, em um modelo preditivo, é muito importante entender o comportamento do usuário e a forma de regulação que pode ser interessante para esse modelo, já que ele é mais complexo e envolve dados pessoais. A discussão sobre as normativas a serem direcionadas às IAs precisa unir saberes da tecnologia e técnica jurídica, de modo a produzir resultados jurídicos que protejam as pessoas sem inibir o desenvolvimento tecnológico.


Olhando para os principais problemas atuais relacionados ao uso de IA, podemos listar o viés de dados (discriminação, a explicabilidade das decisões tomadas pelo algorítimo, o uso de caixas pretas (soluções prontas) sem o devido cuidado na parametrização e fine tuning) e a desconfiança, muitas vezes frequente, por parte dos usuários em relação às novas tecnologias.


Na seara jurídica, essas questões precisam ser discutidas com urgência, especialmente considerando os usos hoje cogitados para as inteligências artificiais no direito. Se a ideia é inserir inteligência artificial no processo judicial, por exemplo, se faz imprescindível debater o tema do viés, os impactos dessa tecnologia no devido processo legal e a forma como afetará o sistema constitucional de garantias e direitos fundamentais.


Considerando que a Administração Pública cogita inserir IA junto aos serviços públicos e entendendo essas atividades como importantíssimas para a dignidade dos indivíduos, é necessário refletir sobre a desconfiança do usuário, a educação para a cidadania digital e a geografia da desigualdade no acesso à internet.

Na perspectiva computacional, um caminho possível para lidar com as problemáticas da IA está em impor o ser humano como mediador da tomada de decisão, de modo a permitir ajustes e adequações necessários durante o uso desses sistemas inteligentes, garantindo a robustez e curadoria no desenvolvimento dessas tecnologias, aliando-as à ética, transparência e à defesa dos direitos humanos, sem colocar em xeque a própria inovação.



O fato de muitas pessoas enxergarem os sistemas inteligentes como uma solução mágica e perfeita é problemático e acaba por conduzir as pessoas rumo a um processo de pouquíssima reflexão crítica. A assimetria de informações e o desconhecimento sobre o modo de funcionamento da tecnologia também são pontos delicados. Muitas vezes, o usuário e o regulador não entendem como o sistema funciona, exigem documentação, explicação ou sugerem normativas absolutamente desconectadas da realidade dos sistemas.

O Projeto de Lei nº 5051/2019, por exemplo, de autoria do senador Styvenson Valentim (Podemos/RN), que visa dar diretrizes ao uso da Inteligência Artificial, possui um dispositivo que merece ser analisado com cuidado. O caput do artigo 4º desse PL preceitua que “os sistemas decisórios baseados em Inteligência Artificial serão, sempre, auxiliares à tomada de decisão humana”. Nesse item, é possível perceber uma clara confusão entre tecnologias automáticas simples e a inteligência artificial, pois a IA já toma decisões de forma independente, sem a participação do ser humano. Como exemplo, podemos mencionar o uso de aplicativo de trânsito para a escolha das melhores rotas. Nesse caso, não existe intervenção humana, nem deveria existir, pois essa revisão poderia inviabilizar e limitar o próprio sistema inteligente e a própria inovação, especialmente em se tratando de uma inovação disruptiva.

Sobre a criação da tecnologia e seu desenvolvimento, é importante esclarecer que, para o cientista da computação, desenvolver (treinar ou desenhar) uma IA não é uma tarefa fácil. O processo todo passa por várias etapas que são descritas no ciclo de vida do sistema inteligente (Doroudi, 2020). De maneira bem simples e didática, podemos listar, após a definição da questão que aquele sistema inteligente vai responder, os seguintes passos: a aquisição de dados relevantes, a preparação dos dados, a seleção da técnica mais adequada baseada nos dados, o treinamento e fine tuning, e teste. Essas etapas devem ser repetidas várias vezes até que se tenha um modelo que generalize a solução de forma adequada, sem ‘manipular’ ou ’torturar’ os dados.

Dentre as diversas etapas citadas, existe uma em particular que não tem recebido o cuidado ou a importância que ela merece: o fine tuning. Essa etapa simplesmente consiste em fazer pequenos ajustes durante o processo de refinar o sistema inteligente para obter a saída ou desempenho desejado obrigatoriamente respeitando o bias-variance trade-off. Na computação, o bias-variance trade-off (Lehr, 2017) é a propriedade de um modelo de que a variância das estimativas de parâmetro entre as amostras pode ser reduzida aumentando o viés nos parâmetros estimados. Este dilema é o conflito em tentar minimizar simultaneamente essas duas fontes de erro que impedem que algoritmos inteligentes generalizem além de seu conjunto de treinamento.


O bias-variance trade-off é delicado, demorado e minucioso. Ele requer anos de experiência para ser dominado e entendido. O grande problema que existe hoje com a popularização das soluções prontas de IA é que qualquer um, sem ou com pouco conhecimento dos modelos, pode facilmente obter soluções que têm um desempenho aleatório, mas que não respeitam o bias-variance trade-off e o cuidado com o fine tuning.

Imaginem só os danos e prejuízos que podem surgir a partir da adoção desse tipo de ‘solução’ tecnológica pelo Judiciário ou pela Administração Pública brasileira!

A expansão da IA nos últimos anos, e até mesmo o fascínio por ela gerado junto a alguns sujeitos, fez com que fosse cada vez mais comum o uso de caixas pretas (modelos prontos) sem o devido cuidado do desenvolvedor com a adequação e os ajustes desses modelos e de seus sistemas inteligentes a uma perspectiva garantista.

Não se pode esquecer que a IA é uma reprodução de padrões humanos que podem conter vieses (desvios e preconceitos), mas que também pode sim ser corrigida e aperfeiçoada, justamente por ser comportamento artificial (Porto, 2018, p. 28).

Em verdade, o não atendimento aos pressupostos de desenvolvimento confiável de uma IA implica em um cenário propenso a problemas e violações de direitos. Esses riscos, aparentemente graves na perspectiva do avanço civilizatório, podem ser evitados com robustez, transparência e ética no processo de desenvolvimento dos sistemas inteligentes. Se a tecnologia é meio de aperfeiçoamento da qualidade de vida e não um fim em si, é urgente discutir com mais frequência o tema do fine tuning!

Referências

(Lehr, 2017) Lehr, D., & Ohm, P. (2017). Playing with the data: what legal scholars should learn about machine learning. UCDL Rev., 51, 653. https://heinonline.org/HOL/P?h=hein.journals/davlr51&i=667&a=c2h1LmFjLnVr

(Doroudi, 2020) Doroudi, S. (2020). The Bias-Variance Tradeoff: How Data Science Can Inform Educational Debates. AERA Open, 6(4), 2332858420977208. https://doi.org/10.1177/2332858420977208

(Russell, 2002) Russell, S., & Norvig, P. (2002). Artificial intelligence: a modern approach. Upper Saddle River, NJ, USA:: Prentice Hall.

(Porto, 2018). PORTO, Fábio Ribeiro. O impacto da utilização da inteligência artificial no executivo fiscal. Estudo de caso do Tribunal de Justiça do Rio de Janeiro. In: FERNANDES, Ricardo Vieira de Carvalho; CARVALHO, Angelo Gambia Prata de (coord.) Tecnologia Jurídica e direito digital. 2018. Belo Horizonte: Fórum, 2018, ISBN  978-85-450-0584-1.

(Gubern, 2000). GUBERN, Romá. El Eros Electrónico. Madri: Taurus, 2000.

HARTMANN PEIXOTO, Fabiano. Direito e Inteligência Artificial. Coleção Inteligência Artificial e Jurisdição. Volume 2. DR.IA. Brasília, 2020. https://orcid.org/0000-0002-6502-9897. ISBN nº 978-65-00-08585-3. Disponível em: www.dria.unb.br. doi: 10.29327/521174

Sobre as autoras

Kate de Oliveira Moura Surini. Advogada. Mestre em Direito Constitucional pela Universidade Federal do Rio Grande do Norte (UFRN). Graduação em Direito pela Universidade Federal do Rio Grande do Norte (UFRN). Pesquisadora do Grupo de Estudos do Direito Público da Internet e das Inovações Tecnológicas (GEDI/UFRN). Endereço eletrônico: kateoliveiraadv@gmail.com; IG: @kateoliveiraadv

Mariana de Siqueira. Professora Adjunta da UFRN. Doutora em Direito Público pela UFPE. Mestre em Direito Constitucional pela UFRN. Graduada em Direito pela UFRN. Habilitada em Direito do Petróleo, Gás Natural e Biocombustíveis por convênio entre a ANP e a UFRN. Desenvolve pesquisas especialmente no que diz respeito aos temas do Direito Digital, Direito e Feminismos, Direito e Gênero e Direito Administrativo. Coordenadora dos grupos de pesquisa: Direito, Estado e Feminismos nos 30 anos da Constituição: estudos sobre interseccionalidade (DEFEM), Grupo de Estudos do Direito Público da Internet e das Novas Tecnologias (GEDI) e Observatório das Práticas da Administração Pública Brasileira (OPRA). Presidente da Comissão de Direitos Humanos da OAB/RN. Presidente do IPTECS – Instituto Potiguar de Tecnologia e Sociedade. Membro fundador do IDASF – Instituto de Direito Administrativo Seabra Fagundes. Membro fundador do IPDT – Instituto Potiguar de Direito Tributário.

Márjory Da Costa-Abreu é docente permanente da Sheffield Hallam University onde também exerce as funções de Postgraduate Research Tutor

in Computing and Informatics e EDI lead for Computing. Ela tem doutorado em engenharia eletrônica, mestrado acadêmic em sistemas e computação e bacharelado em ciência da computação. Seu interesse de pesquisa é em ética no desenho de soluções baseadas em inteligência artificial em diversas áreas, mas principalmente em aplicações que tenham impacto social e potencial propagação de desigualdades. É feminista e ativistas das mulheres nas ciências exatas.

Como citar esta matéria

Oliveira, Kate; de Siqueira, Mariana; Da Costa-Abreu, Márjory. O impacto do fine tuning no uso do aprendizado de máquina: o lado da IA que quase ninguém discute SBC Horizontes, SBC Horizontes, Fevereiro 2022. ISSN 2175-9235. Disponível em: <http://horizontes.sbc.org.br/index.php/2022/02/o-impacto-do-fine-tuning-no-uso-do-aprendizado-de-maquina-o-lado-da-IA-que-quase-ninguem-discute/>. Acesso em:<data>

Compartilhe: