Interação algorítmica, inteligência artificial e mídias sociais: Uma discussão sobre a LGPD e responsabilidade civil em situações de danos no estudo do caso Instagram
Por Márjory Da Costa-Abreu, Mariana de Siqueira, Kate Oliveira e Lidianne Araújo Aleixo de Carvalho.
As mídias sociais tornaram-se mais do que simples plataformas de compartilhamento de fotos e eventos da vida cotidiana. Grandes marcas e multinacionais estão utilizando o poder de tais espaços para anunciar e converter leads (contatos de possíveis consumidores) em vendas reais. Como exemplo, cite-se o Instagram, empresa gigante no âmbito da divulgação de fotos que possui mais de um bilhão de usuários ativos e se destaca como opção de mídia na medida em que viabiliza alcance significativo dos conteúdos postados, muitas vezes o fazendo em escala global (KhosraviNik, 2022).
O Instagram é uma das plataformas de mídia social mais populares atualmente, há registros de que mais de 500 milhões de usuários acessam diariamente os seus conteúdos. Naturalmente, diante de tal realidade, profissionais de marketing e marcas estão migrando para o Instagram na esperança de alcançarem uma parte da crescente base de usuários da plataforma.
Há uma razão direta para a popularidade do Instagram: ele possui uma taxa de engajamento incrível devido à plataforma de tecnologia robusta que o caracteriza e em decorrência do uso de imagens de alta qualidade. Além disso, o Instagram fornece aos empreendedores vários recursos amigáveis aos negócios que permitem que uma empresa ganhe milhagem no que diz respeito ao marketing. Taxas de engajamento mais altas, em termos simples, significam mais seguidores e, em termos de negócios, uma base de seguidores leais é o que se procura para expandir e fortalecer uma marca. (Khatri, 2021).
Todo conteúdo que se torna popular no Instagram começa com algumas curtidas, e quanto mais interação ele reúne, maior é a popularidade. Muitas vezes, essas postagens se tornam “virais”, o que significa que atingem um certo nível de visibilidade global.
Ao contrário do que muitos pensam, essa “viralização” não tem nada de orgânica e natural e, mais importante ainda, é entender que não existe um único algoritmo a promovendo e sim uma coleção de algoritmos que estão ativos ao mesmo tempo e potencialmente tomando decisões tão complexas que nem mesmo os próprios desenvolvedores da Meta conseguem explicar de modo satisfatório.
Assim como o enigma que paira ao redor ‘do algoritmo’ em constante mudança do Facebook, no Instagram existem muitos pontos controversos, equívocos e mal-entendidos concernentes ao funcionamento interno de ‘seu algoritmo’ (Khatri, 2021).
De uma maneira bem simples, não há apenas um algoritmo, mas sim vários, e os inúmeros algoritmos do Instagram são desenhados com o objetivo de oferecer “a melhor experiência” para o usuário.
Quando se trata de monitorar, coletar e analisar dados, o Instagram usa várias plataformas técnicas, aprendizado de máquina, processamento de linguagem/texto e análise de imagens/vídeos (Makortoff, 2022).
Como o modelo de negócios do Instagram é focado em publicidade, a plataforma tem uma capacidade muito robusta de direcionar os conteúdos usando sistemas de recomendação automáticos. Todas as informações do usuário coletadas pela plataforma permitem que o Instagram forneça links específicos do usuário e anúncios direcionados a sujeitos.
Um dos maiores equívocos do novo algoritmo do Instagram é baseado nos três fatores que determinam o conteúdo no feed de alguém. Esses três fatores são interesses, oportunidades e relacionamentos. O item “relacionamentos”, por exemplo, é determinado com base na interação que um usuário estabelece com outros, em detrimento de seus amigos “reais” e familiares. Quanto mais frequentemente alguém curte, comenta, marca ou envia uma DM para alguém, mais vezes verá o conteúdo dessa pessoa. Isso significa que, para influenciadores de mídia social, as postagens de engajamento agora são muito mais relevantes do que já foram outrora (Makortoff, 2022).
O problema que deve ser levantado é o fato dos diversos algoritmos inteligentes poderem interagir entre si, com consequências bastante imprevisíveis, por ser uma plataforma tão grande e usar um volume de dados imenso.
Uma analogia possível de ser realizada com esse tipo de evento se refere a medicamentos e envolve a interação medicamentosa, situação em que um paciente precisa tomar remédios para doenças diferentes e essas medicações podem ser modificadas pela interação entre substâncias
No caso específico da plataforma, as interações imprevisíveis dos diversos algoritmos inteligentes podem acabar por ocasionar violação a direitos fundamentais, tais como a igualdade, a não-discriminação, liberdade de escolha e a liberdade de expressão. Importante, portanto, refletir sobre os limites legais presentes na legislação brasileira, principalmente no que tange ao tratamento desses dados disponíveis na plataforma e ao potencial de dano advindo desse modo de funcionamento que envolve interação algorítmica.
Esses potenciais de danos e de violações de direitos provenientes do modo de funcionamento dos algoritmos demanda reflexão jurídica profunda, principalmente quando constatamos como o Direito vigente cuida do tema da responsabilização jurídica das plataformas.
Se o funcionamento da plataforma envolve interação ampla entre algoritmos e se essa interação necessariamente carrega consigo a marca da impossibilidade de controle dos seus resultados, inclusive de danos, seria essa atividade uma atividade de risco, nos moldes daquilo que determina o Código Civil? Sendo atividade de risco, será que é possível cogitar da responsabilidade objetiva das plataformas em caso de dano?
Outro ponto que merece destaque e análise cuidadosa é aquele que diz respeito ao dever de transparência.
O famoso “li e aceito” presente nos termos de consentimento não costuma ser caracterizado por um efetivo conhecimento do usuário quanto aquilo que autoriza. No geral, aceita-se tudo sem que nada tenha sido lido. Isso acaba por ensejar uma imensa quantidade de dados disponíveis nas plataformas. Se os usuários conhecessem mais e melhor do modo de funcionamento desses recursos tecnológicos, será que efetivamente autorizariam a coleta e tratamento de seus dados? A atual maneira de lidar com a transparência nas políticas de privacidade das plataformas associada à ausência de uma educação para cidadania digital e cultura de proteção de dados abre espaço para a fragilização da proteção à privacidade estabelecida pela Lei Geral de Proteção de Dados Pessoais. É urgente incrementar o dever de transparência ativo das plataformas, levando-as a espontaneamente oferecerem aos usuários informações claras, precisas e facilmente acessíveis sobre o seu modo de funcionamento e tratamento dos dados pessoais que realizam.
O consentimento, para que seja livre e consciente, demanda uma estrutura prévia que o leve a se caracterizar assim. Nunca é demais lembrar que é desse modelo de consentimento que trata a LGPD. O consentimento não deve nascer viciado, ele deve representar a expressão da vontade do sujeito, da sua autonomia, e implica na manifestação da sua escolha individual, livre e consciente (DONEDA, 2020). A ausência de informação adequada, acaba por fazer com que o consentimento não aconteça na forma prevista em lei.
A discussão sobre a responsabilidade das plataformas em casos de danos provenientes das interações algorítmicas e sobre o respeito à LGPD é bastante complexa e demanda maiores debates e reflexões. A ideia aqui foi provocar a discussão coletiva para colaborar com a construção de entendimentos futuros sobre tais temas. E você, o que tem a dizer a respeito?
REFERÊNCIAS
DONEDA, Danilo. Da privacidade à proteção de dados pessoais: fundamentos da Lei Geral de Proteção de Dados. 2. ed. São Paulo: Revista dos Tribunais, 2020.
KhosraviNik, M. Digital meaning-making across content and practice in social media critical discourse studies. Critical Discourse Studies. 2022 Mar 4;19(2):119-23.
Khatri M. How Digital Marketing along with Artificial Intelligence is Transforming Consumer Behaviour. International Journal for Research in Applied. 2021.
Makortoff, Kalyeena. Risks posed by AI are real’: EU moves to beat the algorithms that ruin lives. The Guardian. 07/08/2022. https://www.theguardian.com/technology/2022/aug/07/ai-eu-moves-to-beat-the-algorithms-that-ruin-lives
Sobre as autoras
Kate de Oliveira Moura Surini. Advogada. Mestre em Direito Constitucional pela Universidade Federal do Rio Grande do Norte (UFRN). Graduação em Direito pela Universidade Federal do Rio Grande do Norte (UFRN). Pesquisadora do Grupo de Estudos do Direito Público da Internet e das Inovações Tecnológicas (GEDI/UFRN). Endereço eletrônico: kateoliveiraadv@gmail.com; IG: @kateoliveiraadv
Mariana de Siqueira. Professora Adjunta da UFRN. Doutora em Direito Público pela UFPE. Mestre em Direito Constitucional pela UFRN. Graduada em Direito pela UFRN. Habilitada em Direito do Petróleo, Gás Natural e Biocombustíveis por convênio entre a ANP e a UFRN. Desenvolve pesquisas especialmente no que diz respeito aos temas do Direito Digital, Direito e Feminismos, Direito e Gênero e Direito Administrativo. Coordenadora dos grupos de pesquisa: Direito, Estado e Feminismos nos 30 anos da Constituição: estudos sobre interseccionalidade (DEFEM), Grupo de Estudos do Direito Público da Internet e das Novas Tecnologias (GEDI) e Observatório das Práticas da Administração Pública Brasileira (OPRA). Presidente da Comissão de Direitos Humanos da OAB/RN. Presidente do IPTECS – Instituto Potiguar de Tecnologia e Sociedade. Membro fundador do IDASF – Instituto de Direito Administrativo Seabra Fagundes. Membro fundador do IPDT – Instituto Potiguar de Direito Tributário.
Márjory Da Costa-Abreu é docente permanente da Sheffield Hallam University onde também exerce as funções de Postgraduate Research Tutor
in Computing and Informatics e EDI lead for Computing. Ela tem doutorado em engenharia eletrônica, mestrado acadêmic em sistemas e computação e bacharelado em ciência da computação. Seu interesse de pesquisa é em ética no desenho de soluções baseadas em inteligência artificial em diversas áreas, mas principalmente em aplicações que tenham impacto social e potencial propagação de desigualdades. É feminista e ativistas das mulheres nas ciências exatas.
Lidianne Araújo Aleixo de Carvalho é professora Assistente do Departamento de Direito Público da Universidade Federal do Rio Grande do Norte – UFRN. Mestre em Direito pela Universidade Federal do Rio Grande do Norte. Especialista em Direito e Jurisdição pela Escola de Magistratura do Rio Grande do Norte – ESMARN. Coordenadora do GEDI. Currículo Lattes: http://lattes.cnpq.br/9704202924577206.
Como citar esta matéria
Oliveira, Kate; de Siqueira, Mariana; Da Costa-Abreu, Márjory; Carvalho, Lidianne. Interação algorítmica, inteligência artificial e mídias sociais: Uma discussão sobre a LGPD e responsabilidade civil em situações de danos no estudo do caso Instagram SBC Horizontes, SBC Horizontes, Novembro 2022. ISSN 2175-9235. Disponível em: <http://horizontes.sbc.org.br/index.php/2022/11/interacao-algoritmica-inteligencia-artificial-e-midias-sociais-uma-discussao-sobre-a-lgpd-e-responsabilidade-civil-em-situacoes-de-danos-no-estudo-do-caso-instagram/>. Acesso em:<data>