Dia: 6 de fevereiro de 2023

  • Critérios para moderação e remoção de conteúdo da internet

    Critérios para moderação e remoção de conteúdo da internet

    É inegável o aumento do volume de conteúdos existentes na Internet, bem como o consumo das mais diversas informações ali disponíveis. Por consequência lógica – e em sendo websites e redes sociais um dos maiores meios de comunicação atualmente – tem-se que a sociedade civil, o Estado e as próprias empresas privadas (administradoras de plataformas digitais1) passaram a se preocupar mais com a importância destas ferramentas de acesso pela e para a coletividade.

    Tal como qualquer assunto relevante e presente, questões como “o que é um conteúdo ilícito?”, “o que pode ser mero exercício da liberdade de expressão e o que pode ser violação de direitos personalíssimos de terceiros?”, “quem deve definir quando e qual conteúdo ou perfil deve ser removido de uma rede social?”,

    além de eventuais sanções envolvidas, continuam sendo debatidas, também no Brasil, ainda que o ordenamento jurídico já conte com disposições legais capazes de permitir definições razoáveis e proporcionais.

    No Brasil, a responsabilidade civil dos provedores de aplicações é regulada pela lei Federal 12.965/14, conhecida como Marco Civil da Internet. Em suma, as pessoas físicas ou jurídicas que possuem ingerência sobre determinadas redes sociais ou websites que proporcionam espaços para o compartilhamento de conteúdo não são penalizados por publicações de terceiros/usuários, conforme art. 19, caput2.

     

    Os provedores de aplicações de Internet respondem eventualmente e subsidiariamente por determinado conteúdo publicado por seu usuário apenas na hipótese de descumprimento de ordem judicial que ordene determine a indisponibilização do mesmo, e desde que observados os requisitos legais necessários para tanto – especialmente a identificação clara e específica capaz de permitir a localização inequívoca do material cibernético – a fim de evitar a nulidade da decisão.

    Isso ocorre porque, além de ser inviável aos provedores de aplicações fazer uma varredura de conteúdos – dentre a imensidão de publicações que são inseridas, alteradas e removidas na rede diariamente e a todo instante -, seria igualmente temerário impor aos mesmos um dever de fiscalização e de eventual órgão censor.

    Apesar disso, e embora não exista qualquer dever de fiscalização ou monitoramento pelos provedores de aplicações, estes podem penalizar usuários que violam as regras de suas plataformas e também restringir o que é disponibilizado, com base em suas próprias condições de utilização.

    Ou seja, as regras seguidas pelos provedores de aplicações para moderação de conteúdos são regras criadas pelas próprias administradoras de plataformas digitais, com base na cultura local e visando sempre um ambiente saudável e seguro para todos aqueles que utilizam a Internet.

    Plataformas digitais e seus usuários devem, obrigatoriamente, aceitar e se comprometer com as políticas previamente estabelecidas.

    Os famosos Termos de Serviço, Diretrizes e Políticas de Uso, que nada mais são do que contratos normalmente eletrônicos firmados entre usuário e plataforma, regulam não apenas as condições de proteção de informações/dados do usuário, mas também os tipos de conteúdo que podem ou não ser disponibilizados, sob pena de violarem direitos de terceiros ou da sociedade e, portanto, as regras da plataforma.

    A importância e o objetivo das diretrizes estabelecidas no contrato entre usuário e provedores de aplicações é, principalmente, fomentar um ambiente de liberdade (de expressão, principalmente) para as partes envolvidas e também para a sociedade como um todo, eis que o acesso aos conteúdos não necessariamente depende do ingresso/login como usuário em determinado website ou rede social.

     

    Por isso, de maneira transparente, as plataformas digitais estabelecem o que é proibido e quais sanções poderão ser aplicadas na hipótese de violação.

    Um exemplo emblemático foi o banimento do perfil oficial do então presidente dos Estados Unidos de redes sociais. À luz de seus Termos de Serviço, Diretrizes e Políticas de Uso, em virtude da sessão que certificaria um novo presidente do país, no início do ano de 2021,

    alguns provedores de aplicações entenderam que houve violação de regras diante da publicação de conteúdos em que o então representante afirmava que as eleições teriam sido fraudadas, incitando ainda apoiadores a invadirem o Congresso conhecido como Capitólio dos EUA para protestos violentos.

    Dentre os conteúdos publicados, havia afirmações como: “tivemos uma eleição que foi roubada de nós”. Uma das plataformas digitais, neste sentido, agindo no exercício regular do seu direito de moderador de conteúdo, reconheceu a violação de suas regras e informou publicamente que o usuário “não pode usar os serviços com o propósito de manipular ou interferir em eleições ou outros processos cívicos”.

    “Isso inclui postar ou compartilhar conteúdo que possa suprimir a participação ou enganar as pessoas sobre quando, onde ou como participar de um processo cívico. Além disso, podemos rotular e reduzir a visibilidade de postagens contendo informações falsas ou enganosas sobre processos cívicos, a fim de fornecer contexto adicional”.

    Com relação ao caso citado, é evidente que a medida adotada se deu durante momento político-social exposto para todo o mundo, tornando, de certo modo, talvez mais fácil o posicionamento de forma clara e objetiva quanto (i) à ilicitude do conteúdo, (ii) às notificações prévias para fins de exclusão dos conteúdos, sob pena de aplicação de outras penalidades, e (iii) aos motivos das sanções efetivamente aplicadas.

    Noutro giro, porém, é de se observar a natural impossibilidade de moderação de todos os conteúdos denunciados existentes na Internet com a mesma rapidez e precisão.

    Aqui no Brasil, o cenário da última eleição não foi muito diferente e as suas consequências continuam sendo objeto de debate, mesmo com o fim do período eleitoral oficialmente. Provedores de aplicações excluíram conteúdo do então presidente e suspenderam suas contas temporariamente, uma vez que constatada a propagação de informação falsa e manipulada que relaciona a vacina contra o vírus da Covid-19 e o vírus da Aids, por exemplo.

    As grandes empresas de tecnologia explicaram, basicamente, que seus Termos de Serviço, Diretrizes e Políticas de Uso não permitem acusações no sentido de que as vacinas contra a covid-19 matam ou causam danos graves às pessoas, tampouco autorizam desinformação médica no sentido de que as vacinas não reduzem o risco de contrair a doença ou que causam outras doenças infecciosas.

    Após o resultado da eleição presidencial, em especial, a preocupação continuou em virtude da publicação de conteúdos antidemocráticos em massa, por exemplo.

    Tem-se assim que, ações como a remoção de conteúdo ou a suspensão de contas, a partir de denúncias administrativas e não de ordens judiciais, são pautadas em condições publicamente disponíveis e expressamente aceitas por usuários quando do ingresso em determinada plataforma digital, situação, inclusive, reconhecida majoritariamente pelos Tribunais3 do país.

    Portanto, os provedores de aplicações, ao atuarem como moderadores de conteúdo, agem legitimamente no exercício regular de um direito reconhecido, o que afasta qualquer hipótese de ato ilícito ou falha, nos termos do art. 188, I do Código Civil4.

    Os provedores de aplicações, dentro dos seus limites técnicos e jurídicos, tão somente empregam uma série de mecanismos de governança a fim de tornar o ambiente digital mais saudável e evitar a propagação de conteúdos considerados “ruins” (como é a hipótese de fake news, desinformação, discurso de ódio, manifestações antidemocráticas, etc.).

    De todo modo, não há como esperar uma suposta obrigação impossível de controle imediato de conteúdos publicados por terceiros, tampouco imediata eficácia na análise de todas as reclamações trazidas por usuários, principalmente em virtude da impossibilidade de sopesamento de eventuais direitos envolvidos em contextos, muitas vezes, subjetivos, não explicitados e cuja decisão depende exclusivamente do Poder Judiciário.

    A liberdade dos provedores de aplicações traz não apenas uma necessidade de atuação destes, mas também maior engajamento da sociedade civil e do Estado. Aos provedores de aplicações, cabe a liberdade de atuação na moderação de conteúdo, à luz de seus Termos de Serviço, Diretrizes e Políticas de Uso aceitos por seus usuários.

    Da sociedade civil, espera-se um debate que estimule a consciência social coletiva sobre manifestações dentro de plataformas digitais, principalmente por meio da participação da população através de canais para denúncias de violações (os quais, inclusive, são normalmente disponibilizados publicamente pelas próprias empresas responsáveis por websites e “redes sociais”).

    Quanto ao Estado, por outro lado, a expectativa é de cuidado extremo quando o assunto é a proposição de projetos de lei que busquem estabelecer regulamentações taxativas às plataformas ou afrouxar limites do poder discricionário.


    1 Plataformas digitais são “sistemas tecnológicos que funcionam como mediadores ativos de interações, comunicações e transações entre indivíduos e organizações operando sobre uma base tecnológica digital conectada, especialmente no âmbito da Internet, provendo serviços calcados nessas conexões, fortemente lastreados na coleta e processamento de dados e marcados por efeitos de rede”.

    (VALENTE, J. C. L. Tecnologia, informação e poder: das plataformas online aos monopólios digitais. Tese (Doutorado em Sociologia). Universidade de Brasília, Brasília, 2019. p. 170)

    2 MCI, Art. 19: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

    3 “OBRIGAÇÃO DE FAZER C.C. INDENIZAÇÃO POR DANO MORAL. Prestação de serviços de publicação de anúncios, via internet, com a utilização da ferramenta “Google Adwords”. Existência de convenção de arbitragem não comprovada. Inaplicabilidade do Código de Defesa do Consumidor. Serviços de publicidade de anúncios que se destinavam à captação de clientela para a empresa autora. Relação de insumo e não de consumo, já que voltada à implementação da atividade desenvolvida pela demandante.

    Bloqueio da conta da autora, com desativação de seus anúncios. Correspondência eletrônica trocada entre as partes comprova que a empresa recorrida tinha conhecimento de que violou as políticas de proibições estabelecidas nos termos de uso da ferramenta, em razão de similaridade de seu site com outro.

    Apelante que agiu no exercício regular de direito ao bloquear a conta da autora até a regularização do layout de seu site. Dano moral não caracterizado. Indenização afastada. Sentença reformada para julgar improcedente a ação. RECURSO PROVIDO.” (TJSP – Apelação 1026118-94.2017.8.26.0100 – Des. Rel. Afonso Bráz – 17ª Câmara de Direito Privado – J. 08.08.2018)

    Art. 188. Não constituem atos ilícitos: I – os praticados em legítima defesa ou no exercício regular de um direito reconhecido.


    Thays Bertoncini da Silva
    Advogada, sócia da Lee, Brock, Camargo Advogados (LBCA) e especialista em Direito Digital Aplicado e Direito das Plataformas Digitais pela FGV.

  • IA constrói um futuro estratégico para o ESG

    IA constrói um futuro estratégico para o ESG

    O assunto do momento é, sem dúvida, o ChatGPT[1]. O modelo de linguagem baseado em Inteligência Artificial (IA), que interage por meio de diálogos, tem impressionado pela eficiência na criação de documentos, organização de cronogramas e até aprovação em provas, como o BAR (American Bar Association), o exame de ordem para advogados nos Estados Unidos. 

     A ferramenta levantou diversas discussões e uma maior consciência das pessoas sobre o emprego de Inteligência Artificial no dia a dia. Mesmo que a tecnologia em si já exista desde meados do século passado, ainda causa desconfianças sobre suas aplicabilidades.

    O uso de IA confronta a sociedade em inúmeras questões éticas e legais, que incluem temáticas de privacidade e vigilância, preconceito ou discriminação, falta de transparência algorítmica e incertezas quanto à limitação de responsabilidade. O cenário de imprecisões, no entanto, divide espaço com um encanto pelas inúmeras possibilidades que inaugura.

    Na esfera ESG, empresas podem usufruir de um poder, até então inédito, para coleta, categorização, atualização em tempo real e análise de seus dados. Um estudo global da Oracle ESG[2] aponta que 91% dos líderes empresariais enfrentam desafios para progredir em iniciativas de sustentabilidade devido às dificuldades para encontrar os dados necessários para acompanhar métricas e auferir progressos.

    Muitos dos dados que precisam ser coletados não estão organizados ou são provenientes de múltiplas fontes, incluindo não apenas uma empresa, mas toda uma cadeia de fornecedores. Além disso, um problema significativo com os relatórios de práticas é a natureza inconsistente das estruturas ESG nas organizações, dado que, por exemplo, termos como sustentabilidade e diversidade podem significar algo completamente diferente para cada empresa.

    A grande variedade de estruturas dentro de cada setor torna ainda mais complexo o processo de comparar progressos e definir padrões nos setores. Neste ponto, o uso de Inteligência Artificial torna-se cada vez mais parte da estratégia ESG. A IA pode ajudar a gerenciar dados, ordenar informações, gerar insights, criar relatórios e operacionalizar estratégias.

    Atualmente, a análise de dados em escala é limitada pela descentralização das informações ESG. O processo, por exemplo, de estruturar um relatório de sustentabilidade passa por uma série de etapas manuais, como a identificação e o acesso a relatórios individuais, extração de textos e higienização de bases de dados, antes mesmo que qualquer análise possa ser realizada.

    De acordo com um levantamento feito pela BlackRock[3], ainda que a maioria das empresas S&P[4] reporte métricas ESG, 53% dos entrevistados citaram “má qualidade ou disponibilidade de dados e análises ESG” e outros 33% citaram “má qualidade de relatórios de investimento em sustentabilidade” como as duas maiores barreiras para a adoção de investimentos sustentáveis.

    O uso de aplicativos de IA, aprimorado por uma nova geração de algoritmos de Machine Learning e computação em nuvem, levou recentemente às inovações na análise de dados de texto não estruturados em grande escala, por meio do uso de técnicas de Processamento de Linguagem Natural (PLN)[5]. Esse tipo de tecnologia permite uma análise de dados rápida, abrangente e em escala.

    Uma vez organizados, os dados são estruturados e podem ser analisados para obter melhor compreensão sobre riscos ESG, como identificar riscos ambientais, direcionar recursos e capacidade técnica, definir prioridades, desenvolver medidas de mitigação, atender às metas da gestão e definir o escopo de um programa de engajamento.

    LEIA TAMBÉM:

     

    Um exemplo já existente é o esgNLP, um modelo de processamento de linguagem natural, treinado pela International Finance Corpotaration (IFC) usando o Google BERT[6]. O esgNLP está condicionado a identificar quase 1.200 termos sobre riscos ESG em textos e classificar as frases em que aparecem, com base em sentimentos positivos, negativos e neutros.

    Termos como inclusão, transparência e comunidade são percebidos como positivos, enquanto poluição do ar, saúde ocupacional e desigualdade de gênero são vistos como negativos[7]. Com base nos termos levantados e nos sentimentos detectados, é possível criar análises e insights sobre dados não estruturados, com economia de custo e tempo.

    Deve-se atentar no uso de modelos PLN para a garantia de transparência e de que os dados disponíveis para treinamento de modelo ou para criação de inferência sejam representativos da população estudada, garantindo a diversidade de fontes de dados, rastreabilidade de dados geográficos e setoriais e assegurar dados de alta qualidade.

    A melhor maneira de termos uma ideia realista sobre o desempenho do ChatGPT é analisando a precisão do conteúdo de suas respostas para questões formuladas. 

    Pergunta 1: Você acha que há má qualidade ou disponibilidade de dados e análises ESG? Resposta: Não há uma única resposta para essa pergunta, pois a qualidade e disponibilidade de dados e análises ESG variam amplamente entre diferentes empresas e setores. Algumas empresas fornecem informações detalhadas e atualizadas sobre suas práticas e desempenho ESG, enquanto outras oferecem pouca ou nenhuma informação. 

    Além disso, a qualidade das análises ESG também varia, e é importante fazer uma avaliação cuidadosa e crítica dos dados e informações disponíveis. No geral, no entanto, a conscientização e a importância crescentes da ESG têm levado a uma melhoria na disponibilidade e qualidade de dados e análises nesse campo.

    A Pergunta 2 foi sobre como a IA pode ajudar na melhoria desses dados e análises ESG. Resposta: A inteligência artificial pode ajudar a melhorar a qualidade e a disponibilidade de dados e análises ESG de várias maneiras: 1. Coleta de dados: Algoritmos de aprendizado de máquina podem ser usados para coletar e processar grandes quantidades de dados ESG de fontes diversas, como relatórios financeiros, notícias e meios de comunicação social.

    1. Análise de dados: A IA pode ser usada para analisar os dados coletados e identificar padrões e tendências relevantes. Por exemplo, os modelos de aprendizado de máquina podem ser treinados para prever o desempenho ESG futuro de uma empresa com base em suas práticas e desempenho passados.
    2. Monitoramento: Os algoritmos de IA podem ser usados para monitorar continuamente o desempenho ESG de uma empresa e alertar os usuários sobre mudanças significativas. 
    3. Melhoria da transparência: A IA pode ser usada para tornar mais fácil e acessível para os investidores acessar e compreender informações ESG relevantes sobre as empresas em que estão considerando investir.

    O resumo que o ChatGPT fez é pertinente, ao afirmar que a “ IA pode ser uma ferramenta valiosa para melhorar a qualidade e disponibilidade de dados e análises ESG, ajudando a promover decisões de investimento mais informadas e responsáveis”.

    Um outro quadro que abre um espaço cada vez mais significativo para a análise de dados de maneira objetiva e confiável é o dos investimentos sustentáveis. Com o advento, principalmente, das mudanças climáticas, os Objetivos de Desenvolvimento Sustentável (ODS) das Nações Unidas tornaram-se um novo paradigma inevitável.

    Os investimentos em conformidade com os ODS têm o potencial de remodelar setores inteiros e impactar positivamente o desenvolvimento de corporações, economias e sociedades em direção a maior sustentabilidade.

    Dados ESG de alta qualidade tornaram-se muito valiosos nos últimos anos, em especial devido às regras impostas pelos reguladores financeiros dos Estados Unidos e da União Europeia, que impuseram  dispositivos estritas de relatórios aos gestores de ativos, com o objetivo de minimizar o risco de greenwashing, a prática de organizações de promover discursos e ações ditas sustentáveis, mas que não são realmente adotadas.

    Em Singapura, por exemplo, bancos terão que passar por um teste de estresse. A Autoridade Monetária de Singapura empregará IA e métodos de verificação de dados para que a proveniência de investimentos verdes possa ser atestada.

    Nas próprias iniciativas corporativas de ESG, a IA tem um papel de crescente relevância. Na esfera ambiental, as empresas podem aplicar ferramentas de IA para cumprir critérios ambientais em seus modelos de negócios, como aumentar a eficiência energética nas operações, ao adotar redes inteligentes que aproveitam a análise de dados em tempo real para garantir a demanda e o fornecimento de energia. 

    De fato, com redes mais complexas coletando energia de diferentes fontes, não renováveis ​​e renováveis, a IA pode analisar conjuntos de dados massivos, melhorando o gerenciamento dessas fontes.

    De forma similar, ferramentas de IA podem apoiar no controle da poluição e do gerenciamento de resíduos. Na agricultura e na indústria alimentícia, as perdas pós-colheita e o desperdício de alimentos são dois dos principais problemas na gestão da cadeia de abastecimento e logística. Uma aplicação é a de dispositivos inteligentes baseados em tecnologias de sensores que permitem a automatização do envio e da entrega de mercadorias, monitorando e prevendo a perecibilidade da carga.

    Além disso, as informações auxiliam os profissionais de cadeia de suprimentos quanto à alteração de preço da carga ou momento de envio das cargas, possibilitando o corte de custos logísticos e tempo.


    [1] Disponível em: ChatGPT: Optimizing Language Models for Dialogue (openai.com)

    [2] Disponível em: Sustainability and AI | Oracle

    [3] Disponível em: blackrock-sustainability-survey.pdf (lalr.co)

    [4] S&P: O Índice S&P 500 é um índice de mercado criado pela S&P Dow Jones Indices e que representa o desempenho médio das ações de empresas americanas de maior capitalização negociadas nas bolsas dos EUA.

    [5] PLN: O processamento de linguagem natural (PLN) é um ramo da linguagem artificial inteligência, que faz uso de recursos de computação que podem compreender a maneira como os humanos aprendem e usam a linguagem.

    [6] Google BERT: Google BERT é um algoritmo e acrônimo para Bidirectional Encoder Representations from Transformes. Baseado em inteligência artificial, ele é capaz de traduzir a linguagem humana para os computadores e permite que o Google entenda o que as pessoas estão buscando.

    [7] Disponível em: Artificial Intelligence Solutions to Support Environmental, Social, and Governance Integration in Emerging Markets (ifc.org)


    LORENA CARNEIRO – Sócia da Lee, Brock, Camargo Advogados, LLM em Direito Societário e Mercados de Capitais pela FGV-RJ e cursando MBA em Gestão de Negócios, Inovação e Empreendedorismo pela FIA

    KRISTIAN LEE – B.Sc. in Economics and Business Administration e Computer Science Student, ambos pela Goethe Universität Frankfurt Am Main, e Senior Business Analyst na Warren Brasil.