Dia: 31 de julho de 2024

  • Diferentes graus de emprego da IA convivem na advocacia brasileira

    Diferentes graus de emprego da IA convivem na advocacia brasileira

    Pesquisa da Universidade de Princeton apontou que o setor jurídico está entre os 20 mais afetados pela IA nos próximos anos. O que isso quer dizer? Em 10 anos todos os 1,4 milhão de advogados brasileiros devem começar a procurar novas atividades? Certamente que não, mas o advento da IA e seus sistemas revolucionários vieram para impactar a forma como setor jurídico, entre eles a advocacia, atua. Uma tendência que deve afetar igualmente todos os demais segmentos da economia e da sociedade.

    No universo da advocacia, as tecnologias de IA foram, a princípio, avaliadas de três formas: Com discriminação, preocupação e vistas como desafios. O primeiro implica na grande resistência inicial que o uso de tecnologias de IA teve junto aos profissionais e entidades de classe, sopesando a questão da redução de postos de trabalho, tanto nos escritórios de advocacia, quanto nos departamentos jurídicos, além de um ceticismo genalizado de que a solução dos problemas estava na tecnologia. O temor ganhou um grau a mais com a chegada da IA generativa, que envolve modelos de aprendizagem da máquina que, com base na análise de grande volume de dados preexistentes é capaz de criar conteúdo semelhante aos inéditos, sejam de vídeos a áudios e textos, meio pelo qual o setor jurídico desenvolveu sua atividade desde sua criação.

    O presidente do Supremo Tribunal norte-americano, John Roberts, foi muito assertivo ao afirmar que o potencial das tecnologias de IA mudará o modo de trabalho de todos os operadores do Direito, mas tem consigo a angústia de que isso possa desumanizar a lei. Essa observação contém duas verdades: Os sistemas de IA estão acelerando grandes mudanças no sistema jurídico e que o Direito tem uma forte tradição na cultura do humanismo, no sujeito de direito e na garantia do princípio da dignidade do ser humano. Contudo, a tecnologia não incrementará vulnerabilidades neste campo se, na prática, cada profissional do Direito empregar os sistemas de IA para tornar a justiça mais eficaz e acessível.

    A segunda frente envolve os vieses éticos, de transparência e de conformidade, uma vez que o Brasil não consegue evoluir em seu Marco Regulatório da IA (PL 2.338/23), cuja votação vem sendo adiada no Congresso Nacional por falta de consenso entre os parlamentares. Esse tipo de impasse entre avanço e recuo sobre os sistemas de IA, contudo, poderá ser superado pela possibilidade, mesmo sem regramento de conformidade,  de que haverá supervisão humana a cada progresso das tecnologias de IA, aliado às vantagens disponíveis para toda a sociedade.

    Muitos estudos têm apontado que os analistas jurídicos, os bacharéis de Direito que realizam serviços de apoio nos escritórios, como pesquisas jurídicas, correm mais risco de perder mais rapidamente seus postos para a tecnologia, porque os softwares conseguem processar dados mais rapidamente do que qualquer ser humano, em diferentes idiomas com possibilidade de análise, resumo e aplicação enquanto tese dentro de possíveis litígios. Dados de relatório da Goldman Sachs apontam que a IA Generativa pode substituir até 44% da profissão jurídica. Mas isso tem de ser examinado, porque estamos falando de tarefas burocráticas e repetitivas, que consomem tempo precioso do trabalho estratégico advocatício.

    LEIA TAMBÉM: IA como ferramenta de inclusão dentro do fator S do ESG

    Aos poucos, o temor de que as tecnologias de IA generativa iriam ocupar o lugar dos advogados veio diminuindo. Haverá mudanças, disrupções, mudanças, mas nada acontecerá de afogadilho. Neste cenário, porém, o advogado terá de conhecer e incorporar algumas ferramentas tecnológicas fundamentais para seu trabalho ou ficará para trás.

    No dia a dia, a IA vem ajudando os advogados e demais profissionais do setor jurídico a encontrar soluções criativas e adotar um novo mindset. Até um fato simples, como um aplicativo de busca amplia a possibilidade da pesquisa on-line no exercício da advocacia, seja pela quantidade ou qualidade da informação que reúne, e está provado que isso aumentar a autoestima cognitiva do pesquisador que, unida à tecnologia, permitirá avaliar os dados encontrados e a ensejar uma produtividade inovadora.

    Na tentativa de revisitar esse processo da advocacia e da tecnologia, sistematizei cinco fases da gestão jurídica pelas quais passam os escritórios no Brasil ao mesmo tempo. Temos desde bancas que não utilizam ferramenta tecnológica alguma até as que empregam IA generativa em larga escala. Na fase 1, estão os escritórios sem sistemas tecnológicos digitais. Na fase 2, estão os que utilizam algumas ferramentas. Na fase 3, estão as que utilizam uma série de serviços tecnológicos disponibilizados pelas law techs. Na fase 4, estão os que empregam uma plataforma para gerir os serviços da banca e, por fim, na fase 5, aqueles que empregam as tecnologias da IA generativa. No Brasil de tantas contradições, esses 5 modelos de escritórios de advocacia convivem ao mesmo tempo.

    Podemos ter como marco inicial da história da tecnologia na advocacia brasileira a década de 1980/1990, quando teve início a lenta automação dos escritórios de advocacia. Temos de lembrar que em 1974, foi criada a primeira empresa brasileira (estatal) de fabricação de computadores, a Cobra (Computadores Brasileiros S.A.), mas o computador pessoal demorou para ingressar nos escritórios dos advogados brasileiros. A internet só viria em 1995 e o primeiro provedor de e-mail viria no ano seguinte. O e-mail foi marcante para o dia a dia da advocacia, porque permitia comunicação mais rápida, eficiente e segura para enviar e receber mensagens dos clientes, que atualmente vem sendo substituído por aplicativos, mas teve um reinado longo.

    Nos anos 2000, cresceram as possibilidades digitais de comunicação, pesquisa e gestão. O processo judicial eletrônico é implantado em 2006 pelo TJ/SP, seguido pelas demais cortes do país, dando o start na automação do Judiciário, tendo sofrido muitas resistências. Hoje, a digitalização é vista como altamente positiva, tendo sido ampliada durante a pandemia (2020/2021) com as audiências on-line.

    Nesse “balaio” tecnológico, as soluções das lawtechs para atender às necessidades dos escritórios de advocacia continuam a se expandir, apresentando ferramentas que resultam em trabalho rápido, mais produtivo e mais barato, automatizando documentos, mediando conflitos on-line, prospectando novos serviços e fazendo análises preditivas, entre outras ações. Enfim, abrindo novas oportunidades em um mercado cada dia mais concorrido. No momento, a grande demanda está voltada à gestão de automação de contratos e gestão do contencioso.

    VEJA MAIS: Proteção de dados e IA: Solano de Camargo analisa nova tabela de honorários da OAB/SP

    As plataformas tecnológicas mudaram a forma como os escritórios e departamentos jurídicos trabalhavam e gerenciavam suas competências. O Legal Ops – Legal Operations, por exemplo, potencializa um conjunto de processos estratégicos e inovadores para assegurar boas práticas jurídicas, de tecnologia (com uso intensivo de IA), de negócios, de transparência  e financeiros, melhorando a gestão do contencioso, principalmente quando o escritório reúne demandas da advocacia de volume.

    Os sistemas da IA generativa são o presente/futuro da advocacia. O “aprendizado da máquina” que, com base em dados brutos, geram novos e inéditos conteúdos, popularizou o uso dessas ferramentas tecnológicas de IA, como o Chat GPT, Google Bard, Perplexity AI, Stable M, Dixa e outros chatbots de linguagem. A tendência é que grande parte dos advogados esteja aberta ao potencial da IA generativa para integrar em seu trabalho jurídico e, dessa forma, gerar novos insights. A profissão não deixará de existir, até porque onde há novas realidades surgindo, haverá novos conflitos e mais os advogados serão requisitados para representar as partes e suas demandas.

  • IA como ferramenta de inclusão dentro do fator S do ESG

    IA como ferramenta de inclusão dentro do fator S do ESG

    Nos últimos anos, avanços significativos têm sido alcançados no campo da inteligência artificial (IA), transformando diversos aspectos da vida humana. A IA pode ser utilizada como uma ferramenta poderosa para promover a inclusão social, abordando as necessidades específicas de grupos que demandam atenção especial, como pessoas com deficiências, minorias étnicas, LGBTQIAPN+, refugiados e imigrantes. Mas também pode discutir como a incorporação de princípios de sustentabilidade ambiental, social e governança (ESG) na regulamentação da IA pode amplificar seu impacto positivo e beneficiar diretamente esses grupos marginalizados.

    O portador de deficiência, seja ela qual for, frequentemente enfrenta obstáculos significativos na busca por educação, emprego, acesso a serviços básicos e engajamento social. Paralelamente, existem também os grupos marginalizados, como as minorias étnicas, LGBTQIAPN+, refugiados e imigrantes, que muitas vezes sofrem discriminação e exclusão sistemática devido a preconceitos arraigados e estruturas sociais desiguais. A inteligência artificial pode desempenhar um papel crucial em atender essas necessidades específicas e promover a inclusão desses grupos na sociedade.

    IA em ação

    Nesse contexto, a IA emerge como uma ferramenta poderosa para impulsionar a inclusão social, essencial tanto para o progresso e prosperidade de nossa sociedade como um todo, quanto para a Justiça social. Incorporar princípios de sustentabilidade ambiental, social e governança (ESG) na regulamentação da IA pode ampliar seu impacto positivo e beneficiar diretamente esses grupos marginalizados.

    A inclusão de talentos com deficiência está no eixo do pilar S do ESG, tanto que novas métricas de diversidade e inclusão vêm sendo adotadas pelas empresas em seus relatórios anuais diante do crescimento de demandas de seus stakeholders (partes interessadas). Isso visa entender se a empregabilidade de profissionais com deficiência é um valor para a marca e se há um esforço neste sentido.

    As pessoas com deficiência em idade produtiva enfrentaram e enfrentam discriminação, tratamento desigual e invisibilidade histórica no mundo corporativo, realidade que pode ser confrontada e superada por melhores práticas sociais no escopo ESG, com apoio das tecnologias de IA.

    Dados da Agência do Departamento do Trabalho dos Estados Unidos que coleta, processa, analisa e dissemina informações estatísticas sobre o mercado de trabalho, condições de trabalho, e mudanças de preços e produtividade, apontam que 10,7 milhões de PCDs continuam sub-representados nas empresas dos EUA.

    Determinadas empresas do ramo da tecnologia desenvolveram o aplicativo Seeing AI, por exemplo, que utiliza IA para descrever o ambiente e ler textos em voz alta para pessoas com deficiência visual, ajudando a superar barreiras significativas em seu dia a dia das pessoas com deficiência visual.

    Eficácia das medidas de inclusão

    A IA pode ser utilizada para monitorar a diversidade e inclusão dentro das organizações. Ferramentas de análise de dados podem avaliar a composição das equipes, identificar áreas onde a diversidade está faltando e sugerir ações corretivas. Isso garante que as políticas de inclusão não sejam apenas uma formalidade, mas parte integral da cultura organizacional.

    No contexto social, políticas de IA podem ser direcionadas para criar oportunidades de emprego em setores emergentes de tecnologia inclusiva, promovendo a resiliência econômica e reduzindo disparidades sociais. Por exemplo, a IA pode ajudar a identificar talentos em comunidades marginalizadas e facilitar o acesso a empregos em tecnologia, proporcionando uma participação mais equitativa na economia digital.

    VEJA TAMBÉM: Proteção de dados e IA: Solano de Camargo analisa nova tabela de honorários da OAB/SP

    A aplicação da inteligência artificial na promoção da inclusão pode ocorrer em uma variedade de áreas e contextos. Por exemplo, na educação, com sistema de tutoria inteligente que podem ajudar a oferecer suporte individualizado a alunos com necessidades especiais; na saúde, algoritmos podem ajudar a diagnosticar doenças, adaptar tratamentos e melhorar o acesso a cuidados de saúde de qualidade para populações vulneráveis; sistemas de reconhecimento de voz e tecnologias de tradução automática podem facilitar a comunicação e o acesso à informação para pessoas com deficiência auditiva ou de fala; tecnologias de visão computacional podem ser utilizadas para desenvolver dispositivos de assistência que ajudem pessoas com deficiência visual a navegar em ambientes físicos e virtuais de forma independente.

    Outro exemplo, no qual a inteligência artificial pode desempenhar um papel crucial na identificação e redução de preconceitos e discriminação, é projetando os algoritmos para detectar e mitigar vieses em processos de tomada de decisão, ajudando, assim, a garantir que as decisões sejam justas e equitativas para todos os membros da sociedade, incluindo minorias étnicas, LGBTQIAPN+ e pessoas com deficiência.

    Desafios adicionais e soluções propostas

    No entanto, apesar de seu imenso potencial, é fundamental reconhecer que a implementação eficaz da IA na promoção da inclusão requer uma abordagem cuidadosa e reflexiva, considerando questões éticas, sociais, culturais, técnicas e jurídicas.

    Como se sabe, um desafio técnico que pode dificultar a implementação efetiva de soluções voltadas para a promoção da inclusão é a disponibilidade e qualidade dos dados utilizados pelos sistemas, pois os algoritmos de inteligência artificial dependem de grandes conjuntos de dados para aprender e tomar decisões. Consequentemente, se esses dados forem tendenciosos ou não representativos da diversidade da população, os sistemas podem perpetuar ou ampliar desigualdades existentes ao invés de mitigá-las.

    No âmbito do desafio social e até cultural existe a falta de acessibilidade e usabilidade das tecnologias da inteligência artificial para pessoas com deficiências. Muitos sistemas de IA não são projetados levando em consideração as necessidades específicas de pessoas com deficiência, o que pode limitar sua eficácia e utilidade para esses usuários.

    LEIA TAMBÉM: O imperativo da inovação no ESG

    Agora, no tocante ao desafio ético, há a questão da privacidade que também representa uma barreira para a implementação da IA na promoção da inclusão, considerando que o uso indevido ou inadequado de tecnologias pode resultar em violações de direitos humanos, discriminação e vigilância invasiva.

    Além dos desafios elencados acima, a implementação da IA também abarca diversos desafios jurídicos: questões como a proteção de dados pessoais, a segurança cibernética e o viés algorítmico exigem uma regulamentação cuidadosa para garantir que essa tecnologia seja utilizada de maneira responsável, preservando os direitos das pessoas com deficiência e o das demais minorias.

    É exatamente por este motivo que a regulação da inteligência artificial é um campo em desenvolvimento que requer uma resposta jurídica robusta, pois, como visto, é fundamental estabelecer políticas e normas que assegurem a proteção dos direitos humanos das pessoas com deficiência e das demais minorias abordadas, ao mesmo tempo em que promovem a inovação tecnológica e a acessibilidade universal.

    Assim, a questão essencial é: como criar uma regulamentação que assegure que a IA seja realmente essa ferramenta de apoio à inclusão? O Legislativo brasileiro já adiou por três vezes a votação do PL 2338/2023, que regulamenta a IA no Brasil, deixando um entendimento de que o debate ainda não está maduro para ser votado.

    Para maximizar os benefícios da IA na promoção da inclusão, a regulamentação deve promover a diversidade nos dados, desenvolver tecnologias acessíveis, implementar medidas de transparência e responsabilidade, fomentar a educação sobre IA e colaborar em iniciativas multidisciplinares.

    Boas práticas em regulamentação

    Mas, como garantir que tudo isso seja implementado, respeitado e cumprido?

    A IA pode inadvertidamente perpetuar preconceitos existentes se não forem implementadas medidas adequadas para detectar e mitigar vieses nos algoritmos. Regulações podem exigir a análise e a correção de algoritmos para garantir que as decisões automáticas sejam justas e equitativas para todos os grupos sociais, incluindo minorias étnicas, LGBTQIAPN+ e pessoas com deficiência.

    A regulamentação deve estabelecer normas claras para proteger os dados pessoais utilizados pelos sistemas de IA. Isso é crucial para evitar violações de privacidade e garantir que as informações sensíveis de indivíduos, como as relacionadas à saúde e à deficiência, sejam devidamente protegidas.

    Nesse sentido, as normas podem ser criadas para exigir que os sistemas de IA sejam desenvolvidos com considerações específicas para torná-los acessíveis para pessoas com deficiências. Isso inclui interfaces que suportam tecnologias assistivas e que sejam projetadas de maneira a garantir que todos os usuários possam interagir eficazmente com essas tecnologias.

    Além disso, as regulações podem requerer transparência nas decisões tomadas por sistemas de IA, incluindo a divulgação de como decisões foram alcançadas e quais dados foram utilizados. Isso não apenas promove a responsabilidade dos desenvolvedores, mas também permite que indivíduos compreendam e contestem decisões que os afetam.

    Promover a educação sobre ética e impactos da IA é essencial para capacitar desenvolvedores, usuários e reguladores a entenderem melhor as implicações sociais e éticas da tecnologia. Além disso, incentivar iniciativas colaborativas entre diferentes áreas do conhecimento pode levar a soluções mais holísticas e inclusivas.

    Exemplos de políticas ou normas que podem ser implementadas incluem: auditorias de algoritmos, padrões de acessibilidade, relatórios de impacto de privacidade, diretrizes de transparência e programas educacionais.

    Essas políticas e normas não apenas protegem os direitos das pessoas com deficiência e outras minorias, mas também promovem um ambiente de inovação responsável, onde a tecnologia pode verdadeiramente servir como uma ferramenta para a inclusão e justiça social.

    Em síntese, os avanços da inteligência artificial têm promovido inclusão e acessibilidade para pessoas com deficiências e grupos marginalizados, superando barreiras físicas, cognitivas e comunicativas.

    No entanto, para maximizar esses benefícios de forma justa e equitativa, é essencial uma regulamentação robusta, que garanta a proteção contra vieses algorítmicos, preserve a privacidade dos dados pessoais, promova a acessibilidade das tecnologias, assegure transparência nas decisões automatizadas e eduque sobre ética em IA. Uma abordagem proativa na regulamentação não só facilitará a inovação tecnológica, mas também fortalecerá a inclusão e a justiça social na sociedade contemporânea.

    Desse modo, a inteligência artificial tem o potencial de transformar significativamente o aspecto social do ESG, fornecendo ferramentas para identificar necessidades, promover inclusão e melhorar as condições de trabalho e capacitação.

    Ao focar em grupos que demandam atenção especial, as empresas não só cumprem suas responsabilidades sociais, mas também fortalecem sua própria sustentabilidade e reputação no mercado.

    A adoção consciente e ética da IA pode, portanto, ser um diferencial crucial na promoção de um mundo mais justo e equitativo.

    Em última análise, ao integrar práticas de responsabilidade social e ética em suas operações, as empresas não apenas contribuem para o bem-estar da sociedade, mas também garantem seu próprio sucesso a longo prazo, construindo uma base sólida de confiança e lealdade entre seus stakeholders.


    VICTÓRIA VIEIRA SCACCHETTI – Advogada da Lee, Brock, Camargo Advogados e pós-graduada em Processo Civil pela PUC-SP