Dia: 12 de junho de 2025

  • O uso responsável da inteligência artificial generativa na advocacia

    O uso responsável da inteligência artificial generativa na advocacia

    O avanço das tecnologias de inteligência artificial (IA) tem provocado mudanças significativas na forma em que os advogados desempenham suas atividades. Ferramentas como sistemas de IA generativa, capazes de redigir textos, revisar contratos e analisar jurisprudência, já fazem parte da rotina de muitos escritórios. Entretanto, essa inovação não vem sem riscos. A inserção de dados sensíveis em sistemas automatizados, a opacidade de alguns modelos e o potencial de erros ou vieses são desafios que exigem atenção redobrada.

    Nesse contexto, a Recomendação 001/2024 do Conselho Federal da Ordem dos Advogados do Brasil (OAB) e o Projeto de Lei 2.338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil, oferecem diretrizes valiosas para orientar o uso ético, seguro e responsável da IA generativa na prática jurídica. A análise conjunta desses documentos permite identificar pontos de convergência essenciais para a advocacia, principalmente no que tange à proteção de dados, à supervisão humana e à responsabilidade profissional.

    Confidencialidade e proteção de dados: o compromisso inalienável da advocacia

    A recomendação da OAB é categórica: o sigilo profissional não pode ser comprometido pelo uso de IA. Advogados devem evitar inserir dados sensíveis de clientes em sistemas de IA sem garantias explícitas de confidencialidade e segurança. O documento alerta para o risco de que informações processadas por modelos de linguagem sejam armazenadas e, eventualmente, reutilizadas para fins de treinamento, muitas vezes sem o conhecimento ou consentimento do usuário.

    Essa preocupação dialoga com os princípios do PL 2.338/2023, que consagra a proteção de dados pessoais, a centralidade da pessoa humana e a autodeterminação informativa como fundamentos para o uso de IA no Brasil.

    LEIA MAIS: E-commerce em expansão: desafios legais, regulação e boas práticas

    A distinção entre ferramentas de código aberto e código fechado é um aspecto central dessa discussão. Sistemas de IA generativa de código aberto, por sua natureza, permitem maior transparência no código-fonte, mas podem expor os dados processados a reuso em novos treinamentos, caso não sejam configurados adequadamente. Já sistemas de código fechado, operados por grandes empresas de tecnologia, muitas vezes funcionam como caixas-pretas, dificultando a auditoria e o controle sobre o destino das informações inseridas.

    Um advogado que utiliza IA para revisar contratos de fusão e aquisição, por exemplo, precisa avaliar com rigor onde e como as informações estratégicas de seus clientes estão sendo processadas. A ausência de garantias contratuais claras pode gerar riscos significativos de exposição de dados confidenciais, além de possíveis violações à Lei Geral de Proteção de Dados (LGPD).

    A adoção responsável de IA em escritórios de advocacia exige mais do que boas intenções: demanda a implementação de políticas internas robustas de governança, com diretrizes claras sobre o uso de IA, restrições de processamento de dados confidenciais, revisão obrigatória das saídas geradas por IA e a definição de procedimentos para avaliar a confiabilidade e a segurança das ferramentas utilizadas.

    Supervisão humana: a defesa intransferível do julgamento jurídico

    Tanto a Recomendação da OAB quanto o PL 2.338/2023 reforçam que a decisão final sobre questões jurídicas deve ser humana. A IA pode sugerir soluções, mas o juízo crítico, a ponderação dos fatos e a estratégia processual são responsabilidades exclusivas do advogado.

    Considere o caso de um advogado trabalhista que utiliza IA para identificar padrões de fraude em ações coletivas. Embora o sistema possa indicar indícios relevantes, cabe ao advogado validar as informações, verificar sua precisão e analisar o contexto. Uma decisão tomada exclusivamente com base em saídas de IA, sem revisão humana, pode resultar em alegações infundadas e expor o profissional a sanções éticas e jurídicas.

    No âmbito da prática jurídica, o dever de diligência exige que o advogado compreenda as ferramentas de IA utilizadas, conheça seus riscos e limites e, sobretudo, assegure que as decisões e estratégias sejam fundamentadas em análise humana criteriosa. O uso responsável de IA não exime o profissional de sua obrigação de atuar com zelo, prudência e respeito às normas éticas e legais.

    Transparência e consentimento: um pacto ético com o cliente

    A transparência no uso de IA não é opcional: é um dever ético e jurídico. A recomendação da OAB orienta que advogados informem seus clientes sobre a utilização de ferramentas de IA, explicando os benefícios, as limitações e os riscos — incluindo a natureza da tecnologia (código aberto ou fechado), o tratamento de dados pessoais e as garantias de segurança aplicáveis.

    VEJA TAMBÉM: Avança o debate sobre supervisão humana no ciclo de vida da IA

    O consentimento informado, formalizado por escrito, é indispensável para assegurar a conformidade ética e legal do trabalho. Além de informar seus clientes sobre o uso de IA, o escritório deve adotar práticas de comunicação proativa, oferecendo explicações claras e acessíveis sobre os benefícios, limitações e medidas de segurança adotadas para proteger as informações sensíveis. Essa transparência fortalece a confiança e demonstra o compromisso do advogado com a ética profissional e o respeito aos direitos do cliente.

    Essa transparência também está prevista no PL 2.338/2023, que assegura o direito à informação prévia, à explicação sobre decisões automatizadas e à contestação dos resultados gerados por sistemas de IA.

    Responsabilidade e riscos: a nova fronteira da advocacia

    O PL 2.338/2023 introduz um ponto crucial ao estabelecer a responsabilidade objetiva para agentes que operam sistemas de IA de alto risco. Isso significa que o advogado ou o escritório que utiliza ferramentas de IA sem avaliar adequadamente seus riscos pode ser responsabilizado por eventuais danos causados, independentemente de culpa.

    Essa nova fronteira impõe a necessidade de implementação de programas de governança de IA nos escritórios, com políticas internas claras, treinamentos periódicos e avaliações de impacto.

    Além disso, é fundamental negociar contratos robustos com fornecedores de tecnologia, prevendo cláusulas específicas sobre confidencialidade, restrição de uso dos dados para treinamento, garantias de segurança e auditoria periódica das soluções contratadas.

    Revisar manualmente todas as saídas geradas por IA antes de apresentá-las em juízo ou de compartilhá-las com clientes não é mera formalidade: trata-se de uma obrigação ética e de um escudo contra riscos jurídicos e reputacionais.

    Advocacia e inteligência artificial: liderança com ética, técnica e responsabilidade

    A Recomendação 001/2024 da OAB e o PL 2.338/2023 oferecem um caminho para que a advocacia brasileira adote a IA generativa de forma ética, segura e responsável. Contudo, é importante reconhecer que o uso da IA é cada vez mais abrangente e irreversível, enquanto as bases jurídicas que regulam essa tecnologia ainda estão em construção. Esse cenário demanda uma reflexão sistêmica sobre todo o ordenamento jurídico, considerando os direitos fundamentais, a ética profissional, a proteção de dados, a responsabilidade civil, a governança e a segurança da informação.

    É fundamental esclarecer que, no contexto da advocacia, a IA é uma ferramenta de apoio à atividade intelectual, e não um substituto para o raciocínio jurídico, a análise estratégica ou a tomada de decisões. A supervisão humana é inegociável, e o advogado permanece como o responsável final pela qualidade, pela ética e pela segurança dos serviços prestados.

    Ao adotar práticas sólidas de governança, investir em capacitação contínua e comunicar-se de forma clara e transparente com seus clientes, o escritório de advocacia demonstra sua maturidade digital e sua capacidade de liderar a transformação tecnológica com responsabilidade. A inovação, quando guiada por princípios éticos, fortalece a confiança do cliente e posiciona o advogado como protagonista na defesa dos direitos fundamentais em um mundo cada vez mais digitalizado.

    O futuro da advocacia está sendo construído agora. Cabe a cada profissional decidir se será protagonista dessa transformação ou mero espectador de suas consequências.


    Paulo Vinicius de Carvalho Soares – é sócio do escritório Lee Brock Camargo Advogados, mestre em Direito Civil pela PUC-SP e graduado em Direito pela Universidade de São Paulo (USP).

  • Treinamento de IAs generativas: o direito autoral em disputa

    Treinamento de IAs generativas: o direito autoral em disputa

    A utilização de obras protegidas por direitos autorais no treinamento de modelos de inteligência artificial generativa tem se tornado um dos pontos mais tensionados da regulação da IA nos Estados Unidos. O novo relatório da U.S. Copyright Office, publicado em maio de 2025, aprofunda esse debate sob a perspectiva jurídica e técnica, com foco em três eixos: a caracterização do uso como infração, a aplicabilidade da doutrina de fair use e os modelos possíveis de licenciamento.

    O documento reconhece que o uso massivo e automatizado de obras protegidas é parte central do funcionamento atual de modelos de linguagem e imagem. Em muitos casos, esses modelos são capazes de memorizar ou replicar trechos integrais de obras protegidas, o que pode configurar infração ao direito de reprodução e à criação de obras derivadas. A simples remoção do conteúdo original após o treinamento não afasta o risco jurídico. O problema não é apenas o uso pontual, mas a internalização dos padrões criativos no comportamento dos modelos.

    A análise de fair use, por sua vez, é tratada com cautela. Trata-se de uma doutrina do direito autoral norte-americano que permite o uso não autorizado de obras protegidas, desde que esse uso seja considerado justo com base em critérios como finalidade, natureza da obra, quantidade utilizada e impacto no mercado. São exemplos típicos de fair use o uso de trechos de obras para críticas e resenhas, paródias, reportagens jornalísticas, ensino e pesquisa. 

    O relatório reconhece que usos técnicos intermediários, como pré-processamento e extração de padrões estatísticos, podem ser enquadrados como usos transformativos. O uso é considerado transformativo quando a obra original é empregada com um novo propósito, diferente do originalmente pretendido pelo autor, como no caso do uso de uma fotografia publicitária incorporada a uma obra artística crítica, com função estética ou social distinta. Ainda assim, essa avaliação do elemento transformativo depende do grau de memorização, da natureza comercial do uso, do impacto no mercado da obra original e da clareza sobre a finalidade do uso. Nem todo uso técnico será automaticamente considerado transformativo, especialmente se houver risco de substituição ou confusão com a obra protegida.

    LEIA MAIS: Cashback na era dos dados

    Outro ponto de destaque é a viabilidade de soluções de licenciamento. O relatório explora alternativas como licenciamento voluntário, licenciamento compulsório e esquemas de licenciamento coletivo estendido, sugerindo inclusive a possibilidade de mecanismos de opt-out. A estruturação de um sistema que permita compensação justa aos titulares de direitos, sem inviabilizar o desenvolvimento tecnológico, é vista como essencial para o equilíbrio regulatório.

    Essa nova realidade exige também uma revisão dos contratos tecnológicos que estruturam os modelos de IA generativa. Contratos de fornecimento de dados, licenciamento de conteúdo e integração de APIs precisam prever com precisão os limites de uso, os mecanismos de rastreamento de origem e as responsabilidades em caso de infração. Em um ecossistema onde os dados alimentam diretamente o comportamento do modelo, cláusulas genéricas sobre titularidade ou limitação de uso já não são suficientes. É necessário antecipar juridicamente o que ocorre tecnicamente em cada fase do ciclo de treinamento.

    Do ponto de vista regulatório, a falta de articulação entre os diferentes marcos legais que impactam a IA começa a gerar insegurança jurídica. Questões de propriedade intelectual, proteção de dados, defesa do consumidor e concorrência ainda são tratadas de forma setorial, apesar de os efeitos da IA atravessarem todos esses campos simultaneamente. O relatório da Copyright Office destaca que essa descoordenação compromete a eficácia regulatória e amplia assimetrias. Um modelo normativo consistente precisa refletir a arquitetura real das tecnologias, em vez de replicar categorias jurídicas estanques.

    VEJA TAMBÉM: Avança o debate sobre supervisão humana no ciclo de vida da IA

    Começa a se formar, ainda que de forma incipiente, um mercado paralelo de dados treináveis com origem autorizada. Coletivos de autores, editoras, criadores independentes e empresas de mídia já estruturam bases de dados pensadas para alimentar modelos de IA de forma lícita e remunerada. Esse movimento pode abrir espaço para modelos de negócio alternativos, menos dependentes de scraping indiscriminado e juridicamente mais estáveis. A atuação jurídica, nesse cenário, passa a incluir também o desenho desses modelos de licenciamento, combinando critérios de compliance, remuneração e valorização da produção intelectual.

  • E-commerce em expansão: desafios legais, regulação e boas práticas

    E-commerce em expansão: desafios legais, regulação e boas práticas

    A velocidade com que o e-commerce se expande na América Latina é impressionante, remodelando o cenário econômico e o comportamento do consumidor. No Brasil, a Associação Brasileira de Comércio Eletrônico (ABComm) prevê um faturamento de R$ 224,70 bilhões até 2025, um marco que evidencia a força desse setor.

    Essa transformação digital, impulsionada por marketplaces e redes sociais, levanta questões jurídicas complexas que demandam análise cuidadosa para assegurar a segurança e a conformidade legal dessas atividades.

    Legislação e órgãos reguladores no e-commerce

    arcabouço jurídico que rege o e-commerce no Brasil é extenso e complexo, exigindo das empresas um conhecimento aprofundado e uma constante atualização. O Marco Civil da Internet (Lei nº 12.965/2014) estabelece os princípios e as responsabilidades dos provedores de serviços on-line, enquanto o Decreto nº 7.962/2013 regulamenta e define regras para as transações de comércio eletrônico.

    Além disso, órgãos como o Conselho Administrativo de Defesa Econômica (CADE), a Secretaria Nacional do Consumidor (SENACON) e o Banco Central do Brasil desempenham um papel crucial na regulamentação do setor, fiscalizando práticas anticoncorrenciais, monitorando a proteção do consumidor no ambiente digital e regulamentando os pagamentos eletrônicos, respectivamente.

    LEIA MAIS: Yun Ki Lee aponta desafios éticos da IA em ESG na “FDHIC 2025”

    Lei Geral de Proteção de Dados Pessoais (LGPD) impõe obrigações rigorosas às plataformas digitais, exigindo transparência na coleta, no armazenamento e no compartilhamento de dados pessoais. O descumprimento dessas normas pode resultar em sanções severas, restrições operacionais e na obrigação de divulgar publicamente a ocorrência da infração.

    Responsabilidade dos marketplaces e práticas de segurança

    Por outro lado, marketplaces que implementam programas robustos de conformidade com a legislação, como a criação de políticas de privacidade claras e acessíveis, a realização de auditorias regulares e a oferta de canais de comunicação para que os usuários exerçam seus direitos, constroem uma relação de confiança com seus clientes a partir desse compromisso com a privacidade e a segurança, bem como criam um ambiente de compra online confiável.

    Nesse sentido, marketplaces podem usar autenticação forte (MFA, biometria), proteger dados com tokenização e criptografia, e barrar ataques com firewalls e sistemas de detecção. A inteligência artificial analisa comportamentos suspeitos, enquanto monitoramento constante e testes de segurança fecham o cerco contra fraudes.

    Já o Código de Defesa do Consumidor (CDC) estabelece a responsabilidade objetiva e solidária de todos os participantes da cadeia de fornecimento por danos causados ao consumidor. Isso significa que os marketplaces podem ser responsabilizados por defeitos em produtos ou serviços oferecidos por vendedores terceirizados, mesmo que não tenham agido com culpa, salvo exceções.

    Os marketplaces podem se eximir da responsabilidade se comprovarem que não colocaram o produto no mercado, que o defeito não existe ou que a culpa é exclusiva do consumidor ou de terceiros. Por exemplo, se um consumidor compra um celular em um marketplace e o produto apresentar defeito ou não for entregue, o consumidor pode acionar tanto o vendedor quanto o marketplace para obter o reparo ou a troca do produto. Contudo, se o defeito for resultado de mau uso do celular pelo consumidor ou de falha do próprio fabricante, o marketplace pode não ser responsabilizado.

    Transparência nos anúncios e resolução de conflitos

    O Código de Defesa do Consumidor (CDC) também proíbe a veiculação de anúncios que induzam o consumidor a erro quanto à qualidade, ao preço, à quantidade, às características, à origem, à disponibilidade ou a qualquer outro dado relevante sobre produtos ou serviços.

    VEJA TAMBÉM: Cashback na era dos dados

    As plataformas de e-commerce que adotam medidas para garantir a veracidade e a clareza das informações divulgadas em seus anúncios, como a verificação da identidade dos anunciantes, a análise criteriosa do conteúdo dos anúncios e a oferta de canais de comunicação para que os consumidores denunciem práticas abusivas, fortalecem sua reputação no mercado.

    Isto é, uma boa prática observada por marketplaces de sucesso é a implementação de sistemas de inteligência artificial que escaneiam e removem automaticamente anúncios potencialmente enganosos ou fraudulentos. Essa ação proativa não apenas protege os consumidores de serem induzidos ao erro, como também solidifica a reputação do marketplace como um ambiente de compra confiável, essencial para a atração e fidelização de clientes.

    O Código de Defesa do Consumidor (CDC) também veda anúncios que distorçam informações cruciais sobre produtos e serviços. Marketplaces de destaque elevam a proteção ao consumidor ao adotar práticas como a verificação rigorosa de anunciantes, a análise detalhada do conteúdo promocional e a criação de canais abertos para denúncias.

    Uma boa prática a ser observada é a integração de inteligência artificial para identificar e remover, de forma ágil, anúncios enganosos ou fraudulentos. Essa postura proativa não só resguarda os consumidores de potenciais erros, mas também consolida a imagem do marketplace como um espaço de negociação transparente e confiável, um diferencial competitivo vital para conquistar e manter a lealdade dos clientes.

    Outro ponto que merece atenção refere-se à segurança cibernética. Essa é uma preocupação crescente no e-commerce, com o aumento do número de ataques virtuais e fraudes online. De acordo com pesquisa realizada pela ClearSale (2024), o Brasil é o país com o maior número de tentativas de fraude no e-commerce da América Latina, o que, por si só, exige que as empresas invistam em medidas de segurança robustas para proteger seus sistemas e os dados de seus clientes.

    Não menos importante é a adoção de programas de compliance e boas práticas de governança corporativa para mitigar riscos legais e fortalecer a imagem da empresa. As empresas devem estabelecer políticas internas claras, treinar seus colaboradores e implementar mecanismos de controle para garantir a conformidade com as leis e regulamentações aplicáveis.

    Ainda assim, para controvérsias ou mal-entendidos consumeristas, em especial, a adesão a sistemas eficientes de resolução de conflitos é medida essencial para garantir a satisfação dos clientes e evitar litígios judiciais.

    Além do PROCON, a plataforma consumidor.gov.br, por exemplo, oferece um canal de comunicação direto entre consumidores e empresas para a solução de problemas. Segundo informação de 2024 do Ministério da Justiça e Segurança Pública (MJSP), a plataforma é o canal de resolução de conflitos mais utilizado pelos consumidores, e 80% das reclamações registradas são resolvidas sem a necessidade de judicialização.

    Em resumo, a complexidade do cenário jurídico do e-commerce exige que os marketplaces adotem uma postura proativa na conformidade regulatória, investindo em programas de compliance robustos, segurança cibernética de ponta e transparência na comunicação com seus clientes.

    Ao antecipar-se às exigências legais e regulatórias, e ao adotar boas práticas de governança corporativa, as empresas não apenas evitam sanções administrativas e litígios judiciais, mas sobretudo fortalecem sua reputação como marcas confiáveis, construindo um ambiente de segurança que garante a expansão sustentável do e-commerce e a satisfação do consumidor moderno.


    Thays Bertoncini – é advogada com pós-graduação em Direito Digital pela FGV e pela UERJ. Com experiência em consultoria e contencioso cível estratégico, atua em temas como obrigações contratuais, regulações consumeristas e litígios envolvendo players do mercado digital. Sócia do escritório Lee, Brock, Camargo Advogados (LBCA), com expertise em gestão de equipes, estratégias processuais e prevenção de demandas judiciais.

  • Yun Ki Lee aponta desafios éticos da IA em ESG na “FDHIC 2025”

    Yun Ki Lee aponta desafios éticos da IA em ESG na “FDHIC 2025”

    Durante painel na “FDHIC 2025”, sócio da Lee, Brock, Camargo Advogados (LBCA) defendeu o uso estratégico da IA para impulsionar práticas ESG nas empresas de saúde.

    Em exposição na “FDHIC -2025 (Future of Digital Health International Conference – 2025)”, congresso de saúde hospitalar, o sócio da Lee, Brock, Camargo Advogados (LBCA), Yun Ki Lee, destacou a importância das tecnologias de IA para alavancar o ESG (boas práticas, ambientais, sociais e de governança), durante o painel “IAs contra ou a favor de ESG? Quando IA adiciona valor e quando conspira contra”, realizado no último dia 22/5, no São Paulo Expo.

    A exposição contou com a participação de Ingrid Cicca, gerente de Sustentabilidade e Meio Ambiente da Rede D’Or e mestre em Sustentabilidade e de Fabrício Barth, AI Specialist e professor de ML e IA do Insper.

    A mediação da mesa foi de Guilherme Hummel, curador de conteúdo da Hospital Hub, pesquisador, mentor, senior advisor, pós-graduado em sistemas de informática e head-mentor do EMI – eHealth Mentor Institute.

    Durante o debate, Yun Ki Lee ponderou que o avanço da IA é irreversível e que sua aplicação dentro dos 17 ODS da Agenda 2030 da ONU contribui diretamente para eficiência e resultados positivos nas empresas. Ele apontou que, na prática, a IA está se tornando um elemento performador da sustentabilidade, sendo crucial entender como ela pode ser sustentável para si mesma, para o ESG (boas práticas ambientais, sociais e de governança) e para as empresas de saúde e de outros setores.

    Yun Ki Lee também abordou a questão regulatória da IA, mencionando que está mais avançada na União Europeia normas já em vigor; na Coreia do Sul, que regula sem restringir inovação; no Japão, que emprega modelo regulador mais brando, dentre outros países. Ressalta que no Brasil a discussão ainda está em curso. “Não há dúvidas de que o uso da IA relacionada a cada um dos 17 ODS aprimora e ajuda, gera eficiência e traz resultados”, afirmou.

    LEIA MAIS: https://dev.lbca.online/integracao-dos-sistemas-de-ia-nas-praticas-esg/

    Na avaliação de Yun, há exageros no uso dos conceitos de ESG e sustentabilidade. “Vamos ter uma depuração, faz parte da maturidade no sistema de gestão ESG. Há um esgismo excessivo”, alertou.

    Ele citou exemplos práticos na área da saúde, conforme os fatores ESG – meio ambiente (gestão de resíduos sólidos), social (políticas de diversidade e inclusão) e governança (gestão de dados sensíveis de pacientes), demonstrando que o ESG deve ir além do mero cumprimento legal. “Ser ESG não é cumprir a legislação, isso deve ser pressuposto das corporações. Ser ESG é ir além disso”, disse Yun.

    Ao responder sobre como mobilizar as demandas de clientes por programas de ESG, Yun ressaltou que o cliente tem de estar em um ponto de maturidade, ciente que de um lado essa adesão pode melhorar sua imagem no mercado e, de outro, impor-lhe punição, no caso de descumprimentos a fatores ambientais, sociais e de governança, previstos nas normas em curso.

    “Essa parte ética é extremamente importante, mas é preciso montar uma equação ou receber sinalização do cliente sobre a necessidade de um programa de ESG, que, de forma simples e binária, envolve incentivo ou punição”, diz.

    “Neste último caso, podemos lembrar um evento de cunho social: Quanto custou para uma grande rede de supermercados o episódio de discriminação e morte de um consumidor em Porto Alegre, em 2020”.

    Para Yun, o que motiva as empresas a adotar IA, ESG e ODS é a sobrevivência. Ele lembrou que a coleta de dados e processamento das informações corporativas de forma manual, com dificuldades e erros, tornou-se impossível.

    “Quando estamos falando em hospitais, temos muitos sistemas envolvidos, como coletar e unificar essas informações? Vai ser por meio da IA (lato sensu). Como hoje consigo pegar frameworks e processar a comparabilidade, somente as IAs estão permitindo isso”, pontuou.

    VEJA TAMBÉM: Filha de Ludmilla “sem pátria”? Entenda o impasse sobre a cidadania brasileira

    Um dos pontos mais polêmicos do debate envolveu a sobrevivência do futuro do ser humano diante do uso utilitarista dado aos sistemas de tecnologia de IA, em relação a ESG e ODS, ao longo das últimas três décadas.

    “Talvez 30 anos seja pouco tempo, talvez porque eu seja asiático, conte com uma paciência milenar. Não podemos seguir a teoria da destruição criativa de Schumpeter, estamos falando de matriz energética atual, que não sei onde vamos chegar. Não sou tão cético, nem tão esperançoso, mas posso dizer que pago 200 dólares para empresas de LLM (Large Language Model), porque não quero ficar obsoleto, mas isso vai me deixar moderno? Não sei, mas vou pela sobrevivência”, afirma.

    “Constato que empresas de sustentabilidade, que recebem investimentos de fundos, apostam no ESG porque os fundos querem. Economizar a luz, fechar torneira, não desperdiçar comida, consumir moderadamente – como lembrava meu pai, que viveu a cultura de guerra na Coreia – tem uma assertividade. A palavra sustentabilidade, atualmente, tem de ser visto como não ficar parado, de continuar se desenvolvendo sempre, sustentavelmente”, finalizou.