(atualizado em 02 10 2025)
Esse ensaio visa, através de um exercício prospectivo de foresight, a traçar um panorama do que está por vir no campo da Inteligência Artificial no Brasil e tendências atuais, particularmente após o retorno do recesso parlamentar e retomada das audiências públicas em agosto de 2025. Assim, no intuito de ser didático e ir direto ao ponto, vem – através da alegoria com as cores do sinal de trânsito – indicar as pautas que avançam e aquelas menos ventiladas na Câmara dos Deputados, a casa legislativa onde agora tramita o PL 2338/23, aquele que vem a ser nossa proposta de lei para uma IA Brasileira.
Prólogo: os altos e baixos da Inteligência Artificial
Desde a década de 1950 com Alan Turing – considerado “o pai dos computadores” – a possibilidade de haver máquinas inteligentes atravessa períodos de menor ou maior hype/entusiasmo. Não constituindo, portanto, uma trajetória linear, e sim de alternância entre altos e baixos. Mas embora não tenha chegado a construir o que hoje conhecemos como um computador, seus estudos matemáticos serviram – desde então – como referencial para aferir algum grau de humanidade na inteligência maquínica. Sobretudo através de testes que verificam se as máquinas realmente pensam antes de responder, raciocinam e, a partir daí, tomam decisões autônomas.
Habilidades estas subjetivas e inerentes às relações humanas em que, com o passar dos anos, se verificou que não bastava a uma máquina se passar por uma pessoa, já que dependem de interpretação e compreensão semântica mais complexas (aliás, uma evolução em relação ao Teste de Turing que deixou de ser referencial suficiente o bastante para a prova de humanidade, como apregoou depois a teoria do Quarto Chinês). Logo, decorridos 75 anos, deve ser compreendido hoje como um experimento mais mental do que prático.
E foi nesse sentido que, ao longo dos anos, foram lançados serviços e produtos cada vez mais avançados para atingir essa expectativa de se alcançar uma inteligência equivalente ou superior à humana. Primeiro, a partir de uma Inteligência Artificial Geral – IAG (um sistema mais autônomo, com um mínimo de interferência humana) para, depois, como passo seguinte, se alcançar uma Superinteligência – IAS (uma situação hipotética na qual a IA seria capaz de superar a nossa, muito bem retratada pelo livro homônimo do filósofo Nick Bostrom, justamente por tentar traçar essa trajetória até lá, trazendo os caminhos percorridos, as estratégias e os perigos envolvidos).
Ocorre que essas promessas nem sempre se cumpriram tal qual foram anunciadas (como a de uma máquina conseguir, de fato, pensar e raciocinar). Chegando, na melhor das hipóteses, próximo de algumas, mas não de todas as habilidades que nos faz humanos, tais como as capacidades de ter pensamento, emoção, consciência, senciência (percepção de si e do mundo à sua volta, entre outras).
Porém, com a vinda do ChatGPT, em novembro de 2022, retomaram-se as esperanças de uma máquina capaz não só de analisar informações e responder mecanicamente a perguntas, mas de interpretá-las, gerando conteúdos novos a partir dos comandos de texto, imagem e voz feitos por seus usuários. O GPT (Generative Pre-Trained Transformer) chega, portanto, despontando como um ponto de inflexão realmente disruptivo, quebrando-se o paradigma vigente até então. Uma vez que se destaca dos grandes modelos de linguagem (LLM) anteriores tanto por seu método de (pré) treinamento em dados, quanto por sua arquitetura de rede neural profunda (transformer) capaz de processar a linguagem de forma mais natural e eficiente (PLN), simulando conversas humanas através de um sistema conversacional (chatbots) que “aprende” e aprimora as respostas com base nos padrões e contextos estabelecidos anteriormente nessa interação humano e máquina.
Acontece que, de lá para cá, os ganhos em cognição não se confirmaram na escala e velocidade esperadas. Ou talvez tenham valido mais do ponto de vista do usuário, para a chamada “hiperpersonalização” de produtos e serviços, como sinal de incremento dessa experiência, do que para o intuito de ganhos irrestritos em produtividade e lucratividade da indústria em si. Logo, dá-se a impressão de que hoje o hype com a IA está em queda, quando não é bem isso o que acontece. E sim que estamos em um período latente – de transição ou incerteza – para um novo estágio de espera, mas que não se sabe bem ainda do que se trata, dadas as diferentes visões de futuro sobre a IA (uma mais otimistas do que outras).
Essa sensação de “baixa” no hype da IA significa que o aumento do financiamento em pesquisas e desenvolvimento irá cessar? Não exatamente, mas que retomará com mais força no instante que surgir um outro produto tão inovador quanto. O que não parece ser o caso atual do GPT-5, onde há, de fato, um ganho incremental em relação a certas capacidades anteriores, como a de ser mais preciso, alucinar menos e lidar com múltiplas tarefas facilmente, mas não uma verdadeira revolução no setor.
Pois a frustração após o lançamento do GPT-5 foi tamanha a ponto de cair a ficha de que estamos ainda longe de uma Inteligência Artificial Geral (como antes havia sido prometido e alardeado pela OpenAI). Fato que gerou não apenas quebra das altas expectativas geradas, como também zombarias na internet e uma sequência de críticas a San Altman. Logo, para alguns analistas mais céticos, a evolução dos LLMs teria estagnado, pois salto mesmo foi do GPT-2 para o GPT-3, bem como do GPT-3 para o GPT-4. E da retomada do hype esperado, estaríamos mesmo a caminho do estouro da bolha da IA.
Sinal verde para a IA no plural
Tal diagnóstico que a evolução da IA não é necessariamente linear, e sim de alternância, com suas temporadas de altos e baixos, faz com que hoje esta seja compreendida no plural, não fazendo mais sentido entendê-la como um modelo único, servindo de referencial para todos os tipos de contexto, linguagem, cultura e sociedade. Uma vez que na era digital nos acostumamos a um framework padrão que geralmente toma a frente dos demais e passa a ditar as regras para o setor. Mas não na hipótese de uma tecnologia de propósito geral que está infiltrada em praticamente todos os lugares, como é o caso da IA. Quando o ideal seria adequá-la conforme cada situação real em concreto, focando não apenas no aumento de suas infraestruturas críticas e capacidades computacionais (como a de acumular data centers cada vez mais potentes), mas em modelos de IA menores, mais enxutos, direcionados para as necessidades locais, no intuito de torná-los mais úteis, efetivos, inclusivos e sustentáveis. Havendo até um nome para esse mindset (virada de chave): o da Tecnodiversidade, agora difundido por outro filósofo, o chinês Yuk Hui. Entendimento esse que, por sinal, abre caminho para a existência de modelos domésticos, nacionais. E, por que não, começar a se pensar em um IA brasileira.
Por sua vez, tal interpretação de que há Inteligências Artificiais (no plural, não no singular) se desdobra em outra questão: na problemática de se focar em uma conceituação universal da IA, dada a dificuldade de encontrar definição para a mesma. Seja compreendida como uma simples ferramenta, tecnologia ou um amplo campo de conhecimento, deveríamos preferir o caminho da interdisciplinaridade. Isto é, entender não só que a compreensão sobre a IA varia no tempo e no espaço, como se trata de um campo de conhecimento que conversa com diversos campos e áreas do saber, “como neurociência, psicologia, computação, ciência de dados, biologia e direito“. E que não foca em uma só disciplina (por se mostrar insuficiente), mas também nos graus de interação e de complexidade entre elas.
Sinal amarelo – de atenção – para os rumos globais da IA
Mas por que agora se acende um ponto de inflexão para o caminho das IAs? Pois hoje se percebe uma insatisfação generalizada com os rumos que estão sendo dados ao uso, desenvolvimento e à implementação da Inteligência Artificial; sobretudo em relação ao espalhamento sem precedentes da IA generativa e às implicações tanto positivas quanto negativas a partir desse tipo de IA. Trata-se, então, de uma guinada geopolítica-ideológica ao que originalmente era proposto em termos de governança. Fato que demanda um ponto de maior atenção e cuidado: seja em relação ao modelo que aqui tramita no Congresso Nacional (“o substitutivo ao PL 2338/23 de 07 de junho de 2024”), inicialmente de clara inspiração europeia; seja quanto ao recém-lançado America`s AI Action Plan – o plano de ação estadunidense; seja quanto ao AI Act, o modelo proposto pela própria União Europeia – UE, aquela que foi a precursora em regulação digital.
Hoje, os motivos para mudança são vários, uns mais legítimos do que outros, tais como: a) a insatisfação na UE agora se dá diante da concorrência de outros players que antes careciam de previsão doméstica, em uma época na qual o AI Act europeu reinava quase que absoluto dentro de um ambiente global de lacuna normativa. Não havia, portanto, com quem e o que comparar; o que não é mais o caso atual, dada a concorrência de outros frameworks mais flexíveis, tais como o do Japão, do Canadá, de Singapura, medidos anualmente pelo Global Index AI. Bem como por lá há uma forte tendência liberal em sentido contrário ao modelo de outrora que era mais estrito e prescritivo; b) já nos EUA, após revogar a Ordem Executiva Biden-Harris e ter sua proposta de moratória por dez anos para a IA recusada, o governo Trump agora incentiva um ambiente mais desregulado ou que seja autorregulado pelo mercado, em resposta à escalada da disputa com a China. A aposta, então, é em modelos de código aberto para rivalizar com os chineses, e no combate ao viés político-ideológico, mesmo se sabendo que a corrida pela supremacia da IA não é neutra.
Assim como o impensável também começa a circular: imaginava-se que a essa altura do campeonato não existiriam mais lobbies e grupos de interesses completamente contrários à regulamentação da IA, em face da grande incidência de riscos que se avolumam e que demandam maior regramento do setor. Contudo, formam-se mobilizações coletivas para influenciar eleições e assim frear qualquer espécie de regulação da IA, de proatividade de agências setoriais e de projetos que restrinjam ou endureçam a legislação. O que constitui um contrassenso, já que iniciativas pró regulatórias visam garantir previsibilidade e segurança jurídica a todos os envolvidos na relação: sociedade civil, governo, empresas, startups, academia… Inclusive àqueles que atualmente financiam fundos para que marchem em direção oposta (a da desregulação da IA)!
Sinal vermelho para o modelo europeu
Antes benchmark em regulação digital, hoje se vislumbra um sinal mais vermelho do que amarelo para o regulamento europeu (a depender do setor e grupos de interesses envolvidos). Ao menos enquanto continuar como originalmente foi proposto: um modelo de IA ex ante prescritivo, focado em riscos presentes, mas também nos potencialmente danosos, fomentando uma lista ampla de perigos que não para de crescer, já que não é exaustiva. A desvantagem no rigor do modelo europeu aflorou mais à época do boom do ChatGPT, pois ampliou a margem de compliance face aos novos desafios trazidos pelas IAs generativas. Sobretudo por trazer mais encargos e efeitos colaterais para pequenas e médias empresas.
Desde então, modelos restritivos revelaram ser pouco realistas e inefetivos na prática. Assim como de custosa, complexa e difícil implementação. Particularmente por frear a inovação tecnológica, a produtividade e o crescimento econômico; o que deixa o bloco europeu em desvantagem e menos competitivo em relação aos seus maiores concorrentes: EUA e China.
Logo, não foram ao acaso propostas de simplificação e até de postergação da vigência completa do AI Act europeu para 2027. Mormente após a publicação do Relatório Draghi propondo mudança de rumos para a IA na União Europeia.
Epílogo: incertezas face ao cenário de indefinição no Brasil
Em tempo de crises institucionais, impasse entre os 3 Poderes, de pressão externa face à escalada de movimentos nacionalistas e protecionistas de repercussão global (como no tarifaço do governo Trump) recomenda-se “solução moderada para a IA, menos rigorosa que a regulação europeia”, a exemplo do tratamento dado pelo Supremo Tribunal Federal – STF ao caso das plataformas digitais.
Primeiro porque se observa motivação mais política do que técnica para a aceleração ou mesmo simplificação do PL 2338/23 no Congresso, a fim de que saia do papel na atual gestão, antes das eleições presidenciais de 2026. Segundo por haver forte pressão e apelo midiático para o avanço de pautas sensíveis que demandaram tramitação de urgência, como a de cibersegurança e de crianças e adolescentes (primeiro quanto à proibição de aparelhos móveis em ambiente escolar e, agora, de maneira mais ampla, por maior dever de cuidado no ambiente virtual, por meio do ECA em sua versão digital).
Não se pretende aqui banalizar essas pautas que são igualmente importantes para um ambiente cibernético seguro e mais saudável; contudo, quando atropelam e se sobrepõem às demais, acabam postergando o desfecho de todo o trâmite (como parece ser esse o cenário atual de paralisia ou de pé no freio do avanço da IA no país). Terceiro porque o Brasil, sede da Cúpula dos BRICS em 2025, levantou questões relevantes para sua autonomia e soberania digital; sua agenda, por outro lado, conflita com a ordem hegemônica mundial, gerando atritos ainda incontornáveis. Assim, na ausência ainda de insumos necessários para se tornar uma potência regional em IA, dada a falta de chips, data centers, supercomputadores e capacitação técnica-profissional, resta atualmente pouca margem de manobra ou de barganha em uma disputa sino-estadunidense da qual o Brasil não deveria tomar partido, pensando antes em priorizar o seu interesse nacional.
Daí a recomendação em se adotar uma postura de equilíbrio, equidistante das relações de poder. Isto é, conjugando momentos de frear e de avançar, mas sem ser de maneira abrupta ou apressada, cedendo a pressões unilaterais e queimando etapas necessárias para esse amadurecimento na tomada de decisão. No intuito de evitar precipitações que criem, na eventual regulação da IA, obstáculos para o desenvolvimento futuro das novas gerações.
Uma vez que urgente é o debate, mas não necessariamente a conclusão dele sem a contribuição de todos os grupos de interesse envolvidos que não envolve apenas a dimensão tecnológica, mas a de perspectiva de direitos também. Reflexão que reforça a tese que precisamos ponderar, o quanto antes, se é melhor existir algum regramento para a IA, ainda que dinâmico, flexível, setorial, minimamente regulado ou nenhuma previsão a respeito.
Cabe, então, à Câmara ou voltar à estaca zero, ou seguir essa linha de pensamento pela continuidade enquanto há tempo. Ou seja, aproveitando o que foi discutido no Senado, porém adequando-o às necessidades suscitadas pelo momento atual, a fim de não se repetir com a IA o mesmo que ocorreu com as plataformas digitais: perdeu-se o timing para tomar a decisão mais acertada, as consequências se avolumaram e a solução recaiu na velha máxima da judicialização dos processos. Desfecho esse que, além de não ser ideal e o mais equilibrado, serve como mais medida unilateral paliativa para acalmar os ânimos e atender às demandas de maior urgência do que servir de resolução em definitivo para a IA no Brasil.
Logo, como conclusão e panorama geral, qualquer recorte sobre o “estado da arte da IA” que vá até novembro de 2022, antes do lançamento comercial do ChatGPT, de toda disrupção e quebra de paradigma trazidas a partir deste – assim como foi com a chegada da roda, da pólvora, da eletricidade e da internet – não problematiza e sequer entra, de fato, no real enfrentamento dos atuais desafios trazidos pela Inteligência Artificial. E sim se limita a fazer uma abordagem cômoda, tomando como referência o padrão regulatório europeu e a sua visão sobre governança e gestão de riscos da IA que eram incontestes até então!
