Inteligência Artificial e os Dilemas de Collingridge do Brasil

Às vésperas do retorno do recesso parlamentar de julho, volto ao tema da Regulação da Inteligência Artificial no Brasil, trazendo novo ensaio inspirado em dois trabalhos autorais: no artigo para o Jota e em meu projeto de pesquisa premiado pelo ITS em Tese, uma iniciativa pioneira, voltada para a promoção da pesquisa nacional. Oportunidade em que aproveito para dissecá-los, traçando um paralelo com o que está por vir no Brasil nesse segundo semestre de 2025. No intuito de extrairmos lições de experiências estrangeiras, a partir de mudanças nos cenários tanto doméstico quanto internacional mais recentes.

  • Entre avançar, pausar e autorregular: o como, quando, o porquê e por quem

Em se tratando de Inteligência Artificial-IA, é preciso saber o que realmente importa, mormente para o Brasil. Pois hoje existem dilemas em meio a muita especulação em debate. Da indústria do marketing à literatura especializada, são distintas abordagens que mais atrapalham do que favorecem o adensamento das discussões a respeito. Dentre essas, a questão regulatória é das mais prementes, sobretudo em saber se é necessária ou não, quando, como, por quem e em que moldes implementá-la. Por isso, é preciso destacar os pontos-chave daqueles meramente conjecturais e encontrar soluções viáveis, visto que nem sempre os problemas lá de fora são relevantes ou factíveis para o contexto brasileiro.

Exemplar dessas disparidades entre as realidades doméstica e internacional são as diferentes abordagens para um mesmo tema (regulação da Inteligência Artificial). Seja entre a Europa e os EUA, ou mesmo internamente, em face da diferença de agendas entre as Leis de IA da Califórnia e do Texas, à época em que os estados estadunidenses resolveram legislar na ausência de previsão federal. Pois enquanto a primeira queria se precaver de catástrofes futuras com armas de destruição em massa, tentando controlar riscos de difícil previsão e controle (projeto este que, de tão controverso e difícil implementação, foi vetado), a segunda objetiva o momento presente, focando em riscos mais concretos e realistas, mais próximos da realidade atual, como deepfakes de conteúdo sexual, técnicas de manipulação comportamental, biometria e social scoring (prática de se classificar os indivíduos “com base em comportamentos ou características pessoais“).

Isto é, a aposta da lei texana foi não restringir a tecnologia em si, mas aplicações específicas. Abordagem essa, portanto, menos ambiciosa e “pé no chão”, já que aparenta ser mais pragmática e menos prescritiva que a da Califórnia, podendo servir de inspiração para o debate da IA no Brasil, principalmente por apostar em modelos menores, mais enxutos e, em tese, mais efetivos, de mais fácil implementação, visto que direcionados às especificidades locais.

Dessa comparação pode-se, então, extrair uma primeira reflexão, formulada por André Gualtieri, um eticista em IA“:

“Ao invés de adotarmos automaticamente o modelo mais extenso ou mais rigoroso, talvez devêssemos nos perguntar: qual o modelo de regulação que melhor equilibra, no contexto brasileiro, a proteção de direitos fundamentais com a promoção da inovação?

E é aí que se encaixa o desafio de hoje se encarar os dilemas da IA de modo mais realista; logo, de maneira menos fantasiosa e utópica como a que vem sendo enfrentada, a partir de uma proposição feita na década de 1980 por David Collingridge acerca das tecnologias emergentes. E que pode ser sintetizado à luz do seguinte obstáculo: “no início do uso das tecnologias emergentes tem-se poder para criar controle, mas falta clareza suficiente para agir. Mais tarde, tem-se clareza sobre o que regular, mas pouca capacidade para agir“. Transmutando esse “embaraço” para o campo específico da IA, implica em encontrar uma “fórmula” de se compatibilizar um problema de difícil (re)solução: assegurar a proteção de direitos fundametais que são de interesse público sem frear um ambiente de inovação e crescimento.

  • Entre o hype, FOMO e a realidade de um mercado em expansão

Geralmente o mercado de IA é retratado como aquele que flutua entre o entusiasmo e a realidade de promessas de rápido desenvolvimento de uma tecnologia com ganhos quase irrestritos de produtividade. Tal fenômeno seria cíclico, com menor ou maior intensidade, como parece ser este o momento atual após boom da IA generativa com o ChatGPT. Não por acaso isso se reflete no atual hype em torno da Inteligência Artificial, sinal de que a indústria estaria sofrendo de FOMO – Fear of Missing Out, o medo que se têm de “passar o bonde”, ficar para trás e, assim, perder a disputa para a concorrência.

Sensação esta muitas vezes infundada, irracional, já que o que existe é um mix de euforia e frustrações do que realmente a IA consiga fazer; resultando – de tempos em tempos – no estímulo/desestímulo dos investidores no desenvolvimento de uma tecnologia de alto custo que não daria o retorno financeiro na monta e no tempo esperados. É por isso que se remete à metáfora dessa flutuação! Não significa que os investimentos em IA irão parar, e sim que tendem a perder o ritmo acelerado quando não correspondem às altas expectativas geradas (como a de que, após tanta pesquisa e “injeção de dinheiro”, não consigamos atingir uma IA geral; ou seja, uma IA que opere de forma mais autônoma, com o mínimo de interferência humana, caso isso seja mesmo possível).

Cabem, então, aos estudos acadêmicos fazer esse diagnóstico, tentando antecipar como se dá essa dinâmica/choque de realidades para, então, trazer um breve panorama (como o proposto por esse ensaio), no intuito de ajudar a compreender melhor as possibilidades, os desafios e o retorno real que a tecnologia pode trazer.

  • O modelo que está por vir no Brasil (se em termos de policy ou de lei)

Entre as principais tendências do que está por vir, há o impasse do modelo ideal a ser seguido no país: se um autóctone, próprio do Brasil ou outro importado, inspirado total ou parcialmente em um padrão global ou framework estrangeiro. Quanto a isso não há consenso, pois existem distintas ênfases e abordagens dadas à matéria. Até porque ainda paira a dúvida se a regulação realmente é necessária! Isto é, se os marcos regulatórios existentes sobre proteção de dados e defesa do consumidor, p. ex., já não dariam conta do recado, dispensando, assim, um modelo regulatório brasileiro específico em IA. Ou ainda se a questão se resolveria em termos de policy, e não de política pública, bastando apenas um plano executivo, de ação estratégica, ao invés de um regulamento com força de lei.

Pois há quem pretenda postergar o processo, assim como quem prefira flexibilizá-lo, seja simplificando, seja acelerando esse trâmite que naturalmente é complexo! Reverberando vozes que surgiram a partir de mudanças recentes no cenário internacional, a exemplo da “revogação de medidas por Trump nos EUA, a mudança de discurso do Reino Unido e as dificuldades da União Europeia em implementar o AI Act“. Em outras palavras, abraça-se hoje uma narrativa de que precisamos de modelos menores, mais enxutos e flexíveis, direcionados para a realidade local. Não fazendo mais sentido os modelos abrangentes de outrora que abarcavam a IA como um todo monolítico universal (o que, em bom português, significaria se afastar do padrão europeu clássico? De fato, é algo agora a se pensar).

Logo, diante desse quadro de incertezas que fatalmente geram atritos e divergências (e vice-versa), o melhor a fazer é optar pela cautela, nos conscientizando ser temerário que um marco legal de IA aconteça às pressas, sem preparo ou amplo debate público a respeito, pulando etapas necessárias para o seu amadurecimento. Não quer dizer, contudo, que o Brasil tenha que ficar inerte esperando que as grandes potências primeiro resolvam essa querela para só depois nós agirmos, uma vez que a história da civilização já mostrou que quem toma à frente das principais discussões globais tende a ditar as regras de como esse novo mercado emergente se desenvolverá. É um cuidado que a Europa, aliás, já vem tomando.

Há, então, riscos reais de dependência e exclusão do Brasil frente à nossa inércia, indecisão, implicando em maior ou menor poder de manobra para agir, o que exigiria urgência para que o país se posicione o quanto antes. Mormente para que não haja um déjà vu e aconteça com a IA algo semelhante ao que ocorreu com a regulação das plataformas de redes sociais no país. Visto que “teria sido muito mais simples regular as plataformas sociais em 2010“, antes das eleições de 2028 e 2022, quando o “processo de regulação ficou ainda mais difícil e acabou desaguando no arquivamento da PL 2630, conhecida como PL das Fake News“. E que, aparentemente, só foi resolvido agora pelo Judiciário, e não mais pelo Legislativo, poder que originalmente se esperava um desenlace.

Não por acaso, esse dilema já havia sido exposto em 2024 quando escrevi O que é melhor? Uma lei ruim ou nenhuma lei sobre inteligência artificial? para o jornal da USP. Não no sentido de pressionar um regramento a qualquer custo, e sim de se questionar o que é mais favorável ao país: aprovar uma lei ainda incompleta, mas que nada impede de ser aperfeiçoada com o passar do tempo, ou a ausência total de previsão normativa/legal que, provavelmente, nos pegaria desprevenidos.

  • IA quanto ao tempo: regras ex post ou ex ante?

Há então grupos de interesses em aparente conflito, dentro e fora do país, que atualmente expõem “O Dilema Brasileiro na Regulação de IA no quesito tempo, ao colocar em xeque/pauta qual o melhor timing (o ex post ou ex ante?) para algum tipo de regramento da Inteligência Artificial, seja via policy ou por meio de lei.

Quanto ao exato momento para se regular, remete-se diretamente ao dilema que David Collingridge tratou na obra The Social Control of Technology: se um regramento normativo surge precoce demais, antes mesmo do desenvolvimento da tecnologia, isso pode obstar a inovação e o avanço de uma indústria nascente (um argumento pró-mercado). Agora se for tardio, pode vir a ocasionar danos irreparáveis, já que uma vez instaurado não haveria como retornar ao status quo ante (um argumento pró sociedade com um quê de função social). Há, portanto, estratégias em aparente conflito, mas cujo impasse seria resolvido ao se tentar compatibilizar inovação tecnológica com direitos fundamentais. O que é até possível de ser feito, só que com equilíbrio e busca por maior sinergia, focada não em atrito ou disputa entre agências, mas na articulação e coordenação dos esforços que estão sendo propostos!

  • IA quanto ao órgão regulador: a quem confiar?

Aqui aproveito para reproduzir parte do artigo escrito para o Jornal da USP há quase cerca de um ano, em meados de 2024:

Também se ventila que o relativo atraso quanto à regulação brasileira em IA dar-se-ia inclusive em razão do caloroso debate quanto à existência de um modelo regulatório único/geral ou de caráter setorial. Ou mesmo em relação à disputa política de qual seria a agência regulatória adequada para tal fim (uma das já existentes, como a Agência Nacional de Telecomunicações – Anatel; a Autoridade Nacional de Proteção de Dados – ANPD; o Conselho Administrativo de Defesa Econômica – Cade, ou uma autoridade autônoma, ainda a ser instituída).

Sendo que, de lá pra cá, alguns posicionamentos já estão se consolidando, tais como o da ANPD como agência reguladora da Inteligência Artificial, fruto de sua negociação com o Congresso, “ainda à espera de votação”. A instituição do SIA – Sistema Brasileiro de Governança de IA, sob coordenação transversal da ANPD. E o Comitê Gestor da Internet no Brasil – CGI.br, por meio do OBIA, como órgão observador.

  • IA quanto a um caminho próprio e conscientização da realidade brasileira

Ao pensarmos em um caminho próprio para a IA, é preciso indagar se, nesse caso, ainda é oportuno o alinhamento ao padrão europeu tal qual como ocorreu com a LGPD no Brasil. Não só porque era o que havia de melhor em termos de benchmark/referência global em proteção de dados, mas também porque não havia a concorrência de outros players. Em outras palavras, não havia com o que comparar frente a uma notória lacuna normativa; o que já não é mais o caso, face ao surgimento de outras propostas regulatórias de China, Japão, Singapura, Reino Unido, entre outras.

Por aqui, a quebra de expectativas quanto a um modelo brasileiro se dá desde à falta de material e capacitação técnica-profissional à infraestrutura insuficiente em chips, data centers e supercomputadores. São, de fato, carências e desvantagens de uma potência média frente aos grandes orçamentos de potências em IA como EUA e China. Não por acaso esses déficits estão na mira das ações de impacto imediato do PBIA – Plano Brasileiro de Inteligência Artificial a fim de instrumentalizar uma IA brasileira que busque trazer mais autonomia, soberania digital para o Brasil e, assim, tentar reduzir as assimetrias sócio-estruturais e dependência tecnológica de outros países.

É nesse ponto-chave que a União Europeia -UE, antes fonte única e pioneira de inspiração para a regulação digital, vem sendo criticada: a de se apoiar em um modelo ex ante prescritivo, custoso e excessivamente rigoroso, cujo compliance praticamente inviabiliza o uso e desenvolvimento da IA, uma vez que sua abordagem de risco (risk-based approach) rechaça quase todos os tipos previstos. Assim como o framework legal em que se baseia seria de eficácia limitada e difícil implementação na hipótese de riscos emergentes, ainda a surgir. Sem falar que avista um complexo cenário de riscos em potencial, demasiadamente fatalista, focado mais no lado negativo da IA, o que não é nada animador!

Assim, o AI Act mal entrou em vigor e já está afetando negativamente a competitividade e inovação europeias no mercado global. Pois, do jeito como está, acabou virando um entrave para a UE! Argumento que, decorre do próprio desenlace da corrida pela liderança da IA. E que, curiosamente, vem também dos próprios europeus após a publicação do relatório Draghi que, face a insatisfações generalizadas, agora sugere mudança de rumos no bloco.

São desdobramentos recentes que não só esvaziam o chamado “efeito Bruxelas” em inspirar o restante do mundo com o modelo digital europeu, como também reforçam a fala daqueles de que nós não deveríamos copiar modelos estrangeiros, nem de Europa, nem de EUA, em razão dessas diferentes abordagens, realidades distintas e do próprio contexto brasileiro de desigualdades sócio-estruturais, a fim de consolidar uma regulamentação própria para a Inteligência Artificial no Brasil.

  • O que se espera agora do Congresso para uma IA genuinamente brasileira

Como se viu pelo exposto até aqui, uma IA genuinamente brasileira é mais que necessária, já que o dilema não se resume ao embate entre regulação e inovação: “é sobre qual projeto de país e qual visão de futuro desejamos.

Ainda mais agora que, após uma tentativa frustrada de moratória por dez anos, no intuito de impedir os estados de legislarem antes, o governo Trump vem com um plano de ação, o America’s AI Action Plan, com um claro verniz político-ideológico e pró autorregulaçao pelo mercado que objetiva ocupar o espaço deixado pela UE. Ao menos por ora, nesse momento de hesitação europeia, para servir de nova referência global em IA. Mas que, na prática, vai em sentido contrário à proposta de corregulação sedimentada pelo senado brasileiro. Ou seja, o da abordagem multistakeholder que almeja a inclusão de todos os setores envolvidos. Já quanto a outra casa legislativa, “o que se espera da Câmara é que aperfeiçoe e fortaleça o caminho já iniciado com o PL 2.338, consolidando um marco regulatório que seja vetor de soberania” e não de mais dependência tecnológica.

Assim como também não se anseia que ocorra um retrocesso no Brasil, nos moldes como está ocorrendo com seu tradicional aliado. Uma vez que o recém lançado plano de ação dos EUA visa, além da IA, uma suposta ruptura do seu perfil diplomático. O que põe a ordem mundial de ponta cabeça, confundindo a comunidade estrangeira com o provável desmonte do sistema internacional vigente – indo desde o rule of law (estado de direito) às agendas ambiental, de costumes e valores que os próprios estadunidenses ajudaram a erguer. Visto que era isso que se atribuía até então à China, e não aos EUA, em uma inesperada inversão de lógica e papéis!

Inversões de pauta as quais o Brasil também não está imune, uma vez que propostas estaduais de regulação, como a de Goiás, vão igualmente no sentido oposto ao do senado federal: priorizam a desregulação como pretexto para a simplificação do processo regulatório, alinhando-se assim ao projeto do Texas, em um sinal de aceno aos desenvolvedores e operadores de IA, e não aos direitos da população impactada. O que acende um alerta amarelo (de atenção) para o Brasil, uma vez que vem sendo “indevidamente alçada como alternativa ao projeto federal“.

Deixe um comentário