Artificialmente Inteligente: riscos, perigos e limitações atuais da inteligência artificial autônoma

A meu ver, o Artificialmente Inteligente é o passo seguinte à antropomorfização! Adianto que o antropomorfismo é um conceito que já existe, mas o papel aqui é aprofundá-lo e colocar peso onde deve ser colocado, inserindo-o na era das IAs, conferindo-lhe uma nova abordagem. E está aí a relevância, o seu valor, o ineditismo, a sua originalidade!

Uma vez que já se afirma, de longa data, que hoje prospera o entendimento de que deveríamos nos concentrar mais nas aplicações e efeitos práticos da Inteligência Artificial – IA e menos em elucubrações ou na sua conceituação propriamente dita. Não apenas porque o modelo de negócios é volátil e se transforma a todo instante, adequando-se às demandas do mercado, mas principalmente dada a complexidade em definir o que é, como opera e em quais circunstâncias funciona.

Disclaimers à parte, pergunta-se, então, por que ainda é tão relevante para a Academia discernir sobre a natureza da IA ? Porque se for encarada como uma simples máquina ou ferramenta, não há nem que se cogitar em adentrar no debate crítico sobre IAG/AGI (IA geral), e menos ainda em IAS, a Superinteligência aventada por Bostrom.

Pois a depender da interpretação ou da abordagem sobre sua natureza, a IA pode ser encarada como uma simples máquina/ferramenta; uma tecnologia de propósito geral; ou um amplo campo de conhecimento que não é multi, e sim interdisciplinar (em virtude não só de se apoiar em diferentes disciplinas e áreas do saber, mas por levar em conta o nível de interação e complexidade entre elas).

Hipóteses, aliás, aventadas desde o TIDD Conecte 2025 – em outubro daquele ano –durante evento de divulgação de minhas pesquisas desenvolvidas no PPG da PUC-SP.

E que inteligências autônomas são essas? Aqui entendidas como uma situação sobre-humana, ainda hipotética, de as máquinas adquirirem percepção, consciência, vindo a se equiparar ou mesmo nos superar em capacidades cognitivas e estados mentais profundos, fazendo com que ajam e passem a se comportar de forma autônoma, por conta própria, a fim de que, sozinhas, raciocinem, pensem por si e tomem decisões elaboradas, mais complexas. Isso de ponta a ponta e em tempo real, independente da interferência ou mesmo do comando humano. Estágio pelo qual só passaríamos a intervir ao final desse processo (na hipótese de uma IA supervisionada). E – se apenas – quando alguma coisa desse errado ou saísse do nosso controle.

Aliás, uma autonomia muito próxima do que almejamos para fazer viagens extraterrestres tripuladas e começarmos a exploração (semi)permanente da Lua. Hoje feitos já imagináveis graças a recursos mais avançados do que aqueles que existiam em décadas e gerações passadas, advindos da onipresença da Inteligência Artificial, robótica e automação. Insumos necessários e inovadores; porém, com alcance e escalabilidade ainda limitados.

Inteligência Artificial, sem autonomia, é inteligente?

Em sequência, vem a provocação que nos faz questionar se uma inteligência artificial, desprovida de autonomia para agir e decidir sozinha, pode mesmo ser considerada inteligente , seja hoje ou num futuro próximo. Pois, se negativa a resposta, deveria ser tratada como coisa, e não como agente ou sujeito de deveres e direitos, até que se prove o contrário.

Haveria limitações operacionais, portanto, em caso de danos decorrentes de eventuais erros ou falhas no seu funcionamento, hoje conhecidos por “alucinações” da IA. E incertezas jurídicas, como p. ex., a quem distribuir e atribuir “culpa”: se somente ao desenvolvedor, ao operador, ao destinatário final ou todos juntos de forma compartilhada e proporcional.

Visto que autonomia, para a IA, seria a capacidade desses sistemas funcionarem, tomando decisões de forma independente da humana, sem a necessidade de intervenção contínua. Essa autonomia permitiria que a IA tenha consciência de si e do ambiente à sua volta (senciência), estabeleça metas e execute tarefas complexas para atingi-las, como é o caso de agentes autônomos que hoje supostamente fazem tudo isso sozinhos.

O impasse se teríamos atingido a IA Geral

Contudo, embora a IAG já seja anunciada por parte da Indústria e mesmo pela Academia, argumenta-se que a IA de hoje é artificialmente inteligente, já que no seu atual estágio de amadurecimento ainda está aquém e distante de uma autonomia plena, pois circunscrita a limitações éticas e restrições técnicas. Deveria, portanto, ser tratada como um recurso auxiliar limitado que não substitui completamente, e sim que aprimora as capacidades humanas de manter o controle e a responsabilidade sobre os processos decisórios.

Em outras palavras, existe uma IA que ainda é majoritariamente responsiva a comandos humanos; logo, movida por um propósito, custe o que custar, nem que seja a verdade dos fatos (algo com o qual não tem compromisso legal de dizer), a fim de não deixar o usuário sem resposta. Mas não por intencionalidade deliberada de mentir ou distorcer os fatos, e sim pela ausência de um juízo de valor próprio para distinguir o certo do errado, o verdadeiro do falso, já que desprovida de discernimento e raciocínio, dentre outras habilidades inerentemente humanas. Influenciada, então, por heurísticas e correlações espúrias. Isto é, atalhos, simplificações e correlações às vezes de coisas que não têm nada a ver com a outra. Por isso, e não por acaso, é sintética, literalmente.

Ou seja, as IAs que temos hoje ainda estão sujeitas à análise e tratamento de dados muitas vezes comprometidos por nossos vieses, imperfeições e erros de interpretação. E isso opera dentro de um padrão normal de certa previsibilidade por se tratar de uma IA estreita ou limitada (Narrow AI). E, por isso, a importância na hora da elaboração dos prompts (entradas ou comandos) para aferir a assertividade de uma IA ou não. Pois a depender de um comando simples, mal dado, com poucos detalhes e repertório, o resultado pode igualmente ser banal, de baixa qualidade e/ou insatisfatório. Assim, há uma complementariedade humano-máquina, de fato.

Mesmo porque, os humanos tendem a julgar as máquinas com muito mais rigor do que a si mesmos quando aquela erra, falha ou sai do controle, supondo a infalibilidade da IA em ser uma entidade superior incapaz de cometer erros e/ou fazer associações equivocadas.

Ocorre que, ao contrário senso, erros, vieses e falhas são mais comuns do que se imagina. Não são anomalias, e sim inerentes a muitos modelos de IA (LLMs), sobretudo aqueles baseados na tentativa e erro. E, para muitos especialistas, talvez nunca deixem de existir pois minaria o seu modus operandi, já que seriam as “alucinações” que fariam com que funcionem, nem que seja para emular emoções, características e comportamentos humanos. Há uma explicação matemática para o fenômeno, portanto!

A tendência à antropomorfização das IAs

Segundo eticistas em IA, o problema viria desde a sua gênese. Ou seja, no desenvolvimento de uma IA humanizada. Isto é, à imagem e semelhança do humano, antropomorfizando-a. Daí o perigo de sermos manipulados afetiva e emocionalmente por algo semelhante, com aparência e comportamento humanos, já que assim ganha a nossa atenção e confiança. Como no caso das AI companions que funcionam como se fossem terapeutas, confidentes e amigos virtuais, mas que para grande parte dos usuários pouca importa se operam a contento. Muitos deles sabem sobre o perigo de não interagir com um humano ou se consultar com um profissional de verdade. Mas desde que não haja confrontação e pré-julgamento de uma pessoa do outro lado, está “tudo bem”.

Em contrapartida, há quem entenda que se não fosse nesses moldes humanizados, sobretudo na ausência de parâmetros éticos ou bússola moral tipicamente humanos, tenderíamos a um estado autocrático. Isso porque, focados apenas em números e modelos estatísticos, um mundo regido completamente por máquinas incorreria em uma série de riscos em potencial, pois perderíamos as noções de justiça, equidade, democracia e estado de direito. Sobretudo diante da dificuldade do usuário em discernir fantasia de realidade face as muitas táticas de persuasão que hoje são mais perigosas pelo volume de desinformação e deepfakes cada vez mais convincentes, imperceptíveis a olho nu, pois agora impulsionadas por IA.

As feridas narcísicas e a questão da responsabilização

Entretanto, o que deseja o humano com IAs cada vez mais humanizadas e realistas? Provar que superou a si mesmo, os seus limites, o seu ego ferido, igualando-se a deuses, já que agora teria enfim atingido a Singularidade? Por essas problematizações, também se questiona se a IA agêntica (aquela dotada de um maior grau de autonomia, com um mínimo de interferência humana, logo supostamente inteligente) tem existência própria, independente ou é uma mera extensão da IA generativa. Pois faz toda a diferença em ser proativa ou continuar a ser apenas reativa a comandos humanos.

Porém, se a IA já for proativa, a “culpa” então seria de quem quando algo dá errado ou sai do controle? Primeiro, a responsabilidade não deveria ser terceirizada à máquina, desprovida de personalidade jurídica, pois aí estaríamos humanizando-a. Mas atribuída proporcionalmente ao dano causado a todos envolvidos nessa cadeia ou ciclo “de valor”, em regime de corresponsabilidade.

Havendo, inclusive, a possibilidade de contribuição do usuário final quando burla os termos de uso, contorna as normas de segurança da plataforma (tais como a verificação etária), a exemplo do caso Roblox. Ou quando simplesmente refina o seu prompt, “forçando” a resposta de um chatbot e agente de IA, ainda que atentatória a si mesmo (posicionamento que excepciona a regra da responsabilidade civil objetiva do art. 37 do PL 2338/23).

Ademais, até mesmo a propaganda de serviços e produtos hoje oferecidos por plataformas e redes sociais incorreria em algum grau de responsabilização, uma vez que o marketing digital difere bastante da publicidade tradicional, hiperpersonalizando-a (atribuindo-se inteligência, comportamento e características humanas a seres e coisas que não as têm, mas que dão a impressão de ter, seja enganando, seja induzindo o consumidor ao erro).

Logo, “o tigrinho não é fofo à toa”. Argumento levantado por George Valença, que é professor do Departamento de Computação da Universidade Federal Rural de Pernambuco – UFRPE. Segundo ele:

Também conhecido como design enganoso ou antiético, o design manipulativo é um tipo de design com intenção específica: busca conduzir usuários para comportamentos, atitudes e expectativas que são vantajosos para a plataforma, mas não para o bem-estar de quem joga. Não para a autonomia desse usuário online.

E há muita lógica nisso, pois se cada vez mais é delegada autonomia às máquinas, em contrapartida, mais a cerceia, a limita dos humanos. Até ai “ok”, mas até aonde vai essa escalada? À custa da obsolescência humana? Algo a se ponderar …

Portanto, ao extrapolar a personalização (o que é permitido), mas atingindo-se a personificação, tal conduta, além de viciante, passa a se exploratória, enganosa e manipulativa. Lembrando que o “conceito-limite” é um ponto central chave para a psicanálise contemporânea. Daí a necessidade de endossar também o papel do design da IA para que seja mais ético, seguro e humanístico, levando em conta também valores humanos e culturais em sua composição. Logo, adquirindo um caráter sociotécnico, menos opaco e inconsequente. Logo, mais responsável do que já deveria ser!

Deixe um comentário