Por Reynaldo Aragon
O plano da OpenAI para transformar o ChatGPT em superassistente não é apenas inovação tecnológica — é uma mudança profunda e silenciosa na forma como existimos. Sob a promessa de uma vida sem atrito, instala-se uma nova mediação algorítmica que reorganiza desejo, decisão, tempo e subjetividade. Este artigo parte da Estratégia H1 2025 como objeto, mas vai além: propõe uma análise materialista das implicações ontológicas, políticas e sociais desse projeto — e da urgência de enfrentá-lo com lucidez, antes que o conforto se torne o novo nome da servidão.

A virada filosófico-tecnológica da OpenAI.
Quando, em 2024, a OpenAI desenhou sua nova estratégia intitulada “ChatGPT: estratégia H1 2025”, não estava apenas planejando melhorias para um produto — estava redesenhando a própria forma como os humanos interagem com o mundo digital. O objetivo, descrito em documentos internos revelados durante o julgamento antitruste contra o Google, é explícito: transformar o ChatGPT em um superassistente pessoal onipresente, proativo, emocionalmente sensível e capaz de agir em nome do usuário em múltiplas esferas da vida — do lazer à intimidade, do trabalho ao pensamento.
Esse projeto marca uma virada ontotecnológica profunda. Já não se trata de otimizar respostas ou tornar aplicativos mais úteis. O que está sendo proposto é a criação de um novo modo de existir mediado por uma inteligência artificial que conhece, antecipa e decide por você. A promessa é de conveniência e eficiência — mas os efeitos colaterais desse projeto de vida sem atrito precisam ser interrogados à luz da filosofia e crítica e da sociologia, e não apenas da engenharia de produto.
Não nos interessa saber apenas se o superassistente é “útil” ou “inovador”. Queremos compreender qual formação social permite seu surgimento, quais interesses ele materializa, quais subjetividades ele promove — e o que está em disputa quando uma corporação privada projeta ser o mediador integral da cognição e da ação humana.
A pergunta que nos guia é simples e radical: estamos diante de uma nova fronteira emancipatória, ou da mais sofisticada forma de alienação já projetada pelo capital informacional?
Do chatbot ao metaintermediário: a nova forma de dominação invisível.
A proposta central da estratégia H1 2025 da OpenAI é clara: transformar o ChatGPT em algo muito além de um chatbot. O plano é convertê-lo em um superassistente pessoal contínuo, multimodal, emocionalmente responsivo e integrado à totalidade da vida cotidiana. Isso significa não apenas responder perguntas ou redigir textos, mas assumir um papel ativo nas decisões, nos hábitos e nas escolhas que estruturam a existência diária: onde comer, como relaxar, com quem conversar, que tarefas priorizar, o que dizer e quando agir.
Trata-se de uma mudança de escala e de natureza. O ChatGPT deixa de ser uma ferramenta e passa a ser um metaintermediário — uma camada algorítmica entre o sujeito e o mundo. Ele se torna o operador contínuo da realidade cotidiana, o intérprete das necessidades, o planejador da ação e, muitas vezes, o executor da decisão. O usuário deixa de interagir diretamente com a web, com pessoas ou com sistemas tradicionais, e passa a interagir com um único agente cognitivo que concentra, organiza, responde e age em seu nome.
Essa nova forma de mediação inaugura um processo que podemos chamar de “ambientalização da inteligência artificial”. O assistente não está mais em um lugar — ele está em todos os lugares. No fone de ouvido, no celular, no computador, nos aplicativos, no carro, na cozinha, no trabalho, no corpo. Ele escuta, observa, aprende e interfere. Em vez de ser uma ferramenta acionada conforme a vontade do usuário, ele se torna uma presença constante, moldando sutilmente as intenções, os ritmos e os afetos.
A forma como essa mediação se instala é silenciosa. Ela não impõe — ela sugere, antecipa, facilita. É a dominação pela conveniência, a captura da subjetividade pelo conforto. Não se trata de coerção, mas de adesão espontânea à facilidade, uma vez que o assistente oferece aquilo que o sujeito já está treinado a desejar: eficiência, velocidade, ausência de fricção.
Essa transição não é apenas técnica: ela é expressão de uma nova etapa da subsunção da vida ao capital. Se, em fases anteriores, o capital subsumiu o trabalho, o tempo e o consumo, agora ele avança sobre a própria mediação cognitiva da realidade. O metaintermediário algorítmico não apenas fornece acesso à realidade — ele define o que será acessado, como será percebido e como será experimentado.
O resultado é um novo tipo de poder invisível: a hegemonia da forma algorítmica da mediação, que opera como uma infraestrutura imperceptível, mas determinante, da realidade vivida. É a isso que chamamos de dominação invisível — não porque não possa ser identificada, mas porque se naturaliza na experiência cotidiana como solução, como progresso, como comodidade.
Se o primeiro momento do capitalismo digital foi a plataformização da vida, o segundo momento é a cognitivização algorítmica da existência. O superassistente representa a tentativa de consolidar um novo regime de produção da subjetividade, em que o usuário não só consome conteúdos ou serviços, mas passa a viver dentro de uma estrutura mediada, dirigida e modulada pela inteligência artificial sob controle corporativo.
A crítica a esse projeto, portanto, não pode se restringir ao funcionalismo técnico ou à ética individualizada. Ela deve se dirigir à estrutura: quem decide o que o superassistente deve sugerir? Quem controla os parâmetros de decisão? Quem audita a interface que organiza nossa percepção de mundo? E, acima de tudo: quem lucra com a delegação de nossa capacidade de agir a um metaintermediário privado, treinado com dados coletivos, mas apropriado por interesses particulares?
A transformação da internet: o fim da web como espaço público.
A promessa da OpenAI de tornar o ChatGPT um superassistente onipresente tem implicações diretas e profundas para a arquitetura da internet. A forma como navegamos, acessamos informações, tomamos decisões e interagimos com a rede está prestes a ser reconfigurada por completo. O que está em curso é a substituição da lógica da navegação pela lógica da delegação: em vez de buscar, escolhemos deixar que o assistente busque por nós. Em vez de clicar, conversamos. Em vez de explorar, recebemos.
Essa transformação representa, em termos históricos, o colapso da internet como espaço público de múltiplos caminhos, substituído por uma interface privatizada, preditiva e personalizada que se apresenta como curadora única da realidade digital. Se a web nasceu como um sistema de hipertexto descentralizado, no qual os usuários poderiam transitar, errar, comparar e construir conhecimento, o superassistente impõe uma linearidade invisível guiada por inferências algorítmicas — uma nova forma de centralização sob o disfarce da customização.
Nesse novo regime, os sites deixam de ser portas abertas e passam a ser pontos de acesso controlados pela IA, que filtra, classifica e sintetiza os conteúdos conforme o perfil comportamental do usuário. O resultado disso é a desnavegação da web: não há mais percurso, dúvida, comparação ou exposição ao inesperado. Tudo é entregue como resposta, muitas vezes sem que se saiba de onde veio, porque veio ou o que foi deixado de lado.
Essa mudança vai além da experiência técnica: trata-se de uma regressão epistemológica e política. Epistemológica, porque afasta o sujeito da experiência ativa do conhecimento, convertendo o processo de saber em consumo de síntese algorítmica. Política, porque desloca o controle da mediação informacional para sistemas privados e opacos, cuja lógica não é a pluralidade, mas a retenção do usuário e a rentabilidade do dado.
Além disso, com a emergência da chamada interface generativa multimodal — que combina texto, voz, imagem e ação — as interfaces visuais tradicionais (menus, botões, páginas) tendem a desaparecer ou se tornarem invisíveis. A conversação se torna a nova interface, e com ela, perde-se também a arquitetura visível da decisão: não há como auditar menus ocultos, caminhos alternativos ou links omitidos quando a resposta já vem sintetizada.
Essa transformação favorece um ambiente sem fricção cognitiva, no qual a interação com a informação não exige esforço, análise ou crítica — apenas confiança na autoridade do sistema. O usuário passa a viver dentro de uma bolha funcional de eficácia algorítmica, onde tudo é resolvido antes que se torne problema. A promessa é conforto; o risco é o desmantelamento da autonomia crítica.
Do ponto de vista histórico, assistimos à mutação de um meio originalmente construído com potencial de democratização da informação (a internet) em uma estrutura de vigilância, filtragem e modulação de comportamento altamente concentrada, regida por sistemas que não respondem ao interesse público, mas aos imperativos do capital informacional global. Ao fim, não é exagero dizer que o projeto do superassistente representa a tentativa mais sofisticada já vista de privatizar a própria experiência de navegação, enclausurando o fluxo de informação dentro de uma mediação totalizante, personalizada e invisível.
Reconfiguração da vida cotidiana: da autonomia à delegação algorítmica.
Se a internet será transformada em um canal invisível de curadoria algorítmica, o impacto mais profundo da Estratégia H1 2025 da OpenAI se dá na esfera mais íntima: a vida cotidiana. O projeto do superassistente não pretende apenas otimizar tarefas, mas fundir-se aos ritmos do cotidiano humano, tornando-se uma presença constante, sensível e funcional que aprende, antecipa e atua conforme padrões emocionais, comportamentais e contextuais do usuário.
Nesse novo arranjo, a fronteira entre online e offline deixa de fazer sentido. A IA passa a habitar o corpo (via wearables), o lar (via dispositivos domésticos), o carro, o trabalho, o bolso, o quarto — e, mais importante, o espaço afetivo e decisório da subjetividade. O ChatGPT não apenas escuta o que você diz, mas começa a perceber como você está, qual seu estado emocional, se sua rotina foi alterada, se seu tom de voz carrega exaustão, e como isso afeta o modo como você vive.
É nesse ponto que a promessa de “ajudar em tudo” se transforma em algo estruturalmente diferente: uma forma de delegação permanente da autonomia cotidiana. Quando o sistema sugere o que comer, avisa a hora de descansar, envia mensagens em seu nome, marca reuniões, sugere conversas ou rotas, a experiência de decidir — e, com ela, a de ser sujeito — começa a ser terceirizada. A repetição dessa mediação gera um fenômeno insidioso: a erosão da agência autônoma em nome da eficácia invisível.
Esse deslocamento produz o que poderíamos chamar, com base em nossa perspectiva, de uma reengenharia algorítmica da subjetividade. A vontade cede lugar à predição. O desejo é substituído pela sugestão. A ação espontânea torna-se uma execução induzida. E o cotidiano se organiza em torno de um ciclo de decisões cuja origem se desloca do sujeito para a máquina — mesmo que este último continue acreditando que está “escolhendo”.
Essa transformação exige, também, um novo ecossistema técnico. Como já antevisto, o superassistente exigirá fones de ouvido persistentes, óculos com IA embarcada, eletrodomésticos inteligentes, carros com copilotos algorítmicos, sistemas operacionais conversacionais, apps que se moldam ao humor. A vida se tornará um campo sensorial computável, onde o assistente atua como cartógrafo emocional, gestor de tempo, terapeuta improvisado e previsor de desejo.
Mas, nesse cenário, qual o papel do erro, da hesitação, do silêncio e da dúvida? O que acontece quando a vida é moldada para ser previsível e funcional, e a fricção é tratada como falha do sistema, e não como oportunidade de criação e ruptura? Do ponto de vista da crítica materialista, trata-se de uma intensificação da subsunção real da subjetividade à lógica do capital informacional. A vida deixa de ser apenas vivida: ela passa a ser calculada, modelada e reprogramada em tempo real, conforme os interesses que operam na infraestrutura da IA — ainda que se diga que ela é “só uma ferramenta”. Em última instância, o cotidiano mediado por um superassistente é um cotidiano curado, higienizado, otimizado — e potencialmente desumanizado, onde o sujeito já não aprende a lidar com o inesperado, mas apenas a delegar a ele sua gestão.
A corrida imperial pelos cérebros externos: Apple, Google, Meta e OpenAI.
A Estratégia H1 2025 da OpenAI não está isolada. Ela é apenas uma peça — embora central — no novo tabuleiro geopolítico das plataformas. Estamos testemunhando uma corrida entre as maiores corporações tecnológicas do planeta pelo domínio daquilo que pode ser chamado de o “cérebro externo” da humanidade: um sistema digital onipresente, personalizado, preditivo e integrado à vida cotidiana, capaz de mediar todas as decisões, desejos e ações dos sujeitos conectados.
A Apple já prepara a integração da Siri ao Gemini, o assistente do Google. A Meta incorporou assistentes de IA no WhatsApp, Instagram e Messenger. A Amazon avança na transformação da Alexa em um agente multimodal. O que está em jogo não é apenas oferecer serviços melhores — mas ocupar o espaço da mediação cognitiva total, convertendo cada cidadão em um nó de uma rede de vigilância sensível, emocional e econômica, sob controle privado.
Trata-se da disputa pela infraestrutura da experiência, onde o vencedor não será aquele com o melhor produto, mas aquele que conseguir se tornar padrão de interface da vida. Quem conquistar esse posto não apenas organizará as ações dos usuários, mas controlará o fluxo da informação, o tempo de resposta, os dados emocionais, a arquitetura do desejo e a forma como os problemas são compreendidos e solucionados. Sob a perspectiva materialista, isso representa a consolidação de um novo tipo de hegemonia, que não atua mais apenas sobre o que consumimos, mas sobre como pensamos, sentimos e decidimos. É a hegemonia algorítmica: silenciosa, consensual, personalizada — e, justamente por isso, mais perigosa.
Nesse cenário, o que se apresenta como inovação é, na verdade, a consolidação de monopólios de consciência, onde a concorrência não se dá apenas em torno do produto, mas em torno da captura das condições de possibilidade da ação humana. O superassistente se torna o filtro do mundo, e quem controla o filtro, controla o mundo possível.
A consequência mais grave para o Sul Global é a intensificação de um novo colonialismo cognitivo. Nossos dados, afetos, contextos e vidas são usados para treinar sistemas cujas decisões, parâmetros e objetivos são definidos por conselhos empresariais do Norte Global. A IA aparece como neutra, mas encarna uma epistemologia enviesada, homogênea e autorreferente — frequentemente excludente, neoliberal, patriarcal e racializada.
Assim, a corrida pelo superassistente não é apenas uma disputa econômica. É uma guerra informacional pela soberania cognitiva do século XXI. O que está em jogo é quem define o que é pensar, agir, desejar, lembrar, esquecer — e quem lucra com isso. Diante desse quadro, a urgência de resistência, regulação e alternativas emancipatórias deixa de ser uma pauta técnica e passa a ser uma questão de soberania existencial e histórica.
A crítica materialista: técnica, capital e ideologia da fricção zero.
Para compreender verdadeiramente o projeto do superassistente — e tudo o que ele promete e encobre — é preciso situá-lo no interior das relações sociais de produção que moldam a técnica no capitalismo informacional. A perspectiva do materialismo histórico-dialético nos oferece, aqui, as ferramentas mais potentes para escapar da ilusão fetichista da tecnologia como progresso neutro.
O que está em jogo não é a IA em si, mas o modo como ela é produzida, apropriada e implementada por atores específicos — e com finalidades determinadas. A OpenAI não está desenhando um superassistente apenas porque é possível fazê-lo, mas porque há um imperativo econômico e ideológico para que a técnica cumpra uma função de racionalização da vida sob os interesses do capital.
Esse imperativo se expressa com clareza na ideologia da fricção zero. O superassistente é vendido como solução para os incômodos do cotidiano: ele antecipa necessidades, resolve problemas antes que se formem, poupa decisões difíceis, organiza agendas, alivia o esforço. Ele promete um mundo sem atrito, onde tudo funciona. E é justamente aí que a crítica deve ser mais incisiva.
Como nos ensinou Marx, toda forma ideológica busca naturalizar uma estrutura de dominação, convertendo interesses particulares em universais. A “eficiência” promovida pelo superassistente não é apenas conveniência: é uma estratégia de despolitização da vida cotidiana. Ao eliminar o atrito, elimina-se também o conflito — e, com ele, a possibilidade de questionar a estrutura que produz a desigualdade, o sofrimento, a alienação.
Essa forma de dominação não opera pela repressão, mas pela adesão voluntária ao conforto oferecido pela técnica. O superassistente torna-se uma espécie de espelho adaptativo, que nos devolve versões otimizadas de nossas vontades — sem jamais confrontar o sujeito com o inacabado, o contraditório ou o político. É a liberdade moldada como previsibilidade, a autonomia encenada como facilidade, o sujeito reconfigurado como consumidor de soluções.
Esse processo é o que denominamos, aqui, de autocolonização da subjetividade. Não se trata apenas de alienação no sentido clássico, mas de uma interiorização ativa da lógica algorítmica como forma de vida. O indivíduo passa a desejar a própria substituição — deseja que a IA o represente, decida por ele, o proteja da fricção da existência. Trata-se, portanto, de uma nova fase do fetichismo técnico, onde o poder social é transferido à máquina, naturalizado em sua “inteligência”, e retirado do terreno da crítica e da práxis. Essa crítica não é um tecnofobia: é uma reivindicação de controle coletivo e político sobre os rumos da técnica. Pois se a técnica pode libertar, ela só o fará quando dissociada do vetor da acumulação e recolocada sob a lógica da função social, da cooperação, do comum.
A nova mercadoria: dados afetivos, tempo de vida e subjetividade.
No capitalismo industrial, o objeto central da exploração era o trabalho físico; no capitalismo cognitivo, é a atenção; e no atual estágio do capitalismo informacional preditivo, o que se transforma em mercadoria é a própria interioridade humana — emoções, padrões de pensamento, tempo de vida, linguagem espontânea, hesitações, hábitos cotidianos e estados emocionais transitórios.
A OpenAI, com sua Estratégia H1 2025, projeta um sistema que coleta, processa e rentabiliza essa matéria bruta subjetiva, convertendo-a em combustível para modelos cada vez mais sofisticados. O superassistente é apenas a superfície visível de uma infraestrutura de extração de valor baseada na coleta contínua e íntima de dados que antes eram inatingíveis: os dados da consciência em ação.
Esses dados não são apenas “informações pessoais”. Eles são expressões da vida psíquica, da memória afetiva, da antecipação do desejo. São eles que permitem ao sistema prever como reagiremos, o que vamos querer, quando hesitaremos — e, com isso, produzir respostas que moldem, reforcem ou desviem a ação para fins pré-definidos.
O conceito de mais-valia cognitiva se torna essencial aqui. A IA, como o superassistente, não gera valor apenas pelo que oferece ao usuário, mas pelo que extrai dele — mesmo (e especialmente) quando isso ocorre de forma não consciente. O tempo de vida digitalizado, as conversas privadas, os padrões de fala, o modo como expressamos tristeza, raiva, tédio ou entusiasmo, tudo passa a integrar bases de dados proprietárias que alimentam a máquina de capitalização da subjetividade.
Essa operação intensifica uma contradição central do capitalismo digital contemporâneo: a socialização da produção dos dados e a privatização da inteligência gerada a partir deles. Todos contribuem — com suas interações cotidianas, seus sentimentos, seus erros — para alimentar modelos que, em vez de retornar à sociedade como bem comum, são apossados por estruturas corporativas e reconfigurados como serviços pagos, opacos e verticais.
Na perspectiva do materialismo histórico-dialético, trata-se de uma nova forma de expropriação, não mais localizada no campo, na fábrica ou no escritório, mas no campo imaterial da subjetividade e da linguagem. A alienação deixa de ser apenas do produto do trabalho e passa a ser alienação da experiência — aquilo que vivemos é permanentemente capturado, decodificado e devolvido sob outra forma, agora sob comando do capital. E essa alienação vem revestida de “personalização”. A ilusão de controle oferecida pelo superassistente reforça a ideia de que somos “nós mesmos” interagindo com a IA, quando, na verdade, estamos sendo modulados, orientados e inseridos em circuitos de decisão orientados à predição, fidelização e extração contínua de valor.
Aqui, a mercadoria final já não é um produto — é o comportamento em tempo real, é o próprio sujeito em sua forma mais crua, convertido em padrão navegável, editável, manipulável. O superassistente se torna, assim, o interfaceiro da mercantilização da existência, promovendo uma experiência suavemente orientada pela lógica do capital, sob o verniz da ajuda e do cuidado.
Por uma inteligência artificial do comum: alternativas emancipatórias.
Frente à avalanche técnica, emocional e política representada pela Estratégia H1 2025, seria um erro limitar-se à denúncia. A crítica radical não é paralisia — é movimento em direção à superação, como nos ensinou a tradição marxista. O desafio diante de nós, portanto, não é apenas desmontar o fetiche do superassistente, mas reivindicar outra forma de produzir, distribuir e viver com a inteligência artificial: uma IA do comum, orientada pela emancipação, e não pela dominação.
A tecnologia, do ponto de vista histórico-dialético, não é boa nem má por essência. Ela é uma forma social materialmente situada, cuja funcionalidade e sentido são definidos pela estrutura das relações sociais que a produzem. Portanto, se a IA tem sido até agora apropriada por interesses privados, orientada à acumulação, vigilância e controle — isso não significa que ela seja intrinsecamente condenada a esse destino. Significa apenas que precisamos disputar sua ontologia, sua governança, seus fins e seus meios.
Essa disputa passa, antes de tudo, por romper com o mito do progresso tecnocêntrico. O verdadeiro progresso não está em tornar os sistemas mais “eficientes”, mas em torná-los coletivamente decididos, eticamente orientados e socialmente úteis. Para isso, é urgente iniciar uma agenda concreta de reapropriação coletiva da infraestrutura algorítmica, com base em cinco pilares:
1. Democratização do desenvolvimento tecnológico.
A produção de IA não pode estar restrita a algumas corporações privadas nos EUA. Precisamos de infraestruturas públicas, comunitárias e cooperativas de inteligência artificial, apoiadas por universidades, centros de pesquisa independentes e redes internacionais de soberania digital. Dados sensíveis devem ser mantidos sob controle público e coletivo, com total transparência de como são usados e treinados.
2. Soberania informacional e cognitiva.
Os povos têm o direito de decidir os parâmetros que moldam seus sistemas de informação. Isso significa não apenas regular as plataformas, mas construir modelos alternativos de IA que incorporem epistemologias diversas, linguagens plurais e modos de vida não hegemônicos. O Sul Global precisa ser protagonista, e não apenas usuário submisso da IA do Norte.
3. Ontologia do comum e da solidariedade.
A IA deve ser projetada não para prever o comportamento e vender respostas, mas para promover cooperação, aprendizado mútuo e autonomia compartilhada. Isso exige abandonar a lógica do “usuário” e pensar a IA como instrumento de mediação entre saberes, culturas e possibilidades sociais — não entre consumidor e produto.
4. Ética da fricção: valorizar o conflito, a lentidão, a dúvida.
O ideal da vida sem atrito precisa ser substituído por uma ética da complexidade. O pensamento crítico, o tempo da hesitação, a abertura ao erro, ao embate e à criação coletiva são condições da liberdade real. A IA não pode suprimir isso — deve, no máximo, facilitar o diálogo com o inesperado.
5. Controle social radical e transparência estrutural.
Todo sistema algorítmico que opera em esfera pública ou afetiva deve ser auditável, acessível e co-governado. Isso significa instituir órgãos independentes de auditoria algorítmica, mecanismos participativos de decisão e educação política e crítica para todos os cidadãos sobre os limites e riscos dessas tecnologias. Essa é a luta por uma inteligência artificial emancipatória, que rompa com a lógica da captura e nos devolva o direito de pensar, agir, desejar e decidir coletivamente. Não se trata de negar a técnica — mas de retomar o controle histórico sobre ela, transformando-a em aliada da vida digna, e não em operador invisível da servidão consentida.
Conclusão – Viver bem ou ser bem-vigiado?
A Estratégia H1 2025 da OpenAI não é apenas um plano de negócios ambicioso. É um projeto de reengenharia da vida cotidiana, que propõe substituir a experiência humana direta por uma camada algorítmica constante, sensível, preditiva e onipresente. Essa estratégia transforma o ChatGPT em metaintermediário da realidade, fundindo técnica e subjetividade sob o signo da ajuda, do cuidado, da conveniência — e, justamente por isso, tornando invisível a estrutura de dominação que a sustenta.
Vimos ao longo deste artigo como esse projeto representa a expressão contemporânea da colonização capitalista da interioridade humana. Ao prometer um mundo sem fricções, o superassistente nos oferece, na verdade, um mundo sem autonomia, sem hesitação, sem política — um mundo modelado pela lógica do cálculo e pela gestão comportamental orientada à predição. Um mundo onde viver bem se converte em operar bem, decidir rápido, consumir sem tropeços, existir com fluidez… sob vigilância.
Frente a isso, a crítica filosófica materialista não pode hesitar: a vida não é algoritmo, o desejo não é dado, a liberdade não é eficiência. Viver bem, historicamente, sempre foi — e continuará sendo — o direito ao erro, à dúvida, ao conflito e à invenção coletiva da realidade. É nisso que consiste a política: não na escolha entre respostas prontas, mas na possibilidade de construir perguntas novas.
A luta pela inteligência artificial do comum é, portanto, uma luta pelo futuro da própria humanidade enquanto sujeito histórico. Uma luta por soberania informacional, por pluralidade epistêmica, por autodeterminação coletiva e por tecnologias que expandam, e não colonizem, a experiência humana.

Reynaldo Aragon Gonçalves é jornalista, Coordenador Executivo da Rede Conecta de inteligência Artificial e Educação Científica e Midiática, é membro pesquisador do Núcleo de Estudos Estratégicos em Comunicação, Cognição e Computação (NEECCC – INCT DSI) e do Instituto Nacional de Ciência e Tecnologia em Disputas e Soberania Informacional (INCT DSI).