Com o título “Rapaduras Eletrônicas, Nuvens Secas e o Cabresto Digital”, eis artigo de Mauro Oliveira, do Pirambu Innovation, professor do IFCE, PhD em Informática por Sorbonne University e ex-secretário de Telecomunicações do Ministério das Comunicações.
(Artigo do livro ‘SOBERANIA DIGITAL AQUI & AGORA’, a ser publicado em 20 de setembro de 2025)
Confira:
O mundo digital não começou com a Internet de Vinton Cerf & Robert Kahn, pais do Temrb CP/IP, nem com a World Wide Web de Tim Berners-Lee, no CERN, na Suíça (onde o brasileiro Cláudio Lenz César comanda uma equipe cotada ao Nobel de Física). Muito menos começou com o Facebook do Eduardo Saverin, o “sócio brazuca” do Zukenbergue. A estreia dessa ópera eletrônica foi bem antes: num altar centralizado erguido sobre os jumentões da computação, os mainframes.
O pioneiro deles foi o EDVAC – Electronic Discrete Variable Automatic Computer, concebido em 1945, quando o gênio malvado John von Neumann — o mesmo que calculou a “melhor” altura para detonar a bomba em Hiroshima — apresentou, em relatório, a arquitetura de programa armazenado que leva seu nome.
É essa mesma arquitetura que, quase oito décadas depois, ainda sustenta toda a nossa parafernália digital: das “rapaduras eletrônicas” (celulares) aos “baús digitais” (desktops) e até os “cadernos binários” (notebooks).
Nos anos 1970, o bate-papo digital ganhou novos ares com as redes X.25, que, apoiadas pelo modelo OSI da ISO, tentaram (sem muito sucesso) organizar melhor, DESorganizando o caos existente na transmissão de dados (era um modelo com muito “overhead”, necessário à época). Mas quem riu por último foi o protocolo TCP/IP, aquele espertinho criado nos laboratórios do DARPA, que aplicou um sonoro 7×1 no X.25, deu uma rabissaca e nunca mais olhou pra trás.
Com o TCP/IP reinando absoluto, os pacotinhos de dados começaram a atravessar continentes como cartas apaixonadas, mas sem selo nem carimbo, bastava um endereço IP. Lá fora, a rede crescia em silêncio, incubada no seio militar do DARPA e logo domesticada pelas universidades.
Aqui dentro, no Brasil, a história foi mais lenta. Foi só nos anos 1990 que a coisa ganhou corpo. Primeiro com a RNP – Rede Nacional de Pesquisa, conectando universidades como se fossem noviços em retiro espiritual.
Nesse caldo acadêmico surgiu um fenômeno extraordinário: a BRASNET, rede social que reunia centenas de bolsistas brasileiros no exterior. E, de repente, brota a irreverente Rádio Uirapuru de Itapipoca (RUI), com DJ Mauro Pacatuba e sua assistente, a pacata e ingênua Maria Cá, levando, às sextas-feiras, notícias e músicas como se fosse rádio de pilha no pé da rede … de varanda. A RUI viralizou tanto que ganhou reportagem na Veja em 1992. Foi, sem dúvida, a primeira rádio da internet, um Orkut avant la lettre, mas com sotaque e humor cearense.
Na sequência veio a Embratel, abrindo o acesso comercial com seus modems que pareciam cigarras no verão. Conectar-se era uma liturgia de paciência: chiado, bip-bip, e enfim a tela piscando “Conectado a 9.600 bps”, vitória digna de gol do Gildo no Ceará tricampeão, no PV.
Provedores pipocavam como barraquinhas de pré-carnaval no Benfica: IG, Mandic, Zaz, Terra… cada um prometendo ser o cordão que ligaria o usuário à grande avenida da informação. E a gente, crédulo, entrava na folia digital pagando por hora de conexão, rezando para o telefone não cair, senão era fim da festa.
Assim nasceu, de forma precária, a internet comercial brasileira: não como a prometida “BR-116 da informação”, mas como estrada de barro, cheia de buracos e congestionada de curiosos. Ainda assim, para muitos, foi como abrir a janela de um quarto abafado e sentir, pela primeira vez, o vento da globalização na cara.
Enquanto isso, a Inteligência Artificial, festejada desde a Máquina de Turing em 1936, atravessava o seu próprio “inverno nuclear”, mais pálida que o Fortaleza na Copa do Nordeste. Os sistemas especialistas ainda tentavam mostrar serviço quando, em 1997, a IBM apronta mais uma das suas: a Deep Blue, uma IA baseada em regras e no bom e velho algoritmo de “força bruta”, derrota o campeão Kasparov. Foi um choque: coisa de Mike Tyson noiado contra Maguila de ressaca.
Foi o sinal de que a IA vestira calça comprida de tergal, que “amassa mas não amarrota, nem perde o vinco” e calçava um fonabô da Vulcabrás ali na sapataria Esquisita, perto da Abafilm, de fronte a Banca do Bodinho, ao lado do Abrigo central.
Aí chega o dia que era longe demais pra chegar: 31 de dezembro de 1999. Eita que o bug do milênio (Y2K), que prometia o apocalipse digital, vira motivo de vaia geral de dar inveja ao vereador Bode Ioiô, na Praça do Ferreira. Nada acontece. Nem um reloginho atrasou. Era tempo bom em que o Estado ainda mandava na segurança pública, sem facções e dessas BETs bostas que seduzem, sequestram e famintam famílias em 3 cliques… e não fazemos nada, como no “Jardim de Maiakovsky” (que não é do Maiakovsky)
Eis que surge o Watson… Elementar, meu caro! A nova promessa da IBM: uma IA “cognitiva” que, em 2011, derrota dois “gringos da peste” no programa americano Jeopardy! um clone sofisticado do “O Céu é o Limite” do Jota Silvestre. O marketing vendia o feito como se fosse o Sócrates reencarnado em um servidor refrigerado, mas no fundo era apenas um Google de terno e gravata surfando nos ventos do big data. A IBM ressurge como uma Fênix Caixeiral, digo digital, surfando nos ventos do big data.
O verdadeiro divisor de águas só viria em 2017, quando um punhado de pesquisadores publicou um artigo: “Attention Is All You Need”. Ali nascia a arquitetura dos transformers, base da IA Generativa. Foi como trocar a carroça pela locomotiva.
Diferente da IA cognitiva do Watson (IBM), que apenas simulava processos decisórios humanos, a IA Generativa inaugura uma etapa distinta: cria novos conteúdos (texto, voz, imagem, música, vídeo) a partir de modelos estatísticos treinados sobre imensos volumes de dados humanos previamente vetorizados.
Essa vetorização nada mais é do que traduzir linguagem, sons e imagens em números de alta dimensão, permitindo que a máquina identifique padrões, conecte conceitos e produza combinações inéditas. Em outras palavras: ela não “pensa”, mas cria como se pensasse.
E em 2022, a IA Generativa ganha carne, osso e voz: a OpenAI lança o ChatGPT, que em poucas semanas já conquista mais de 100 milhões de usuários. Foi o estouro da boiada digital. Diferente dos sistemas anteriores, mantidos em jaulas de laboratório, essa IA escapou dos muros da academia e invadiu a sala de aula, a empresa, o celular, a conversa de bar. Pela primeira vez, qualquer terráqueo com um smartphone no bolso teve acesso direto à Inteligência Artificial — antes privilégio de corporações e centros de pesquisa.
A popularização desse acesso lembra o impacto da tecnologia WWW nos anos 1990, quando o cidadão comum pôde navegar pelo oceano da informação. Mas aqui há um salto maior: com a IA Generativa, não é apenas informação que se abre, é o próprio conhecimento. E essa diferença não é detalhe, é disruptiva com grandes impactos para a sociedade … em todas as áreas.
Mas, como sempre, onde há promessa também há sombra. O relatório AI 2027, publicado em abril de 2025, de forma independente, por um grupo de pesquisadores e analistas, desenha cenários nada ingênuos. Nele, surgem agentes autônomos capazes de projetar novas gerações de IA, economias inteiras redesenhadas em tempo real, e tensões geopolíticas dignas de Guerra Fria versão 3.0 (a 2.0 fica por conta da China x EUA).
Especulações à parte, o relatório AI 2027 sugere cenários que se aproximam do que muitos chamam de singularidade, a convergência entre Inteligência Artificial Geral e os avanços da computação quântica, prevista para 2030 por alguns cientistas laureados e CEOs de Big Techs.
E o Brasil, onde fica nessa história? Continuamos com um pé no barro e outro no cabresto digital. Enquanto potências erguem infraestrutura, formam talentos e disputam a primazia da nova gramática algorítmica, nós seguimos como usuários tardios, comprando pacotes prontos, alugando nuvens que não chovem no nosso sertão, exportando cérebros e importando soluções enlatadas.
Chamam isso de globalização, mas o nome verdadeiro é colonialismo digital.
É por isso que este livro se ergue sobre dois eixos principais:
1. O Letramento Digital: sem compreensão crítica sobre o que é a inteligência artificial, seus limites e riscos, seremos presas fáceis do marketing e da propaganda travestida de ciência.
2. O Colonialismo Digital: a denúncia de um Brasil, e de um Sul Global inteiro, reduzido a consumidores passivos, incapazes de escrever seus próprios algoritmos e, portanto, sem voz no futuro que já está sendo programado.
Porque, em última instância, soberania digital não é luxo de visionários nem capricho de tecnólogos: é questão de sobrevivência coletiva.
Quem não domina as letras da nova gramática digital acaba condenado a viver como personagem secundário, aplaudindo, sem perceber, a própria perda de futuro, com rapadura na mão, nuvem seca sobre a cabeça e cabresto bem apertado.
*Mauro Oliveira
Professor do IFCE, PhD em Informática (Sorbonne University) e ex-secretário de Telecomunicações do Ministério das Comunicações.
Ver comentários (1)
Excelente texto, Mauro Oliveira! Faz um resgate do longo caminho, que nos trouxe até a IA generativa, de forma didática, crítica, irreverente. Talento de professor, apaixonado pela ciência, indignado com a desinteligência que nos cerca na política. Vou compartilhar esta maravilha de artigo. Parabéns!