Com o título “Datacenters e Código que Ainda Não Escrevemos”, eis artigo de Mauro Oliveira, professor do IFCE, PhD em Informática por Sorbonne University e ex-secretário de Telecomunicações do Ministério das Comunicações. “Mas o que o Brasil realmente pensa sobre datacenters? Ouvi de tudo, de Gregório Duvivier e Intercept Brasil , críticos da falta de soberania e sustentabilidade, até webinar da Fundação FHC e podcasts de representantes da Nvidia, entusiasmados com o “mercado promissor”… pra eles”, expõe o articulista.
Confira:
Há trinta anos, o Ceará formava sua primeira turma de mestrado em Computação, um feito histórico conduzido por Tarcísio Pequeno, pioneiro da Inteligência Artificial na UFC, recém-chegado da PUC-Rio e discípulo do saudoso Prof. Roberto Lins.
O clima era de festa e esperança: sonhávamos ver nossos meninos felizes e suas inteligências aplicadas às empresas alencarinas. No entanto, o êxtase digital durou pouco. Dia seguinte à formatura, um jornal local estampava a manchete: “Microsoft contrata toda a turma de mestrado da UFC”. E ali, entre o orgulho e o desalento, após noites a fio entre códigos e cafés na preparação das dissertações, nascia a famigerada “fuga de cérebros”, eufemismo elegante para a ausência de política pública consistente.
Recentemente, assisti na TV a um brasileiro falando sobre Inteligência Artificial, O cabra danado era CEO de uma big tech, dessas que nossa conta bancária conhece bem. Por curiosidade, vasculhei seu Lattes: graduação, mestrado e doutorado na UFMG, todos financiados com recursos públicos. Deu-me aquele banzo de colonizado: o país investe, o talento parte, e nós seguimos importando o que ajudamos a criar (ou a República das Bananas alimentando o colonizador)
Esta mesma falta de apetite por políticas públicas efetivas parece se repetir agora sob outra roupagem: o Regime Especial de Tributação para Serviços de Datacenter (REDATA) apresentado pelo Ministério da Fazenda nos EUA como estratégia para atrair datacenters das big techs.
Mas o que o Brasil realmente pensa sobre datacenters? Ouvi de tudo, de Gregório Duvivier e Intercept Brasil , críticos da falta de soberania e sustentabilidade, até webinar da Fundação FHC e podcasts de representantes da Nvidia, entusiasmados com o “mercado promissor”… pra eles.
O contraste entre essas vozes é revelador: de um lado, a preocupação legítima com a ausência de uma política nacional de soberania e sustentabilidade, evocando o Plano Brasileiro de Inteligência Artificial (PBIA) e sua defesa do desenvolvimento científico e tecnológico autônomo; do outro lado, o entusiasmo empresarial de quem enxerga nos datacenters uma “janela de oportunidade” de negócios, ainda que essa janela se abra, ironicamente, para o andar térreo da dependência tecnológica.
Alguns dados impressionam: cerca de 70% do processamento de dados do planeta estão concentrados nas mãos da AWS, Microsoft e Google; mais de 60% de todo o armazenamento de nossos dados ocorre fora do Brasil (incluindo dados “sensíveis”, PIX, segurança, pesquisa etc.). Ou você não usa, como eu, o Google Drive?
Como visto, a questão da Soberania Nacional estende-se desde à fuga de cérebros (software) à nossa dependência de datacenters externos (hardware). Em outras palavras, se os cabos resolverem “fazer greve” (peopleware) ao sabor do Norte global (mas isso é exagero … ou não?) o Brasil para.
Soberania ou Dependência? Curioso notar que figuras que ajudaram a moldar CT&I no primeiro governo Lula (2003) divergem hoje da política do REDATA: Sérgio Amadeu, então presidente do Instituto Nacional de Tecnologia da Informação (ITI); César Alvarez, assessor especial de Lula, à epoca; Mauro Oliveira, ex-secretário de Telecomunicações do Ministério das Comunicações etc.
Duas décadas depois, o debate é o mesmo: como equilibrar pressão externa e autonomia nacional? Em 2003, tive o privilégio de coordenar, com o competente Augusto Gadelha (ex-Secretário de Política de Informática do MCTI e Presidente do CEITEC), o Sistema Brasileiro de TV Digital (SBTVD), um projeto ousado que enfrentou, de peito aberto, os padrões globais de TV, verdadeiras “big techs” do espectro eletromagnético.
Não faltaram vozes “brasileiras” repetindo o chavão entreguista no “pé d’ouvido”: não vamos reinventar a roda. Pois não é, “Seu Menino”, que reinventamos “mermo”, à moda tupiniquim. Foram 20 instituições de P&D, 1500 pesquisadores e 60 laboratórios integrados, com apoio do CNPq, Finep, CPqD e Ministério das Comunicações.
Dessa engrenagem nasceu o Ginga, software brasileiro que virou padrão obrigatório e foi reconhecido pela International Telecommunication Union (ITU) como o único sistema de TV digital do Sul Global.
*Mauro Oliveira
Professor do IFCE, PhD em Informática por Sorbonne University e ex-secretário de Telecomunicações do Ministério das Comunicações.