Nuvem de dados sintéticos na educação
Autoria: Everson Luiz Oliveira Motta
Vivemos em um paradoxo irônico: uma era de infinitas informações e, ainda assim, de verdades fragmentadas. Somos navegadores de um oceano digital onde os dados, embora vastos, não nos oferecem mapas confiáveis. Mas o que são os dados, senão ecos silenciosos de escolhas passadas? E o que é a realidade, senão o reflexo do que decidimos ver, ignorar ou fabricar?
Os algoritmos que criamos, alimentamos e reinventamos tão celebrados por sua suposta ‘neutralidade’ caminham para uma datificação sem fim (Zuboff, 2021) e não passam de espectros de intenções humanas, refletindo nossas fraquezas, ambições e preconceitos. Cada linha de código é uma sentença proferida por quem detém o poder de moldar o futuro, um grande caldo produzido pelas bigtechs. Ao mesmo tempo, cada clique, cada dado cedido, é uma concessão silenciosa da nossa própria narrativa. Nesse enredamento, quem controla esses dados controlará o todo?
O controle da informação não é novo; é um eco da humanidade em sua busca incessante por poder e significado. A prensa de Gutenberg desafiou o monopólio do saber; a televisão nos entregou narrativas mastigadas; e agora, a internet, em um mundo digital cada vez mais ubíquo, não apenas reflete, mas (re)cria abismos sociais. Não perguntamos mais "o que é verdade?"; ao contrário, questionamos: "qual verdade você quer ver?". Essa escolha, no entanto, não é nossa. O algoritmo decide, na penumbra de sua lógica fria e implacável.
Existe uma preocupação profunda do apressadíssimo tecnológico educacional quando se nota a tendencia de criar um lugar de “obsolescência programada da figura do professor: a lógica da busca da construção do professor artificial” (Almeida, 2025, p. 86). A proliferação de conteúdo sem um compromisso ético real, especialmente dentro do espaço curricular. Recebemos referências de nós mesmos que são criadas por inteligências não humanas e somos colocados à prova quando corrigimos um artigo em pareceres científicos que talvez, sequer tenha sido escrito, ou passado por curadoria humana. Estamos testemunhando uma enxurrada de textos, artigos e livros produzidos de maneira quase mecânica, sem reflexão, sem responsabilidade e, muitas vezes, sem embasamento. Essa banalização da produção intelectual compromete ou comprometerá a confiabilidade do conhecimento ao enfraquecer os pilares da pesquisa acadêmica. As Inteligências Artificiais Generativas já está se alimentam dessa nuvem de dados sintéticos, e os impactos disso ainda são incertos.
Dentro desse contexto, surge o que podemos chamar de Teoria dos Dados Não Reais (TDNR) ou Teoria dos Dados Sintéticos (TDS) este último: “são dados não criados por humanos que imitam dados do mundo real. São criados por algoritmos e simulações de computação baseados em tecnologias de inteligência artificial generativa” (AWS, 2025). A ideia central é que estamos criando uma espécie de nuvem de informações que não necessariamente refletem a realidade. Essa nuvem, por vezes, pode ser sustentada por dados artificialmente gerados, por textos fabricados sem compromisso autêntico com a verdade ou simplesmente por conteúdos criados apenas para alimentar um sistema viciado em desinformação.
Em Cacofonia nas redes, de Santaella (2018), “obra suscita o arejamento das ideias que borbulharam no ano de 2017, em relação a três palavras – fake news, bolhas filtradas e pós verdade” (Motta, 2020, p. 368). Essas questões tornam-se ainda mais grave quando consideramos que pesquisadores e escritores estão se alimentando dessa nuvem sem um olhar crítico, sem questionar a procedência ou a ética do que consomem. Publicações acadêmicas vêm sendo inundadas por materiais que não passam pelo crivo da responsabilidade científica. O resultado? A longo prazo, produziremos uma geração que, muitas vezes, baseia suas produções em um conhecimento sintético, sem substância real.
Isso levanta uma preocupação central: como garantir que, no futuro, a produção do conhecimento continue pautada na ética e na responsabilidade? Essa deve ser uma das grandes missões das universidades e centros de pesquisa. Se a tendência for a multiplicação desenfreada de textos sem compromisso com a verdade, nossa linha ética precisará ser ainda mais rígida e criteriosa. Ou será que poderemos contar com inteligências artificiais para auxiliar na verificação e garantir a integridade da produção científica?
Talvez seja necessário criar Guardrails Educacionais de autenticidade: um selo de ética, uma certificação, um token de confiabilidade que assegure que determinada obra não se alimenta de uma nuvem de dados artificiais ou de conteúdo sem fundamentação, mas sim de uma investigação e pesquisa responsável.
Esse tema precisa ser mais discutido dentro e fora da academia, nas universidades, nas escolas e nos espaços curriculares. Embora já existam alguns debates sobre dados sintéticos e a produção massiva de conteúdo artificial, poucos têm abordado esse problema com profundidade. A colaboração entre pesquisadores, educadores e desenvolvedores de tecnologia pode ser o caminho para trazer essa discussão para o centro do debate acadêmico. A preocupação central não é apenas o avanço das tecnologias aceleradas, mas como preservar a integridade do conhecimento diante dessa nova realidade.
Devemos nos recusar a ser cúmplices passivos desta possível ‘Era Fabricada’. A tecnologia não é inevitável; ela é moldável. Os algoritmos não são onipotentes; eles são programáveis. E nós, os que vivem entre reflexos e realidades, não somos espectadores; somos autores. Precisamos rejeitar a resignação confortável da personalização dos conteúdos e abraçar a complexidade desafiadora da verdade. Pois o mundo, em sua vastidão, não pode ser contido em espelhos digitais, em uma teoria não real de dados ou em uma nuvem que se retroalimenta de informações sintéticas, sem ética e sem responsabilidade.
Se não formos cuidadosos, essa avalanche de produções sem critérios pode comprometer a forma como consumimos e validamos o conhecimento. Em um mundo onde livros são escritos de maneira industrial, sem preocupação com autenticidade, e onde algoritmos determinam grande parte do que lemos, talvez precisemos de um novo pacto ético. Um pacto que assegure um futuro onde a verdade não seja apenas um produto da conveniência algorítmica.
Essa é a reflexão que deve ocupar as mentes dos professores e pesquisadores e que precisa ser levada adiante. Há um campo fértil para explorarmos os impactos, limites e paradoxos dessa nova epistemologia dos dados.
E nós, enquanto humanidade, não podemos ser reduzidos a números e padrões preditivos. Somos mais vastos, mais incertos, mais livres. Somos criativos.
REFERÊNCIAS
ALMEIDA, Fernando José de. Licença para criticar escolas e suas tecnologias. – Cotia/SP: Cajuína, 2025
MOTTA, Everson Luiz Oliveira. AS TEIAS DA CACOFONIA EM REDES. Revista Científica/FAP, Curitiba, v. 23, n. 2, 2020. DOI: 10.33871/19805071.2020.23.2.3577. Disponível em: https://periodicos.unespar.edu.br/revistacientifica/article/view/3577. Acesso em: 04 Ago. 2025.
SANTAELLA, Lúcia (Org.). Cacofonia nas redes. São Paulo, SP: EDUC, 2018.
ZUBOFF, Shoshana. A era do capitalismo de vigilância. Editora Intrínseca, 2021.
Sobre autoria:
Everson Motta - PUC-PR
Professor adjunto do Programa de Pós Graduação em Educação da Pontifícia Universidade Católica do Paraná (PUC-PR), Pós-Doutor pela Universidade Federal do Paraná; Doutor em Educação e Currículo na Pontifícia Universidade Católica de São Paulo (PUC-SP), Mestre em Educação e Novas Tecnologias (UNINTER-PR), Especialista em Educação Comunicação e Tecnologias em Interfaces Digitais (UniSEB-SP), licenciado e Graduado em Dança/Artes Universidade Estadual do Paraná (UNESPAR-PR) e em Pedagogia na (UNINTER-PR) e Design de interiores (UNICESUMAR-PR) e Educação Física (UFPR). Tem experiência na área de Gestão da Educação, Artes, Design, Tecnologia e Marketing Educacional. Diluie o conhecimento de forma interdisciplinar STEAM- (Science, Technology, Engineering, art-design and Math) na área da educação, artes, silÍcio e o digital. É professor e atualmente fomenta a inovação e o empreendedorismo de Startup de impacto.
Como citar este artigo:
MOTTA, Everson Luiz Oliveira. Nuvem de dados sintéticos na educação. Notícias, Revista Docência e Cibercultura, novembro de 2025, online. ISSN: 2594-9004. Disponível em: <https://www.e-publicacoes.uerj.br/re-doc/announcement/view/2052>. Acesso em: DD mês. AAAA.
Editores/as Seção Notícias:
Frieda Maria Marti, Felipe Carvalho, Edméa Santos, Marcos Vinícius Dias de Menezes, Mariano Pimentel e Wallace Almeida






