A internet, em seus primórdios, prometia ser um espaço de liberdade, colaboração e aprendizado. No entanto, o que temos hoje é um ecossistema cada vez mais marcado pelo caos e pela sobrecarga informacional. Redes sociais e plataformas de vídeos foram transformados em verdadeiras praças públicas digitais, repletas de vozes conflitantes, opiniões extremas e um mar de desinformação. Esse cenário foi, em grande parte, impulsionado pelo comportamento humano: a busca incessante por cliques, visualizações e relevância moldou um ambiente no qual o engajamento é a principal moeda.

O caos é lucrativo. Plataformas como Facebook, Instagram e X são construídas sob algoritmos projetados para manter os usuários conectados pelo maior tempo possível. E o que melhor captura a atenção? Conteúdos apelativos, polarizadores e muitas vezes enganosos.

Fake news, golpes e propagandas questionáveis inundam os feeds, gerando receita para as plataformas enquanto fragilizam o tecido social. Pesquisas realizadas pelo Instituto de Tecnologia de Massachusetts (MIT) indicam que notícias falsas têm 70% mais chance de serem compartilhadas do que informações verdadeiras.

O estudo, publicado na revista Science (uma das revistas científicas mais importantes do mundo), analisou 126 mil postagens verificadas por agências de checagem de fatos no Twitter entre 2006 e 2017, abrangendo cerca de 3 milhões de pessoas. Os resultados mostraram que informações falsas se espalham mais rapidamente, atingem um público maior e penetram mais profundamente nas redes sociais em comparação com notícias verdadeiras. Além disso, notícias falsas relacionadas à política se espalham três vezes mais rápido do que outros tipos de fake news.

Isso evidencia como o sistema é projetado para amplificar o que há de mais sensacionalista. Antes mesmo de a inteligência artificial se tornar um fator predominante, já vivíamos uma crise de autenticidade alimentada por nossas próprias escolhas e estruturas.

A autofagia digital da inteligência artificial

Com a ascensão da inteligência artificial, esse caos digital entrou em um ciclo ainda mais complexo. Em 9 de setembro de 2016, o tráfego anual da internet mundial ultrapassou pela primeira vez 1 zettabyte. Em 2024, foram 147 zettabytes. A quantidade de bytes na internet está se aproximando do número de estrelas no universo. Um zettabyte corresponde a 10²¹ bytes, enquanto o número de estrelas no universo é estimado em 10²⁴. Ou seja, a internet é equivalente a um universo inteiro de dados.

Esse aumento exponencial é impulsionado pelos conteúdos gerados por IA, em especial os modelos LLMs (Large Language Models).  Pesquisadores do Copenhagen Institute for Future Studies (CIFS) projetam que até 2030, 99% da internet será composta por IA e que praticamente todo o conteúdo postado na rede será sintético. No entanto, a maior parte desse volume vem de anúncios e materiais maliciosos, tornando a internet um ambiente cada vez mais hostil para interações autênticas.

O problema se agrava porque a IA, em algum momento, começará a se retroalimentar. À medida que mais conteúdo artificial é produzido, ele é absorvido para treinar novos modelos, gerando um ciclo vicioso. Isso não apenas prejudica nossa capacidade de discernir entre o autêntico e o artificial, mas também afeta negativamente os próprios modelos de IA, que passam a se alimentar de dados contaminados, tornando-se menos confiáveis e mais enviesados.

Construindo jardins digitais: o futuro da curadoria humana

Nesse cenário, os humanos estão buscando lugares mais seguros na internet, longe da influência excessiva das IAs. Maggie Appleton, antropóloga e designer, propôs a ideia da “Dark Forest”, que representa a superfície da internet dominada por redes sociais como Instagram, X, YouTube e Facebook, onde bots, anúncios e raspagem de dados prevalecem. Até mesmo espaços não públicos estão sendo invadidos por inteligências artificiais, como e-mails e mensagens geradas automaticamente para phishing (um tipo de crime que consiste em uma tentativa de obter informações pessoais ou acesso a contas online através de mensagens enganosas).

No entanto, ainda existem refúgios na web, conhecidos como “Cozy Web” – espaços mais nichados e dependentes de curadoria humana, como comunidades fechadas e conteúdos não indexados por mecanismos de busca. Telegram, Discord, newsletters independentes e podcasts são alguns exemplos desses abrigos digitais. Mesmo serviços de streaming, embora utilizem IA para recomendação de conteúdo, ainda são dominados por conteúdo criado por humanos para humanos.

Outro fenômeno interessante é o impacto da IA na linguagem. Uma pesquisa demonstrou que palavras como “inovação”, “notável”, “louvável” e “meticuloso” aparecem ao menos 30 vezes mais em artigos acadêmicos após o surgimento dos modelos LLMs, indicando um aumento expressivo na produção assistida por IA. Se produções acadêmicas, que são rigorosamente revisadas, estão contaminadas dessa forma, imagine outros ambientes.

Nos próximos anos, as inteligências artificiais terão consumido todo o conteúdo produzido por humanos na internet. Até 2028, se o ritmo atual continuar, todo o material humano original já terá sido usado para treinar novos modelos de IA, consolidando um ciclo de reciclagem digital sem precedentes.

O futuro

Por fim, o futuro da internet depende de nossa capacidade de adotar um papel mais ativo. De consumidores passivos, precisamos nos tornar curadores, decidindo o que merece nossa atenção e investindo em plataformas que promovam o que realmente importa. Os jardins digitais não são uma solução definitiva, mas representam uma oportunidade de repensar a dinâmica do mundo digital. Talvez não consigamos eliminar o ruído, mas podemos, pelo menos, encontrar espaços onde possamos ouvir nossa própria voz.

Uma das consequências mais notáveis desse fenômeno é o aumento da desinformação sofisticada. Com deepfakes, IA gerativa e manipulação algorítmica, a própria realidade se torna questionável. O conceito de “pós-verdade” se expande, com narrativas criadas artificialmente tendo mais impacto do que fatos objetivos. Isso reforça a necessidade urgente de desenvolver novas formas de verificação e autenticação de informações.

Diante desse cenário, é fundamental desenvolver mecanismos que garantam transparência. Não podemos esperar que as pessoas façam essa distinção sozinhas; é necessário criar formas de autenticação que deixem claro quando algo foi gerado por IA. Há poucos anos, uma IA não conseguia desenhar mãos humanas corretamente. Hoje, suas criações são praticamente indistinguíveis das feitas por artistas. O rumo da internet aponta para um futuro incerto.

Como já mencionei em outros textos, a tecnologia avança em um ritmo muito mais acelerado do que a burocracia estatal, e esse é um grande desafio. Além disso, a falta de conhecimento técnico por parte dos políticos tende a gerar mais confusão do que soluções. As empresas que lideram o desenvolvimento da IA também têm responsabilidade pelos impactos sociais dessa tecnologia. Para evitar um cenário preocupante, é essencial promover o diálogo entre especialistas, sociedade e legisladores.