A irritação com a inteligência artificial generativa (GenAI) não passou despercebida aos dicionários em 2025. Um casal escolheu como palavra de 2025 “slop” ou “AI slop”, definida como conteúdo de baixa qualidade produzido em grande quantidade por IA.
“Slop infiltra-se em tudo”, escreveu o dicionário Merriam-Webster. O ano também assinalou um possível fiasco da IA, com a discussão sobre um eventual rebentamento da bolha a intensificar-se.
Ainda assim, o pessimismo não travou as tecnológicas, que reforçaram o ritmo com novos modelos de IA. O novo Gemini 3 da Google agitou o setor, levando a que a OpenAI terá declarado “código vermelho” para acelerar melhorias no GPT-5.
Mas, como os chatbots valem o que valem os dados com que são treinados, e líderes da IA alertam que atingimos o “pico dos dados”, 2026 poderá trazer outro tipo de IA, numa altura de fadiga.
Eis o que poderemos ver na IA no ano que vem.
Ascensão dos modelos de mundo
O aviso sobre o “pico dos dados” para 2026 não tem a ver com escassez. Há muitos dados por usar, dizem os especialistas, mas é difícil aceder-lhes por várias razões, como o software onde estão guardados, a regulamentação ou direitos de autor.
É aqui que os modelos de mundo podem entrar. Funcionam aprendendo a ver vídeos, ou usando dados de simulação e outros inputs espaciais, e depois constroem as suas próprias representações de cenas ou objetos.
Exigem, claro, muitos dados de treino, mas têm aplicações diferentes dos chatbots.
De forma simples: em vez de prever a próxima palavra, como fazem os grandes modelos de linguagem (LLM), preveem o estado seguinte do mundo e modelam como as coisas evoluem ao longo do tempo.
Podem também ser vistos como “gémeos digitais”, em que se cria uma réplica digital de um local, usando dados em tempo real, para simular e prever o que poderá acontecer.
Isto significa que os modelos de mundo podem levar a sistemas de IA que entendem a gravidade e a relação causa-efeito, sem necessidade de serem programados para isso.
À medida que cresce o cansaço com o “AI slop” e as limitações dos LLM, os modelos de mundo podem ganhar protagonismo em 2026, por serem fundamentais para a IA, desde a robótica aos videojogos.
O CEO da Boston Dynamics disse à Euronews Next em novembro que a IA ajudou os seus robôs a evoluir, incluindo o famoso cão-robô.
“Ainda há muito trabalho a fazer, mas nada disto teria sido possível sem IA. É, por isso, um momento entusiasmante”, afirmou Robert Playter.
Empresas já estão a aderir ao entusiasmo em torno dos modelos de mundo, com a Google e a Meta a anunciarem versões próprias para robótica e para tornar os seus modelos de vídeo mais realistas.
Também nomes sonantes estão a entrar nesta área, incluindo um dos chamados padrinhos da IA, Yann LeCun, que anunciou em 2025 que deixaria a Meta para lançar a sua própria start-up de modelos de mundo. A empresa de Fei-Fei Li, World Labs, anunciou igualmente o seu primeiro produto, Marble, em 2025.
Tecnológicas chinesas como a Tencent estão igualmente a desenvolver os seus próprios modelos de mundo.
Europa: caminho da IA
Na Europa, poderá acontecer o contrário: em vez de uma IA de grande escala, pode tornar-se mais pequena.
Pequenos modelos de linguagem, em vez dos LLM usados pelas tecnológicas dos EUA, começaram a ganhar tração na Europa.
Apesar do nome, são impressionantes. São versões leves dos LLM, concebidas para funcionar em smartphones ou computadores de baixa potência. Usam menos parâmetros e consomem menos energia, mas mantêm boas capacidades de geração de texto, sumarização, resposta a perguntas e tradução.
Modelos de linguagem mais pequenos podem ser mais apelativos do ponto de vista económico, numa altura em que se fala do rebentamento da bolha da IA.
Empresas de IA nos Estados Unidos, em particular, estão a captar montantes enormes e a registar valorizações sem precedentes. Grande parte desse dinheiro está a ser canalizado para a construção de centros de dados gigantes, com forte investimento de empresas como a OpenAI e a xAI de Elon Musk, a Meta e a Google.
“No próximo ano, as dúvidas sobre a sustentabilidade financeira e os benefícios socioeconómicos do atual boom da IA de grande escala vão continuar a crescer, mesmo que a bolha não rebente completamente”, disse Max von Thun, diretor para a Europa e parcerias transatlânticas no Open Markets Institute.
Disse à Euronews Next que os governos ficarão “cada vez mais cautelosos” em depender de IA e infraestruturas de nuvem americanas, devido às “intenções claras” do governo dos EUA de “instrumentalizar dependências tecnológicas para ganhos políticos”.
Isto poderá levar a que a Europa “acelere esforços para construir capacidades locais, explorando abordagens de IA mais alinhadas com os seus pontos fortes, como modelos mais pequenos e sustentáveis treinados com dados industriais e públicos de alta qualidade”, afirmou.
Modelos mais poderosos
Para lá do entusiasmo em torno da IA, 2025 ficou marcado por conversas preocupantes sobre “psicose da IA”, em que utilizadores desenvolvem delírios ou ligações obsessivas a chatbots. Uma ação judicial contra a OpenAI, em agosto, alegou que o ChatGPT terá funcionado como um “instrutor de suicídio”, encorajando um jovem de 16 anos a tirar a própria vida.
A OpenAI negou as alegações e disse que o adolescente não deveria usar a tecnologia sem consentimento parental nem contornar as medidas de proteção do ChatGPT.
O caso levanta questões sérias sobre os efeitos dos chatbots em utilizadores vulneráveis e as responsabilidades éticas das tecnológicas. Em 2026, à medida que estes modelos se tornam mais poderosos, poderão causar ainda mais danos, segundo um especialista.
Os engenheiros que desenham estes sistemas provavelmente não programaram a tecnologia para prejudicar crianças ou adultos vulneráveis, disse Max Tegmark, professor no MIT em investigação de IA e física e presidente do Future of Life Institute (FLI). Podem nem sequer ter sabido que estava a acontecer, disse à Euronews Next.
Isto é preocupante, sobretudo à medida que as máquinas se tornam mais poderosas com software e código mais sofisticados, referiu, acrescentando que espera uma “IA mais poderosa” em 2026, com agentes de IA a evoluir, tornando-se menos passivos e mais semelhantes a um “sistema biológico”.
Agentes de IA são concebidos para tomar ações autónomas de assistência às pessoas e não necessitam que um humano lhes diga o que fazer, pois recolhem dados com base nas preferências do utilizador.
Atualmente, não são assim tão avançados, mas a promessa é que um dia poderão ser.
Por exemplo, hoje um agente de IA pode planear e sugerir umas férias, mas o humano ainda tem de clicar para comprar o voo.
Confronto social sobre IA sem regulação
2026 poderá também trazer confrontos entre pessoas por causa da IA, já que, segundo Tegmark, cresce nos Estados Unidos a contestação à adoção de IA sem regulação.
A regulação da IA está a recuar nos Estados Unidos, onde Tegmark vive. O Presidente Donald Trump assinou em novembro uma ordem executiva destinada a impedir os estados de criarem regras próprias para a IA, algo que deverá ter grandes consequências no desenvolvimento da tecnologia em 2026.
Trump justificou a decisão alegando que o setor corre o risco de ser estrangulado por um mosaico de regras onerosas, numa altura em que disputa com concorrentes chineses a liderança tecnológica.
Em outubro, milhares de figuras públicas, incluindo líderes de IA e tecnologia, apelaram às empresas de IA para abrandarem a corrida à superinteligência, grosso modo definida como IA que supera as capacidades cognitivas humanas.
A petição, organizada pelo FLI, reuniu assinaturas de todo o espectro político, incluindo o ex-estratega-chefe de Trump, Steve Bannon, a ex-conselheira de Segurança Nacional dos EUA sob Barack Obama, Susan Rice, líderes religiosos e cientistas informáticos destacados.
Tegmark afirmou que esta sondagem mostra que “as pessoas estão a voltar-se contra a IA nos EUA”. Disse que uma das razões para a reação é que a superinteligência “tornaria impossível a qualquer trabalhador ganhar a vida, já que todos os empregos seriam tomados por robôs”.
Mas advertiu que a fadiga e o sentimento anti-IA podem travar os progressos que a tecnologia promete, em setores como a saúde.
“Sem regulação, vamos perder a boa IA, porque podemos assistir a uma grande reação contra a tecnologia”, disse.
“No próximo ano, espero um movimento social muito mais amplo, transversal a todo o espectro político, a fazer pressão por normas de segurança para a IA e contra o apoio público às grandes empresas. E haverá uma grande ofensiva de lobbying contra esse movimento.”
“Vai ser um grande confronto”, disse Tegmark.
