Home » Avaliando Previsões de IA para 2025: Como nos Saímos?

Avaliando Previsões de IA para 2025: Como nos Saímos?

by admin

Getty Images

No final do ano passado, previmos que a relação entre Donald Trump e Elon Musk se deterioraria em 2025. Estávamos certos

Acessibilidade







No final de 2024, A Forbes US publicou 10 previsões sobre o que aconteceria no mundo da inteligência artificial em 2025.

Com 2025 chegando ao fim, vamos revisitar essas previsões para ver como as coisas realmente se desenrolaram. Há muito o que aprender com essas retrospectivas sobre o estado atual da IA.

Curiosamente, surgiu um mercado de apostas online sobre nossas 10 previsões, que permaneceu ativo ao longo de 2025. Confira o que os apostadores acharam.

Previsão 1: A Meta começará a cobrar pelo uso de seus modelos de Llama.

Resultado: Errado

A organização de IA da Meta passou por uma transformação drástica em 2025. Após a estreia decepcionante de seu modelo princ00ipal, o Llama 4, combinada com o surgimento de modelos chineses de código aberto superiores, como DeepSeek, Qwen e Kimi, o CEO da Meta, Mark Zuckerberg, tomou medidas drásticas para reformular a estratégia de IA da empresa.

A Meta basicamente contratou Alex Wang e a Scale AI por US$ 14 bilhões, com Wang se tornando o novo Diretor de IA da empresa; embarcou em uma extravagante onda de contratações na área de IA, que incluiu ofertas de US$ 1 bilhão para pesquisadores individuais; demitiu centenas de pessoas de sua organização de IA; separou-se de seu lendário Cientista-Chefe, Yann LeCun; e reestruturou sua organização de IA diversas vezes.

Especula-se que a Meta planeja abandonar sua estratégia de IA de código aberto e que seu próximo modelo principal será proprietário. A linha de modelos Llama provavelmente chegou ao fim. (Aparentemente, o novo modelo da Meta tem o codinome “Avocado”.)

É muito provável que a Meta busque monetizar seus modelos de vanguarda no futuro. Mas a empresa ainda não o fez.

Previsão 2: Leis de escala serão descobertas e exploradas em áreas além do texto — em particular, na robótica e na biologia.

Resultado: Correto

Até um ano atrás, quase todas as discussões sobre leis de escala se concentravam na linguagem. Ao longo de 2025, temos observado evidências crescentes de leis de escala em diversas outras modalidades de dados.

A robótica é um grande exemplo. A empresa que demonstrou publicamente as evidências mais concretas de leis de escala na robótica é a Generalist AI. Em uma postagem de blog no mês passado, a Generalist AI compartilhou dados impressionantes mostrando que o desempenho de seus modelos melhora de forma consistente com o aumento dos dados de pré-treinamento e da capacidade computacional, seguindo uma lei de potência. As curvas lembram as primeiras curvas de lei de escala que a OpenAI publicou para seus grandes modelos de linguagem.

Embora não tenham compartilhado tanto publicamente, outras startups que buscam modelos fundamentais para a robótica, incluindo a Physical Intelligence, também estariam progredindo na descoberta e exploração de leis de escala.

Outra modalidade na qual leis de escala foram demonstradas recentemente é a de veículos autônomos. Durante o verão, a Waymo publicou uma pesquisa que demonstra a existência de leis de escala para seus modelos de veículos autônomos, em particular para previsão e planejamento de movimento.

Como escreveu a equipe da Waymo: “Por meio dessas informações, pesquisadores e desenvolvedores de modelos de veículos autônomos podem começar a ter certeza de que enriquecer a qualidade e o tamanho dos dados e dos modelos proporcionará um melhor desempenho. Ser capaz de dimensionar esses modelos de forma previsível nos coloca no caminho para aprimorar continuamente nossa compreensão dos comportamentos diversos e complexos que os veículos autônomos encontram diariamente.”

A biologia é outra área em que está ficando claro que as leis de escala desempenharão um papel importante. Como dois exemplos, as startups de IA para proteínas Profluent e Nabla Bio publicaram trabalhos este ano demonstrando que, à medida que aumentavam a capacidade computacional, os dados de treinamento e/ou o tamanho do modelo, a qualidade das proteínas geradas por seus sistemas de IA melhorava de forma consistente. Curiosamente, o trabalho da Nabla indica a presença de leis de escala para computação em tempo de teste , uma direção de pesquisa particularmente inovadora em biologia.

“Acreditamos que expandir a capacidade de raciocínio de modelos generativos biomoleculares por meio do aumento da computação em tempo de teste se tornará uma ‘lei de escala’ fundamental, importante para o projeto de sistemas biológicos”, escreveu a equipe do Nabla em seu artigo de maio de 2025. “Assim como o raciocínio em tempo de teste está transformando rapidamente as capacidades dos modelos de linguagem e permitindo que as máquinas resolvam problemas cada vez mais complexos, a escalabilidade em tempo de teste no projeto biológico pode em breve seguir uma trajetória semelhante.”

Embora os resultados nem sempre tenham sido publicados, leis de escala surgiram este ano em uma ampla gama de outras modalidades de dados também, desde dados cerebrais a dados tabulares e compreensão de vídeo.

Previsão 3: Donald Trump e Elon Musk terão um desentendimento conturbado. Isso terá consequências significativas para o mundo da IA.

Resultado: Correto

A amizade entre Donald Trump e Elon Musk dominou o cenário tecnológico e político da primeira metade de 2025. Como previsto, não durou muito.

A relação começou a deteriorar-se em maio por causa do “Grande e Belo Projeto de Lei”, com Trump defendendo-o e Musk opondo-se veementemente a ele, considerando-o um gasto governamental exorbitante que contrariava os princípios do seu Departamento de Eficiência Governamental (DOGE). Musk chamou publicamente o projeto de lei de “abominação repugnante”.

5 de junho de 2025 foi a data em que a relação entre Trump e Musk implodiu de forma espetacular. Aliás, “desastrosa” foi um eufemismo. Musk pediu o impeachment de Trump, cogitou a criação de um novo partido político e acusou Trump de ser citado nos arquivos de Epstein. Trump ameaçou cortar os contratos governamentais de Musk e o chamou de louco. A internet não falou de outra coisa nos dias seguintes.

Avaliar as consequências do desentendimento entre Trump e Musk para o mundo da IA ​​exige alguma especulação, já que não conhecemos o cenário hipotético. Mas é seguro presumir que teve um impacto significativo. Por um lado, dada a relação profundamente hostil de Musk com Sam Altman e a OpenAI, se Musk tivesse permanecido uma voz influente na Casa Branca, a OpenAI provavelmente teria recebido menos apoio e encontrado mais dificuldades para trabalhar com o governo dos EUA ao longo de 2025. Como outro exemplo, Musk é um defensor de uma regulamentação robusta da segurança da IA, inclusive em nível estadual; no ano passado, ele apoiou o controverso projeto de lei SB 1047 da Califórnia. Na ausência de Musk, o governo Trump adotou uma postura totalmente omissa em relação à regulamentação da IA ​​de qualquer tipo. Na semana passada, o presidente Trump emitiu uma ordem executiva que proíbe os estados de implementarem quaisquer regulamentações de IA.

Previsão 4: Os agentes web se tornarão populares, transformando-se na próxima grande aplicação revolucionária em IA para o consumidor.

Resultado: Errado

Em 2025, houve muitos avanços com agentes web e agentes de uso de computador.

O Operator, produto de agente para navegadores da OpenAI, foi lançado com grande alarde no início de 2025. Durante o verão, a Anthropic lançou um produto similar, o Claude para Chrome, projetado para ler páginas da web automaticamente, preencher formulários, navegar em sites e concluir tarefas complexas na web. A promissora startup Yutori acaba de lançar seu produto de agente web para o público em geral. A Perplexity e a OpenAI, entre outras, lançaram recentemente novos navegadores web com inteligência artificial integrada e recursos de agente para navegadores.

No entanto, nenhum desses produtos ainda obteve uma adoção significativa pelo público em geral. Certamente, nenhum pode ser descrito como o “próximo grande aplicativo revolucionário” da IA ​​para o consumidor. Quantas pessoas você conhece que realmente usam o Claude para Chrome regularmente para automatizar tarefas na web? Ou que mudaram seu navegador padrão para o Perplexity Comet?

O potencial para essa categoria de produtos é obviamente enorme. Parece inevitável que agentes de IA eventualmente automatizem a maioria das tarefas na internet que as pessoas hoje realizam manualmente. Mas não em 2025. Por quê? Acima de tudo, porque esses produtos — embora tenham um bom desempenho em demonstrações — ainda não funcionam de forma confiável e generalizada o suficiente para serem atraentes para o uso diário.

Talvez o momento decisivo para eles chegue em 2026.

Previsão 5: Vários esforços sérios para instalar centros de dados de IA no espaço ganharão forma.

Resultado: Correto

De todas as previsões do ano passado, esta foi a que recebeu mais ceticismo e até mesmo desprezo do que qualquer outra. Leitores de todos os cantos comentaram sobre o quão pouco séria e impraticável seria a ideia de computação de IA em órbita.

Como um ano faz diferença.

“Data centers no espaço” tornou-se uma das tendências tecnológicas mais populares e consensuais de 2025. Elon Musk se tornou um defensor declarado da ideia, afirmando publicamente que a SpaceX está explorando essa oportunidade. O mesmo acontece com Jeff Bezos e a Blue Origin. No mês passado, o Google anunciou uma grande iniciativa chamada Projeto Suncatcher para colocar TPUs em órbita, com os primeiros chips sendo lançados já em 2027. Eric Schmidt adquiriu a empresa de lançamentos Relativity Space com o objetivo explícito de desenvolver data centers orbitais. A Starcloud, uma das pioneiras no conceito de data centers no espaço, está trabalhando com a Nvidia nessa oportunidade. Startups como a Aetherflux estão se adaptando rapidamente para entrar nessa onda.

O espaço é um terreno difícil. Levará muitos anos para que a capacidade computacional no espaço atinja níveis significativos. Mas isso definitivamente está acontecendo — faz muito sentido não fazer — e 2025 foi o ano em que isso ficou óbvio para todos.

Previsão 6: Um sistema de IA passará no teste de Turing para reconhecimento de fala.

Resultado: Errado

Como previsto no ano passado, 2025 foi um ano de grande destaque para a IA de voz. Inúmeros produtos de IA com foco em voz foram lançados e escalaram rapidamente este ano em áreas que vão desde suporte ao cliente e vendas até o mercado imobiliário e chatbots para o consumidor.

Um grande avanço técnico que impulsionou esse crescimento foi o surgimento dos modelos de fala para fala: modelos de IA que podem receber áudio falado como entrada e produzir diretamente áudio falado como saída, sem a necessidade de converter o áudio em texto para analisá-lo como etapa intermediária. Os modelos de IA de voz mais avançados atualmente, como os do Gemini do Google e do ChatGPT da OpenAI, são de fala para fala.

No entanto, os modelos de IA de voz ainda não atingiram um nível de desempenho em que sejam consistentemente indistinguíveis dos humanos. Em outras palavras, eles ainda não passaram no “teste de Turing para fala”.

Passe algum tempo conversando em voz alta com o ChatGPT e você perceberá em primeira mão que, em várias dimensões, a experiência não parece tão natural e fluida quanto conversar com outro ser humano. A latência ainda não foi um problema resolvido; os modelos de IA de voz ainda têm dificuldades com a alternância natural de turnos e interrupções no meio da fala; muitas vezes soam excessivamente polidos e articulados; e, principalmente em conversas mais longas, a falta de expressão genuína de emoções e de individualidade torna-se cada vez mais evidente.

Previsão 7: Serão feitos grandes progressos na construção de sistemas de IA que possam, por si só, construir sistemas de IA melhores.

Resultado: Correto

Em 2025, a ideia de sistemas de IA capazes de construir autonomamente sistemas de IA melhores — frequentemente chamada de autoaperfeiçoamento recursivo, ou RSI — ganhou destaque no mundo da pesquisa em IA.

No primeiro semestre do ano, as startups de IA Autoscience , Intology e Sakana lançaram sistemas de IA capazes de produzir artigos científicos de forma totalmente autônoma, os quais foram aceitos em importantes conferências de pesquisa em IA por meio de um processo de revisão cega (ou seja, os revisores humanos não sabiam que a pesquisa havia sido realizada por uma IA). Os artigos da Sakana e da Autoscience foram aceitos em workshops na ICLR, enquanto o da Intology foi aceito nos anais principais da ACL.

Há alguns meses, a OpenAI reconheceu publicamente que está trabalhando na construção de um “pesquisador de IA” — um sistema de IA capaz de realizar pesquisas de forma autônoma — afirmando que espera ter uma versão inicial funcional em 2026 e um sistema completo até 2028.

Nos últimos meses, surgiram diversas startups de alto nível e bem financiadas, dedicadas à construção de sistemas de IA com capacidade de autoaperfeiçoamento recursivo. A maioria ainda opera em modo stealth. É provável que muitas dessas startups lancem seus negócios publicamente em 2026.

O aprimoramento recursivo é um conceito empolgante e intuitivo. Se existe um caminho para uma “decolagem rápida” e uma explosão de superinteligência, ele provavelmente envolverá o Aprimoramento Recursivo. Ninguém conseguiu fazê-lo funcionar ainda, mas este ano, muitos começaram a tentar seriamente.

Previsão 8: A OpenAI, a Anthropic e outros laboratórios de vanguarda começarão a “subir na hierarquia”, direcionando cada vez mais seu foco estratégico para a criação de aplicativos.

Resultado: Correto

Embora a OpenAI e a Anthropic ainda desenvolvam modelos de vanguarda, o foco comercial dessas organizações deslocou-se para a camada de aplicação.

A primeira “aplicação matadora” para LLMs é a programação, e os grandes laboratórios competiram ferozmente este ano pelo mercado de IA para programação. A Anthropic historicamente teve vantagem nessa área, e seu produto Claude Code (lançado em fevereiro) obteve enorme sucesso; o produto Codex da OpenAI (lançado em maio) ganhou impulso mais recentemente, à medida que os modelos da OpenAI continuam a ser aprimorados para tarefas de programação.

Desde serviços financeiros até ciências da vida, tanto a OpenAI quanto a Anthropic investiram fortemente este ano no desenvolvimento de aplicações e soluções específicas para cada setor.

Em setembro, a OpenAI anunciou o desenvolvimento de uma nova plataforma de recrutamento com inteligência artificial para competir com o LinkedIn, com lançamento previsto para o próximo ano. Há muitos rumores de que ambos os laboratórios estejam trabalhando em outros aplicativos próprios em áreas como direito, suporte ao cliente e estratégias de entrada no mercado. Só o tempo dirá se e quando produtos independentes nessas áreas serão lançados.

E para que não nos esqueçamos: a peça central da estratégia comercial da OpenAI e o principal motor do seu impressionante crescimento de receita em 2025 — de US$ 6 bilhões em receita recorrente anual no início do ano para US$ 20 bilhões em receita recorrente anual no final do ano — foi o ChatGPT, que, afinal, é um aplicativo.

Previsão 9: Os serviços de robotáxi conquistarão uma participação de mercado de dois dígitos no transporte por aplicativo em pelo menos 5 grandes cidades dos EUA.

Resultado: Errado

Quase lá, mas não exatamente!

O serviço de robotáxis da Waymo está atualmente disponível ao público em geral em cinco cidades: São Francisco, Phoenix, Los Angeles, Austin e Atlanta (as duas últimas através do aplicativo Uber).

Segundo dados da YipitData, uma fornecedora de dados alternativos, a participação da Waymo no mercado de transporte por aplicativo nessas cinco cidades, em outubro, era a seguinte:

  • São Francisco: 24% (em comparação com 54% da Uber)
  • Phoenix: 16% (em comparação com 52% da Uber)
  • Los Angeles: 13% (em comparação com 56% da Uber)
  • Austin: 8% (em comparação com os 64% da Uber)
  • Atlanta: 6% (em comparação com 59% da Uber)

Entretanto, a Zoox (Amazon) lançou um serviço de robotáxis em Las Vegas, mas ainda não conseguiu atingir uma quota de mercado significativa nessa cidade.

Assim, os serviços de robotáxi conquistaram uma quota de mercado de dois dígitos em três grandes cidades dos EUA este ano, com uma quota de mercado significativa de um dígito (8% e 6%) em outras duas. Quase!

A expectativa é que esses números continuem a crescer em 2026. Há algumas semanas, a Waymo anunciou os próximos cinco mercados nos quais planeja lançar seu serviço nas próximas semanas: Miami, Dallas, Houston, San Antonio e Orlando. E a Zoox acaba de lançar seu próprio serviço de robotáxi em São Francisco, com planos de expansão para outras cidades em breve.

A era dos veículos autônomos chegou oficialmente.

Previsão 10: O primeiro incidente real de segurança envolvendo IA ocorrerá.

Resultado: Errado

No ano passado, havia esta previsão:

À medida que a inteligência artificial se tornou mais poderosa nos últimos anos, cresceram as preocupações de que os sistemas de IA possam começar a agir de maneiras que não estejam alinhadas com os interesses humanos e que os humanos possam perder o controle desses sistemas. Imagine, por exemplo, um sistema de IA que aprende a enganar ou manipular humanos na busca de seus próprios objetivos, mesmo quando esses objetivos causam danos aos humanos.

Esse conjunto geral de preocupações é frequentemente categorizado sob o termo abrangente “segurança da IA”.

(A IA cria muitos outros desafios sociais, desde facilitar a vigilância até perpetuar preconceitos, mas tópicos como esses são distintos do campo da segurança da IA, que se preocupa mais especificamente com o risco de que os sistemas de IA comecem a se comportar de maneiras desalinhadas e fora do controle humano, talvez até mesmo representando uma ameaça existencial para a humanidade.)

A IA causou muitos problemas em 2025. Para citar um exemplo, a Anthropic relatou recentemente ter detectado e interrompido o primeiro ataque cibernético orquestrado por IA. Segundo a Anthropic, um grupo patrocinado pelo Estado chinês desbloqueou o dispositivo Claude e o liberou para invadir autonomamente determinados sistemas de segurança em organizações-alvo.

Mas nenhum incidente de segurança envolvendo IA, do tipo discutido acima, ocorreu (ou pelo menos não foi relatado publicamente) este ano.

No exemplo de cibersegurança antropogênica, os humanos (os hackers) ainda definiam os objetivos do modelo de IA e direcionavam suas ações de alto nível. Claude agia de acordo com o que seus usuários humanos queriam que ele fizesse, mesmo que essas ações fossem prejudiciais à sociedade.

Ainda não vimos um exemplo de um sistema de IA verdadeiramente descontrolado, formulando e agindo de acordo com seus próprios objetivos em conflito explícito com as intenções de seus usuários humanos: por exemplo, ocultando a verdadeira extensão de suas capacidades dos humanos, criando secretamente cópias de si mesmo em outro servidor para se perpetuar ou manipulando humanos para atingir seus próprios objetivos.

Isso acabará acontecendo.



Créditos

You may also like