Saltar para o conteúdo

O anúncio de IA de Mark Zuckerberg abala a comunidade científica mundial.

Cinco cientistas em laboratório, discutindo resultados em frente ao portátil e microscópio, todos de jaleco branco.

Os investigadores, a acompanhar a partir de laboratórios apertados, salas de espera de aeroportos e mesas de cozinha, fixaram os ecrãs no mesmo silêncio atónito. Isto não era mais um capacete reluzente nem uma promessa vaga de “metaverso”. Soava como uma linha traçada na areia para o futuro do conhecimento humano. Em poucos minutos, canais no X e no Slack em universidades e laboratórios de IA por todo o mundo acenderam-se. Era abertura real ou uma tomada de poder disfarçada de generosidade? Ninguém concordava. Toda a gente falava. E uma pergunta desconfortável começou a espalhar-se como uma fissura no vidro.

O que acontece à ciência quando um homem, com três mil milhões de utilizadores, diz que quer construir o cérebro do planeta?

O anúncio que fez tremer as bancadas do laboratório

Começou quase de forma casual. Uma hoodie preta, um palco limpo, alguns diapositivos e, depois, Zuckerberg largou a frase que fez diretores de investigação pegarem no telemóvel: a Meta iria avançar para uma IA de uso geral capaz de “fazer avançar a própria ciência”, treinada com dados abertos massivos e partilhada “com o mundo”. Não hesitou.
Para muitos dos que assistiam, essa única frase virou a energia na sala. Oportunidade e receio lado a lado.

Alguns investigadores viram os seus sonhos finalmente a subir ao palco. Uma doutorada em Biologia em Cambridge enviou mensagem ao seu grupo: “Se isto funcionar, as minhas simulações passam de semanas para horas.” Um cientista planetário em Tóquio publicou que copilotos de IA para investigação poderiam “encurtar uma década de tentativa-e-erro para um fim de semana prolongado”.
Ao mesmo tempo, um especialista em ética em Berlim colocou uma captura de ecrã do anúncio com uma única frase: “Mudámos os postes da baliza outra vez, e ninguém votou.” O fio de respostas por baixo desse tweet parecia uma discussão global às 3 da manhã.

O que abalou as pessoas não foi apenas a fanfarronice tecnológica. Foi a forma como Zuckerberg enquadrou a ciência como mais um problema de “plataforma”, algo a escalar, otimizar, lançar. Para físicos que esperam meses por tempo de telescópio, ou biólogos que lutam por financiamento, ouvir um bilionário da tecnologia falar em “desbloquear a descoberta” foi simultaneamente entusiasmante e ligeiramente irreal.
A lógica era sedutora: modelos maiores, dados maiores, descobertas maiores. Ainda assim, em chamadas noturnas entre laboratórios, muitos perguntavam o mesmo: se a IA se tornar o motor padrão da descoberta, quem controla o acelerador? E o que acontece à parte lenta, confusa e sujeita a revisão por pares da ciência - a que não fica bem num slide de keynote?

Como os cientistas estão a tentar adaptar-se - depressa

Dentro dos laboratórios, a primeira reação não foi escrever manifestos. Foi abrir terminais. Equipas começaram a testar as novas ferramentas de IA da Meta no que tinham à mão: dobragens de proteínas, modelos climáticos, trajetórias de partículas, conjuntos de dados antigos e empoeirados que estavam há anos em discos rígidos.
Um químico descreveu como “de repente ter cem estudantes de doutoramento incansáveis que nunca pedem café nem crédito”. É este o método que se está a espalhar em silêncio: usar o modelo como uma primeira passagem grosseira e, depois, deixar os humanos fazerem o pensamento cuidadoso.

Histórias reais viajam mais depressa do que diapositivos. Num hospital em Paris, uma pequena equipa de investigação ligou um modelo open-source da Meta a anos de dados anonimizados de UCI. Em poucos dias, emergiram padrões sobre risco de sépsis que estatísticos procuravam há meses.
Do outro lado do mundo, um laboratório ambiental no Brasil alimentou a mesma família de modelos com imagens de satélite e relatórios de desflorestação. A IA começou a prever focos de abate ilegal com uma precisão inquietante, semanas antes de chegar a primeira motosserra. Não são demos brilhantes. São pessoas cansadas a encontrar uma ferramenta mais afiada.

Nos bastidores, porém, a adaptação é confusa. Projetos de financiamento estão a ser reescritos de um dia para o outro para incluir “componentes de IA”. Jovens cientistas sentem pressão para se tornarem engenheiros de prompts em part-time. Professores séniores que construíram carreiras com métodos meticulosos enfrentam, de repente, uma cultura que celebra a velocidade em detrimento da profundidade.
Sejamos honestos: ninguém faz isto verdadeiramente todos os dias. A maioria dos laboratórios está a improvisar. Alguns copiam repositórios do GitHub que mal entendem. Os que avançam com cuidado fazem perguntas difíceis: para onde vão os nossos dados, que enviesamentos se infiltram nas conclusões e como mantemos viva a arte humana da ciência enquanto as ferramentas ficam mais ruidosas e rápidas?

As regras silenciosas que os cientistas estão a definir para si próprios

Entre disciplinas, está a surgir uma espécie de manual informal. Os investigadores estão a delimitar três espaços: em que é que a IA pode ajudar, em que é que a IA nunca pode tocar e o que precisa de guardrails rigorosos. Muitos deixam os modelos fazer o trabalho pesado: resumos de literatura, esboços de código, hipóteses em primeira versão, simulações rápidas.
Depois, impõem uma pausa. Um humano verifica a cadeia de raciocínio, compara com resultados conhecidos e decide se a “intuição” da IA é real ou apenas disparate estatisticamente confiante.

Também estão a falar mais abertamente sobre falhas. Isso é novo. Em canais de Slack de laboratórios, as pessoas partilham exemplos de provas geradas por IA que parecem elegantes e colapsam na revisão por pares. Uma investigadora de genómica em Boston admitiu que o seu modelo “alucinou” um estudo inexistente que influenciou a sua direção inicial.
Ninguém quer ser a pessoa que publica um resultado chamativo, guiado por IA, e que se desfaz um ano depois. Por isso, cresce uma cultura de verificação dupla, de documentação exata de onde e como um sistema de IA tocou nos dados ou na análise.

Nessas reuniões internas, alguém costuma dizer em voz alta o que todos sentem, mas não colocam nos artigos:

“Se deixarmos o modelo pensar por nós, vamos deixar de notar quando ele está errado.”

Para evitar que isso aconteça, alguns grupos estão a redigir mini-cartas de princípios - primeiro rabiscadas em quadros brancos e depois formalizadas em wikis do laboratório:

  • Executar sempre um “baseline burro” (estatística simples ou teoria) em paralelo com qualquer resultado de IA.
  • Nunca confiar numa citação gerada por IA sem ler o artigo por conta própria.
  • Manter pelo menos um projeto no laboratório que use quase nenhuma IA, só para não perder o treino.
  • Registar todas as decisões relevantes em que o modelo influenciou a direção.
  • Partilhar falhas dentro do laboratório, não apenas as histórias brilhantes de sucesso.

Todos já tivemos aquele momento em que uma ferramenta nova e poderosa cai na nossa secretária e fingimos que sabemos exatamente o que estamos a fazer. Desta vez, a sensação é de que o que está em jogo é maior. Os cientistas que sussurram sobre burnout e ansiedade silenciosa são muitas vezes os mesmos que sobem ao palco para falar de “descoberta acelerada”. As duas coisas são verdade. O atraso emocional é que não cabe numa keynote.

O que isto deixa para o resto de nós

A ver isto de fora, é fácil pensar que o anúncio de IA do Zuckerberg é apenas uma história para pessoas com crachás e batas. Não é. Se a IA científica se tornar uma corrida entre laboratórios corporativos, essa corrida vai decidir que medicamentos são desenvolvidos primeiro, que culturas recebem sementes resilientes ao clima, que línguas são preservadas em conjuntos de dados e quais são discretamente ignoradas.
A comunidade científica global sente-se abalada em parte porque sabe isto: o que é enquadrado como uma corrida técnica é também uma escolha política sobre quais problemas são resolvidos.

O futuro que está a ser desenhado não é neutro. Um modelo de IA “aberto” lançado por uma plataforma gigante continua a ser moldado por quem o treinou, que dados viu e que perguntas nunca lhe foram feitas. Quando um CEO fala em “acelerar a descoberta”, soa a oferta. Pode ser. Também pode ser uma forma de tornar a ciência dependente de um punhado de fornecedores de infraestrutura na Califórnia.
Os investigadores estão a tentar manter vivo um espaço em que pequenas equipas, laboratórios públicos e universidades subfinanciadas ainda consigam definir a sua própria agenda - e não apenas ligar-se ao roadmap de outra entidade.

As próximas grandes descobertas em Física, Medicina ou Clima podem vir de uma conversa entre um humano e um modelo a correr em servidores da Meta. Ou de um investigador teimoso que mantém um caderno, fecha o separador de IA e segue um palpite que não faz sentido algorítmico nenhum.
A onda de choque do anúncio do Zuckerberg é, na verdade, sobre esta tensão. Quanto do nosso futuro partilhado estamos dispostos a subcontratar a sistemas que não compreendemos totalmente, detidos por pessoas que não elegemos? E como seria se o “cérebro do planeta” pertencesse a todos nós - e não apenas aos que podem pagar clusters de GPUs?

Ponto-chave Detalhe Interesse para o leitor
A viragem da Meta para IA aplicada à ciência Zuckerberg enquadrou a IA de uso geral como uma ferramenta para “fazer avançar a própria ciência”, usando dados abertos em grande escala e modelos partilhados. Ajuda a perceber porque é que os investigadores reagiram tão intensamente e porque é que as manchetes explodiram de um dia para o outro.
Adaptações ao nível do laboratório As equipas estão a usar modelos ao estilo da Meta para detetar padrões, fazer simulações e rascunhar hipóteses, acrescentando novos controlos e regras. Mostra como o trabalho real de investigação já está a mudar - não só na teoria, mas nas rotinas diárias.
A questão do poder e do controlo A tensão central é quem detém as ferramentas de descoberta e quem decide em que problemas a ciência acelerada por IA se deve focar. Convida a pensar como isto afeta medicamentos, soluções climáticas e conhecimento que vão moldar a sua vida.

FAQ:

  • O que é que Mark Zuckerberg anunciou exatamente sobre IA e ciência? Delineou um impulso rumo a modelos de IA poderosos e de uso geral destinados a “fazer avançar a ciência”, com forte ênfase em modelos abertos em grande escala, infraestrutura partilhada e copilotos de IA para investigadores de várias disciplinas.
  • Porque é que os cientistas estão tão divididos em relação a este anúncio? Muitos estão entusiasmados com simulações mais rápidas, melhor deteção de padrões e acesso mais fácil a ferramentas avançadas, enquanto outros receiam controlo corporativo, ética de dados e o risco de transformar a ciência num produto de plataforma.
  • Isto vai substituir investigadores humanos no laboratório? Não. Os sistemas atuais são assistentes fortes, mas ainda cometem erros básicos, alucinam fontes e falham contexto. A maioria dos laboratórios que usa IA trata-a como uma calculadora poderosa e um parceiro de brainstorming, não como substituto do juízo humano.
  • Como é que isto pode mudar a vida quotidiana de não cientistas? Descoberta de fármacos mais rápida, modelos climáticos mais precisos e planeamento de infraestruturas mais inteligente estão em cima da mesa - mas também riscos: acesso desigual, prioridades de investigação enviesadas e decisões opacas que afetam saúde e ambiente.
  • O que podem pessoas comuns fazer perante uma mudança desta dimensão? Pode acompanhar para onde vai o financiamento público, apoiar iniciativas de ciência transparente e aberta, fazer perguntas quando são anunciadas “descobertas” guiadas por IA e pressionar as instituições de que faz parte - universidades, hospitais, autarquias - a explicar como usam IA na investigação e na política pública.

Comentários (0)

Ainda não há comentários. Seja o primeiro!

Deixar um comentário