Cérebro humano inspira nova corrida tecnológica por computadores mais eficientes

Cérebro humano inspira nova corrida tecnológica por computadores mais eficientes

Data

Publicado em 15/03/26 às 07:33

O avanço acelerado da inteligência artificial trouxe consigo um paradoxo cada vez mais evidente: enquanto as máquinas se tornam mais capazes de processar enormes volumes de dados, o custo energético para sustentar essa evolução cresce de forma preocupante. Supercomputadores e grandes centros de dados já consomem quantidades massivas de eletricidade, pressionando recursos naturais e ampliando emissões de carbono.

Hoje, computadores são capazes de realizar tarefas impressionantes, desde cálculos matemáticos extremamente complexos até a geração de textos, imagens e simulações sofisticadas. Mas essa capacidade tem um preço elevado para o planeta. Grandes sistemas de computação exigem enormes quantidades de energia elétrica, água para resfriamento e infraestrutura industrial para operar continuamente.

Em contraste com esse cenário, cientistas têm voltado os olhos para um sistema de processamento muito mais eficiente — e que já existe há milhões de anos: o cérebro humano.

Pesquisas recentes indicam que o cérebro pode realizar o equivalente a um exaflop de processamento — cerca de um quintilhão de operações matemáticas por segundo — consumindo apenas cerca de 20 watts de energia, valor semelhante ao gasto de uma lâmpada comum. A estimativa foi destacada pelo pesquisador Advait Madhavan, do Instituto Nacional de Padrões e Tecnologia (NIST), nos Estados Unidos.

Embora o cérebro represente apenas cerca de 2% do peso do corpo humano, ele responde por aproximadamente 20% do consumo energético basal do organismo. Ainda assim, em termos absolutos, esse gasto é considerado extremamente baixo.

Com uma dieta diária média de cerca de 2.700 calorias, aproximadamente 340 calorias são destinadas ao funcionamento do cérebro. Em termos energéticos, isso equivale a aproximadamente 0,4 quilowatt-hora — energia suficiente para manter uma lâmpada incandescente de 60 watts acesa por menos de sete horas.

Em comparação, um dos supercomputadores mais potentes do mundo, o Frontier, do Oak Ridge National Laboratory, também atingiu desempenho de exaflop recentemente. A diferença está no consumo de energia: o sistema exige cerca de 20 megawatts, ou seja, um milhão de vezes mais energia que o cérebro humano.

O impacto ambiental desse nível de consumo é significativo. Operar uma máquina desse porte por apenas um dia pode exigir energia equivalente à queima de 207 toneladas de carvão, liberando cerca de 340 toneladas de dióxido de carbono. Alternativamente, seriam necessários aproximadamente 120 mil litros de petróleo ou 84 milhões de litros de gás natural para gerar energia equivalente.

Especialistas alertam que esse modelo de crescimento energético da computação não é sustentável a longo prazo, especialmente diante da expansão global da inteligência artificial.

cerebro humano vs ia

Computadores do futuro podem imitar o cérebro humano

Uma das razões para a extraordinária eficiência do cérebro está em sua arquitetura. Diferentemente dos computadores tradicionais, que realizam tarefas principalmente em etapas sequenciais, o cérebro utiliza um modelo de processamento massivamente paralelo.

Segundo Chang Xu, pesquisador do Centro de Inteligência Artificial da Universidade de Sydney, o cérebro humano possui cerca de 100 bilhões de neurônios que são ativados seletivamente dependendo da tarefa. Nem todos funcionam simultaneamente; diferentes regiões são acionadas conforme necessário.

Esse sistema permite que múltiplos processos ocorram ao mesmo tempo. Quando uma pessoa tenta, por exemplo, pegar uma bola lançada em sua direção, o cérebro identifica a posição do objeto, calcula sua trajetória, ajusta a postura do corpo e coordena os músculos — tudo em poucos milissegundos.

Nos computadores convencionais, essas etapas geralmente ocorreriam em sequência: primeiro detectar o objeto, depois medir o movimento, calcular a trajetória, prever o ponto de chegada e, por fim, gerar uma resposta.

No cérebro, grande parte dessas operações acontece simultaneamente, graças às conexões entre neurônios e às redes neurais biológicas altamente interligadas.

Para cientistas da computação, essa diferença representa uma possível chave para a próxima geração de tecnologias.

Pesquisadores trabalham atualmente em modelos de computação neuromórfica, sistemas projetados para imitar a forma como o cérebro organiza e processa informações. A proposta envolve criar novos algoritmos, novas arquiteturas de hardware e redes neurais mais próximas dos processos biológicos.

image

Uma das limitações das inteligências artificiais atuais é o método de treinamento chamado backpropagation, amplamente utilizado em redes neurais artificiais. Embora eficiente para ajustar modelos matemáticos, esse processo não corresponde à maneira como neurônios aprendem no cérebro humano.

Grupos de pesquisa tentam substituir esses métodos por mecanismos inspirados na biologia, como o aprendizado hebbiano e a plasticidade dependente do tempo de disparo dos neurônios, fenômenos que descrevem como conexões neurais se fortalecem com o uso.

Outras abordagens exploram estruturas mais eficientes de conexão entre neurônios artificiais. Um exemplo é o chamado Topographical Sparse Mapping, técnica em estudo na Universidade de Surrey, no Reino Unido. Nesse modelo, neurônios se conectam apenas a unidades próximas, reduzindo drasticamente o número de conexões necessárias e, consequentemente, o consumo energético.

Uma versão aprimorada do método também remove conexões desnecessárias à medida que o sistema aprende, processo semelhante ao que ocorre no cérebro humano durante o desenvolvimento e a aprendizagem.

O objetivo dessas iniciativas não é apenas reduzir o consumo energético da inteligência artificial, mas também criar sistemas capazes de lidar melhor com dados incompletos, raciocínio não linear e decisões baseadas em contextos complexos — habilidades em que o cérebro humano continua superando máquinas.

Especialistas afirmam que os computadores das próximas décadas provavelmente terão arquiteturas muito diferentes das atuais. Em vez de apenas aumentar a potência de processamento e o tamanho dos data centers, a tendência pode ser desenvolver sistemas mais inspirados na biologia.

Se essa mudança se confirmar, o cérebro humano — que funciona silenciosamente com o equivalente energético de alguns alimentos por dia — pode se tornar o modelo para uma nova geração de tecnologia mais poderosa e, ao mesmo tempo, mais sustentável.

Deixe seu comentário

Deixe um comentário