Arquivo da tag: Previsão

How big science failed to unlock the mysteries of the human brain (MIT Technology Review)

Large, expensive efforts to map the brain started a decade ago but have largely fallen short. It’s a good reminder of just how complex this organ is.

Emily Mullin

August 25, 2021

In September 2011, a group of neuroscientists and nanoscientists gathered at a picturesque estate in the English countryside for a symposium meant to bring their two fields together. 

At the meeting, Columbia University neurobiologist Rafael Yuste and Harvard geneticist George Church made a not-so-modest proposal: to map the activity of the entire human brain at the level of individual neurons and detail how those cells form circuits. That knowledge could be harnessed to treat brain disorders like Alzheimer’s, autism, schizophrenia, depression, and traumatic brain injury. And it would help answer one of the great questions of science: How does the brain bring about consciousness? 

Yuste, Church, and their colleagues drafted a proposal that would later be published in the journal Neuron. Their ambition was extreme: “a large-scale, international public effort, the Brain Activity Map Project, aimed at reconstructing the full record of neural activity across complete neural circuits.” Like the Human Genome Project a decade earlier, they wrote, the brain project would lead to “entirely new industries and commercial ventures.” 

New technologies would be needed to achieve that goal, and that’s where the nanoscientists came in. At the time, researchers could record activity from just a few hundred neurons at once—but with around 86 billion neurons in the human brain, it was akin to “watching a TV one pixel at a time,” Yuste recalled in 2017. The researchers proposed tools to measure “every spike from every neuron” in an attempt to understand how the firing of these neurons produced complex thoughts. 

The audacious proposal intrigued the Obama administration and laid the foundation for the multi-year Brain Research through Advancing Innovative Neurotechnologies (BRAIN) Initiative, announced in April 2013. President Obama called it the “next great American project.” 

But it wasn’t the first audacious brain venture. In fact, a few years earlier, Henry Markram, a neuroscientist at the École Polytechnique Fédérale de Lausanne in Switzerland, had set an even loftier goal: to make a computer simulation of a living human brain. Markram wanted to build a fully digital, three-dimensional model at the resolution of the individual cell, tracing all of those cells’ many connections. “We can do it within 10 years,” he boasted during a 2009 TED talk

In January 2013, a few months before the American project was announced, the EU awarded Markram $1.3 billion to build his brain model. The US and EU projects sparked similar large-scale research efforts in countries including Japan, Australia, Canada, China, South Korea, and Israel. A new era of neuroscience had begun. 

An impossible dream?

A decade later, the US project is winding down, and the EU project faces its deadline to build a digital brain. So how did it go? Have we begun to unwrap the secrets of the human brain? Or have we spent a decade and billions of dollars chasing a vision that remains as elusive as ever? 

From the beginning, both projects had critics.

EU scientists worried about the costs of the Markram scheme and thought it would squeeze out other neuroscience research. And even at the original 2011 meeting in which Yuste and Church presented their ambitious vision, many of their colleagues argued it simply wasn’t possible to map the complex firings of billions of human neurons. Others said it was feasible but would cost too much money and generate more data than researchers would know what to do with. 

In a blistering article appearing in Scientific American in 2013, Partha Mitra, a neuroscientist at the Cold Spring Harbor Laboratory, warned against the “irrational exuberance” behind the Brain Activity Map and questioned whether its overall goal was meaningful. 

Even if it were possible to record all spikes from all neurons at once, he argued, a brain doesn’t exist in isolation: in order to properly connect the dots, you’d need to simultaneously record external stimuli that the brain is exposed to, as well as the behavior of the organism. And he reasoned that we need to understand the brain at a macroscopic level before trying to decode what the firings of individual neurons mean.  

Others had concerns about the impact of centralizing control over these fields. Cornelia Bargmann, a neuroscientist at Rockefeller University, worried that it would crowd out research spearheaded by individual investigators. (Bargmann was soon tapped to co-lead the BRAIN Initiative’s working group.)

There isn’t a single, agreed-upon theory of how the brain works, and not everyone in the field agreed that building a simulated brain was the best way to study it.

While the US initiative sought input from scientists to guide its direction, the EU project was decidedly more top-down, with Markram at the helm. But as Noah Hutton documents in his 2020 film In Silico, Markram’s grand plans soon unraveled. As an undergraduate studying neuroscience, Hutton had been assigned to read Markram’s papers and was impressed by his proposal to simulate the human brain; when he started making documentary films, he decided to chronicle the effort. He soon realized, however, that the billion-dollar enterprise was characterized more by infighting and shifting goals than by breakthrough science.

In Silico shows Markram as a charismatic leader who needed to make bold claims about the future of neuroscience to attract the funding to carry out his particular vision. But the project was troubled from the outset by a major issue: there isn’t a single, agreed-upon theory of how the brain works, and not everyone in the field agreed that building a simulated brain was the best way to study it. It didn’t take long for those differences to arise in the EU project. 

In 2014, hundreds of experts across Europe penned a letter citing concerns about oversight, funding mechanisms, and transparency in the Human Brain Project. The scientists felt Markram’s aim was premature and too narrow and would exclude funding for researchers who sought other ways to study the brain. 

“What struck me was, if he was successful and turned it on and the simulated brain worked, what have you learned?” Terry Sejnowski, a computational neuroscientist at the Salk Institute who served on the advisory committee for the BRAIN Initiative, told me. “The simulation is just as complicated as the brain.” 

The Human Brain Project’s board of directors voted to change its organization and leadership in early 2015, replacing a three-member executive committee led by Markram with a 22-member governing board. Christoph Ebell, a Swiss entrepreneur with a background in science diplomacy, was appointed executive director. “When I took over, the project was at a crisis point,” he says. “People were openly wondering if the project was going to go forward.”

But a few years later he was out too, after a “strategic disagreement” with the project’s host institution. The project is now focused on providing a new computational research infrastructure to help neuroscientists store, process, and analyze large amounts of data—unsystematic data collection has been an issue for the field—and develop 3D brain atlases and software for creating simulations.

The US BRAIN Initiative, meanwhile, underwent its own changes. Early on, in 2014, responding to the concerns of scientists and acknowledging the limits of what was possible, it evolved into something more pragmatic, focusing on developing technologies to probe the brain. 

New day

Those changes have finally started to produce results—even if they weren’t the ones that the founders of each of the large brain projects had originally envisaged. 

Last year, the Human Brain Project released a 3D digital map that integrates different aspects of human brain organization at the millimeter and micrometer level. It’s essentially a Google Earth for the brain. 

And earlier this year Alipasha Vaziri, a neuroscientist funded by the BRAIN Initiative, and his team at Rockefeller University reported in a preprint paper that they’d simultaneously recorded the activity of more than a million neurons across the mouse cortex. It’s the largest recording of animal cortical activity yet made, if far from listening to all 86 billion neurons in the human brain as the original Brain Activity Map hoped.

The US effort has also shown some progress in its attempt to build new tools to study the brain. It has speeded the development of optogenetics, an approach that uses light to control neurons, and its funding has led to new high-density silicon electrodes capable of recording from hundreds of neurons simultaneously. And it has arguably accelerated the development of single-cell sequencing. In September, researchers using these advances will publish a detailed classification of cell types in the mouse and human motor cortexes—the biggest single output from the BRAIN Initiative to date.

While these are all important steps forward, though, they’re far from the initial grand ambitions. 

Lasting legacy

We are now heading into the last phase of these projects—the EU effort will conclude in 2023, while the US initiative is expected to have funding through 2026. What happens in these next years will determine just how much impact they’ll have on the field of neuroscience.

When I asked Ebell what he sees as the biggest accomplishment of the Human Brain Project, he didn’t name any one scientific achievement. Instead, he pointed to EBRAINS, a platform launched in April of this year to help neuroscientists work with neurological data, perform modeling, and simulate brain function. It offers researchers a wide range of data and connects many of the most advanced European lab facilities, supercomputing centers, clinics, and technology hubs in one system. 

“If you ask me ‘Are you happy with how it turned out?’ I would say yes,” Ebell said. “Has it led to the breakthroughs that some have expected in terms of gaining a completely new understanding of the brain? Perhaps not.” 

Katrin Amunts, a neuroscientist at the University of Düsseldorf, who has been the Human Brain Project’s scientific research director since 2016, says that while Markram’s dream of simulating the human brain hasn’t been realized yet, it is getting closer. “We will use the last three years to make such simulations happen,” she says. But it won’t be a big, single model—instead, several simulation approaches will be needed to understand the brain in all its complexity. 

Meanwhile, the BRAIN Initiative has provided more than 900 grants to researchers so far, totaling around $2 billion. The National Institutes of Health is projected to spend nearly $6 billion on the project by the time it concludes. 

For the final phase of the BRAIN Initiative, scientists will attempt to understand how brain circuits work by diagramming connected neurons. But claims for what can be achieved are far more restrained than in the project’s early days. The researchers now realize that understanding the brain will be an ongoing task—it’s not something that can be finalized by a project’s deadline, even if that project meets its specific goals.

“With a brand-new tool or a fabulous new microscope, you know when you’ve got it. If you’re talking about understanding how a piece of the brain works or how the brain actually does a task, it’s much more difficult to know what success is,” says Eve Marder, a neuroscientist at Brandeis University. “And success for one person would be just the beginning of the story for another person.” 

Yuste and his colleagues were right that new tools and techniques would be needed to study the brain in a more meaningful way. Now, scientists will have to figure out how to use them. But instead of answering the question of consciousness, developing these methods has, if anything, only opened up more questions about the brain—and shown just how complex it is. 

“I have to be honest,” says Yuste. “We had higher hopes.”

Emily Mullin is a freelance journalist based in Pittsburgh who focuses on biotechnology.

Metaverso pode ser nova Internet e vira prioridade das Big Techs (MIT Technology Review)

by Guilherme Ravache

setembro 10, 2021

Em maio, afirmei, aqui na MIT Technology Review Brasil, que o “Brasil tem chance de liderar a corrida pelo metaverso”. Em apenas três meses muito aconteceu e o metaverso se tornou um termo cada vez mais presente na mídia, e principalmente, uma nova estratégia de gigantes de tecnologia. O termo foi mencionado por CEOs em várias recentes conferências de anúncio de resultados no segundo trimestre. Mark Zuckerberg, do Facebook, Satya Nadella, da Microsoft, David Baszucki, da Roblox, e Shar Dubey, da Match Group, afirmaram que o metaverso iria pautar a estratégia de suas empresas.

Do Vale do Silício a Shenzhen, as empresas de tecnologia aumentam suas apostas nesse setor. Para os não iniciados, “o metaverso é a terminologia utilizada para indicar um tipo de mundo virtual que tenta replicar a realidade através de dispositivos digitais. É um espaço coletivo e virtual compartilhado, constituído pela soma de ‘realidade virtual’, ‘realidade aumentada’ e ‘Internet’”, como afirma a página do termo na Wikipédia. A expressão foi cunhada pelo escritor Neal Stephenson em seu romance de 1992, “Snow Crash”. Depois, Ernest Cline usou o mesmo conceito para criar o Oásis em seu romance “Ready Player One”, que virou filme de Steven Spielberg.

Mark Zuckerberg, fundador e CEO do Facebook, parece ter se tornado o mais recente convertido ao metaverso. O executivo deu uma série de entrevistas recentemente afirmando que o Facebook vai apostar o seu futuro no metaverso. “Nós vamos realizar uma transição de ser empresa vista primariamente como de redes sociais para sermos uma empresa de mertaverso”, disse Zuckerberg.

Em julho, o Facebook disse que estava criando uma equipe de produto para trabalhar no metaverso que faria parte de seu grupo de AR e VR, no Facebook Reality Labs. Dias atrás tivemos uma demonstração do que está por vir. O Facebook convidou um grupo de jornalistas para conhecer seu Horizon Workrooms. O app é a primeira tentativa da rede social de criar uma experiência de Realidade Virtual especificamente para as pessoas trabalharem juntas.

Segundo o jornalista Alex Heath, que participou da demonstração, até 16 pessoas em VR podem estar juntas em uma sala de trabalho, enquanto outras 34 pessoas podem entrar em uma videochamada sem usar um fone de ouvido. Um aplicativo de desktop complementar permite que você faça uma transmissão ao vivo da tela do seu computador sobre o seu espaço de mesa virtual. Graças ao rastreamento manual e às câmeras frontais, uma representação virtual do seu teclado físico fica embaixo da tela para digitar em um aplicativo web simples que o Facebook criou para fazer anotações e gerenciar calendários. Ou seja, você entra em um mundo virtual para realizar a reunião com seus colegas.

Facebook não deve liderar o metaverso

Zuckerberg fala de realidade virtual há anos. Ainda em 2014, quando o Facebook comprou a Oculus por US$ 2 bilhões, ele afirmou com entusiasmo que a compra permitiria experiências virtuais imersivas nas quais você se sentiria “presente em outro lugar com outras pessoas”. De certa forma, o metaverso é uma sequência dos planos do Facebook iniciados há quase uma década.

O Facebook é um player gigante a ser reconhecido, mas minha aposta é que não será o vencedor na corrida pelo metaverso. Da mesma forma que a IBM não se tornou a líder nos computadores pessoais ou na nuvem, o Google nunca conseguiu construir uma presença sólida nas redes sociais ou no setor de mensagens instantâneas e nem a Microsoft e muito menos a Nokia se tornaram as líderes em smartphones, o Facebook, apesar de seu entusiasmo, não deve liderar essa corrida.

Basicamente, porque mesmo tendo a vontade e os recursos, usualmente falta às empresas líderes a cultura para operar nesses novos mercados. E não estou dizendo que o Facebook será um player irrelevante, longe disso. Os bilhões de dólares que a empresa já investiu no desenvolvimento do Oculos Quest e toda a tecnologia de hardware criada para uso em realidade virtual (e consequentemente o metaverso) são impressionantes e levaram a avanços indiscutíveis.

“O metaverso, o sonho de um tecnólogo, é o pesadelo do Facebook. Ele tornaria a rede social irrelevante”, afirmou Scott Galloway, professor de marketing. “O ativo mais valioso do Facebook é seu gráfico social, seu conjunto de dados de usuários, links entre usuários e seu conteúdo compartilhado. Em um futuro metaverso, nós todos teremos identidades no metaverso e qualquer um pode abrir um espaço virtual para compartilhar fotos da festa de aniversário de seu filho de 10 anos ou discutir sobre vacinas”, conclui.

Quem tem potencial no metaverso?

De um ponto de vista ocidental, eu apostaria minhas fichas na Roblox e na Epic Games como novos líderes do metaverso de maneira mais ampla. Nas aplicações empresariais, a vantagem seria da Microsoft.

Da perspectiva hardware/software Nvidia e Apple levam vantagem por já terem a capacidade de desenvolverem seus próprios chips (o Facebook compra chips prontos da Qualcomm). Uma vasta biblioteca de chips de Inteligência Artificial e o software necessário para executá-los também são peças essenciais do metaverso.

Do outro lado do mundo, Tencent, Bytedance e Sea são competidores robustos, mas as duas primeiras se vêem diante da crescente regulação chinesa e a terceira tem seu foco na construção de um e-commerce competitivo na Ásia.

A Microsoft tem uma grande vantagem não somente por sua gigantesca comunidade de desenvolvedores criando soluções corporativas e sua robusta presença no mundo corporativo. A Microsoft também está trazendo jogos em nuvem para seus consoles Xbox. Em breve, os assinantes do Xbox Game Pass Ultimate nos consoles Xbox Series X / S e Xbox One poderão transmitir mais de 100 jogos sem baixá-los. Segundo a Microsoft, as métricas de desempenho do serviço serão 1080p e 60 frames por segundo. O Xbox Cloud Gaming se tornou disponível para dispositivos móveis e PC em junho de 2021. A Microsoft também anunciou esta semana que o próximo capítulo da popular série Halo, Halo Infinite, será lançado em 8 de dezembro de 2021.

O poder da comunidade

Há anos a Microsoft desenvolve hardware de mixed reality para aplicações corporativas. Seu HoloLens é um dos mais usados no mercado. Realidade mista ou realidade híbrida é a tecnologia que une características da realidade virtual com a realidade aumentada. Ela insere objetos virtuais no mundo real e permite a interação do usuário com os objetos, produzindo novos ambientes nos quais itens físicos e virtuais coexistem e interagem em tempo real.

No ano passado, a Nvidia lançou sua plataforma Omniverse “para conectar mundos 3D em um universo virtual compartilhado.” O presidente-executivo, Jensen Huang, usou a maior conferência anual da empresa, em outubro, para creditar publicamente “Snow Crash”, de Stephenson, como a inspiração original para o conceito de um sucessor de realidade virtual para a Internet, afirmando que “o metaverso está chegando”.

Mas o que definirá os vencedores do metaverso não será apenas o dinheiro, a vontade de fazer liderar esse movimento ou a propriedade intelectual de uma empresa. É a capacidade de envolver comunidades, seja para as pessoas congregarem no metaverso ou desenvolverem as experiências desse ambiente digital que criará os vencedores.

Games, Netflix e onde gastamos nosso tempo

Os games são uma parte essencial do metaverso, mas o metaverso não irá se limitar aos jogos. Eles são apenas a porta de entrada, um primeiro passo nesse sentido. Reed Rastings, CEO da Netflix, já disse que o Netflix “compete com (e perde para) o Fortnite mais do que a HBO”. Recentemente, a Netflix inclusive anunciou que a partir de 2022 entrará no segmento de jogos, oferecendo games em seu app.

Como aponta o ensaísta Matthew Ball, o mercado de games é enorme e cresce rapidamente, mas essa não é a única razão para a entrada da Netflix em games. “Embora seja comum ouvir que ‘os jogos agora têm quatro vezes o tamanho da bilheteria global dos cinemas’, a bilheteria é menos de 1/15 da receita total de vídeo globalmente. Em outras palavras, os jogos provavelmente vão arrecadar cerca de US$ 180 bilhões em 2021, enquanto os vídeos excederão US$ 650 bilhões”, diz Ball. Ou seja, na guerra pela atenção do consumidor o videogame e o metaverso têm um potencial enorme e a receita de games mostra que esse ainda é um mercado bastante incipiente em comparação ao vídeo como um todo.

Vale lembrar que somente em 2021 a Netflix deve investir US$ 19 bilhões na produção de conteúdo original. Mesmo assim, a empresa tem perdido assinantes nos Estados Unidos e Canadá. A entrada do HBO Max, Paramount+ e diversos novos concorrentes ajudam a explicar a queda, mas os games também são um elemento a ser considerado. E no final do dia, a Netflix está no mercado de vender entretenimento, e estar próximo da indústria de games não é uma ideia ruim.

Nossas crianças, nosso futuro

Mas assim como o Facebook, se sobra dinheiro e vontade/necessidade de reter nossa atenção, falta o elemento da comunidade de desenvolvedores para uma entrada relevante no metaverso. Ao observarmos o Roblox fica mais fácil de entender como esse elemento se aplica.

O Roblox é muito mais que um jogo, é uma plataforma onde qualquer um pode criar um jogo (ou experiência). Hoje, já são mais de 8 milhões de desenvolvedores criando essas experiências. São mais de 20 milhões de experiências, que vão desde adotar um animal de estimação no Adopt Me! ou aprender sobre história em uma visita virtual ao Coliseu.

Desde 2008, quando a plataforma foi lançada, os usuários já passaram mais de 30,6 bilhões de horas engajados no jogo. No segundo trimestre, a receita da Roblox aumentou 127% em relação ao segundo trimestre de 2020, indo para US$ 454,1 milhões. A média de usuários ativos diários (DAUs) foi de 43,2 milhões, um aumento de 29% ano após ano.

Perceba a ironia de que enquanto Facebook e Netflix estagnaram no crescimento de usuários, a Roblox continua aumentando sua base mesmo com a pandemia diminuindo o isolamento social e permitindo que muitos retornem às suas atividades.

Mas provavelmente os grandes números do Roblox e da Epic Games (dona do Fortnite), que tem o capital fechado e não divulga números da mesma maneira que o Roblox, são o aspecto menos interessante das possibilidades que oferecem.

O metaverso é o novo terceiro lugar 

Como já escrevi aqui na MIT Tech Review ao falar sobre o impacto dos games no e-commerce, o crescimento dos jogos eletrônicos está diretamente ligado à transformação dos games em um “Terceiro Lugar”. O termo foi cunhado pelo sociólogo Ray Oldenburg e se refere a lugares onde as pessoas passam o tempo entre a casa (“primeiro” lugar) e o trabalho (“segundo” lugar). São espaços onde as pessoas trocam ideias, se divertem e estabelecem relacionamentos. Igrejas, cafés e parques são exemplos de “Terceiro Lugar”. Ter um terceiro lugar para socializar fora de casa e do trabalho é crucial para o bem-estar, pois traz um sentimento de conexão e pertencimento. E os videogames são cada vez mais um “Terceiro Lugar”. Historicamente, as atividades e o desenvolvimento da comunidade eram offline, mas graças aos avanços da tecnologia os videogames se tornaram sociais.

Não por acaso, são cada vez mais frequentes shows e eventos dentro do Roblox e Fortnite (Travis Scott reuniu milhares de pessoas e o diretor Christopher Nolan fez uma premiere). As marcas têm investido pesadamente para entrar nesse universo. De olho nos 43 milhões de usuários que acessam o Roblox diariamente, a Netflix anunciou em julho um novo ponto de encontro virtual baseado na série Stranger Things. Mais recentemente, a Roblox anunciou o lançamento do Vans World, um metaverso de skate interativo da marca Vans dentro do mundo dos jogos. Ele é inspirado nos locais da marca, como a House of Vans e outros destinos de skate, o Vans World é um espaço 3D contínuo onde os fãs podem praticar suas manobras com outras pessoas e experimentar os equipamentos da marca.

“A Roblox é o novo ponto de encontro social, muito parecido com o shopping local na década de 1980, onde os adolescentes se reuniam”, afirma Christina Wootton, vice-presidente de parcerias de marca da Roblox. “O Starcourt Mall virtual é um cenário semelhante reinventado dentro do Roblox que abre possibilidades únicas para envolver e aumentar o público global do programa.”

Vale assistir a essa apresentação de fevereiro de David Baszucki, CEO da Roblox. Nela, o executivo detalha a estratégia de crescimento da empresa com seu potencial de criar experiências, inclusive educativas e comerciais, com uma crescente comunidade.

Brasil pode ser protagonista no metaverso

De tempos em tempos acontece um alinhamento de estrelas que pode beneficiar um mercado. E o Brasil possivelmente se vê diante dessa oportunidade. Na China, o governo cria um ambiente cada vez mais inóspito para empresas e desenvolvedores. Nos Estados Unidos, existe o dinheiro e a escala de usuários, mas falta engajamento e mão de obra. Não é fácil apostar no metaverso em um país que sobram empregos e faltam candidatos. Na Europa há desenvolvedores, principalmente no Leste Europeu, mas a fragmentação é gigantesca.

Enrico Machado, brasileiro que desenvolve Roblox, é um exemplo do potencial de milhares de usuários acostumados a uma base desde a infância. Ele começou a jogar Roblox com 11 anos de idade. Aos 15 já era um desenvolvedor. Hoje, na faculdade, cursa sistemas da informação e trabalha em um grande estúdio brasileiro desenvolvendo apenas jogos para Roblox.

“O Roblox está muito popular. Ele funciona a partir de microtransações. Você pode comprar coisas nos jogos que as pessoas criam e os desenvolvedores ganham dinheiro com isso. Hoje tem muita gente fazendo uma grana absurda. É tipo o mercado de futebol que você tem que você tem alguns caras que estão no topo da Pirâmide. Para cada Neymar você tem milhões de pessoas que gostariam de ser Neymar, essa relação é parecida. Mas qualquer pessoa pode ganhar um dinheiro razoável”, diz Machado.

Ele garante que não é muito difícil ganhar um dinheiro razoável na plataforma.

Tem muita consumidor querendo jogar. Então, se você entende o básico de comunidade, de design, de jogo, de programação, você sai do zero e em um curto espaço de tempo já começa a ganhar uma graninha se você focar nisso”.

Machado trabalha em um estúdio com outras dezenas de desenvolvedores. “No estúdio fazemos reuniões e tudo mais para para aplicar as melhores práticas para todos os jogos. Estou aprendendo bastante com eles. Eu sei programar, sei fazer um joguinho bonitinho mas eu não entendo nada de game design. Eu não sei como fazer um jogo de sucesso. Você sabe que existem melhores práticas, mas com um grupo maior fica mais fácil. Conhecer essas práticas é tão importante quanto saber programar”, garante.

Milhões de desenvolvedores se unindo 

Não é um caso isolado. Como Machado existem milhares de jovens no Brasil trabalhando em estúdios enormes desenvolvendo Roblox. E diferentemente de outras linguagens, a utilizada pela Roblox é acessível e de fácil aprendizado. Além disso, não é essencial ter um computador super poderoso ou uma conexão ultra-rápida.

Não por acaso o Brasil já é o quinto mercado de games do mundo, tem uma das maiores comunidades de usuários do planeta, um crescente mercado de streaming e ícones de jogos eletrônicos como Nobru.

A Wildlife, unicórnio brasileiro avaliado em mais de US$ 1,3 bilhão, já conta com mais de 800 colaboradores em países como Brasil, Estados Unidos, Argentina e Irlanda. Criada em 2011, a empresa tem mais de 60 jogos mobile.

O metaverso precisa de tecnologia e software, mas o fator determinante é uma engajada comunidade de desenvolvedores e usuários. Por essas razões, o Roblox e o Fortnite estão na dianteira. Já o Brasil tem todos os elementos para ser o líder global neste setor. Mas nada garante que isso irá acontecer. Montreal, no Canadá, oferece pistas sobre como podemos acelerar esse processo ao criar incentivos para atrair e reunir empresas, desenvolvedores e investimentos. Mas esse será assunto para a próxima coluna.

O metaverso deverá se tornar a próxima Internet e muitos gigantes de hoje vão perder influência. Mas assim como a Internet criou uma nova indústria, com novos empregos e novos bilionários, o metaverso repetirá essa história e possivelmente em uma escala ainda maior. É irônico que Stephenson tenha dito para a revista Vanity Fair, em 2017, que quando escrevia “Snow Crash” e criava o metaverso, estava “apenas inventando merda”. Décadas depois, os CEOs levam essa “invenção” cada vez mais a sério.

Este artigo foi produzido por Guilherme Ravache, jornalista, consultor digital e colunista da MIT Technology Review Brasil.

Mudanças climáticas extremas afetam até voos de aviões (Folha de S.Paulo)

Tempestades, fumaça de incêndios e calor, que reduz a força de ascensão das aeronaves, prejudicam companhias aéreas

23.ago.2021 às 22h15

Claire Bushey, Philip Georgiadis – Financial Times

Algumas companhias de aviação e aeroportos começaram a se planejar para um futuro no qual abalos climáticos severos afetam os cronogramas de voos com mais frequência, agora que a mudança do clima está fazendo com que aumente a probabilidade de calor extremo e grandes tempestades.

Este mês, tempestades forçaram o cancelamento de mais de 300 voos no aeroporto O’Hare, de Chicago, e no aeroporto de Dalas/Fort Worth, no Texas. Em julho, oito voos foram cancelados em Denver e outros 300 sofreram atrasos devido aos incêndios florestais que atingiram a região do Pacífico Noroeste dos Estados Unidos. O calor extremo afetou decolagens em Las Vegas e no Colorado no começo deste verão [do final de junho ao final de setembro, no hemisfério norte].

As perturbações se alinham a uma tendência: cancelamentos e atrasos de voos causados pelo clima se tornaram muito mais frequentes nos Estados Unidos e na Europa durante as duas últimas décadas, demonstram dados das autoridades regulatórias. Embora seja difícil vincular qualquer tempestade ou onda de calor individual à mudança do clima, estudos científicos determinaram que elas se tornarão mais frequentes ou intensas à medida que o planeta se aquece.

A ICAO (Organização Internacional da Aviação Civil), o órgão vinculado à ONU que estabelece normas para o setor, constatou em uma pesquisa de 2019 entre seus países membros que três quartos dos respondentes afirmavam que seus setores de transporte aéreo já estavam experimentando algum impacto causado pela mudança no clima.

“É algo que absolutamente ocupa nossos pensamentos, com relação a se poderemos continuar mantendo nosso cronograma de voos, especialmente se considerarmos o crescimento que temos planejado para o futuro”, disse David Kensick, vice-presidente de operações mundiais da United Airlines. “Com a mudança no clima, estamos vendo um clima cada vez mais difícil de prever, e por isso teremos de lidar melhor com as situações criadas por ele”.

As companhias de aviação respondem por cerca de 2% das emissões mundiais de gases causadores do efeito estufa, ainda que, se outras substâncias emitidas por aviões forem consideradas, alguns estudos indiquem que seu impacto sobre o clima pode ser ainda maior.

O impacto potencial da mudança do clima sobre o setor é abrangente. Em curto prazo, as condições climáticas intensas criam dores de cabeça operacionais. Desvios forçados e cancelamentos de voos aumentam os custos de um setor que perdeu bilhões de dólares durante a pandemia.

Em prazo mais longo, as companhias de aviação acreditam que as mudanças nos padrões do clima alterarão as rotas de voo e o consumo de combustível. Provavelmente, voos entre a Europa e os Estados Unidos demorarão mais tempo, quando a “jet stream” que existe por sobre o Atlântico Norte mudar, por exemplo.

“A aviação será vítima da mudança do clima, além de ser vista, por muitas pessoas, como um dos vilões”, disse Paul Williams, professor de ciência atmosférica na Universidade de Reading, no Reino Unido.

O número de atrasos atribuídos ao mau tempo no espaço aéreo europeu subiu de 2,5 milhões em 2003 a um pico de 6,5 milhões em 2019, de acordo com dados da Eurocontrol, embora parte dessa alta possa ser atribuída ao crescimento do setor. Como proporção das causas gerais de atraso, problemas de clima subiram de 23% para 27% no mesmo período.

A proporção de voos cancelados nos Estados Unidos por conta do clima aumentou de aproximadamente 35% do total em 2004 para 54% em 2019, de acordo com a FAA (Administração Federal da Aviação) americana.

Mark Searle, diretor mundial de segurança na Associação Internacional do Transporte Aéreo (IATA), disse que as companhias de aviação haviam se adaptado ao longo dos anos à mudança do clima.

“Existe uma situação evoluindo, mas não é como se estivéssemos à beira do precipício”, ele disse. “Na verdade, nós a estamos administrando muito bem”.

Para os aeroportos, isso pode significar preparação para níveis de mar mais elevados. O novo terminal de passageiros do aeroporto de Changi, em Cingapura, foi construído apenas 5,5 metros acima do nível médio do mar. A Avinor, que opera aeroportos ao longo da costa da Noruega, determinou que todas as pistas de aterrissagem novas sejam construídas pelo menos sete metros acima do nível do mar.

No caso das companhias de aviação, será necessário recorrer à tecnologia. A American Airlines e a United Airlines melhoraram sua capacidade de prever a proximidade de relâmpagos, permitindo que o trabalho nos pátios continue por mais tempo, antes de uma tempestade que se aproxima, sem colocar em risco o pessoal de terra.

Em diversos de seus aeroportos centrais, a United Airlines, sediada em Chicago, também criou sistemas de taxiagem automática que permitem que aviões sejam conduzidos aos terminais mesmo que tempestades impeçam que agentes de rampa os orientem até os portões.

O clima severo exige pessoal adicional. As operadoras são forçadas a pagar horas extras quando seu pessoal de embarque e dos call centers enfrenta demanda adicional gerada por passageiros tentando reorganizar suas viagens. As empresas terão de calcular se compensa mais pagar o adicional por horas extras, criar turnos adicionais de trabalho ou deixar que os passageiros arquem com as consequências dos problemas.

“Haverá custo adicional de qualquer forma se –e essa é uma questão em aberto– as companhias de aviação decidirem que querem lidar com isso”, disse Jon Jager, analista da Cirium, uma empresa de pesquisa sobre aviação.

Embora os passageiros tipicamente culpem as companhias de aviação pelos problemas que encontram, as regras dos Estados Unidos, Reino Unido e União Europeia não exigem que elas indenizem os passageiros por problemas causados pelo clima. “A Mãe Natureza serve como desculpa para livrar as companhias de aviação de problemas”, disse Jager.

Perturbações surgem não só com tempestades, mas com extremos de calor. Aviões enfrentam dificuldade para decolar em temperaturas muito elevadas, porque o ar quente é menos denso, o que significa que as asas criam menos empuxo aerodinâmico. Quanto mais quente a temperatura, mais leve um avião precisa estar para decolar, especialmente em aeroportos com pistas curtas e em áreas quentes.

Williams, o cientista atmosférico, publicou um estudo no qual constata que, para um Airbus A320 decolando da ilha grega de Chios, a carga útil teve de ser reduzida em cerca de 130 quilos por ano, ao longo de três décadas –o que equivale, em linhas gerais, ao peso de um passageiro e sua bagagem.

A Iata está negociando com seus integrantes sobre a adoção de novas metas relacionadas à mudança do clima neste ano. As metas atuais do setor, adotadas em 2009, incluem reduzir à metade o nível de emissões de 2005, até 2050, e que todo crescimento seja neutro em termos de emissões de carbono, de 2020 em diante.

Mas em muitas áreas do setor, especialmente na Europa e Estados Unidos, existe uma convicção de que metas mais duras, incluindo um compromisso de zerar as emissões líquidas de poluentes, são necessárias.

“Acreditamos que provavelmente devemos ir além, e estamos trabalhando nisso”, disse Alexandre de Juniac, que está encerrando seu mandato como presidente da Iata, ao Financial Times alguns meses atrás.

Williams disse que a abordagem do setor de aviação quanto à mudança do clima parecia estar mudando.

“Historicamente, havia muita gente cética sobre a mudança do clima no setor de aviação, mas percebi uma mudança”, ele disse. “Agora o setor é muito mais honesto”.

Financial Times, tradução de Paulo Migliacci

Climate Change Brings a Flood of Hyperbole/The Climate Has a Gun (The Wall Street Journal)

Opinion | The Climate Has a Gun (The Wall Street Journal)

Those who dismiss risk of climate change often appeal to uncertainty, but they have it backward.

Aug. 17, 2021 1:14 pm ET 2 minutes

In “Climate Change Brings a Flood of Hyperbole” (op-ed, Aug. 11), Steven Koonin put himself in the unenviable position of playing down climate change precisely while we are experiencing unprecedented heat waves, storms, fires, droughts, and floods that exceed model-based expectations.

Mr. Koonin claims that regional projections are “meant to scare people.” But the paper he cites for support addresses the “unfolding of what may become catastrophic changes to Earth’s climate” and argues that “being able to anticipate what would otherwise be surprises in extreme weather and climate variations” requires better models. In other words, our current models cannot rule out a catastrophic future.

Model uncertainty is two-edged. If we’d been lucky, we’d be discovering that we overestimated the danger. But all indicators suggest the opposite. Those who dismiss climate risk often appeal to uncertainty, but they have it backward. Climate uncertainty is like not knowing how many shots Dirty Harry fired from his .44-caliber Magnum. Now that it’s pointed at our head, it’s dawning on us that we’ve probably miscalculated. By the time we’re sure, it’s too late. We’ve got to ask ourselves one question: Do we feel lucky? Well, do we?

Adj. Prof. Mark BosloughUniversity of New Mexico

Opinion | Climate Change Brings a Flood of Hyperbole (The Wall Street Journal)

Despite constant warnings of catastrophe, things aren’t anywhere near as dire as the media say.

Steven E. Koonin – Aug. 10, 2021 6:33 pm ET

The Intergovernmental Panel on Climate Change has issued its latest report assessing the state of the climate and projecting its future. As usual, the media and politicians are exaggerating and distorting the evidence in the report. They lament an allegedly broken climate and proclaim, yet again, that we are facing the “last, best chance” to save the planet from a hellish future. In fact, things aren’t—and won’t be—anywhere near as dire.

The new report, titled AR6, is almost 4,000 pages, written by several hundred government-nominated scientists over the past four years. It should command our attention, especially because this report will be a crucial element of the coming United Nations Climate Change Conference in Glasgow. Leaders from 196 countries will come together there in November, likely to adopt more-aggressive nonbinding pledges to reduce greenhouse-gas emissions.

Previous climate-assessment reports have misrepresented scientific research in the “conclusions” presented to policy makers and the media. The summary of the most recent U.S. government climate report, for instance, said heat waves across the U.S. have become more frequent since 1960, but neglected to mention that the body of the report shows they are no more common today than they were in 1900. Knowledgeable independent scientists need to scrutinize the latest U.N. report because of the major societal and economic disruptions that would take place on the way to a “net zero” world, including the elimination of fossil-fueled electricity, transportation and heat, as well as complete transformation of agricultural methods.

It is already easy to see things in this report that you almost certainly won’t learn from the general media coverage. Most important, the model muddle continues. We are repeatedly told “the models say.” But the complicated computer models used to project future temperature, rainfall and so on remain deficient. Some models are far more sensitive to greenhouse gases than others. Many also disagree on the baseline temperature for the Earth’s surface.

The latest models also don’t reproduce the global climate of the past. The models fail to explain why rapid global warming occurred from 1910 to 1940, when human influences on the climate were less significant. The report also presents an extensive “atlas” of future regional climates based on the models. Sounds authoritative. But two experts, Tim Palmer and Bjorn Stevens, write in the Proceedings of the National Academy of Sciences that the lack of detail in current modeling approaches makes them “not fit” to describe regional climate. The atlas is mainly meant to scare people.

Sem chuvas, Brasil pode ter estagnação econômica e inflação, diz analista (Folha de S.Paulo)

Crise de energia pode derrubar o PIB e aumentar a inflação no ano que vem, aponta relatório da RPS Capital

Douglas Gavras – 19 de agosto de 2021

O Brasil pode entrar em um quadro de estagflação (combinação de fraqueza econômica e preços em alta), caso não volte a chover no quarto trimestre do ano, segundo avaliação dos analistas da RPS Capital.

Na visão deles, a economia brasileira tem absorvido vários choques ao longo do ano, com desorganização de cadeias produtivas globais e, mais recentemente, aumento do custo do frete, com um novo surto de Covid na China.

“Se o período úmido for ruim, a gente pode ter complicações e o risco não é pequeno. O cenário de estiagem precisa passar até outubro, quando ocorre a transição desse período mais chuvoso”, diz Gabriel Barros, da RPS.

Para o analista, o governo tem adotado algumas medidas, que vão na direção correta, mas não são suficientes para evitar um cenário preocupante nos reservatórios das usinas.

“O que o governo tem anunciado é mais focado em grandes consumidores, ao deslocar o pico de carga da indústria para suavizar a curva”, diz. Como a situação é dramática, no entanto, deveria ser adotado um plano mais amplo de economia de energia.

Ele lembra que a inflação de alimentos ainda deve pesar no bolso, combinada com o aumento de preços da energia.

A inflação medida pelo IPCA (Índice Nacional de Preços ao Consumidor Amplo) subiu 0,96% em julho, o maior resultado para o mês desde 2002, quando a alta foi de 1,19%.

No ano, o indicador acumula alta de 4,76% e, em 12 meses, 8,99%. Segundo o IBGE (Instituto Brasileiro de Geografia e Estatística), oito dos nove grupos pesquisados apresentaram alta no mês. A maior pressão veio do aumento de 3,10% na habitação, pela alta de 7,88% na energia elétrica.

Além disso, a economia se beneficiou de um avanço na vacinação, o que deve movimentar o setor de serviços no segundo semestre. “Esses negócios estão em um momento de recompor preços e a inflação de serviços mostrou que está viva”, diz o analista.

Conforme o setor for reabrindo, a inflação como um todo também deve ficar mais alta. “São vários choques sequenciais e acontecendo ao mesmo tempo, criando uma tempestade perfeita para o BC”, diz o economista.

Diante desse quadro, caso o período de seca seja prolongado e não tenha chuva no fim do ano, cresce a possibilidade de que a economia não aguente mais um choque, explica Barros. “Uma seca mais aguda poderia gerar um cenário de estagflação.”

A geração hidrelétrica continua representando a maior parcela do parque gerador do país, que já representou 90% durante o apagão de 2001 e está em torno de 70%. Com a seca histórica, os reservatórios atingiram nível crítico e o governo precisou acionar térmicas (mais caras) para manter a geração.

“A reabertura da economia ajuda, mas tem de ter energia. Sem energia, isso vai derrubar o PIB (Produto Interno Bruto) e aumentar a inflação no ano que vem.”

O crescimento de 2022, que está sendo revisto para baixo, pode ficar ainda mais fraco sem chuvas. Uma redução compulsória de carga vai reduzir o crescimento, isso afeta diretamente o PIB.

Segundo o mais recente Boletim Focus, do Banco Central, a perspectiva de crescimento da economia é de 2,04% —sendo que já foi de 2,1% há um mês e de 2,5% no começo do ano.

Desmatamento pode aumentar chance de novas pandemias, diz relatório de Harvard (Folha de S.Paulo)

Cientistas destacam que há pouco investimento contra surgimento de doenças

Phillippe Watanabe – 20 de agosto de 2021

Um relatório da Universidade Harvard reforça que alterações humanas no uso da terra e a destruição de florestas tropicais são fatores que podem aumentar as chances de surgimento de doenças com potencial pandêmico. Os pesquisadores apontam a conservação ambiental como uma das estratégias para evitar novas doenças.

O Harvard Global Health Institute e o Center for Climate, Health, and the Global Environment, da escola de saúde pública de Harvard, reuniram pesquisadores para analisar a literatura científica disponível até o momento e apontar caminhos para prevenção de novas pandemias.

Um dos pontos citados diretamente pelo relatório é o desmatamento. Os cientistas apontam como exemplo o aumento, após processos de desmate na América Central, de roedores como reservatórios de hantavírus —que, em caso de contaminação de humanos, pode levar à síndrome pulmonar por hantavírus.

A expansão de áreas agricultáveis também está ligada ao surgimento de novas doenças. Isso ocorre, afirmam os pesquisadores, pelo potencial de tal ação aproximar humanos a rebanhos de animais silvestres.

“Cerca de 22% da área terrestre em hotspots de biodiversidade, muitas vezes sobrepostos a hotspots de doenças emergentes, é ameaçada por expansão agrícola”, afirma o documento.

O relatório aponta que processos de urbanização descontrolados e sem planejamento podem ter um papel no surgimento de doenças, pelas mudanças no uso de terra e por possíveis grandes concentrações de pessoas e condições de vida ruins.

Há ainda fazendas de animais como outro ponto importante em eventos de spillover, ou transbordamento, em tradução do inglês, de zoonoses —basicamente, quando um vírus salta de uma espécie para uma nova, como para humanos. Os pesquisadores apontam a baixa diversidade genética e o elevado número de animais mantidos em alguns desses locais.

Os cientistas dão como exemplo a transmissão —inicialmente entre suínos e depois para trabalhadores agrícolas— do vírus nipah, na Malásia, em fazendas de porcos com altas concentrações de animais.

Além disso, a caça, o consumo e o comércio de animais selvagens também podem provocar o spillover.

A crise climática é mais um fator que deve impactar nos riscos de aparecimento de novas doenças no mundo, considerando as alterações que ocorrerão em ecossistemas. Segundo os pesquisadores, existe a possibilidade de habitats adequados para espécies diminuírem, o que poderia promover mais encontros entre vida selvagem e humanos, e, com isso, mais eventos de spillover.

“A redução de habitats e disponibilidade de néctar para morcegos, por exemplo, têm pressionado esses animais a buscar fontes alternativas de alimento em áreas urbanas e arredores”, afirmam os cientistas no relatório.

Por fim, os pesquisadores convocados por Harvard apontam estratégias para evitar eventos de spillover. A conservação ambiental é a primeira a ser destacada no relatório.

Outras estratégias listadas são restrições ao consumo de animais selvagens, investigações sobre vírus na vida selvagem e uma rede global de vigilância de patógenos em humanos, animais criados para abate e vida silvestre, entre outras iniciativas.

Segundo o documento, são baixos os investimentos destinados a impedir spillover. “Não mais do que US$ 4 bilhões [R$ 21,5 bilhões] são gastos a cada ano em todo o mundo em atividades de prevenção de transbordamento. A Covid-19 sozinha resultou em uma perda de PIB global estimada em US$ 4 trilhões [R$ 21,5 trilhões], ou cerca de US$ 40 bilhões [R$ 215 bilhões] por ano durante um século”, aponta o relatório.

IPCC: Já não há mais tempo para uma ecologia sutil – Outras Palavras (Outras Palavras)

por Ricardo Abramovay – 13/08/2021 às 15:32 – Atualizado 13/08/2021 às 20:06

Relatório da ONU aponta: frear a crise climática exigirá novo paradigma ecológico e de bem-estar, que se sobreponha ao cálculo econômico. Um dos entraves será a indústria do cimento, altamente poluidora, que prepara novo boom da construção
Projeto “+1,5ºC Muda Tudo” , entre o Museu do Prado e a WWF, que atualiza obras clássicas sob a catástrofe climática

Nada indica que os mais importantes tomadores de decisão do planeta estejam preparados para enfrentar o horizonte traçado nesta semana pelo relatório do Painel Intergovernamental de Mudanças Climáticas (IPCC, na sigla em inglês), que analisa a evolução e as perspectivas da relação entre as sociedades humanas e o sistema climático do qual a vida na Terra depende. Uma das mais importantes e promissoras conclusões do relatório é que ainda existe uma estreita janela de oportunidades para que a temperatura global média não suba além de 1,5ºC até o final do século.

Mas esta janela converte-se numa quase invisível fresta quando o mais importante jornal de economia do mundo, o Financial Times, retrata o entusiasmo de Jan Jenisch, presidente do maior grupo produtor global de cimento (Holcin), com o que ele chama de boom da construção, em função das necessidades de infraestrutura dos países em desenvolvimento. Sua alegria é compartilhada por Fernando Gonzales, o CEO da Cemex mexicana que fala em superciclo da construção.

O curioso é que a informação do Financial Times aparece num podcast do jornal, logo antes de um comentário sobre as enchentes na Alemanha e na China e a quebra de recorde de aumento de temperatura na América do Norte, sem que se faça qualquer relação entre cimento e eventos climáticos extremos. Ora, se fosse um país, o setor de cimento seria o terceiro maior emissor global. E não se pode dizer que o setor não esteja atento a seus impactos sobre o sistema climático.

Em 2021, cada tonelada de cimento é produzida com emissões 18% menores do que três décadas antes, mostra um trabalho do CarbonBrief. Neste período, porém, a demanda de cimento no mundo triplicou. O resultado é que, apesar dos avanços tecnológicos do setor, suas emissões continuam subindo.

O recente relatório conjunto da Agência Internacional de Energia e do Conselho Global de Negócios para o Desenvolvimento Sustentável (WBCSD, na sigla em inglês) corrobora esta informação. Até 2050, a produção global de cimento deve aumentar 12%, mas suas emissões crescem “somente” 4%. O relatório do IPCC lançado esta semana faz com que esta inegável conquista (emitir menos por unidade produzida) se converta tragicamente em componente decisivo da crise climática.

O cimento aqui é tomado como um exemplo que atinge o conjunto da vida econômica. Os dados do Painel Internacional de Recursos das Nações Unidas são claros a este respeito: as emissões vindas da produção de materiais (metais, madeira, construção e plástico, sem incluir combustíveis fósseis e alimentos) dobraram entre 1995 e 2016 e passaram de 15% a 23% das emissões globais. E, da mesma forma que no cimento, os avanços técnicos para descarbonizar a oferta de ferro, aço, plástico e borracha foram imensos.

Se a este quadro se acrescentam os planos de ampliação da produção de petróleo e mesmo de carvão e as emissões derivadas da agropecuária no mundo todo, a conclusão é que tanto as estratégias empresariais quanto os planos governamentais de combate à crise climática estão muito aquém da urgência colocada pelo relatório do IPCC. É o que explica a afirmação de Cristiana Figueres, que dirigiu a Convenção Quadro das Nações Unidas sobre Mudanças Climáticas e foi uma das responsáveis pelo Acordo de Paris de 2015, numa entrevista após a divulgação do relatório do IPCC: “Nós não estamos à altura do desafio de nosso tempo… Estamos ainda promovendo melhorias marginais e os tempos apelam para mudança drástica”.

O relatório do IPCC terá alcançado o objetivo de desencadear esta mudança drástica sob duas condições. A primeira é que cada cidadão e cada consumidor encare a crise climática contemporânea com a seriedade e a urgência que enfrentou a pandemia. É fundamental que a economia propicie bem-estar, conforto e condições para que as pessoas e suas comunidades floresçam, mas se não formos capazes de fazer escolhas orientadas pelas mensagens que o IPCC nos está transmitindo o resultado é que simplesmente não haverá futuro.

Neste sentido, enfrentar a crise climática consiste, antes de tudo, em combater as desigualdades, ou seja, em utilizar os recursos de que dispomos sob a orientação gandhiana de que o mundo é capaz de satisfazer as necessidades humanas, mas não o luxo, o desperdício e a cobiça. Nosso bem-estar tem que depender, cada vez mais, de bens comuns, de solidariedade, de sentido comunitário, de empatia e de cooperação social.

Nesta dimensão coletiva do bem-estar se fundamenta o vínculo entre combate à crise climática e sentimento democrático. Sociedades que cultivam o individualismo e a ideia de que a ascensão social é um esforço que depende estritamente das pessoas e não de suas relações comunitárias dificilmente terão condições de enfrentar a crise climática.

A segunda condição para que possamos nos aproximar do que Cristiana Figueres chamou de “mudança drástica” é que tanto as políticas econômicas como as decisões empresariais passem a se nortear por uma pergunta central: como isso vai impactar a relação entre sociedade e natureza e, especialmente, as mudanças climáticas? A urgência atual não permite mais que este tema seja encarado como “externo” à vida econômica, como uma espécie de consequência não antecipada, não prevista de nossas atividades e que será corrigida em algum momento. A luta contra a crise climática tem que estar no cerne da gestão econômica pública e privada.

União Europeia, China, Estados Unidos, Japão, Índia e inúmeras organizações empresariais dão claros sinais de que estão ao menos iniciando medidas nesta direção. A distância entre esta agenda e a dos fanáticos fundamentalistas que estão no Palácio do Planalto e na Esplanada dos Ministérios não poderia ser maior. No centro da luta para superar as ameaças que pesam sobre a democracia brasileira agora e no ano que vem está a mudança radical que Cristiana Figueres preconiza e que exige uma vida econômica que regenere os tecidos sociais, e naturais que até aqui tem acompanhado sistematicamente nossa oferta de bens e serviços.

Planeta queima, Folha assopra (Folha de S.Paulo)

Leitores pedem mais destaque para a crise do clima e demissão de colunista

José Henrique Mariante – Ombudsman

14.ago.2021 às 23h15

“A atividade humana está alterando o clima da Terra de maneira ‘sem precedentes’ em centenas de milhares de anos, com algumas mudanças já inevitáveis e ‘irreversíveis’, alertaram cientistas do clima.”

“Países atrasaram tanto a contenção de emissões de combustíveis fósseis que já não podem mais interromper a intensificação do aquecimento global pelos próximos 30 anos, ainda que exista uma janela para prevenir o futuro mais angustiante, concluiu um grande relatório científico da ONU.”

“Pela primeira vez, os cientistas do IPCC (sigla em inglês para Painel Intergovernamental de Mudança do Clima da ONU) quantificaram em um relatório o aumento da frequência e da intensidade dos eventos extremos ligados às mudanças climáticas.”

Se é pelo dedo que se conhece o gigante, os primeiros parágrafos do noticiário mais importante do ano sobre a crise do clima mostra como o assunto está longe de um senso comum. As três aberturas acima foram cometidas por, respectivamente, The Guardian, The New York Times e Folha. A diferença de tom não é pequena: o apocalipse está próximo para o diário britânico; políticos precisam acordar antes que seja tarde segundo o americano; a ciência mostra que algo ocorre, diz o brasileiro.

Ilustração Carvall publicada no dia 15 de agosto de 2021. Nela um globo terrestre amarelo e vermelho, esta dentro de uma frigideira que esta sobre o fogo.

O destaque da notícia nos três jornais também apresentou muitas diferenças. Valendo-se do fuso horário, o Times deu a notícia como manchete na edição impressa de segunda-feira (9) e manteve o assunto na capa no dia seguinte. O tratamento no site foi semelhante. O Guardian apurou o conteúdo do relatório com políticos e ONGs e adiantou que o tom do alerta seria grave já no domingo. Deu duas manchetes seguidas no impresso e 12 títulos em seu site apenas na segunda, além de um vídeo.

A Folha foi bem mais econômica. Resolveu a questão em três textos. No site, na segunda de manhã, o assunto não aparecia nem no primeiro scroll, a parte de cima da Home Page, mais nobre e de maior audiência. Onde estava, a chamada tinha peso parecido com o dado para uma nota sobre venda de Porsches no Brasil. O título principal dizia apenas que a “crise climática já agrava secas, tempestades e temperaturas”.

Em crítica interna. este ombudsman observou que o tratamento não condizia com o tamanho da notícia e que a comparação com a mídia internacional e até com concorrentes locais não era favorável. O destaque aumentou um pouco nas horas seguintes e a palavra “irreversível” foi acrescida ao enunciado original.

Na terça, em seu impresso, a Folha preferiu dar manchete para o desfile militar no bananal de Jair Bolsonaro. Clima virou um título, na parte debaixo da Primeira Página, em uma coluna. O Bolsa Família reloaded do presidente candidato mereceu duas colunas. Há, é claro, problemas em demasia no país, mas a opção da Folha restou entre as exceções em um dia importante.

Dos concorrentes diretos O Globo e O Estado de S.Paulo aos grandes jornais de Estados Unidos, Reino Unido e Europa, incluindo os econômicos The Wall Street Journal e Financial Times, todas as manchetes foram ocupadas pelo documento do IPCC. Com ou sem alarmismo, mas refletindo corretamente a amplitude do problema, a dimensão da notícia.

Leitores reclamaram. Alguns em tom ativista, cobrando da Folha comprometimento com a causa ambiental. Outros com pura preocupação, aquela que se sente diante do noticiário já quase diário de incêndios florestais, ondas de calor, inundações e secas pelo planeta. O temor que várias cidades brasileiras já sentem diante do racionamento de água. E o que vamos sentir todos daqui a pouco diante da falta de energia se o governo federal mantiver a incompetência de hábito.

No meio de tudo isso, surgiu um prenúncio de mudança. O jornal, na terça, padronizou que os eventos extremos devem ser tratados preferencialmente como “crise do clima”. Na quarta, porém, mais uma revolta se instalou na caixa de entrada. Leandro Narloch, de volta à Folha, repetiu argumentos negacionistas para falar de “aquecimento global” em sua coluna de reestreia.

Leitores furiosos listaram as polêmicas que cercam o jornalista conservador. Chamaram-no de homofóbico e racista. Pediram sua demissão, anunciaram o cancelamento de assinaturas do jornal e do UOL.

O episódio reforça as contradições da Folha na cobertura do clima. Sua brava equipe de Ciência faz excelente trabalho, tem bons analistas e cobertura consistente da Amazônia, mas isso é pouco para enfrentar um desafio multidisciplinar.

Crise climática precisa virar real prioridade, pauta que se impõe ao público pelo simples fato de que ela irá se impor de qualquer maneira. Não é mais questão de acreditar ou não em cientistas ou de pirralhas anunciando o fim do mundo.

O país está na berlinda na questão ambiental. A Folha não precisa ficar junto.

‘How lucky do you feel?’: The awful risks buried in the IPCC report (Sydney Morning Herald)

Peter Hannam

The latest landmark climate science report goes much further than previous ones in providing estimates of how bad things might get as the planet heats up, even if a lack of data may mean it underestimates the perils.

Scientists have used the seven years since the previous assessment report of the Intergovernmental Panel of Climate Change (IPCC) to narrow the uncertainties around major issues, such as how much the planet will warm if we double atmospheric levels of carbon dioxide and other greenhouse gases.

While temperatures have risen largely in lockstep with rising CO2, this IPCC report examines in much more detail the risks of so-called abrupt changes, when relatively stable systems abruptly and probably irreversibly shift to a new state.

Michael Mann, director of the Pennsylvania State University’s Earth System Science and one of the world’s most prominent climate researchers, says the models are not capturing all the risks as the climate heats up.

Running AMOC

Perhaps the most prominent of these threats is a possible stalling of the Atlantic Meridional Overturning Circulation (AMOC). Also known as the Gulf Stream, it brings tropic water north from the Caribbean, keeping northern Europe much warmer than its latitude might otherwise suggest, and threatening massive disruptions if it slows or stops.

“Where the models have underestimated the impact is with projections of ice melt, the AMOC, and – I argue in my own work – the uptick on extreme weather events,” Professor Mann tells the Herald and The Age.

Stefan Rahmstorf, head of research at the Potsdam Institute for Climate Impact Research, agrees that climate models have not done a good job of reproducing the so-called cold blob in the subpolar Atlantic that is forming where melting Greenland ice is cooling the subpolar Atlantic.

Breaking up: The US Coast Guard Icebreaker Healy on a research cruise in the Chukchi Sea of the Arctic Ocean.
Breaking up: The US Coast Guard Icebreaker Healy on a research cruise in the Chukchi Sea of the Arctic Ocean. Credit:AP

If they are not picking that blob up, “should we trust those models on AMOC stability?” Professor Rahmstorf asks.

The IPCC’s language, too, doesn’t necessarily convey the nature of the threat, much of which will be detailed in the second AR6 report on the impacts of climate change, scheduled for release next February.

“Like just stating the AMOC collapse by 2100 is ‘very unlikely’ – that was in a previous report – it sounds reassuring,” Professor Rahmstorf said. “Now the IPCC says they have ‘medium confidence’ that it won’t happen by 2100, whatever that means.”

West Antarctica has enough ice to raise global sea levels by more than 3 metres if it melts.
West Antarctica has enough ice to raise global sea levels by more than 3 metres if it melts.Credit:Ian Joughin

West Antarctic melt

Another potential tipping point is the possible disintegration of the West Antarctic ice sheet. Much of the sheet lies below sea level and as the Southern Ocean warms, it will melt causing it to “flow” towards the sea in a process that is expected to be self-sustaining.

This so-called marine ice sheet instability is identified in the IPCC report as likely resulting in ice mass loss under all emissions scenarios. There is also “deep uncertainty in projections for above 3 degrees of warming”, the report states.

Containing enough water to lift sea levels by 3.3 metres, it matters what happens to the ice sheet. As Andrew Mackintosh, an ice expert at Monash University, says, the understanding is limited: “We know more about the surface of Mars than the ice sheet bed under the ice.”

Permafrost not so permanent

Much has been made about the so-called “methane bomb” sitting under the permafrost in the northern hemisphere. As the Arctic has warmed at more than twice the pace of the globe overall, with heatwaves of increasing intensity and duration, it is not surprising that the IPCC has listed the release of so-called biogenic emissions from permafrost thaw as among potential tipping points.

These emissions could total up to 240 gigatonnes of CO2-equivalent which, if released, would add an unwanted warming boost.

The IPCC lists as “high” the probability of such releases during this century, adding there is “high confidence” that the process is irreversible at century scales.

“In some cases abrupt changes can occur in Earth System Models but don’t on the timescales of the projections (for example, an AMOC collapse),” said Peter Cox, a Professor of Climate System Dynamics at the UK’s University of Exeter. “In other cases the processes involved are not yet routinely included in ESMs [such as] CO2 and methane release from deep permafrost.”

“In the latter cases IPCC statements are made on the basis of the few studies available, and are necessarily less definitive,” he said.

Other risks

From the Amazon rainforest to the boreal forests of Russia and Canada, there is a risk of fire and pests that could trigger dieback and transform those regions.

Australia’s bush faces an increased risk of bad fire weather days right across the continent, the IPCC notes. How droughts, heatwaves and heavy rain and other extreme events will play out at a local level is also not well understood.

Ocean acidification and marine heatwaves also mean the world’s coral reefs will be much diminished at more than 1.5 degrees of warming. “You can kiss it goodbye as we know it,” says Sarah Perkins-Kirkpatrick, a climate researcher at the University of NSW, said.

Global monsoons, which affect billions of people including those on the Indian subcontinent, are likely to increase their rainfall in most parts of the world, the IPCC said.

Andy Pitman, director of the ARC Centre of Excellence for Climate Extremes, said policymakers need to understand that much is riding on these tipping points not being triggered as even one or two of them would have long-lasting and significant effects. “How lucky do you feel?” Professor Pitman says.

The Biggest uncertainty

Christian Jakob, a Monash University climate researcher, said that while there remain important uncertainties, science is honing most of those risks down.

Much harder to gauge, though, is which emissions path humans are going to take. Picking between the five scenarios ranging from low to high that we are going to choose is “much larger than the uncertainty we have in the science,” Professor Jakob said.

Crise do clima afeta saúde individual com mais dias de calorão e tempo seco; entenda (Folha de S.Paulo)

Aumento das inundações também está entre mudanças previstas por painel da ONU

Phillippe Watanabe – São Paulo

14.ago.2021 às 12h00

OK, você já entendeu que a crise do clima é para valer e causada pela atividade humana, como mostrou o relatório recente do IPCC (Painel Intergovernamental de Mudança do Clima). Agora, como isso pode afetar seu dia a dia?

O impacto do aumento da temperatura média na Terra é planetário, com elevação do nível do mar e alteração de ecossistemas inteiros, entre outras mudanças.

Alterações regionais do clima, com maior frequência de eventos extremos, já são percebidas e se intensificarão nos próximos anos, com consequências diretas na saúde de todos.

No Brasil, alguns estados conviverão com mais dias de calorão, que podem ser prejudiciais à saúde a ponto de provocar a morte de idosos.

Em outros, chuvas intensas se tornarão mais recorrentes, ocasionando inundações que aumentam o risco de doenças, quando não destroem bairros e cidades.

Por fim, as secas também devem ficar mais intensas, o que pode agravar problemas respiratórios.

Além disso, tanto as chuvas intensas quanto as secas prejudicam lavouras, aumentando o preço dos alimentos.

Um exemplo prático de aumento de temperatura está no Sudeste e no Sul do Brasil. Segundo o cenário mais otimista do IPCC, até 2040 os dias com termômetros acima de 35°C passarão de 26 por ano (média de 1995 a 2014) para 32. Num cenário intermediário, até o final do século esse número pode chegar a 43, um aumento de mais de 65% em relação à situação recente.

No Centro-Oeste, o aumento do calorão é ainda mais severo. No cenário intermediário, do IPCC, a média de 53 dias por ano com termômetros acima de 35°C salta para cerca de 72 até 2040 e para 108 até o fim do século, ou pouco mais de um trimestre de temperatura extrema.

​As consequências para a saúde são graves. Ondas de calor extremo podem causar hipertermia, que afeta os órgãos internos e provoca lesões no coração, nas células musculares e nos vasos sanguíneos. São danos que podem levar à morte.

Homem empurra carrinho com frutas em rua inundada em Manaus, que enfrentou, nos últimos meses, a maior cheia já registrada do rio Negro
Homem empurra carrinho com frutas em rua inundada em Manaus, que enfrentou, nos últimos meses, a maior cheia já registrada do rio Negro – Michael Dantas/AFP

Em junho, uma onda de calor nos estados de Oregon e Washington, nos Estados Unidos, custou a vida de centenas de pessoas. Segundo reportagem do jornal The New York Times, foram registrados cerca de 600 óbitos em excesso no período.

Além do calor, a crise do clima deve tornar mais frequentes os períodos de seca e os dias sem chuva em muitas regiões. É o caso da Amazônia.

Dados do IPCC apontam que, na região Norte, no período 1995-2014 eram em média 43 dias consecutivos sem chuva por ano, que podem aumentar para 51, com períodos 10% mais secos até 2040.

Situação similar deve ocorrer no Centro-Oeste, que tinha 69 dias consecutivos sem chuva por ano, que podem ir a 76, com períodos 13% mais secos.

Períodos mais secos nessas regiões preocupam por causa das queimadas. Na Amazônia, por exemplo, a época sem chuvas é associada à intensificação de processos de desmatamento e de incêndios.

As queimadas na região amazônica têm relação com piora da qualidade do ar e consequentes problemas respiratórios. A Fiocruz e a ONG WWF-Brasil estimam que estados amazônicos com índices elevados de queimadas tenham gastado, em dez anos, quase R$ 1 bilhão com hospitalizações por doenças respiratórias provavelmente relacionadas à fumaça dos incêndios.

No ano passado, o Pantanal passou por sua pior seca dos últimos 60 anos, estiagem que ainda pode continuar por até cinco anos, segundo afirmou à época a Secretaria Nacional de Proteção e Defesa Civil. A situação fez explodir o número de queimadas na região.

O IPCC também aponta aumento da frequência e da intensidade de chuvas extremas e enchentes em diversas regiões do Brasil.

Além dos danos óbvios na infraestrutura das cidades, as inundações provocam problemas de saúde. Hepatite A (transmitida de modo oral-fecal, ou seja, por alimentos e água contaminada) e leptospirose (com transmissão a partir do contato com urina de ratos) são suspeitos conhecidos, mas há também o risco de acidentes com animais peçonhentos, já que cobras e escorpiões podem procurar abrigos dentro das casas.

Manaus tornou-se exemplo recente desse tipo de situação. A cidade enfrentou uma cheia histórica, a maior desde o início das medições, há 119 anos. As águas do rio Negro provocaram inundações com duração superior a um mês na principal capital da região amazônica. Seis das dez maiores cheias já registradas no rio ocorreram no século 21, ou seja, nas últimas duas décadas.

Ruas da região do porto de Manaus tiveram que ser interditadas e foi necessária a construção de passarelas sobre as vias alagadas. Enquanto isso, comerciantes fizeram barreiras com sacos de areia e jogaram cal na água parada para tentar neutralizar o cheiro de fezes.

Em meio à inundação em igarapés, houve acúmulo de lixo, que chegou a cobrir toda a área superficial da água. Dentro das casas, moradores usaram plataformas de madeira (chamadas de marombas) para suspender móveis e eletrodomésticos.

As enchentes não são exclusividade amazônica. Elas também ocorrem na região Sudeste, em São Paulo e Rio de Janeiro, por exemplo.

Pouco tempo depois da cheia em Manaus, a Europa também viu chuvas intensas concentradas em um curto espaço de tempo causarem inundações severas, principalmente na Alemanha. Além da destruição de vias públicas e imóveis, houve mais de uma centena de mortes.

Também no mesmo período, a China teve que lidar com grandes precipitações e perda de vidas humanas pelas inundações, que chegaram a encher de água o metrô, deixando pessoas presas. Foram as piores chuvas em 60 anos em Zhengzhou, capital da província de Henan.

Em termos globais, um estudo recente apontou o aumento da população exposta a inundações. De 2000 a 2015, de 255 milhoes a 290 milhões de pessoas foram diretamente afetadas por enchentes.


Umas das novidades do novo relatório do IPCC é o espaço dedicado às emergências climáticas regionais e, relacionado a isso, o Atlas interativo, uma ferramenta que permite o acesso às informações do clima de diferentes regiões do mundo .

Segundo Lincoln Alves, pesquisador do Inpe (Instituto Nacional de Pesquisas Espaciais) e autor-líder do Atlas do IPCC, a ferramenta pretende facilitar o acesso a informações normalmente complexas. “É visível a mudança do clima”, afirma o pesquisador.

A partir do Atlas, diz Alves, é possível que comunidades, empresas e até esferas do governo consigam olhar de forma mais regional para os efeitos da crise do clima.

A ferramenta permite ver a história climática da Terra e observar as projeções para diferentes variáveis em diferentes cenários de emissões —e de aquecimento, como 1,5°C e 2°C— apontados pelo IPCC.


  • Aumento de temperatura provocada pelo ser humano desde 1850-1900 até 2010-2019: de 0,8°C a 1,21°C
  • Os anos de 2016 a 2020 foram o período de cinco anos mais quentes de 1850 a 2020
  • De 2021 a 2040, um aumento de temperatura de 1,5°C é, no mínimo, provável de acontecer em qualquer cenário de emissões
  • A estabilização da temperatura na Terra pode levar de 20 a 30 anos se houver redução forte e sustentada de emissões
  • O oceano está esquentando mais rápido —inclusive em profundidades maiores do que 2.000 m— do que em qualquer período anterior, desde pelo menos a última transição glacial. É extremamente provável que as atividades humanas sejam o principal fator para isso
  • O oceano continuará a aquecer por todo o século 21 e provavelmente até 2300, mesmo em cenários de baixas emissões
  • O aquecimento de áreas profundas do oceano e o derretimento de massas de gelo tende a elevar o nível do mar, o que tende a se manter por milhares de anos
  • Nos próximos 2.000 anos, o nível médio global do mar deve aumentar 2 a 3 metros, se o aumento da temperatura ficar contido em 1,5°C. Se o aquecimento global ficar contido a 2°C, o nível deve aumentar de 2 a 6 metros. No caso de 5°C de aumento de temperatura, o mar subirá de 19 a 22 metros

The Art of Pondering Distant Future Earths (MIT Press Reader)

Stretching the mind across time can help us become more responsible planetary stewards and foster empathy across generations.

Posted on Aug 10, 2021

Source: Jake Weirick, via Unsplash

By: Vincent Ialenti

The word has been out for decades: We were born on a damaged planet careening toward environmental collapse. Yet our intellects are poorly equipped to grasp the scale of the Earth’s ecological death spiral. We strain to picture how, in just a few decades, climate change may displace entire populations. We struggle to envision the fate of plastic waste that will outlast us by centuries. We fail to imagine our descendants inhabiting an exhausted Earth worn out from resource extraction and devoid of biodiversity. We lack frames of reference in our everyday lives for thinking about nuclear waste’s multimillennial timescales of radioactive hazard.

I am an anthropologist who studies how societies hash out relationships between living communities of the present and unborn communities imagined to inhabit the future. Studying how a community relates to the passage of time, I’ve learned, can offer a window into its values, worldviews, and lifeways.

This article adapted from Vincent Ialenti’s book “Deep Time Reckoning: How Future Thinking Can Help Earth Now.”

From 2012 to 2014, I conducted 32 months of anthropological fieldwork exploring how Finland’s nuclear energy waste experts grappled with Earth’s radically long-term future. These experts routinely dealt with long-lived radionuclides such as uranium-235, which has a half-life of over 700 million years. They worked with the nuclear waste management company Posiva to help build a final disposal facility approximately 450 meters below the islet of Olkiluoto in the Gulf of Bothnia in the Baltic Sea. If all goes according to plan, this facility will, in the mid-2020s, become the world’s first operating deep geologic repository for spent nuclear fuel.

To assess the Olkiluoto repository’s long-term durability, these experts developed a “safety case” forecasting geological, hydrological, and ecological events that could potentially occur in Western Finland over the coming tens of thousands — or even hundreds of thousands — of years. From their efforts emerged visions of distant future glaciations, climate changes, earthquakes, floods, human and animal population changes, and more. These forecasts became the starting point for a series of “mental time travel” exercises that I incorporated into my book, “Deep Time Reckoning.”

Stretching the mind across time — even in the most speculative ways — can help us become more responsible planetary stewards: It can help endow us with the time literacy necessary for tackling long-term challenges such as biodiversity loss, microplastics accumulation, climate change, antibiotic resistance, asteroid impacts, sustainable urban planning, and more. This can not only make us feel more at home in pondering our planet’s pasts and futures. It can also draw us to imagine the world from the perspective of future human and non-human communities — fostering empathy across generations.

5710 CE. A tired man lounges on a sofa. He lives in a small wooden house in a region once called Eurajoki, Finland. He works at a local medical center. Today is his day off. He’s had a long day in the forest. He hunted moose and deer and picked lingonberries, mushrooms, and bilberries. He now sips water, drawn from a village well, from a wooden cup. His husband brings him a dinner plate. On it are fried potatoes, cereal, boiled peas, and beef. All the food came from local farms. The cattle were watered at a nearby river. The crops were watered by irrigation channels flowing from three local lakes.

The man has no idea that, more than 3,700 years ago, safety case biosphere modelers used 21st-century computer technologies to reckon everyday situations like his. He does not know that they once named the lakes around him — which formed long after their own deaths — “Liiklanjärvi,” “Tankarienjärvi,” and “Mäntykarinjärvi.” He is unaware of Posiva’s ancient determination that technological innovation and cultural habits are nearly impossible to predict even decades in advance. He is unaware that Posiva, in response, instructed its modelers to pragmatically assume that Western Finland’s populations’ lifestyles, demographic patterns, and nutritional needs will not change much over the next 10,000 years. He does not know the safety case experts inserted, into their models’ own parameters, the assumption that he and his neighbors would eat only local food.

Yet the hunter’s life is still entangled with the safety case experts’ work. If they had been successful, then the vegetables, meat, fruit, and water before him should have just a tiny chance of containing only tiny traces of radionuclides from 20th-century nuclear power plants.

12020 CE. A solitary farmer looks out over her pasture, surrounded by a green forest of heath trees. She lives in a sparse land once called Finland, on a fertile island plot once called Olkiluoto. The area is an island no longer. What was once a coastal bay is now dotted with small lakes, peat bogs, and mires with white sphagnum mosses and grassy sedge plants. The Eurajoki and Lapijoki Rivers drain out into the sea. When the farmer goes fishing at the lake nearby, she catches pike. She watches a beaver swim about. Sometimes she feels somber. She recalls the freshwater ringed seals that once shared her country before their extinction.

The woman has no idea that, deep beneath her feet, lies an ancestral deposit of copper, iron, clay, and radioactive debris. This is a highly classified secret — leaked to the public several times over the millennia, but now forgotten. Yet even the government’s knowledge of the burial site is poor. Most records were destroyed in a global war in the year 3112. It was then that ancient forecasts of the site, found in the 2012 safety case report “Complementary Considerations,” were lost to history.

But the farmer does know the mythical stories of Lohikäärme: a dangerous, flying, salmon-colored venomous snake that kills anyone who dares dig too close to his underground cave. She and the other farmers in the area grow crops of peas, sugar beet, and wheat. They balk at the superstitious fools who tell them the monster living beneath their feet is real.

35,012 CE. A tiny microbe floats in a large, northern lake. It does not know that the clay, silt, and mud floor below it is gaining elevation, little by little, year after year. It is unaware that, 30 millennia ago, the lake was a vast sea. Dotted with sailboats, cruise and cargo ships, it was known by humans as the Baltic. Watery straits, which connected the Baltic Sea to the North Sea, had risen above the water thousands of years ago. Denmark and Sweden fused into a single landmass. The seafloor was decompressing from the Weichselian glaciation — an enormous sheet of ice that pressed down on the land during a previous ice age.

After the last human died, the landmass kept on rising. Its uplift was indifferent to human extinction. It was indifferent to how, in 2013 CE, an anthropologist and a safety case expert sat chatting in white chairs in Ravintola Rytmi: a café in Helsinki. There, the safety case expert relayed his projection that, by 52,000 CE, there would no longer be water separating Turku, Finland, and Stockholm, Sweden. At that point, one could walk from one city to the other on foot. The expert reckoned that, to the north — between Vaasa, Finland, and Umeå, Sweden — one would someday find a waterfall with the planet’s largest deluge of flowing water. The waterfall could be found at the site of a once-submerged sea shelf.

The microbe, though, does not know or care about Vaasa, Umeå, Denmark, long-lost boats, safety case reports, or Helsinki’s past dining options. It has no concept of them. Their significances died with the humans. Nor does the microbe grasp the suffering they faced when succumbing to Anthropocene collapse. Humans’ past technological feats, grand civilizations, passion projects, intellectual triumphs, wartime sacrifices, and personal struggles are now moot. And yet, the radiological safety of the microbe’s lake’s waters still hinges on the work of a handful of human safety case experts who lived millennia ago. Thinking so far ahead, these experts never lived to see whether their deep time forecasts were accurate.

We do not, of course, live in these imagined worlds. In this sense, they are unreal — merely fictions. However, our capacities to envision potential futures, and to feel empathy for those who may inhabit them, are very real. Depictions of tomorrow can have powerful, concrete effects on the world today. This is why deep time thought experiments are not playful games, but serious acts of intellectual problem-solving. It is why the safety case experts’ models of far future nuclear waste risks are uniquely valuable, even if they are, at the end of the day, mere approximations.

Yet pondering distant future Earths can also help us take a step back from our everyday lives — enriching our imaginations by transporting our minds to different places and times. Corporate coaches have recommended taking breaks from our familiar thinking patterns to experience the world in new ways and overcome mental blocks. Cognitive scientists have shown how creativity can be sparked by perceiving “something one has not seen before (but that was probably always there).”

Putting aside a few minutes each day for long-termist, planetary imagination can enrich us with greater mental dexterity in navigating between multiple, interacting timescales. This can cultivate more longsighted empathy for landscapes, people, and other organisms across decades, centuries, and millennia. As the global ecological crisis takes hold, embracing planetary empathy will prove essential to our collective survival.

Vincent Ialenti is a Research Fellow at The University of Southern California and The Berggruen Institute. His recent book, “Deep Time Reckoning,” is an anthropological study of how Finland’s nuclear waste repository experts grappled with distant future ecosystems and the limits of human knowledge.

The new IPCC Report includes – get this, good news (Yale Climate Connections)

Yale Climate Connections

By Dana Nuccitelli August 12, 2021

As the Intergovernmental Panel on Climate Change (IPCC) released its Sixth Assessment Report, summarized nicely on these pages by Bob Henson, much of the associated media coverage carried a tone of inevitable doom.

These proclamations of unavoidable adverse outcomes center around the fact that in every scenario considered by IPCC, within the next decade average global temperatures will likely breach the aspirational goal set in the Paris climate agreement of limiting global warming to 1.5 degrees Celsius (2.7 degrees Fahrenheit) above pre-industrial temperatures. The report also details a litany of extreme weather events like heatwaves, droughts, wildfires, floods, and hurricanes that will all worsen as long as global temperatures continue to rise.

While United Nations Secretary-General António Guterres rightly called the report a “code red for humanity,” tucked into it are details illustrating that if  BIG IF top-emitting countries respond to the IPCC’s alarm bells with aggressive efforts to curb carbon pollution, the worst climate outcomes remain avoidable.

The IPCC’s future climate scenarios

In the Marvel film Avengers: Infinity War, the Dr. Strange character goes forward in time to view 14,000,605 alternate futures to see all the possible outcomes of the Avengers’ coming conflict. Lacking the fictional Time Stone used in this gambit, climate scientists instead ran hundreds of simulations of several different future carbon emissions scenarios using a variety of climate models. Like Dr. Strange, climate scientists’ goal is to determine the range of possible outcomes given different actions taken by the protagonists: in this case, various measures to decarbonize the global economy.

The scenarios considered by IPCC are called Shared Socioeconomic Pathways (SSPs). The best-case climate scenario, called SSP1, involves a global shift toward sustainable management of global resources and reduced inequity. The next scenario, SSP2, is more of a business-as-usual path with slow and uneven progress toward sustainable development goals and persisting income inequality and environmental degradation. SSP3 envisions insurgent nationalism around the world with countries focusing on their short-term domestic best interests, resulting in persistent and worsening inequality and environmental degradation. Two more scenarios, SSP4 and SSP5, consider even greater inequalities and fossil fuel extraction, but seem at odds with an international community that has agreed overwhelmingly to aim for the Paris climate targets.

The latest IPCC report’s model runs simulated two SSP1 scenarios that would achieve the Paris targets of limiting global warming to 1.5 and 2°C (2.7 and 3.6°F); one SSP2 scenario in which temperatures approach 3°C (5.4°F) in the year 2100; an SSP3 scenario with about 4°C (7.2°F) global warming by the end of the century; and one SSP5 ‘burn all the fossil fuels possible’ scenario resulting in close to 5°C (9°F), again by 2100.

Projected global average surface temperature change in each of the five SSP scenarios. (Source: IPCC Sixth Assessment Report)

The report’s SSP3-7.0 pathway (the latter number represents the eventual global energy imbalance caused by the increased greenhouse effect, in watts per square meter), is considered by many experts to be a realistic worst-case scenario, with global carbon emissions continuing to rise every year throughout the 21st century. Such an outcome would represent a complete failure of international climate negotiations and policies and would likely result in catastrophic consequences, including widespread species extinctions, food and water shortages, and disastrous extreme weather events.

Scenario SSP2-4.5 is more consistent with government climate policies that are currently in place. It envisions global carbon emissions increasing another 10% over the next decade before reaching a plateau that’s maintained until carbon pollution slowly begins to decline starting in the 2050s. Global carbon emissions approach but do not reach zero by the end of the century. Even in this unambitious scenario, the very worst climate change impacts might be averted, although the resulting climate impacts would be severe.

Most encouragingly, the report’s two SSP1 scenarios illustrate that the Paris targets remain within reach. To stay below the main Paris target of 2°C (3.6°F) warming, global carbon emissions in SSP1-2.6 plateau essentially immediately and begin to decline after 2025 at a modest rate of about 2% per year for the first decade, then accelerating to around 3% per year the next decade, and continuing along a path of consistent year-to-year carbon pollution cuts before reaching zero around 2075. The IPCC concluded that once global carbon emissions reach zero, temperatures will stop rising. Toward the end of the century, emissions in SSP1-2.6 move into negative territory as the IPCC envisions that efforts to remove carbon from the atmosphere via natural and technological methods (like sequestering carbon in agricultural soils and scrubbing it from the atmosphere through direct air capture) outpace overall fossil fuel emissions.

Meeting the aspirational Paris goal of limiting global warming to 1.5°C (2.7°F) in SSP1-1.9 would be extremely challenging, given that global temperatures are expected to breach this level within about a decade. This scenario similarly envisions that global carbon emissions peak immediately and that they decline much faster than in SSP1-2.6, at a rate of about 6% per year from 2025 to 2035 and 9% per year over the following decade, reaching net zero by around the year 2055 and becoming net negative afterwards.

Global carbon dioxide emissions (in billions of tons per year) from 2015 to 2100 in each of the five SSP scenarios. (Source: IPCC Sixth Assessment Report)

For perspective, global carbon emissions fell by about 6-7% in 2020 as a result of restrictions associated with the COVID-19 pandemic and are expected to rebound by a similar amount in 2021. As IPCC report contributor Zeke Hausfather noted, this scenario also relies on large-scale carbon sequestration technologies that currently do not exist, without which global emissions would have to reach zero a decade sooner.

More warming means more risk

The new IPCC report details that, depending on the region, climate change has already worsened extreme heat, drought, fires, floods, and hurricanes, and those will only become more damaging and destructive as temperatures continue to rise. The IPCC’s 2018 “1.5°C Report” had entailed the differences in climate consequences in a 2°C vs. 1.5°C world, as summarized at this site by Bruce Lieberman.

Consider that in the current climate of just over 1°C (2°F) warmer than pre-industrial temperatures, 40 countries this summer alone have experienced extreme flooding, including more than a year’s worth of rain falling within 24 hours in Zhengzhou, China. Many regions have also experienced extreme heat, including the deadly Pacific Northwest heatwave and dangerously hot conditions during the Olympics in Tokyo. Siberia, Greece, Italy, and the US west coast are experiencing explosive wildfires, including the “truly frightening fire behavior” of the Dixie fire, which broke the record as the largest single wildfire on record in California. The IPCC report warned of “compound events” like heat exacerbating drought, which in turn fuels more dangerous wildfires, as is happening in California.

Western North America (WNA) and the Mediterranean (MED) regions are those for which climate scientists have the greatest confidence that human-caused global warming is exacerbating drought by drying out the soil. (Source: IPCC Sixth Assessment Report)
The southwestern United States and Mediterranean are also among the regions for which climate scientists have the greatest confidence that climate change will continue to increase drought risk and severity. (Source: IPCC Sixth Assessment Report)

The IPCC report notes that the low-emissions SSP1 scenarios “would lead to substantially smaller changes” in these sorts of climate impact drivers than the higher-emissions scenarios. It also points out that with the world currently at around 1°C of warming, the intensity of extreme weather will be twice as bad compared to today’s conditions if temperatures reach 2°C (1°C hotter than today) than if the warming is limited to 1.5°C (0.5°C hotter than today), and quadruple as bad if global warming reaches 3°C (2°C hotter than today). For example, what was an extreme once-in-50-years heat wave in the late-1800s now occurs once per decade, which would rise to almost twice per decade at 1.5°C,  and nearly three times per decade at 2°C global warming.

The increasing frequency and intensity of what used to be 1-in-50-year extreme heat as global temperatures rise. (Source: IPCC Sixth Assessment Report)

Climate’s fate has yet to be written

At the same time, there is no tipping point temperature at which it becomes “too late” to curb climate change and its damaging consequences. Every additional bit of global warming above current temperatures will result in increased risks of worsening extreme weather of the sorts currently being experienced around the world. Achieving the aspirational 1.5°C Paris target may be politically infeasible, but most countries (137 total) have either committed to or are in the process of setting a target for net zero emissions by 2050 (including the United States) or 2060 (including China).

That makes the SSP1 scenarios and limiting global warming to less than 2°C a distinct possibility, depending on how successful countries are at following through with decarbonization plans over the coming three decades. And with its proposed infrastructure bipartisan and budget reconciliation legislative plans – for which final enactment of each remains another big IF – the United States could soon implement some of the bold investments and policies necessary to set the world’s second-largest carbon polluter on a track consistent with the Paris targets.

As Texas Tech climate scientist Katharine Hayhoe put it,

Again and again, assessment after assessment, the IPCC has already made it clear. Climate change puts at risk every aspect of human life as we know it … We are already starting to experience those risks today; but we know what we need to do to avoid the worst future impacts. The difference between a fossil fuel versus a clean energy future is nothing less than the future of civilization as we know it.

Back to the Avengers: They had only one chance in 14 million to save the day, and they succeeded. Time is running short, but policymakers’ odds of meeting the Paris targets remain much better than that. There are no physical constraints playing the role of Thanos in our story; only political barriers stand between humanity and a prosperous clean energy future, although those can sometimes be the most difficult types of barriers to overcome.

Also see:    Key takeaways from the new IPCC report

Eight key takeaways from the IPCC report that prove we need to put in the work to fight climate change (Technology News, Firstpost)

The new IPCC report is “a code red for humanity.”

Aug 13, 2021 20:25:56 IST

The new IPCC report is “a code red for humanity”, says UN Secretary-General António Guterres.

Established in 1988 by United Nations Environment Programme (UNEP) and the World Meteorological Organisation (WMO), the Intergovernmental Panel on Climate Change (IPCC) assesses climate change science. Its new report is a warning sign for policy makers all over the world.

On 26 October 2014, Peia Kararaua, 16, swims in the flooded area of Aberao village in Kiribati. Kiribati is one of the countries most affected by sea level rise. During high tides many villages become inundated making large parts of them uninhabitable.....On 22 March 2017, a UNICEF report projects that some 600 million children – or 1 in 4 children worldwide – will be living in areas where water demand far outstrips supply by 2040. Climate change is one of the key drivers of water stress, which occurs when more than 80 per cent of the water available for agriculture, industry and domestic use is withdrawn annually. According to the report “Thirsting for a Future”, warmer temperatures, rising sea levels, increased floods, droughts and melting ice affect the quality and availability of water. Population growth, increased water consumption, and an even higher demand for water largely due to industrialization, are also draining water resources worldwide, forcing children to use unsafe water, which exposes them to potentially deadly diseases like cholera and diahrroea. The poorest and most vulnerable children will be most impacted, as millions of them already live in areas with low access to safe water and sanitation. The impact of climate change on water sources is not inevitable, the report says, citing a series of recommendations that can help curb its effect on the lives of children.

In this picture taken on 26 October, 2014, Peia Kararaua, 16, swims in the flooded area of Aberao village in Kiribati. Kiribati is one of the countries worst hit by the sea level rise since high tides mean many villages are inundated, making them uninhabitable. Image credit: UNICEF/Sokhin

This was the first time the approval meeting for the report was conducted online. There were 234 authors from the world over who clocked in 186 hours working together to get this report released.

For the first time, the report offers an interactive atlas for people to see what has already happened and what may happen in the future to where they live.

“This report tells us that recent changes in the climate are widespread, rapid and intensifying, unprecedented in thousands of years,” said IPCC Vice-Chair Ko Barrett.

UNEP Executive Director Inger Andersen that scientists have been issuing these messages for more than three decades, but the world hasn’t listened.

Here are the most important takeaways from the report:

Humans are to be blamed

Human activity is the cause of climate change and this is an unequivocal fact. All the warming caused in the pre-industrial times had been generated by the burning of fossil fuels such as coal, oil, wood, and natural gas.

Global temperatures have already risen by 1.1 degrees Celsius since the 19th century. They have reached their highest in over 100,000 years, and only a fraction of that increase has come from natural forces.

Michael Mann told the Independent the effects of climate change will be felt in all corners of the world and will worsen, especially since “the IPCC has connected the dots on climate change and the increase in severe extreme weather events… considerably more directly than previous assessments.”

We will overshoot the 1.5 C mark

According to the report’s highly optimistic-to-reckless scenarios, even if we do everything right and start reducing emissions now, we will still overshoot the 1.5C mark by 2030. But, we will see a drop in temperatures to around 1.4 C.

Control emissions, Earth will do the rest

According to the report, if we start working to bring our emissions under control, we will be able to decrease warming, even if we overshoot the 1.5C limit.

The changes we are living through are unprecedented; however, they are reversible to a certain extent. And it will take a lot of time for nature to heal. We can do this by reducing our greenhouse gas (GHG) emissions. While we might see some benefits quickly, “it could take 20-30 years to see global temperatures stabilise” says the IPCC.

Sea level rise

Global oceans have risen about 20 centimetres (eight inches) since 1900, and the rate of increase has nearly tripled in the last decade. Crumbling and melting ice sheets atop Antarctica (especially in Greenland) have replaced glacier melt as the main drivers.

If global warming is capped at 2 C, the ocean watermark will go up about half a metre over the 21st century. It will continue rising to nearly two metres by 2300 — twice the amount predicted by the IPCC in 2019.

Because of uncertainty over ice sheets, scientists cannot rule out a total rise of two metres by 2100 in a worst-case emissions scenario.

CO2 is at all-time high

CO2 levels were greater in 2019 than they had been in “at least two million years.”  Methane and nitrous oxide levels, the second and third major contributors of warming respectively, were higher in 2019 than at any point in “at least 800,000 years,” reported the Independent.

Control methane

The report includes more data than ever before on methane (CH4), the second most important greenhouse gas after CO2, and warns that failure to curb emissions could undermine Paris Agreement goals.

Human-induced sources are roughly divided between leaks from natural gas production, coal mining and landfills on one side, and livestock and manure handling on the other.

CH4 lingers in the atmosphere only a fraction as long as CO2, but is far more efficient at trapping heat. CH4 levels are their highest in at least 800,000 years.

Natural allies are weakened

Since about 1960, forests, soil and oceans have absorbed 56 percent of all the CO2 humanity has released into the atmosphere — even as those emissions have increased by half. Without nature’s help, Earth would already be a much hotter and less hospitable place.

But these allies in our fight against global heating — known in this role as carbon sinks — are showing signs of saturatation, and the percentage of human-induced carbon they soak up is likely to decline as the century unfolds.

Suck it out

The report suggests that warming could be brought back down via “negative emissions.” We could cool down the planet by sucking out or sequestering the carbon from the atmosphere. While this is a viable suggestion that has been thrown around and there have been small-scale studies that have tried to do this, the technology is not yet perfect. The panel said that could be done starting about halfway through this century but doesn’t explain how, and many scientists are skeptical about its feasibility.

Cities will bear the brunt

Experts warn that the impact of some elements of climate change, like heat, floods and sea-level rise in coastal areas, may be exacerbated in cities. Furthermore, IPCC experts warn that low-probability scenarios, like an ice sheet collapse or rapid changes in ocean circulation, cannot be ruled out.

Also read: Leaders and experts speak up after the release of the new IPCC report

Negacionismo de sapatênis (Folha de S.Paulo)

Não é com desinformação que o jornalismo contribuirá ao tema do clima

Thiago Amparo – artigo original aqui.

11.ago.2021 às 22h05

A perversidade do negacionismo recai em jurar que se está dizendo o contrário do que de fato se diz. Nesta novilíngua, negacionismo veste o sapatênis do antialarmismo. Chega a ser tedioso, posto que mofado, o argumento de Leandro Narloch nesta Folha na terça (10). Mofado pois —como relata Michael Mann em “The New Climate War”— não passa da mesma retórica negacionista 2.0.

Em essência, Narloch defende que há atividades nocivas ao clima que devem ser “celebradas e difundidas” por nos tornar “menos vulneráveis à natureza”. Narloch está cientificamente errado. E o faz subscrevendo a uma das formas mais nefárias de negacionismo: mascara-o, vendendo soluções que não só não são capazes de mitigar e adaptar as sociedades à crise climática como possuem o efeito adverso. Implode-se a Amazônia para salvá-la, eis o argumento.

Esses e outros discursos negacionistas já tinham sido mapeados na revista Global Sustaintability, de Cambridge, em julho de 2020: não são novos. Em vez de mexer em tabus do século 21, vendem-se inverdades como se ciência fosse. Narloch erra no conceito de vulnerabilidade: dos incêndios florestais na Califórnia às inundações na Alemanha, não estamos protegidos contra a natureza porque nela estamos inseridos. Ignora, ademais, a vasta literatura do Painel do Clima sobre vulnerabilidade.

Narloch desconsidera o conceito da ciência climática de “feedback loops”: a crise climática aciona uma série de gatilhos de dimensão incalculável, uma reação de cadeia nunca vista. Destruir o clima não nos protegerá do clima, porque é a ausência de uma mudança drástica energética que tem aprofundado a crise climática. É ineficiente o investir no contrário.

Se o relatório do Painel do Clima acendeu o sinal vermelho, não é com desinformação que o jornalismo contribuirá ao tema. Pluralismo é um rio onde as ideias se movem dentro das margens da verdade e da ciência. Não reclamem quando o rio secar, implodindo as margens que o jornalismo deveria ter protegido.

Clima nos apavora justamente quando conseguimos sobreviver a ele (Folha de S.Paulo)

Luta contra o aquecimento global precisa de inovadores, e não de ativistas obcecados com o apocalipse

Leandro Narloch – artigo original aqui.

11.ago.2021 às 8h56

Na sua opinião, o que aconteceu nos últimos cem anos com o número total de mortes causadas por furacões, inundações, secas, ondas de calor e outros desastres climáticos? Peço que escolha uma destas alternativas:

  • a) Aumentou mais de 800%
  • b) Aumentou cerca de 50%
  • c) Manteve-se constante
  • d) Diminuiu cerca de 50%
  • e) Diminuiu mais de 80%

Como a população mundial cresceu de 1,8 bilhão em 1921 para 8 bilhões em 2021, é razoável cravar as respostas B ou C, pois o fato de haver mais pessoas resultaria em mais vítimas. Muitos leitores devem ter escolhido a primeira opção, tendo em vista as notícias assustadoras do relatório do IPCC desta semana.

A alternativa correta, porém, é a última. As mortes por desastres naturais diminuíram 87% desde a década de 1920 até os anos 2010, segundo dados coletados pelo Our World in Data.

Passaram de 540 mil por ano para 68 mil. A taxa em relação à população teve picos de 63 mortes por 100 mil habitantes em 1921, e 176 em 1931. Hoje está em 0,15.

Esses números levam a dois paradoxos interessantes sobre a relação entre o homem e o clima. O primeiro lembra o Paradoxo de Spencer –referência a Herbert Spencer, para quem “o grau de preocupação pública sobre um problema ou fenômeno social varia inversamente a sua incidência”.

Assim como os ingleses se deram conta da pobreza quando ela começava a diminuir, durante a Revolução Industrial, a humanidade está apavorada com os infortúnios do clima justamente depois de conseguir sobreviver a eles.

O segundo paradoxo: ao mesmo tempo em que emitimos muito (mas muito mesmo) carbono na atmosfera e causamos um grave problema de efeito estufa, também nos tornamos menos vulneráveis à natureza. Na verdade, proteger-se do clima foi um dos principais motivos para termos poluído tanto.

Veja o caso da construção. Produzir cimento consiste grosseiramente em queimar calcário e liberar dióxido de carbono.

Se a indústria de cimento fosse um país, seria o terceiro maior emissor de gases do efeito estufa. Mas essa indústria poluidora permitiu que as pessoas deixassem casas de pau-a-pique ou madeira para dormirem abrigadas em estruturas mais seguras.

Já a fome originada pela seca, principal causa de morte por desastres naturais nos anos 1920, foi resolvida com a criação dos fertilizantes químicos, sistemas de irrigação e a construção de represas e redes de saneamento.

Todas essas atividades causaram aquecimento global –mas não deixam de ser grandes conquistas humanas, que merecem ser celebradas e difundidas entre os pobres que ainda vivem sob risco de morrer durante furacões, secas ou inundações.

Será que a queda histórica das mortes por desastres naturais vai se reverter nos próximos anos, tornando realidade os vaticínios apocalípticos de Greta Thunberg, para quem “bilhões de pessoas morrerão se não tomarmos medidas urgentes”?

O ativista climático Michael Shellenberger, autor do brilhante “Apocalipse Nunca”, que será lançado este mês no Brasil pela editora LVM, acha que não.

Pretendo falar mais sobre o livro de Shellenberger em outras colunas, mas já adianto um dos argumentos: o alarmismo ambiental despreza a capacidade humana de se adaptar e resolver problemas.

“Os Países Baixos, por exemplo, tornaram-se uma nação rica mesmo tendo um terço de suas terras abaixo do nível do mar, incluindo áreas que estão nada menos do que sete metros abaixo do mar”, diz ele.

A luta contra o aquecimento global não precisa de ativistas obcecados com o apocalipse (que geralmente desprezam soluções óbvias, como a energia nuclear). Precisa de tecnologia, de inovadores, de gente que dê mais conforto e segurança à humanidade interferindo na natureza cada vez menos.

We read the 4000-page IPCC climate report so you don’t have to (Quartz)

Amanda Shendruk, Tim McDonnell, David Yanofsky, Michael J. Coren

Published August 10, 2021

[Check the original publication here for the text of the report with most important parts highlighted.]

The most important takeaways from the new Intergovernmental Panel on Climate Change report are easily summarized: Global warming is happening, it’s caused by human greenhouse gas emissions, and the impacts are very bad (in some cases, catastrophic). Every fraction of a degree of warming we can prevent by curbing emissions substantially reduces this damage. It’s a message that hasn’t changed much since the first IPCC report in 1990.

But to reach these conclusions (and ratchet up confidence in their findings), hundreds of scientists from universities around the globe spent years combing through the peer-reviewed literature—at least 14,000 papers—on everything from cyclones to droughts.

The final Aug. 9 report is nearly 4,000 pages long. While much of it is written in inscrutable scientific jargon, if you want to understand the scientific case for man-made global warming, look no further. We’ve reviewed the data,  summarized the main points, and created an interactive graphic showing a “heat map” of scientists’ confidence in their conclusions. The terms describing statistical confidence range from very high confidence (a 9 out of 10 chance) to very low confidence (a 1 in 10 chance). Just hover over the graphic [here] and click to see what they’ve written.

Here’s your guide to the IPCC’s latest assessment.

CH 1: Framing, context, methods

The first chapter comes out swinging with a bold political charge: It concludes with “high confidence” that the plans countries so far have put forward to reduce emissions are “insufficient” to keep warming well below 2°C, the goal enshrined in the 2015 Paris Agreement. While unsurprising on its own, it is surprising for a document that had to be signed off on by the same government representatives it condemns. It then lists advancements in climate science since the last IPCC report, as well as key evidence behind the conclusion that human-caused global warming is “unequivocal.”


👀Scientists’ ability to observe the physical climate system has continued to improve and expand.

📈Since the last IPCC report, new techniques have provided greater confidence in attributing changes in extreme events to human-caused climate change.

🔬The latest generation of climate models is better at representing natural processes, and higher-resolution models that better capture smaller-scale processes and extreme events have become available.

CH 2: Changing state of the climate system

Chapter 2 looks backward in time to compare the current rate of climate changes to those that happened in the past. That comparison clearly reveals human fingerprints on the climate system. The last time global temperatures were comparable to today was 125,000 years ago, the concentration of atmospheric carbon dioxide is higher than anytime in the last 2 million years, and greenhouse gas emissions are rising faster than anytime in the last 800,000 years.


🥵Observed changes in the atmosphere, oceans, cryosphere, and biosphere provide unequivocal evidence of a world that has warmed. Over the past several decades, key indicators of the climate system are increasingly at levels unseen in centuries to millennia, and are changing at rates unprecedented in at least the last 2000 years

🧊Annual mean Arctic sea ice coverage levels are the lowest since at least 1850. Late summer levels are the lowest in the past 1,000 years.

🌊Global mean sea level (GMSL) is rising, and the rate of GMSL rise since the 20th century is faster than over any preceding century in at least the last three millennia. Since 1901, GMSL has risen by 0.20 [0.15–0.25] meters, and the rate of rise is accelerating.

CH 3: Human influence on the climate system

Chapter 3 leads with the IPCC’s strongest-ever statement on the human impact on the climate: “It is unequivocal that human influence has warmed the global climate system since pre-industrial times” (the last IPCC report said human influence was “clear”). Specifically, the report blames humanity for nearly all of the 1.1°C increase in global temperatures observed since the Industrial Revolution (natural forces played a tiny role as well), and the loss of sea ice, rising temperatures, and acidity in the ocean.

🌍Human-induced greenhouse gas forcing is the main driver of the observed changes in hot and cold extremes.

🌡️The likely range of warming in global-mean surface air temperature (GSAT) in 2010–2019 relative to 1850–1900 is 0.9°C–1.2°C. Of that, 0.8°C–1.3°C is attributable to human activity, while natural forces contributed −0.1°C–0.1°C.

😬Combining the attributable contributions from melting ice and the expansion of warmer water, it is very likely that human influence was the main driver of the observed global mean sea level rise since at least 1970.

CH 4: Future global climate: Scenario-based projections and near-term information

Chapter 4 holds two of the report’s most important conclusions: Climate change is happening faster than previously understood, and the likelihood that the global temperature increase can stay within the Paris Agreement goal of 1.5°C is extremely slim. The 2013 IPCC report projected that temperatures could exceed 1.5°C in the 2040s; here, that timeline has been advanced by a decade to the “early 2030s” in the median scenario. And even in the lowest-emission scenario, it is “more likely than not” to occur by 2040.


🌡️By 2030, in all future warming scenarios, globally averaged surface air temperature in any individual year could exceed 1.5°C relative to 1850–1900.

🌊Under all scenarios, it is virtually certain that global mean sea level will continue to rise through the 21st century.

💨Even if enough carbon were removed from the atmosphere that global emissions become net negative, some climate change impacts, such as sea level rise, will be not reversed for at least several centuries.

CH 5: Global carbon and other biochemical cycles and feedbacks

Chapter 5 quantifies the level by which atmospheric CO2 and methane concentrations have increased since 1750 (47% and 156% respectively) and addresses the ability of oceans and other natural systems to soak those emissions up. The more emissions increase, the less they can be offset by natural sinks—and in a high-emissions scenario, the loss of forests from wildfires becomes so severe that land-based ecosystems become a net source of emissions, rather than a sink (this is already happening to a degree in the Amazon).


🌲The CO2 emitted from human activities during the decade of 2010–2019 was distributed between three Earth systems: 46% accumulated in the atmosphere, 23% was taken up by the ocean, and 31% was stored by vegetation.

📉The fraction of emissions taken up by land and ocean is expected to decline as the CO2 concentration increases.

💨Global temperatures rise in a near-linear relationship to cumulative CO2 emissions. In other words, to halt global warming, net emissions must reach zero.

CH 6: Short-lived climate forcers

Chapter 6 is all about methane, particulate matter, aerosols, hydrofluorocarbons, and other non-CO2 gases that don’t linger very long in the atmosphere (just a few hours, in some cases) but exert a tremendous influence on the climate while they do. In cases, that influence might be cooling, but their net impact has been to contribute to warming. Because they are short-lived, the future abundance and impact of these gases are highly variable in the different socioeconomic pathways considered in the report. These gases have a huge impact on the respiratory health of people around the world.


⛽The sectors most responsible for warming from short-lived climate forcers are those dominated by methane emissions: fossil fuel production and distribution, agriculture, and waste management.

🧊In the next two decades, it is very likely that emissions from short-lived climate forcers will cause a warming relative to 2019, in addition to the warming from long-lived greenhouse gases like CO2.

🌏Rapid decarbonization leads to air quality improvements, but on its own is not sufficient to achieve, in the near term, air quality guidelines set by the World Health Organization, especially in parts of Asia and in some other highly polluted regions.

CH 7: The Earth’s energy budget, climate feedbacks, and climate sensitivity

Climate sensitivity is a measure of how much the Earth responds to changes in greenhouse gas concentrations. For every doubling of atmospheric CO2, temperatures go up by about 3°C, this chapter concludes. That’s about the same level scientists have estimated for several decades, but over time the range of uncertainty around that estimate has narrowed. The energy budget is a calculation of how much energy is flowing into the Earth system from the sun. Put together these metrics paint a picture of the human contribution to observed warming.

🐻‍❄️The Arctic warms more quickly than the Antarctic due to differences in radiative feedbacks and ocean heat uptake between the poles.

🌊Because of existing greenhouse gas concentrations, energy will continue to accumulate in the Earth system until at least the end of the 21st century, even under strong emissions reduction scenarios.

☁️The net effect of changes in clouds in response to global warming is to amplify human-induced warming. Compared to the last IPCC report, major advances in the understanding of cloud processes have increased the level of confidence in the cloud feedback cycle.

CH 8: Water cycle changes

This chapter catalogs what happens to water in a warming world. Although instances of drought are expected to become more common and more severe, wet parts of the world will get wetter as the warmer atmosphere is able to carry more water. Total net precipitation will increase, yet the thirstier atmosphere will make dry places drier. And within any one location, the difference in precipitation between the driest and wettest month will likely increase. But rainstorms are complex phenomenon and typically happen at a scale that is smaller than the resolution of most climate models, so specific local predictions about monsoon patterns remains an area of relatively high uncertainty.


🌎Increased evapotranspiration will decrease soil moisture over the Mediterranean, southwestern North America, south Africa, southwestern South America, and southwestern Australia.

🌧️Summer monsoon precipitation is projected to increase for the South, Southeast and East Asian monsoon domains, while North American monsoon precipitation is projected to decrease. West African monsoon precipitation is projected to increase over the Central Sahel and decrease over the far western Sahel.

🌲Large-scale deforestation has likely decreased evapotranspiration and precipitation and increased runoff over the deforested regions. Urbanization has increased local precipitation and runoff intensity.

CH 9: Ocean, cryosphere, and sea level change

Most of the heat trapped by greenhouse gases is ultimately absorbed by the oceans. Warmer water expands, contributing significantly to sea level rise, and the slow, deep circulation of ocean water is a key reason why global temperatures don’t turn on a dime in relation to atmospheric CO2. Marine animals are feeling this heat, as scientists have documented that the frequency of marine heatwaves has doubled since the 1980s. Meanwhile, glaciers, polar sea ice, the Greenland ice sheet, and global permafrost are all rapidly melting. Overall sea levels have risen about 20 centimeters since 1900, and the rate of sea level rise is increasing.


📈Global mean sea level rose faster in the 20th century than in any prior century over the last three millennia.

🌡️The heat content of the global ocean has increased since at least 1970 and will continue to increase over the 21st century. The associated warming will likely continue until at least 2300 even for low-emission scenarios because of the slow circulation of the deep ocean.

🧊The Arctic Ocean will likely become practically sea ice–free during the seasonal sea ice minimum for the first time before 2050 in all considered SSP scenarios.

CH 10: Linking global to regional climate change

Since 1950, scientists have clearly detected how greenhouse gas emissions from human activity are changing regional temperatures. Climate models can predict regional climate impacts. Where data are limited, statistical methods help identify local impacts (especially in challenging terrain such as mountains). Cities, in particular, will warm faster as a result of urbanization. Global warming extremes in urban areas will be even more pronounced, especially during heatwaves. Although global models largely agree, it is more difficult to consistently predict regional climate impacts across models.


⛰️Some local-scale phenomena such as sea breezes and mountain wind systems can not be well represented by the resolution of most climate models.

🌆The difference in observed warming trends between cities and their surroundings can partly be attributed to urbanization. Future urbanization will amplify the projected air temperature change in cities regardless of the characteristics of the background climate.

😕Statistical methods are improving to downscale global climate models to more accurately depict local or regional projections.

CH 11: Weather and climate extreme events in a changing climate

Better data collection, modeling, and means scientists are more confident than ever in understanding the role of rising greenhouse gas concentration in weather and climate extremes.  We are virtually certain humans are behind observed temperature extremes.

Human activity is more making extreme weather and temperatures more intense and frequent, especially rain, droughts, and tropical cyclones. While even 1.5°C of warming will make events more severe, the intensity of extreme events is expected to at least double with 2°C of global warming compared today’s conditions, and quadruple with 3°C of warming. As global warming accelerates, historically unprecedented climatic events are likely to occur.


🌡️It is an established fact that human-induced greenhouse gas emissions have led to an increased frequency and/or intensity of some weather and climate extremes since pre-industrial time, in particular for temperature extremes.

🌎Even relatively small incremental increases in global warming cause statistically significant changes in extremes.

🌪️The occurrence of extreme events is unprecedented in the observed record, and will increase with increasing global warming.

⛈️Relative to present-day conditions, changes in the intensity of extremes would be at least double at 2°C, and quadruple at 3°C of global warming.

CH 12: Climate change information for regional impact and for risk assessment

Climate models are getting better, more precise, and more accurate at predicting regional impacts. We know a lot more than we did in 2014 (the release of AR5). Our climate is already different compared ti the early or mid-20th century and we’re seeing big changes to mean temperatures, growing season, extreme heat, ocean acidification, and deoxygenation, and Arctic sea ice loss. Expect more changes by mid-century: more rain in the northern hemisphere, less rain in a few regions (the Mediterranean and South Africa), as well as sea-level rise along all coasts. Overall, there is high confidence that mean and extreme temperatures will rise over land and sea. Major widespread damages are expected, but also benefits are possible in some places.


🌏Every region of the world will experience concurrent changes in multiple climate impact drivers by mid-century.

🌱Climate change is already resulting in significant societal and environmental impacts and will induce major socio-economic damages in the future. In some cases, climate change can also lead to beneficial conditions which can be taken into account in adaptation strategies.

🌨️The impacts of climate change depend not only on physical changes in the climate itself, but also on whether humans take steps to limit their exposure and vulnerability.

What we did:

The visualization of confidence is only for the executive summary at the beginning of each chapter. If a sentence had a confidence associated with it, the confidence text was removed and a color applied instead. If a sentence did not have an associated confidence, that doesn’t mean scientists do not feel confident about the content; they may be using likelihood (or certainty) language in that instance instead. We chose to only visualize confidence, as it is used more often in the report. Highlights were drawn from the text of the report but edited and in some cases rephrased for clarity.

Previsão atualizada confirma temperatura de -0ºC em SP e neve no Sul (Cajamar Notícias)

[Previsão do tempo e previsão de mortes. Observar reação do poder público municipal.]

Se confirmada, a onda de frio será a maior do século, com geada generalizada e temperaturas negativas, o que pode provocar até morte. 25 de julho de 2021

Mapa mostra a intensidade da nova onda de frio e sua abrangência.

A última atualização dos modelos meteorológicos continuam mantendo a previsão de temperaturas negativas nos três Estados do Sul do Brasil e em áreas do Estado de São Paulo e Sul de Minas Gerais. A fortíssima massa de ar polar poderá ser a mais forte do século e causar prejuízos na agricultura e até mesmo morte de pessoas em situação de vulnerabilidade.


A frente fria que antecede a massa polar vai entrar no Brasil pelo Estado do Rio Grande do Sul na segunda-feira, dia 26, provocando chuva e acentuada queda de temperatura. No dia 27, terça-feira, a chuva já chega em Santa Cataria e no Paraná, fazendo a temperatura despencar rapidamente. Nas serras e áreas de planalto dos três Estados, a temperatura mínima já pode chegar a zero grau.

Na quarta, quinta, sexta e sábado, dias 28,29,30 e 31, praticamente todas as regiões do Sul do Brasil, exceto litoral, terão temperaturas negativas com possibilidade de geada negra, que pode matar a vegetação, provocando sérios prejuízos à agricultura.


Os modelos meteorológicos mantém a chance alta de neve nas serras do Rio Grande do Sul, Santa Catarina e até mesmo no planalto sul do Paraná, entre a noite de quarta-feira (28) e madrugada de quinta-feira (29), atingindo cidades, tais como: Canela/RS, Caxias do Sul/RS, São Joaquim/SC, Urupema/SC, Caçador/SC e Cruz Machado/PR. Confira o mapa abaixo:

Mapa mostra a região com chance de neve na madrugada de quinta-feira (29).


Na quarta-feira, dia 28, é a vez do Estado de São Paulo experimentar a volta da chuva, que não cairá em todas as regiões, mas manterá o céu nublado com ventos gélidos e temperatura máxima entre 17ºC e 18ºC enquanto as mínimas ficarão entre 5ºC a 10ºC na Grande São Paulo.

Na quinta-feira, dia 29, o Estado de São Paulo já vai amanhecer com muito frio. Temperaturas entre 1ºC e 7ºC serão registradas em toda a Grande São Paulo, Vale do Paraíba, Vale do Ribeira, regiões de Sorocaba, Bauru, Presidente Prudente e Campinas, conforme mapa abaixo:

Temperaturas previstas para o amanhecer de quinta-feira, dia 29 de julho, na Grande São Paulo, Vale do Paraíba e Ribeira, regiões de Campinas, Sorocaba, Bauru e Bragança Paulista.


A sexta-feira, dia 30 de julho de 2021, deverá ficar marcada na história da meteorologia. Se confirmada, será o dia mais frio do século, com geada generalizada no Estado de São Paulo e temperaturas negativas em várias regiões, o que pode provocar a morte de moradores de rua e/ou pessoas em vulnerabilidade.

Em praticamente todas as regiões do Estado de São Paulo, os modelos atuais indicam temperaturas negativas, conforme mapa baixo: (ATENÇÃO: As previsões podem mudar com o passar dos dias, essa é a indicação atual publicada no domingo, dia 25).

Mapa mostra o tamanho da massa de ar frio e temperatura prevista para o dia 30 a 1500 metros de altitude, com inacreditáveis -10ºC em áreas do Sul e faixa leste de São Paulo e até -5ºC nas demais regiões de São Paulo, Rio de Janeiro, sul e leste de Minas, Mato Grosso do Sul, Mato Grosso e Rondônia.

The professionals who predict the future for a living (MIT Technology Review)

Everywhere from business to medicine to the climate, forecasting the future is a complex and absolutely critical job. So how do you do it—and what comes next?

Bobbie Johnson

February 26, 2020

Inez Fung

Professor of atmospheric science, University of California, Berkeley

Inez Fung
Leah Fasten

Prediction for 2030: We’ll light up the world… safely

I’ve spoken to people who want climate model information, but they’re not really sure what they’re asking me for. So I say to them, “Suppose I tell you that some event will happen with a probability of 60% in 2030. Will that be good enough for you, or will you need 70%? Or would you need 90%? What level of information do you want out of climate model projections in order to be useful?”

I joined Jim Hansen’s group in 1979, and I was there for all the early climate projections. And the way we thought about it then, those things are all still totally there. What we’ve done since then is add richness and higher resolution, but the projections are really grounded in the same kind of data, physics, and observations.

Still, there are things we’re missing. We still don’t have a real theory of precipitation, for example. But there are two exciting things happening there. One is the availability of satellite observations: looking at the cloud is still not totally utilized. The other is that there used to be no way to get regional precipitation patterns through history—and now there is. Scientists found these caves in China and elsewhere, and they go in, look for a nice little chamber with stalagmites, and then they chop them up and send them back to the lab, where they do fantastic uranium-thorium dating and measure oxygen isotopes in calcium carbonate. From there they can interpret a record of  historic rainfall. The data are incredible: we have got over half a million years of precipitation records all over Asia.

I don’t see us reducing fossil fuels by 2030. I don’t see us reducing CO2 or atmospheric methane. Some 1.2 billion people in the world right now have no access to electricity, so I’m looking forward to the growth in alternative energy going to parts of the world that have no electricity. That’s important because it’s education, health, everything associated with a Western standard of living. That’s where I’m putting my hopes.

Anne-Lise Kjaer
Dvora Photography

Anne Lise Kjaer

Futurist, Kjaer Global, London

Prediction for 2030: Adults will learn to grasp new ideas

As a kid I wanted to become an archaeologist, and I did in a way. Archaeologists find artifacts from the past and try to connect the dots and tell a story about how the past might have been. We do the same thing as futurists; we use artifacts from the present and try to connect the dots into interesting narratives in the future.

When it comes to the future, you have two choices. You can sit back and think “It’s not happening to me” and build a great big wall to keep out all the bad news. Or you can build windmills and harness the winds of change.

A lot of companies come to us and think they want to hear about the future, but really it’s just an exercise for them—let’s just tick that box, do a report, and put it on our bookshelf.

So we have a little test for them. We do interviews, we ask them questions; then we use a model called a Trend Atlas that considers both the scientific dimensions of society and the social ones. We look at the trends in politics, economics, societal drivers, technology, environment, legislation—how does that fit with what we know currently? We look back maybe 10, 20 years: can we see a little bit of a trend and try to put that into the future?

What’s next? Obviously with technology we can educate much better than we could in the past. But it’s a huge opportunity to educate the parents of the next generation, not just the children. Kids are learning about sustainability goals, but what about the people who actually rule our world?

Philip Tetlock
Courtesy Photo

Philip Tetlock

Coauthor of Superforecasting and professor, University of Pennsylvania

Prediction for 2030: We’ll get better at being uncertain

At the Good Judgment Project, we try to track the accuracy of commentators and experts in domains in which it’s usually thought impossible to track accuracy. You take a big debate and break it down into a series of testable short-term indicators. So you could take a debate over whether strong forms of artificial intelligence are going to cause major dislocations in white-collar labor markets by 2035, 2040, 2050. A lot of discussion already occurs at that level of abstractionbut from our point of view, it’s more useful to break it down and to say: If we were on a long-term trajectory toward an outcome like that, what sorts of things would we expect to observe in the short term? So we started this off in 2015, and in 2016 AlphaGo defeated people in Go. But then other things didn’t happen: driverless Ubers weren’t picking people up for fares in any major American city at the end of 2017. Watson didn’t defeat the world’s best oncologists in a medical diagnosis tournament. So I don’t think we’re on a fast track toward the singularity, put it that way.

Forecasts have the potential to be either self-fulfilling or self-negatingY2K was arguably a self-negating forecast. But it’s possible to build that into a forecasting tournament by asking conditional forecasting questions: i.e., How likely is X conditional on our doing this or doing that?

What I’ve seen over the last 10 years, and it’s a trend that I expect will continue, is an increasing openness to the quantification of uncertainty. I think there’s a grudging, halting, but cumulative movement toward thinking about uncertainty, and more granular and nuanced ways that permit keeping score.

Keith Chen
Ryan Young

Keith Chen

Associate professor of economics, UCLA

Prediction for 2030: We’ll be more—and less—private

When I worked on Uber’s surge pricing algorithm, the problem it was built to solve was very coarse: we were trying to convince drivers to put in extra time when they were most needed. There were predictable times—like New Year’s—when we knew we were going to need a lot of people. The deeper problem was that this was a system with basically no control. It’s like trying to predict the weather. Yes, the amount of weather data that we collect today—temperature, wind speed, barometric pressure, humidity data—is 10,000 times greater than what we were collecting 20 years ago. But we still can’t predict the weather 10,000 times further out than we could back then. And social movements—even in a very specific setting, such as where riders want to go at any given point in time—are, if anything, even more chaotic than weather systems.

These days what I’m doing is a little bit more like forensic economics. We look to see what we can find and predict from people’s movement patterns. We’re just using simple cell-phone data like geolocation, but even just from movement patterns, we can infer salient information and build a psychological dimension of you. What terrifies me is I feel like I have much worse data than Facebook does. So what are they able to understand with their much better information?

I think the next big social tipping point is people actually starting to really care about their privacy. It’ll be like smoking in a restaurant: it will quickly go from causing outrage when people want to stop it to suddenly causing outrage if somebody does it. But at the same time, by 2030 almost every Chinese citizen will be completely genotyped. I don’t quite know how to reconcile the two.

Annalee Newitz
Sarah Deragon

Annalee Newitz

Science fiction and nonfiction author, San Francisco

Prediction for 2030: We’re going to see a lot more humble technology

Every era has its own ideas about the future. Go back to the 1950s and you’ll see that people fantasized about flying cars. Now we imagine bicycles and green cities where cars are limited, or where cars are autonomous. We have really different priorities now, so that works its way into our understanding of the future.

Science fiction writers can’t actually make predictions. I think of science fiction as engaging with questions being raised in the present. But what we can do, even if we can’t say what’s definitely going to happen, is offer a range of scenarios informed by history.

There are a lot of myths about the future that people believe are going to come true right now. I think a lot of people—not just science fiction writers but people who are working on machine learning—believe that relatively soon we’re going to have a human-equivalent brain running on some kind of computing substrate. This is as much a reflection of our time as it is what might actually happen.

It seems unlikely that a human-equivalent brain in a computer is right around the corner. But we live in an era where a lot of us feel like we live inside computers already, for work and everything else. So of course we have fantasies about digitizing our brains and putting our consciousness inside a machine or a robot.

I’m not saying that those things could never happen. But they seem much more closely allied to our fantasies in the present than they do to a real technical breakthrough on the horizon.

We’re going to have to develop much better technologies around disaster relief and emergency response, because we’ll be seeing a lot more floods, fires, storms. So I think there is going to be a lot more work on really humble technologies that allow you to take your community off the grid, or purify your own water. And I don’t mean in a creepy survivalist way; I mean just in a this-is-how-we-are-living-now kind of way.

Finale Doshi-Velez
Noah Willman

Finale Doshi-Velez

Associate professor of computer science, Harvard

Prediction for 2030: Humans and machines will make decisions together

In my lab, we’re trying to answer questions like “How might this patient respond to this antidepressant?” or “How might this patient respond to this vasopressor?” So we get as much data as we can from the hospital. For a psychiatric patient, we might have everything about their heart disease, kidney disease, cancer; for a blood pressure management recommendation for the ICU, we have all their oxygen information, their lactate, and more.

Some of it might be relevant to making predictions about their illnesses, some not, and we don’t know which is which. That’s why we ask for the large data set with everything.

There’s been about a decade of work trying to get unsupervised machine-­learning models to do a better job at making these predictions, and none worked really well. The breakthrough for us was when we found that all the previous approaches for doing this were wrong in the exact same way. Once we untangled all of this, we came up with a different method.

We also realized that even if our ability to predict what drug is going to work is not always that great, we can more reliably predict what drugs are not going to work, which is almost as valuable.

I’m excited about combining humans and AI to make predictions. Let’s say your AI has an error rate of 70% and your human is also only right 70% of the time. Combining the two is difficult, but if you can fuse their successes, then you should be able to do better than either system alone. How to do that is a really tough, exciting question.

All these predictive models were built and deployed and people didn’t think enough about potential biases. I’m hopeful that we’re going to have a future where these human-machine teams are making decisions that are better than either alone.

Abdoulaye Banire Diallo
Guillaume Simoneau

Abdoulaye Banire Diallo

Professor, director of the bioinformatics lab, University of Quebec at Montreal

Prediction for 2030: Machine-based forecasting will be regulated

When a farmer in Quebec decides whether to inseminate a cow or not, it might depend on the expectation of milk that will be produced every day for one year, two years, maybe three years after that. Farms have management systems that capture the data and the environment of the farm. I’m involved in projects that add a layer of genetic and genomic data to help forecastingto help decision makers like the farmer to have a full picture when they’re thinking about replacing cows, improving management, resilience, and animal welfare.

With the emergence of machine learning and AI, what we’re showing is that we can help tackle problems in a way that hasn’t been done before. We are adapting it to the dairy sector, where we’ve shown that some decisions can be anticipated 18 months in advance just by forecasting based on the integration of this genomic data. I think in some areas such as plant health we have only achieved 10% or 20% of our capacity to improve certain models.

Until now AI and machine learning have been associated with domain expertise. It’s not a public-wide thing. But less than 10 years from now they will need to be regulated. I think there are a lot of challenges for scientists like me to try to make those techniques more explainable, more transparent, and more auditable.

This story was part of our March 2020 issue.

The predictions issue

What AI still can’t do (MIT Technology Review)

Brian Bergstein

February 19, 2020

Machine-learning systems can be duped or confounded by situations they haven’t seen before. A self-driving car gets flummoxed by a scenario that a human driver could handle easily. An AI system laboriously trained to carry out one task (identifying cats, say) has to be taught all over again to do something else (identifying dogs). In the process, it’s liable to lose some of the expertise it had in the original task. Computer scientists call this problem “catastrophic forgetting.”

These shortcomings have something in common: they exist because AI systems don’t understand causation. They see that some events are associated with other events, but they don’t ascertain which things directly make other things happen. It’s as if you knew that the presence of clouds made rain likelier, but you didn’t know clouds caused rain.

Elias Bareinboim
Elias Bareinboim: AI systems are clueless when it comes to causation.

Understanding cause and effect is a big aspect of what we call common sense, and it’s an area in which AI systems today “are clueless,” says Elias Bareinboim. He should know: as the director of the new Causal Artificial Intelligence Lab at Columbia University, he’s at the forefront of efforts to fix this problem.

His idea is to infuse artificial-intelligence research with insights from the relatively new science of causality, a field shaped to a huge extent by Judea Pearl, a Turing Award–winning scholar who considers Bareinboim his protégé.

As Bareinboim and Pearl describe it, AI’s ability to spot correlations—e.g., that clouds make rain more likely—is merely the simplest level of causal reasoning. It’s good enough to have driven the boom in the AI technique known as deep learning over the past decade. Given a great deal of data about familiar situations, this method can lead to very good predictions. A computer can calculate the probability that a patient with certain symptoms has a certain disease, because it has learned just how often thousands or even millions of other people with the same symptoms had that disease.

But there’s a growing consensus that progress in AI will stall if computers don’t get better at wrestling with causation. If machines could grasp that certain things lead to other things, they wouldn’t have to learn everything anew all the time—they could take what they had learned in one domain and apply it to another. And if machines could use common sense we’d be able to put more trust in them to take actions on their own, knowing that they aren’t likely to make dumb errors.

Today’s AI has only a limited ability to infer what will result from a given action. In reinforcement learning, a technique that has allowed machines to master games like chess and Go, a system uses extensive trial and error to discern which moves will essentially cause them to win. But this approach doesn’t work in messier settings in the real world. It doesn’t even leave a machine with a general understanding of how it might play other games.

An even higher level of causal thinking would be the ability to reason about why things happened and ask “what if” questions. A patient dies while in a clinical trial; was it the fault of the experimental medicine or something else? School test scores are falling; what policy changes would most improve them? This kind of reasoning is far beyond the current capability of artificial intelligence.

Performing miracles

The dream of endowing computers with causal reasoning drew Bareinboim from Brazil to the United States in 2008, after he completed a master’s in computer science at the Federal University of Rio de Janeiro. He jumped at an opportunity to study under Judea Pearl, a computer scientist and statistician at UCLA. Pearl, 83, is a giant—the giant—of causal inference, and his career helps illustrate why it’s hard to create AI that understands causality.

Even well-trained scientists are apt to misinterpret correlations as signs of causation—or to err in the opposite direction, hesitating to call out causation even when it’s justified. In the 1950s, for example, a few prominent statisticians muddied the waters around whether tobacco caused cancer. They argued that without an experiment randomly assigning people to be smokers or nonsmokers, no one could rule out the possibility that some unknown—stress, perhaps, or some gene—caused people both to smoke and to get lung cancer.

Eventually, the fact that smoking causes cancer was definitively established, but it needn’t have taken so long. Since then, Pearl and other statisticians have devised a mathematical approach to identifying what facts would be required to support a causal claim. Pearl’s method shows that, given the prevalence of smoking and lung cancer, an independent factor causing both would be extremely unlikely.

Conversely, Pearl’s formulas also help identify when correlations can’t be used to determine causation. Bernhard Schölkopf, who researches causal AI techniques as a director at Germany’s Max Planck Institute for Intelligent Systems, points out that you can predict a country’s birth rate if you know its population of storks. That isn’t because storks deliver babies or because babies attract storks, but probably because economic development leads to more babies and more storks. Pearl has helped give statisticians and computer scientists ways of attacking such problems, Schölkopf says.

Judea Pearl
Judea Pearl: His theory of causal reasoning has transformed science.

Pearl’s work has also led to the development of causal Bayesian networks—software that sifts through large amounts of data to detect which variables appear to have the most influence on other variables. For example, GNS Healthcare, a company in Cambridge, Massachusetts, uses these techniques to advise researchers about experiments that look promising.

In one project, GNS worked with researchers who study multiple myeloma, a kind of blood cancer. The researchers wanted to know why some patients with the disease live longer than others after getting stem-cell transplants, a common form of treatment. The software churned through data with 30,000 variables and pointed to a few that seemed especially likely to be causal. Biostatisticians and experts in the disease zeroed in on one in particular: the level of a certain protein in patients’ bodies. Researchers could then run a targeted clinical trial to see whether patients with the protein did indeed benefit more from the treatment. “It’s way faster than poking here and there in the lab,” says GNS cofounder Iya Khalil.

Nonetheless, the improvements that Pearl and other scholars have achieved in causal theory haven’t yet made many inroads in deep learning, which identifies correlations without too much worry about causation. Bareinboim is working to take the next step: making computers more useful tools for human causal explorations.

Pearl says AI can’t be truly intelligent until it has a rich understanding of cause and effect, which would enable the introspection that is at the core of cognition.

One of his systems, which is still in beta, can help scientists determine whether they have sufficient data to answer a causal question. Richard McElreath, an anthropologist at the Max Planck Institute for Evolutionary Anthropology, is using the software to guide research into why humans go through menopause (we are the only apes that do).

The hypothesis is that the decline of fertility in older women benefited early human societies because women who put more effort into caring for grandchildren ultimately had more descendants. But what evidence might exist today to support the claim that children do better with grandparents around? Anthropologists can’t just compare the educational or medical outcomes of children who have lived with grandparents and those who haven’t. There are what statisticians call confounding factors: grandmothers might be likelier to live with grandchildren who need the most help. Bareinboim’s software can help McElreath discern which studies about kids who grew up with their grandparents are least riddled with confounding factors and could be valuable in answering his causal query. “It’s a huge step forward,” McElreath says.

The last mile

Bareinboim talks fast and often gestures with two hands in the air, as if he’s trying to balance two sides of a mental equation. It was halfway through the semester when I visited him at Columbia in October, but it seemed as if he had barely moved into his office—hardly anything on the walls, no books on the shelves, only a sleek Mac computer and a whiteboard so dense with equations and diagrams that it looked like a detail from a cartoon about a mad professor.

He shrugged off the provisional state of the room, saying he had been very busy giving talks about both sides of the causal revolution. Bareinboim believes work like his offers the opportunity not just to incorporate causal thinking into machines, but also to improve it in humans.

Getting people to think more carefully about causation isn’t necessarily much easier than teaching it to machines, he says. Researchers in a wide range of disciplines, from molecular biology to public policy, are sometimes content to unearth correlations that are not actually rooted in causal relationships. For instance, some studies suggest drinking alcohol will kill you early, while others indicate that moderate consumption is fine and even beneficial, and still other research has found that heavy drinkers outlive nondrinkers. This phenomenon, known as the “reproducibility crisis,” crops up not only in medicine and nutrition but also in psychology and economics. “You can see the fragility of all these inferences,” says Bareinboim. “We’re flipping results every couple of years.”

He argues that anyone asking “what if”—medical researchers setting up clinical trials, social scientists developing pilot programs, even web publishers preparing A/B tests—should start not merely by gathering data but by using Pearl’s causal logic and software like Bareinboim’s to determine whether the available data could possibly answer a causal hypothesis. Eventually, he envisions this leading to “automated scientist” software: a human could dream up a causal question to go after, and the software would combine causal inference theory with machine-learning techniques to rule out experiments that wouldn’t answer the question. That might save scientists from a huge number of costly dead ends.

Bareinboim described this vision while we were sitting in the lobby of MIT’s Sloan School of Management, after a talk he gave last fall. “We have a building here at MIT with, I don’t know, 200 people,” he said. How do those social scientists, or any scientists anywhere, decide which experiments to pursue and which data points to gather? By following their intuition: “They are trying to see where things will lead, based on their current understanding.”

That’s an inherently limited approach, he said, because human scientists designing an experiment can consider only a handful of variables in their minds at once. A computer, on the other hand, can see the interplay of hundreds or thousands of variables. Encoded with “the basic principles” of Pearl’s causal calculus and able to calculate what might happen with new sets of variables, an automated scientist could suggest exactly which experiments the human researchers should spend their time on. Maybe some public policy that has been shown to work only in Texas could be made to work in California if a few causally relevant factors were better appreciated. Scientists would no longer be “doing experiments in the darkness,” Bareinboim said.

He also doesn’t think it’s that far off: “This is the last mile before the victory.”

What if?

Finishing that mile will probably require techniques that are just beginning to be developed. For example, Yoshua Bengio, a computer scientist at the University of Montreal who shared the 2018 Turing Award for his work on deep learning, is trying to get neural networks—the software at the heart of deep learning—to do “meta-learning” and notice the causes of things.

As things stand now, if you wanted a neural network to detect when people are dancing, you’d show it many, many images of dancers. If you wanted it to identify when people are running, you’d show it many, many images of runners. The system would learn to distinguish runners from dancers by identifying features that tend to be different in the images, such as the positions of a person’s hands and arms. But Bengio points out that fundamental knowledge about the world can be gleaned by analyzing the things that are similar or “invariant” across data sets. Maybe a neural network could learn that movements of the legs physically cause both running and dancing. Maybe after seeing these examples and many others that show people only a few feet off the ground, a machine would eventually understand something about gravity and how it limits human movement. Over time, with enough meta-learning about variables that are consistent across data sets, a computer could gain causal knowledge that would be reusable in many domains.

For his part, Pearl says AI can’t be truly intelligent until it has a rich understanding of cause and effect. Although causal reasoning wouldn’t be sufficient for an artificial general intelligence, it’s necessary, he says, because it would enable the introspection that is at the core of cognition. “What if” questions “are the building blocks of science, of moral attitudes, of free will, of consciousness,” Pearl told me.

You can’t draw Pearl into predicting how long it will take for computers to get powerful causal reasoning abilities. “I am not a futurist,” he says. But in any case, he thinks the first move should be to develop machine-learning tools that combine data with available scientific knowledge: “We have a lot of knowledge that resides in the human skull which is not utilized.”

Brian Bergstein, a former editor at MIT Technology Review, is deputy opinion editor at the Boston Globe.

This story was part of our March 2020 issue.

The predictions issue

Profetas da chuva do Nordeste aderem ao trabalho remoto (Folha de S.Paulo)

Douglas Gavras, 10 de abril de 2021

Todos os anos, os chamados profetas da chuva do interior do Ceará se reúnem para divulgar suas previsões para a quadra chuvosa na região —período que geralmente vai de janeiro a junho e é crucial para o sustento das famílias de pequenos agricultores locais. Com a pandemia do novo coronavírus, no entanto, até eles tiveram de aderir ao “trabalho remoto”.

Os profetas são nordestinos que dizem antever as chuvas no semiárido observando sinais da natureza, como a floração de determinadas plantas, o comportamento de pássaros ou o movimento dos insetos. Para alguns deles, por exemplo, se o joão-de-barro não estiver no ninho é sinal de chuva.

“A formiga é o bicho mais inteligente que existe”, define o agricultor Titico Báia, de 69 anos e há 35 como profeta. “Elas começam a limpar o formigueiro no verão e jogam o bagaço seco fora. Dali a 90 dias, a chuva vem. Quando o sapo cururu se prepara para começar a cantar, também é sinal de água.”

Báia é conhecido por observar a natureza principalmente em três dias de setembro e três em outubro. O comportamento de animais, do vento e da lua nesses dias ajuda a prever como será a chuva no primeiro semestre do ano seguinte. “A gente vive da safra de milho e de feijão. E a regularidade da chuva é o que define se a vida vai ser mais fácil ou mais difícil naquele ano. Em 2021, a chuva só não foi mais esperada do que a vacina.”

“Em uma época em que não tínhamos medições regulares na nossa região, essas mulheres e esses homens eram a bússola para os agricultores. Eles diziam a hora certa de plantar e ajudavam a garantir uma colheita melhor”, conta o diretor do Instituto Federal do Ceará (IFCE) de Tauá (337 km de Fortaleza), José Alves Neto. Ele é um dos organizadores do encontro dos profetas da chuva da região do sertão dos Inhamuns, que acontece há cinco anos. “Mesmo hoje, os órgãos que medem as chuvas escutam o que os profetas têm a dizer.”

Com a pandemia da Covid-19, no entanto, esse grupo de observadores da natureza, que faz recomendações do melhor dia de plantio e estimativas de como será o inverno do ano, não pôde se reunir, já que a maioria tem mais de 60 anos e faz parte do grupo de risco.

Para manter a tradição, os profetas populares se adaptaram e promoveram os primeiros encontros virtuais, com transmissões de profecias pela internet, aumento das parcerias com rádios locais e trocas de previsões com outros agricultores pelo WhatsApp. A tecnologia, que chegou a ser vista como rival da tradição popular, agora ajuda os observadores da natureza a continuarem em atividade.

Quem espera a vacina para voltar a circular pela região é o agricultor Totonho Alves, 64. Ele, que herdou a sensibilidade para observar a natureza do pai e do avô, começou a notar o trabalho das formigas e outros sinais há 40 anos. “Meu avô sempre dizia que a chuva estava para vir quando via as formigas trabalhando mais do que o normal. Foi ele quem me ensinou que vinha enchente quando a coruja cantava na beira do riacho.”

Alves conta que as formigas poucas vezes erraram com ele. Quando elas saem das terras mais baixas e se mudam para o alto é sinal de chuva. Mas, se o formigueiro estiver na beira dos riachos, não é bom sinal. “Sinto falta do encontro presencial, daquele movimento, de poder reencontrar os amigos e trocar previsões. Mas com a pandemia, a gente faz o que pode”, diz.

O encontro mais antigo do estado começou em 1997, na região de Quixadá, a 164 km de Fortaleza. Na época, o funcionário da Companhia de Água e Esgoto do Ceará (Cagece) Hélder Cortez se deu conta de que havia um número cada vez maior de interessados em ouvir os agricultores que alertavam sobre as chuvas. Hoje, são 22 profetas na região do município.

Ano passado, antes da pandemia, 400 pessoas se reuniram em um auditório em Quixadá. “Este ano, pela internet, tanta gente se interessou pelos profetas que surgiram várias ideias para que essa cultura não se perca. Com o fim da pandemia, a gente pretende criar uma escola de formação de profetas, em parceria com instituições locais”, diz Cortez.

A audiência online animou os profetas e alguns municípios querem manter os encontros virtuais mesmo após a vacina. O evento no sertão dos Inhamuns, por exemplo, que chegava a reunir até 90 pessoas em auditórios de escolas da região quando era presencial, já tem mais de 3.000 visualizações no canal oficial no YouTube.

O diretor do IFCE de Boa Viagem, no Sertão de Canindé, João Paulo Arcelino do Rêgo, que organizou algumas das gravações das profecias virtuais, conta que a maioria dos profetas não tem acesso regular à internet e acaba não trocando previsões ao longo do ano. Os encontros presenciais sempre foram a oportunidade para isso.

“Este ano, levamos uma equipe de filmagem até a casa de cada um deles, fizemos os vídeos e o evento aumentou de tamanho. O mais surpreendente é que as previsões batiam, mesmo sem eles conversarem antes. Não é por acaso que muitos engenheiros agrônomos da região nos telefonam para saber o que os profetas têm a dizer”, diz ele.

“Quando eles viram que a pandemia se arrastaria em 2021 também e que as reuniões seriam prejudicadas, foram os primeiros a cobrar uma solução. São pessoas que tiram o sustento da terra e que são profetas por vocação, sem ganhar nada com isso. Para eles, repassar as previsões é a forma de manter viva a tradição”, diz Neto.

Outra expectativa é a de que a tecnologia também sirva para atrair mais jovens interessados em aprender sobre as técnicas de observação da natureza, já que a transmissão desse conhecimento para as novas gerações é fonte constante de preocupação do grupo.

“A nossa intenção é repassar o conhecimento para as outras gerações. Minha esperança é um dos meus filhos mais novos, que é quem eu levo para observar a natureza comigo. Quando eu vier a faltar, é ele quem vai levar a história para frente”, diz Alves.

New study ties solar variability to the onset of decadal La Nina events (Science Daily)

[Linking solar activity to the onset of droughts in places like Northeast Brazil has historically been treated as something that did not deserve attention by mainstream meteorology. The El Niño Southern Oscillation – of which La Niña is part – was always presented as the main causal factor for droughts. This new study connects solar activity with the La Niña. The interesting thing here is that many local farmers seen as knowledgeable about rains and drought in NE Brazil mention a 10 years period for the repetition of climate events. -RT]

Date: April 5, 2021

Source: National Center for Atmospheric Research/University Corporation for Atmospheric Research

Summary: A new study shows a correlation between the end of solar cycles and a switch from El Nino to La Nina conditions in the Pacific Ocean, suggesting that solar variability can drive seasonal weather variability on Earth.

A new study shows a correlation between the end of solar cycles and a switch from El Nino to La Nina conditions in the Pacific Ocean, suggesting that solar variability can drive seasonal weather variability on Earth.

If the connection outlined in the journal Earth and Space Science holds up, it could significantly improve the predictability of the largest El Nino and La Nina events, which have a number of seasonal climate effects over land. For example, the southern United States tends to be warmer and drier during a La Nina, while the northern U.S. tends to be colder and wetter.

“Energy from the Sun is the major driver of our entire Earth system and makes life on Earth possible,” said Scott McIntosh, a scientist at the National Center for Atmospheric Research (NCAR) and co-author of the paper. “Even so, the scientific community has been unclear on the role that solar variability plays in influencing weather and climate events here on Earth. This study shows there’s reason to believe it absolutely does and why the connection may have been missed in the past.”

The study was led by Robert Leamon at the University of Maryland-Baltimore County, and it is also co-authored by Daniel Marsh at NCAR. The research was funded by the National Science Foundation, which is NCAR’s sponsor, and the NASA Living With a Star program.

Applying a new solar clock

The appearance (and disappearance) of spots on the Sun — the outwardly visible signs of solar variability — have been observed by humans for hundreds of years. The waxing and waning of the number of sunspots takes place over approximately 11-year cycles, but these cycles do not have distinct beginnings and endings. This fuzziness in the length of any particular cycle has made it challenging for scientists to match up the 11-year cycle with changes happening on Earth.

In the new study, the researchers rely on a more precise 22-year “clock” for solar activity derived from the Sun’s magnetic polarity cycle, which they outlined as a more regular alternative to the 11-year solar cycle in several companion studies published recently in peer-reviewed journals.

The 22-year cycle begins when oppositely charged magnetic bands that wrap the Sun appear near the star’s polar latitudes, according to their recent studies. Over the cycle, these bands migrate toward the equator — causing sunspots to appear as they travel across the mid-latitudes. The cycle ends when the bands meet in the middle, mutually annihilating one another in what the research team calls a terminator event. These terminators provide precise guideposts for the end of one cycle and the beginning of the next.

The researchers imposed these terminator events over sea surface temperatures in the tropical Pacific stretching back to 1960. They found that the five terminator events that occurred between that time and 2010-11 all coincided with a flip from an El Nino (when sea surface temperatures are warmer than average) to a La Nina (when the sea surface temperatures are cooler than average). The end of the most recent solar cycle — which is unfolding now — is also coinciding with the beginning of a La Nina event.

“We are not the first scientists to study how solar variability may drive changes to the Earth system,” Leamon said. “But we are the first to apply the 22-year solar clock. The result — five consecutive terminators lining up with a switch in the El Nino oscillation — is not likely to be a coincidence.”

In fact, the researchers did a number of statistical analyses to determine the likelihood that the correlation was just a fluke. They found there was only a 1 in 5,000 chance or less (depending on the statistical test) that all five terminator events included in the study would randomly coincide with the flip in ocean temperatures. Now that a sixth terminator event — and the corresponding start of a new solar cycle in 2020 — has also coincided with an La Nina event, the chance of a random occurrence is even more remote, the authors said.

The paper does not delve into what physical connection between the Sun and Earth could be responsible for the correlation, but the authors note that there are several possibilities that warrant further study, including the influence of the Sun’s magnetic field on the amount of cosmic rays that escape into the solar system and ultimately bombard Earth. However, a robust physical link between cosmic rays variations and climate has yet to be determined.

“If further research can establish that there is a physical connection and that changes on the Sun are truly causing variability in the oceans, then we may be able to improve our ability to predict El Nino and La Nina events,” McIntosh said.

Story Source:

Materials provided by National Center for Atmospheric Research/University Corporation for Atmospheric Research. Original written by Laura Snider. Note: Content may be edited for style and length.

Journal Reference:

  1. Robert J. Leamon, Scott W. McIntosh, Daniel R. Marsh. Termination of Solar Cycles and Correlated Tropospheric Variability. Earth and Space Science, 2021; 8 (4) DOI: 10.1029/2020EA001223

Bill Gates e o problema com o solucionismo climático (MIT Technology Review)

Bill Gates e o problema com o solucionismo climático

Natureza e espaço

Focar em soluções tecnológicas para mudanças climáticas parece uma tentativa para se desviar dos obstáculos políticos mais desafiadores.

By MIT Technology Review, 6 de abril de 2021

Em seu novo livro Como evitar um desastre climático, Bill Gates adota uma abordagem tecnológica para compreender a crise climática. Gates começa com os 51 bilhões de toneladas de gases com efeito de estufa criados por ano. Ele divide essa poluição em setores com base em seu impacto, passando pelo elétrico, industrial e agrícola para o de transporte e construção civil. Do começo ao fim, Gates se mostra  adepto a diminuir as complexidades do desafio climático, dando ao leitor heurísticas úteis para distinguir maiores problemas tecnológicos (cimento) de menores (aeronaves).

Presente nas negociações climáticas de Paris em 2015, Gates e dezenas de indivíduos bem-afortunados lançaram o Breakthrough Energy, um fundo de capital de investimento interdependente lobista empenhado em conduzir pesquisas. Gates e seus companheiros investidores argumentaram que tanto o governo federal quanto o setor privado estão investindo pouco em inovação energética. A Breakthrough pretende preencher esta lacuna, investindo em tudo, desde tecnologia nuclear da próxima geração até carne vegetariana com sabor de carne bovina. A primeira rodada de US$ 1 bilhão do fundo de investimento teve alguns sucessos iniciais, como a Impossible Foods, uma fabricante de hambúrgueres à base de plantas. O fundo anunciou uma segunda rodada de igual tamanho em janeiro.

Um esforço paralelo, um acordo internacional chamado de Mission Innovation, diz ter convencido seus membros (o setor executivo da União Europeia junto com 24 países incluindo China, os EUA, Índia e o Brasil) a investirem um adicional de US$ 4,6 bilhões por ano desde 2015 para a pesquisa e desenvolvimento da energia limpa.

Essas várias iniciativas são a linha central para o livro mais recente de Gates, escrito a partir de uma perspectiva tecno-otimista. “Tudo que aprendi a respeito do clima e tecnologia me deixam otimista… se agirmos rápido o bastante, [podemos] evitar uma catástrofe climática,” ele escreveu nas páginas iniciais.

Como muitos já assinalaram, muito da tecnologia necessária já existe, muito pode ser feito agora. Por mais que Gates não conteste isso, seu livro foca nos desafios tecnológicos que ele acredita que ainda devem ser superados para atingir uma maior descarbonização. Ele gasta menos tempo nos percalços políticos, escrevendo que pensa “mais como um engenheiro do que um cientista político.” Ainda assim, a política, com toda a sua desordem, é o principal impedimento para o progresso das mudanças climáticas. E engenheiros devem entender como sistemas complexos podem ter ciclos de feedback que dão errado.

Sim, ministro

Kim Stanley Robinson, este sim pensa como um cientista político. O começo de seu romance mais recente The Ministry for the Future (ainda sem tradução para o português), se passa apenas a alguns anos no futuro, em 2025, quando uma onda de calor imensa atinge a Índia, matando milhões de pessoas. A protagonista do livro, Mary Murphy, comanda uma agência da ONU designada a representar os interesses das futuras gerações em uma tentativa de unir os governos mundiais em prol de uma solução climática. Durante todo o livro a equidade intergeracional e várias formas de políticas distributivas em foco.

Se você já viu os cenários que o Painel Intergovernamental sobre Mudanças Climáticas (IPCC) desenvolve para o futuro, o livro de Robinson irá parecer familiar. Sua história questiona as políticas necessárias para solucionar a crise climática, e ele certamente fez seu dever de casa. Apesar de ser um exercício de imaginação, há momentos em que o romance se assemelha mais a um seminário de graduação sobre ciências sociais do que a um trabalho de ficção escapista. Os refugiados climáticos, que são centrais para a história, ilustram a forma como as consequências da poluição atingem a população global mais pobre com mais força. Mas os ricos produzem muito mais carbono.

Ler Gates depois de Robinson evidencia a inextricável conexão entre desigualdade e mudanças climáticas. Os esforços de Gates sobre a questão do clima são louváveis. Mas quando ele nos diz que a riqueza combinada das pessoas apoiando seu fundo de investimento é de US$ 170 bilhões, ficamos um pouco intrigados que estes tenham dedicado somente US$ 2 bilhões para soluções climáticas, menos de 2% de seus ativos. Este fato por si só é um argumento favorável para taxar fortunas: a crise climática exige ação governamental. Não pode ser deixado para o capricho de bilionários.

Quanto aos bilionários, Gates é possivelmente um dos bonzinhos. Ele conta histórias sobre como usa sua fortuna para ajudar os pobres e o planeta. A ironia dele escrever um livro sobre mudanças climáticas quando voa em um jato particular e detém uma mansão de 6.132 m² não é algo que passa despercebido pelo leitor, e nem por Gates, que se autointitula um “mensageiro imperfeito sobre mudanças climáticas”. Ainda assim, ele é inquestionavelmente um aliado do movimento climático.

Mas ao focar em inovações tecnológicas, Gates minimiza a participação dos combustíveis fósseis na obstrução deste progresso. Peculiarmente, o ceticismo climático não é mencionado no livro. Lavando as mãos no que diz respeito à polarização política, Gates nunca faz conexão com seus colegas bilionários Charles e David Koch, que enriqueceram com os petroquímicos e têm desempenhado papel de destaque na reprodução do negacionismo climático.

Por exemplo, Gates se admira que para a vasta maioria dos americanos aquecedores elétricos são na verdade mais baratos do que continuar a usar combustíveis fósseis. Para ele, as pessoas não adotarem estas opções mais econômicas e sustentáveis é um enigma. Mas, não é assim. Como os jornalistas Rebecca Leber e Sammy Roth reportaram em  Mother Jones  e no  Los Angeles Times, a indústria do gás está investindo em defensores e criando campanhas de marketing para se opor à eletrificação e manter as pessoas presas aos combustíveis fósseis.

Essas forças de oposição são melhor vistas no livro do Robinson do que no de Gates. Gates teria se beneficiado se tivesse tirado partido do trabalho que Naomi Oreskes, Eric Conway, Geoffrey Supran, entre outros, têm feito para documentar os esforços persistentes das empresas de combustíveis fósseis em semear dúvida sobre a ciência climática para a população.

No entanto, uma coisa que Gates e Robinson têm em comum é a opinião de que a geoengenharia, intervenções monumentais para combater os sintomas ao invés das causas das mudanças climáticas, venha a ser inevitável. Em The Ministry for the Future, a geoengenharia solar, que vem a ser a pulverização de partículas finas na atmosfera para refletir mais do calor solar de volta para o espaço, é usada na sequência dos acontecimentos da onda de calor mortal que inicia a história. E mais tarde, alguns cientistas vão aos polos e inventam elaborados métodos para remover água derretida de debaixo de geleiras para evitar que avançasse para o mar. Apesar de alguns contratempos, eles impedem a subida do nível do mar em vários metros. É possível imaginar Gates aparecendo no romance como um dos primeiros a financiar estes esforços. Como ele próprio observa em seu livro, ele tem investido em pesquisa sobre geoengenharia solar há anos.

A pior parte

O título do novo livro de Elizabeth Kolbert, Under a White Sky (ainda sem tradução para o português), é uma referência a esta tecnologia nascente, já que implementá-la em larga escala pode alterar a cor do céu de azul para branco.
Kolbert observa que o primeiro relatório sobre mudanças climáticas foi parar na mesa do presidente Lyndon Johnson em 1965. Este relatório não argumentava que deveríamos diminuir as emissões de carbono nos afastando de combustíveis fósseis. No lugar, defendia mudar o clima por meio da geoengenharia solar, apesar do termo ainda não ter sido inventado. É preocupante que alguns se precipitem imediatamente para essas soluções arriscadas em vez de tratar a raiz das causas das mudanças climáticas.

Ao ler Under a White Sky, somos lembrados das formas com que intervenções como esta podem dar errado. Por exemplo, a cientista e escritora Rachel Carson defendeu importar espécies não nativas como uma alternativa a utilizar pesticidas. No ano após o seu livro Primavera Silenciosa ser publicado, em 1962, o US Fish and Wildlife Service trouxe carpas asiáticas para a América pela primeira vez, a fim de controlar algas aquáticas. Esta abordagem solucionou um problema, mas criou outro: a disseminação dessa espécie invasora ameaçou às locais e causou dano ambiental.

Como Kolbert observa, seu livro é sobre “pessoas tentando solucionar problemas criados por pessoas tentando solucionar problemas.” Seu relato cobre exemplos incluindo esforços malfadados de parar a disseminação das carpas, as estações de bombeamento em Nova Orleans que aceleram o afundamento da cidade e as tentativas de seletivamente reproduzir corais que possam tolerar temperaturas mais altas e a acidificação do oceano. Kolbert tem senso de humor e uma percepção aguçada para consequências não intencionais. Se você gosta do seu apocalipse com um pouco de humor, ela irá te fazer rir enquanto Roma pega fogo.

Em contraste, apesar de Gates estar consciente das possíveis armadilhas das soluções tecnológicas, ele ainda enaltece invenções como plástico e fertilizante como vitais. Diga isso para as tartarugas marinhas engolindo lixo plástico ou as florações de algas impulsionadas por fertilizantes destruindo o ecossistema do Golfo do México.

Com níveis perigosos de dióxido de carbono na atmosfera, a geoengenharia pode de fato se provar necessária, mas não deveríamos ser ingênuos sobre os riscos. O livro de Gates tem muitas ideias boas e vale a pena a leitura. Mas para um panorama completo da crise que enfrentamos, certifique-se de também ler Robinson e Kolbert.

Cerejeiras florescem mais cedo no Japão em 1,2 mil anos (Folha de S.Paulo)

Kazuhiro Nogi – 24.mar.2021/AFP 4-5 minutos

São Paulo

O florescer das famosas cerejeiras brancas e rosas leva milhares às ruas e parques do Japão para observar o fenômeno, que dura poucos dias e é reverenciado há mais de mil anos. Mas este ano a antecipação da florada tem preocupado cientistas, pois indica impacto nas mudanças climáticas.

Segundo registros da Universidade da Prefeitura de Osaka, em 2021, as famosas cerejeiras brancas e rosas floresceram totalmente em 26 de março em Quioto, a data mais antecipada em 12 séculos. As floradas mais cedo foram registradas em 27 de março dos anos 1612, 1409 e 1236.

A instituição conseguiu identificar a antecipação do fenômeno porque tem um banco de dados completo dos registros das floradas ao longo dos séculos. Os registros começaram no ano 812 e incluem documentos judiciais da Quioto Imperial, a antiga capital do Japão e diários medievais.

O professor de ciência ambiental da universidade da Prefeitura de Osaka, Yasuyuki Aono, responsável por compilar um banco de dados, disse à Agência Reuters que o fenômeno costuma ocorrer em abril, mas à medida que as temperaturas sobem, o início da floração é mais cedo.

Kazuhiro Nogui, 24.mar.2021/AFP

“As flores de cerejeira são muito sensíveis à temperatura. A floração e a plena floração podem ocorrer mais cedo ou mais tarde, dependendo apenas da temperatura. A temperatura era baixa na década de 1820, mas subiu cerca de 3,5 graus Celsius até hoje”, disse.

Segundo ele, as estações deste ano, em particular, influenciaram as datas de floração. O inverno foi muito frio, mas a primavera veio rápida e excepcionalmente quente, então “os botões estão completamente despertos depois de um descanso suficiente”.

Na capital Tóquio, as cerejeiras atingiram o máximo da florada em 22 de março, o segundo ano mais cedo já registrado. “À medida que as temperaturas globais aumentam, as geadas da última Primavera estão ocorrendo mais cedo e a floração está ocorrendo mais cedo”, afirmou Lewis Ziska, da Universidade de Columbia, à CNN.

A Agência Meteorológica do Japão acompanha ainda 58 cerejeiras “referência” no país. Neste ano, 40 já atingiram o pico de floração e 14 o fizeram em tempo recorde. As árvores normalmente florescem por cerca de duas semanas todos os anos. “Podemos dizer que é mais provável por causa do impacto do aquecimento global”, disse Shunji Anbe, funcionário da divisão de observações da agência.

Dados Organização Meteorológica Mundial divulgados em janeiro mostram que as temperaturas globais em 2020 estiveram entre as mais altas já registradas e rivalizaram com 2016 com o ano mais quente de todos os tempos.

As flores de cerejeira têm longas raízes históricas e culturais no Japão, anunciando a Primavera e inspirando artistas e poetas ao longo dos séculos. Sua fragilidade é vista como um símbolo de vida, morte e renascimento.

Atualmente, as pessoas se reúnem sob as flores de cerejeiras a cada primavera para festas hanami (observação das flores), passeiam em parques e fazem piqueniques embaixo dos galhos e abusar das selfies. Mas, neste ano, a florada de cerejeiras veio e se foi em um piscar de olhos.

Com o fim do estado de emergência para conter a pandemia de Covid-19 em todas as regiões do Japão, muitas pessoas se aglomeraram em locais populares de exibição no fim de semana, embora o número de pessoas tenha sido menor do que em anos normais.

NOAA Acknowledges the New Reality of Hurricane Season (Gizmodo)

Molly Taft, March 2, 2021

This combination of satellite images provided by the National Hurricane Center shows 30 hurricanes that occurred during the 2020 Atlantic hurricane season.
This combination of satellite images provided by the National Hurricane Center shows 30 hurricanes that occurred during the 2020 Atlantic hurricane season.

We’re one step closer to officially moving up hurricane season. The National Hurricane Center announced Tuesday that it would formally start issuing its hurricane season tropical weather outlooks on May 15 this year, bumping it up from the traditional start of hurricane season on June 1. The move comes after a recent spate of early season storms have raked the Atlantic.

Atlantic hurricane season runs from June 1 to November 30. That’s when conditions are most conducive to storm formation owing to warm air and water temperatures. (The Pacific ocean has its own hurricane season, which covers the same timeframe, but since waters are colder fewer hurricanes tend to form there than in the Atlantic.)

Storms have begun forming on the Atlantic earlier as ocean and air temperatures have increased due to climate change. Last year, Hurricane Arthur roared to life off the East Coast on May 16. That storm made 2020 the sixth hurricane season in a row to have a storm that formed earlier than the June 1 official start date. While the National Oceanic and Atmospheric Administration won’t be moving up the start of the season just yet, the earlier outlooks addresses the recent history.

“In the last decade, there have been 10 storms formed in the weeks before the traditional start of the season, which is a big jump,” said Sean Sublette, a meteorologist at Climate Central, who pointed out that the 1960s through 2010s saw between one and three storms each decade before the June 1 start date on average.

It might be tempting to ascribe this earlier season entirely to climate change warming the Atlantic. But technology also has a role to play, with more observations along the coast as well as satellites that can spot storms far out to sea.

“I would caution that we can’t just go, ‘hah, the planet’s warming, we’ve had to move the entire season!’” Sublette said. “I don’t think there’s solid ground for attribution of how much of one there is over the other. Weather folks can sit around and debate that for awhile.”

Earlier storms don’t necessarily mean more harmful ones, either. In fact, hurricanes earlier in the season tend to be weaker than the monsters that form in August and September when hurricane season is at its peak. But regardless of their strength, these earlier storms have generated discussion inside the NHC on whether to move up the official start date for the season, when the agency usually puts out two reports per day on hurricane activity. Tuesday’s step is not an official announcement of this decision, but an acknowledgement of the increased attention on early hurricanes.

“I would say that [Tuesday’s announcement] is the National Hurricane Center being proactive,” Sublette said. “Like hey, we know that the last few years it’s been a little busier in May than we’ve seen in the past five decades, and we know there is an awareness now, so we’re going to start issuing these reports early.”

While the jury is still out on whether climate change is pushing the season earlier, research has shown that the strongest hurricanes are becoming more common, and that climate change is likely playing a role. A study published last year found the odds of a storm becoming a major hurricanes—those Category 3 or stronger—have increase 49% in the basin since satellite monitoring began in earnest four decades ago. And when storms make landfall, sea level rise allows them to do more damage. So regardless of if climate change is pushing Atlantic hurricane season is getting earlier or not, the risks are increasing. Now, at least, we’ll have better warnings before early storms do hit.