Arquivo mensal: setembro 2021

Soon, satellites will be able to watch you everywhere all the time (MIT Technology Review)

Can privacy survive?

Christopher Beam

June 26, 2019

In 2013, police in Grants Pass, Oregon, got a tip that a man named Curtis W. Croft had been illegally growing marijuana in his backyard. So they checked Google Earth. Indeed, the four-month-old satellite image showed neat rows of plants growing on Croft’s property. The cops raided his place and seized 94 plants.

In 2018, Brazilian police in the state of Amapá used real-time satellite imagery to detect a spot where trees had been ripped out of the ground. When they showed up, they discovered that the site was being used to illegally produce charcoal, and arrested eight people in connection with the scheme.

Chinese government officials have denied or downplayed the existence of Uighur reeducation camps in Xinjiang province, portraying them as “vocational schools.” But human rights activists have used satellite imagery to show that many of the “schools” are surrounded by watchtowers and razor wire.

Every year, commercially available satellite images are becoming sharper and taken more frequently. In 2008, there were 150 Earth observation satellites in orbit; by now there are 768. Satellite companies don’t offer 24-hour real-time surveillance, but if the hype is to be believed, they’re getting close. Privacy advocates warn that innovation in satellite imagery is outpacing the US government’s (to say nothing of the rest of the world’s) ability to regulate the technology. Unless we impose stricter limits now, they say, one day everyone from ad companies to suspicious spouses to terrorist organizations will have access to tools previously reserved for government spy agencies. Which would mean that at any given moment, anyone could be watching anyone else.

The images keep getting clearer

Commercial satellite imagery is currently in a sweet spot: powerful enough to see a car, but not enough to tell the make and model; collected frequently enough for a farmer to keep tabs on crops’ health, but not so often that people could track the comings and goings of a neighbor. This anonymity is deliberate. US federal regulations limit images taken by commercial satellites to a resolution of 25 centimeters, or about the length of a man’s shoe. (Military spy satellites can capture images far more granular, although just how much more is classified.)

Ever since 2014, when the National Oceanic and Atmospheric Administration (NOAA) relaxed the limit from 50 to 25 cm, that resolution has been fine enough to satisfy most customers. Investors can predict oil supply from the shadows cast inside oil storage tanks. Farmers can monitor flooding to protect their crops. Human rights organizations have tracked the flows of refugees from Myanmar and Syria.

But satellite imagery is improving in a way that investors and businesses will inevitably want to exploit. The imaging company Planet Labs currently maintains 140 satellites, enough to pass over every place on Earth once a day. Maxar, formerly DigitalGlobe, which launched the first commercial Earth observation satellite in 1997, is building a constellation that will be able to revisit spots 15 times a day. BlackSky Global promises to revisit most major cities up to 70 times a day. That might not be enough to track an individual’s every move, but it would show what times of day someone’s car is typically in the driveway, for instance.

Some companies are even offering live video from space. As early as 2014, a Silicon Valley startup called SkyBox (later renamed Terra Bella and purchased by Google and then Planet) began touting HD video clips up to 90 seconds long. And a company called EarthNow says it will offer “continuous real-time” monitoring “with a delay as short as about one second,” though some think it is overstating its abilities. Everyone is trying to get closer to a “living map,” says Charlie Loyd of Mapbox, which creates custom maps for companies like Snapchat and the Weather Channel. But it won’t arrive tomorrow, or the next day: “We’re an extremely long way from high-res, full-time video of the Earth.”

Some of the most radical developments in Earth observation involve not traditional photography but rather radar sensing and hyperspectral images, which capture electromagnetic wavelengths outside the visible spectrum. Clouds can hide the ground in visible light, but satellites can penetrate them using synthetic aperture radar, which emits a signal that bounces off the sensed object and back to the satellite. It can determine the height of an object down to a millimeter. NASA has used synthetic aperture radar since the 1970s, but the fact that the US approved it for commercial use only last year is testament to its power—and political sensitivity. (In 1978, military officials supposedly blocked the release of radar satellite images that revealed the location of American nuclear submarines.)

While GPS data from cell phones is a legitimate privacy threat, you can at least decide to leave your phone at home. It’s harder to hide from a satellite camera.

Meanwhile, farmers can use hyperspectral sensing to tell where a crop is in its growth cycle, and geologists can use it to detect the texture of rock that might be favorable to excavation. But it could also be used, whether by military agencies or terrorists, to identify underground bunkers or nuclear materials. 

The resolution of commercially available imagery, too, is likely to improve further. NOAA’s 25-centimeter cap will come under pressure as competition from international satellite companies increases. And even if it doesn’t, there’s nothing to stop, say, a Chinese company from capturing and selling 10 cm images to American customers. “Other companies internationally are going to start providing higher-­resolution imagery than we legally allow,” says Therese Jones, senior director of policy for the Satellite Industry Association. “Our companies would want to push the limit down as far as they possibly could.”

What will make the imagery even more powerful is the ability to process it in large quantities. Analytics companies like Orbital Insight and SpaceKnow feed visual data into algorithms designed to let anyone with an internet connection understand the pictures en masse. Investors use this analysis to, for example, estimate the true GDP of China’s Guangdong province on the basis of the light it emits at night. But burglars could also scan a city to determine which families are out of town most often and for how long.

Satellite and analytics companies say they’re careful to anonymize their data, scrubbing it of identifying characteristics. But even if satellites aren’t recognizing faces, those images combined with other data streams—GPS, security cameras, social-media posts—could pose a threat to privacy. “People’s movements, what kinds of shops do you go to, where do your kids go to school, what kind of religious institutions do you visit, what are your social patterns,” says Peter Martinez, of the Secure World Foundation. “All of these kinds of questions could in principle be interrogated, should someone be interested.”

Like all tools, satellite imagery is subject to misuse. Its apparent objectivity can lead to false conclusions, as when the George W. Bush administration used it to make the case that Saddam Hussein was stockpiling chemical weapons in Iraq. Attempts to protect privacy can also backfire: in 2018, a Russian mapping firm blurred out the sites of sensitive military operations in Turkey and Israel—inadvertently revealing their existence, and prompting web users to locate the sites on other open-source maps.

Capturing satellite imagery with good intentions can have unintended consequences too. In 2012, as conflict raged on the border between Sudan and South Sudan, the Harvard-based Satellite Sentinel Project released an image that showed a construction crew building a tank-capable road leading toward an area occupied by the Sudanese People’s Liberation Army. The idea was to warn citizens about the approaching tanks so they could evacuate. But the SPLA saw the images too, and within 36 hours it attacked the road crew (which turned out to consist of Chinese civilians hired by the Sudanese government), killed some of them, and kidnapped the rest. As an activist, one’s instinct is often to release more information, says Nathaniel Raymond, a human rights expert who led the Sentinel project. But he’s learned that you have to take into account who else might be watching.

It’s expensive to watch you all the time

One thing that might save us from celestial scrutiny is the price. Some satellite entrepreneurs argue that there isn’t enough demand to pay for a constellation of satellites capable of round-the-clock monitoring at resolutions below 25 cm. “It becomes a question of economics,” says Walter Scott, founder of DigitalGlobe, now Maxar. While some companies are launching relatively cheap “nanosatellites” the size of toasters—the 120 Dove satellites launched by Planet, for example, are “orders of magnitude” cheaper than traditional satellites, according to a spokesperson—there’s a limit to how small they can get and still capture hyper-detailed images. “It is a fundamental fact of physics that aperture size determines the limit on the resolution you can get,” says Scott. “At a given altitude, you need a certain size telescope.” That is, in Maxar’s case, an aperture of about a meter across, mounted on a satellite the size of a small school bus. (While there are ways around this limit—interferometry, for example, uses multiple mirrors to simulate a much larger mirror—they’re complex and pricey.) Bigger satellites mean costlier launches, so companies would need a financial incentive to collect such granular data.

That said, there’s already demand for imagery with sub–25 cm resolution—and a supply of it. For example, some insurance underwriters need that level of detail to spot trees overhanging a roof, or to distinguish a skylight from a solar panel, and they can get it from airplanes and drones. But if the cost of satellite images came down far enough, insurance companies would presumably switch over.

Of course, drones can already collect better images than satellites ever will. But drones are limited in where they can go. In the US, the Federal Aviation Administration forbids flying commercial drones over groups of people, and you have to register a drone that weighs more than half a pound (227 grams) or so. There are no such restrictions in space. The Outer Space Treaty, signed in 1967 by the US, the Soviet Union, and dozens of UN member states, gives all states free access to space, and subsequent agreements on remote sensing have enshrined the principle of “open skies.” During the Cold War this made sense, as it allowed superpowers to monitor other countries to verify that they were sticking to arms agreements. But the treaty didn’t anticipate that it would one day be possible for anyone to get detailed images of almost any location.

And then there are the tracking devices we carry around in our pockets, a.k.a. smartphones. But while the GPS data from cell  phones is a legitimate privacy threat, you can at least decide to leave your phone at home. It’s harder to hide from a satellite camera. “There’s some element of ground truth—no pun intended—that satellites have that maybe your cell phone or digital record or what happens on Twitter [doesn’t],” says Abraham Thomas, chief data officer at the analytics company Quandl. “The data itself tends to be innately more accurate.”

The future of human freedom

American privacy laws are vague when it comes to satellites. Courts have generally allowed aerial surveillance, though in 2015 the New Mexico Supreme Court ruled that an “aerial search” by police without a warrant was unconstitutional. Cases often come down to whether an act of surveillance violates someone’s “reasonable expectation of privacy.” A picture taken on a public sidewalk: fair game. A photo shot by a drone through someone’s bedroom window: probably not. A satellite orbiting hundreds of miles up, capturing video of a car pulling into the driveway? Unclear.

That doesn’t mean the US government is powerless. It has no jurisdiction over Chinese or Russian satellites, but it can regulate how American customers use foreign imagery. If US companies are profiting from it in a way that violates the privacy of US citizens, the government could step in.

Raymond argues that protecting ourselves will mean rethinking privacy itself. Current privacy laws, he says, focus on threats to the rights of individuals. But those protections “are anachronistic in the face of AI, geospatial technologies, and mobile technologies, which not only use group data, they run on group data as gas in the tank,” Raymond says. Regulating these technologies will mean conceiving of privacy as applying not just to individuals, but to groups as well. “You can be entirely ethical about personally identifiable information and still kill people,” he says.

Until we can all agree on data privacy norms, Raymond says, it will be hard to create lasting rules around satellite imagery. “We’re all trying to figure this out,” he says. “It’s not like anything’s riding on it except the future of human freedom.”

Christopher Beam is a writer based in Los Angeles.

The space issue

This story was part of our July 2019 issue

O futuro sombrio previsto por agências de inteligência dos EUA para o mundo em 2040 (BBC Brasil)

Gordon Corera

20 abril 2021

Logo da CIA em sua sede
Previsões incluem incerteza e instabilidade crescentes e mais polarização e populismo

A Comunidade de Inteligência dos EUA (CI), federação de 17 agências governamentais independentes que realizam atividades de inteligência, divulgou uma pesquisa sobre o estado do mundo em 2040.

E o futuro é sombrio: o estudo alerta para uma volatilidade política e crescente competição internacional ou mesmo conflito.

O relatório intitulado “Globo Trends 2040 – A More Contested World” (“Tendências Globais 2040 – Um Mundo Mais Disputado”, em português) é uma tentativa de analisar as principais tendências, descrevendo uma série de cenários possíveis.

É o sétimo relatório desse tipo, publicado a cada quatro anos pelo Conselho Nacional de Inteligência desde 1997.

Não se trata de uma leitura relaxante para quem é um líder político ou diplomata internacional – ou espera ser um nos próximos anos.

Em primeiro lugar, o relatório foca nos fatores-chave que vão impulsionar a mudança.

Um deles é a volatilidade política.

“Em muitos países, as pessoas estão pessimistas sobre o futuro e estão cada vez mais desconfiadas de líderes e instituições que consideram incapazes ou relutantes em lidar com tendências econômicas, tecnológicas e demográficas disruptivas”, adverte o relatório.

Bandeiras dos EUA e China tremulando lado a lado
Tensão entre EUA e China pode dividir o mundo, diz relatório

Democracias vulneráveis

O estudo argumenta que as pessoas estão gravitando em torno de grupos com ideias semelhantes e fazendo demandas maiores e mais variadas aos governos em um momento em que esses mesmos governos estão cada vez mais limitados no que podem fazer.

“Essa incompatibilidade entre as habilidades dos governos e as expectativas do público tende a se expandir e levar a mais volatilidade política, incluindo crescente polarização e populismo dentro dos sistemas políticos, ondas de ativismo e movimentos de protesto e, nos casos mais extremos, violência, conflito interno, ou mesmo colapso do estado”, diz o relatório.

Expectativas não atendidas, alimentadas por redes sociais e tecnologia, podem criar riscos para a democracia.

“Olhando para o futuro, muitas democracias provavelmente serão vulneráveis a uma erosão e até mesmo ao colapso”, adverte o texto, acrescentando que essas pressões também afetarão os regimes autoritários.

Pandemia, uma ‘grande ruptura global’

O relatório afirma que a atual pandemia é a “ruptura global mais significativa e singular desde a 2ª Guerra Mundial”, que alimentou divisões, acelerou as mudanças existentes e desafiou suposições, inclusive sobre como os governos podem lidar com isso.

Uma loja fechada a cadeado exibe uma placa dizendo 'desculpe, estamos fechados até novo aviso do governo, desculpe por qualquer inconveniente, nos vemos em breve'
Analistas previram ‘grande pandemia de 2023’, mas não associaram à covid

O último relatório, de 2017, previu a possibilidade de uma “pandemia global em 2023” reduzir drasticamente as viagens globais para conter sua propagação.

Os autores reconhecem, no entanto, que não esperavam o surgimento da covid-19, que dizem ter “abalado suposições antigas sobre resiliência e adaptação e criado novas incertezas sobre a economia, governança, geopolítica e tecnologia”.

As mudanças climáticas e demográficas também vão exercer um impacto primordial sobre o futuro do mundo, assim como a tecnologia, que pode ser prejudicial, mas também trazer oportunidades para aqueles que a utilizarem de maneira eficaz e primeiro.

Competição geopolítica

Internacionalmente, os analistas esperam que a intensidade da competição pela influência global alcance seu nível mais alto desde a Guerra Fria nas próximas duas décadas em meio ao enfraquecimento contínuo da velha ordem, enquanto instituições como as Nações Unidas enfrentam dificuldades.

Mãos segurando um cartaz dizendo 'nós, o povo, significa todo mundo'
Pessoas estão gravitando em torno de grupos com ideias semelhantes e fazendo demandas maiores e mais variadas aos governos em um momento em que esses mesmos governos estão cada vez mais limitados no que podem fazer, diz relatório

Organizações não-governamentais, incluindo grupos religiosos e as chamadas “empresas superestrelas da tecnologia” também podem ter a capacidade de construir redes que competem com – ou até mesmo – driblam os Estados.

O risco de conflito pode aumentar, tornando-se mais difícil impedir o uso de novas armas.

O terrorismo jihadista provavelmente continuará, mas há um alerta de que terroristas de extrema direita e esquerda que promovem questões como racismo, ambientalismo e extremismo antigovernamental possam ressurgir na Europa, América Latina e América do Norte.

Os grupos podem usar inteligência artificial para se tornarem mais perigosos ou usar realidade aumentada para criar “campos de treinamento de terroristas virtuais”.

A competição entre os EUA e a China está no centro de muitas das diferenças nos cenários – se um deles se torna mais bem-sucedido ou se os dois competem igualmente ou dividem o mundo em esferas de influência separadas.

Um relatório de 2004 também previu um califado emergindo do Oriente Médio, como o que o autodenominado Estado Islâmico tentou criar na última década, embora o mesmo estudo – olhando para 2020 – não tenha capturado a competição com a China, que agora domina as preocupações de segurança dos EUA.

O objetivo geral é analisar futuros possíveis, em vez de acertar previsões.

Democracias mais fortes ou ‘mundo à deriva’?

Existem alguns cenários otimistas para 2040 – um deles foi chamado de “o renascimento das democracias”.

Isso envolve os EUA e seus aliados aproveitando a tecnologia e o crescimento econômico para lidar com os desafios domésticos e internacionais, enquanto as repressões da China e da Rússia (inclusive em Hong Kong) sufocam a inovação e fortalecem o apelo da democracia.

Mas outros são mais desanimadores.

“O cenário do mundo à deriva” imagina as economias de mercado nunca se recuperando da pandemia de Covid, tornando-se profundamente divididas internamente e vivendo em um sistema internacional “sem direção, caótico e volátil”, já que as regras e instituições internacionais são ignoradas por países, empresas e outros grupos.

Um cenário, porém, consegue combinar pessimismo com otimismo.

“Tragédia e mobilização” prevê um mundo em meio a uma catástrofe global no início de 2030, graças às mudanças climáticas, fome e agitação – mas isso, por sua vez, leva a uma nova coalizão global, impulsionada em parte por movimentos sociais, para resolver esses problemas.

Claro, nenhum dos cenários pode acontecer ou – mais provavelmente – uma combinação deles ou algo totalmente novo pode surgir. O objetivo, dizem os autores, é se preparar para uma série de futuros possíveis – mesmo que muitos deles pareçam longe de ser otimistas.

How big science failed to unlock the mysteries of the human brain (MIT Technology Review)

Large, expensive efforts to map the brain started a decade ago but have largely fallen short. It’s a good reminder of just how complex this organ is.

Emily Mullin

August 25, 2021

In September 2011, a group of neuroscientists and nanoscientists gathered at a picturesque estate in the English countryside for a symposium meant to bring their two fields together. 

At the meeting, Columbia University neurobiologist Rafael Yuste and Harvard geneticist George Church made a not-so-modest proposal: to map the activity of the entire human brain at the level of individual neurons and detail how those cells form circuits. That knowledge could be harnessed to treat brain disorders like Alzheimer’s, autism, schizophrenia, depression, and traumatic brain injury. And it would help answer one of the great questions of science: How does the brain bring about consciousness? 

Yuste, Church, and their colleagues drafted a proposal that would later be published in the journal Neuron. Their ambition was extreme: “a large-scale, international public effort, the Brain Activity Map Project, aimed at reconstructing the full record of neural activity across complete neural circuits.” Like the Human Genome Project a decade earlier, they wrote, the brain project would lead to “entirely new industries and commercial ventures.” 

New technologies would be needed to achieve that goal, and that’s where the nanoscientists came in. At the time, researchers could record activity from just a few hundred neurons at once—but with around 86 billion neurons in the human brain, it was akin to “watching a TV one pixel at a time,” Yuste recalled in 2017. The researchers proposed tools to measure “every spike from every neuron” in an attempt to understand how the firing of these neurons produced complex thoughts. 

The audacious proposal intrigued the Obama administration and laid the foundation for the multi-year Brain Research through Advancing Innovative Neurotechnologies (BRAIN) Initiative, announced in April 2013. President Obama called it the “next great American project.” 

But it wasn’t the first audacious brain venture. In fact, a few years earlier, Henry Markram, a neuroscientist at the École Polytechnique Fédérale de Lausanne in Switzerland, had set an even loftier goal: to make a computer simulation of a living human brain. Markram wanted to build a fully digital, three-dimensional model at the resolution of the individual cell, tracing all of those cells’ many connections. “We can do it within 10 years,” he boasted during a 2009 TED talk

In January 2013, a few months before the American project was announced, the EU awarded Markram $1.3 billion to build his brain model. The US and EU projects sparked similar large-scale research efforts in countries including Japan, Australia, Canada, China, South Korea, and Israel. A new era of neuroscience had begun. 

An impossible dream?

A decade later, the US project is winding down, and the EU project faces its deadline to build a digital brain. So how did it go? Have we begun to unwrap the secrets of the human brain? Or have we spent a decade and billions of dollars chasing a vision that remains as elusive as ever? 

From the beginning, both projects had critics.

EU scientists worried about the costs of the Markram scheme and thought it would squeeze out other neuroscience research. And even at the original 2011 meeting in which Yuste and Church presented their ambitious vision, many of their colleagues argued it simply wasn’t possible to map the complex firings of billions of human neurons. Others said it was feasible but would cost too much money and generate more data than researchers would know what to do with. 

In a blistering article appearing in Scientific American in 2013, Partha Mitra, a neuroscientist at the Cold Spring Harbor Laboratory, warned against the “irrational exuberance” behind the Brain Activity Map and questioned whether its overall goal was meaningful. 

Even if it were possible to record all spikes from all neurons at once, he argued, a brain doesn’t exist in isolation: in order to properly connect the dots, you’d need to simultaneously record external stimuli that the brain is exposed to, as well as the behavior of the organism. And he reasoned that we need to understand the brain at a macroscopic level before trying to decode what the firings of individual neurons mean.  

Others had concerns about the impact of centralizing control over these fields. Cornelia Bargmann, a neuroscientist at Rockefeller University, worried that it would crowd out research spearheaded by individual investigators. (Bargmann was soon tapped to co-lead the BRAIN Initiative’s working group.)

There isn’t a single, agreed-upon theory of how the brain works, and not everyone in the field agreed that building a simulated brain was the best way to study it.

While the US initiative sought input from scientists to guide its direction, the EU project was decidedly more top-down, with Markram at the helm. But as Noah Hutton documents in his 2020 film In Silico, Markram’s grand plans soon unraveled. As an undergraduate studying neuroscience, Hutton had been assigned to read Markram’s papers and was impressed by his proposal to simulate the human brain; when he started making documentary films, he decided to chronicle the effort. He soon realized, however, that the billion-dollar enterprise was characterized more by infighting and shifting goals than by breakthrough science.

In Silico shows Markram as a charismatic leader who needed to make bold claims about the future of neuroscience to attract the funding to carry out his particular vision. But the project was troubled from the outset by a major issue: there isn’t a single, agreed-upon theory of how the brain works, and not everyone in the field agreed that building a simulated brain was the best way to study it. It didn’t take long for those differences to arise in the EU project. 

In 2014, hundreds of experts across Europe penned a letter citing concerns about oversight, funding mechanisms, and transparency in the Human Brain Project. The scientists felt Markram’s aim was premature and too narrow and would exclude funding for researchers who sought other ways to study the brain. 

“What struck me was, if he was successful and turned it on and the simulated brain worked, what have you learned?” Terry Sejnowski, a computational neuroscientist at the Salk Institute who served on the advisory committee for the BRAIN Initiative, told me. “The simulation is just as complicated as the brain.” 

The Human Brain Project’s board of directors voted to change its organization and leadership in early 2015, replacing a three-member executive committee led by Markram with a 22-member governing board. Christoph Ebell, a Swiss entrepreneur with a background in science diplomacy, was appointed executive director. “When I took over, the project was at a crisis point,” he says. “People were openly wondering if the project was going to go forward.”

But a few years later he was out too, after a “strategic disagreement” with the project’s host institution. The project is now focused on providing a new computational research infrastructure to help neuroscientists store, process, and analyze large amounts of data—unsystematic data collection has been an issue for the field—and develop 3D brain atlases and software for creating simulations.

The US BRAIN Initiative, meanwhile, underwent its own changes. Early on, in 2014, responding to the concerns of scientists and acknowledging the limits of what was possible, it evolved into something more pragmatic, focusing on developing technologies to probe the brain. 

New day

Those changes have finally started to produce results—even if they weren’t the ones that the founders of each of the large brain projects had originally envisaged. 

Last year, the Human Brain Project released a 3D digital map that integrates different aspects of human brain organization at the millimeter and micrometer level. It’s essentially a Google Earth for the brain. 

And earlier this year Alipasha Vaziri, a neuroscientist funded by the BRAIN Initiative, and his team at Rockefeller University reported in a preprint paper that they’d simultaneously recorded the activity of more than a million neurons across the mouse cortex. It’s the largest recording of animal cortical activity yet made, if far from listening to all 86 billion neurons in the human brain as the original Brain Activity Map hoped.

The US effort has also shown some progress in its attempt to build new tools to study the brain. It has speeded the development of optogenetics, an approach that uses light to control neurons, and its funding has led to new high-density silicon electrodes capable of recording from hundreds of neurons simultaneously. And it has arguably accelerated the development of single-cell sequencing. In September, researchers using these advances will publish a detailed classification of cell types in the mouse and human motor cortexes—the biggest single output from the BRAIN Initiative to date.

While these are all important steps forward, though, they’re far from the initial grand ambitions. 

Lasting legacy

We are now heading into the last phase of these projects—the EU effort will conclude in 2023, while the US initiative is expected to have funding through 2026. What happens in these next years will determine just how much impact they’ll have on the field of neuroscience.

When I asked Ebell what he sees as the biggest accomplishment of the Human Brain Project, he didn’t name any one scientific achievement. Instead, he pointed to EBRAINS, a platform launched in April of this year to help neuroscientists work with neurological data, perform modeling, and simulate brain function. It offers researchers a wide range of data and connects many of the most advanced European lab facilities, supercomputing centers, clinics, and technology hubs in one system. 

“If you ask me ‘Are you happy with how it turned out?’ I would say yes,” Ebell said. “Has it led to the breakthroughs that some have expected in terms of gaining a completely new understanding of the brain? Perhaps not.” 

Katrin Amunts, a neuroscientist at the University of Düsseldorf, who has been the Human Brain Project’s scientific research director since 2016, says that while Markram’s dream of simulating the human brain hasn’t been realized yet, it is getting closer. “We will use the last three years to make such simulations happen,” she says. But it won’t be a big, single model—instead, several simulation approaches will be needed to understand the brain in all its complexity. 

Meanwhile, the BRAIN Initiative has provided more than 900 grants to researchers so far, totaling around $2 billion. The National Institutes of Health is projected to spend nearly $6 billion on the project by the time it concludes. 

For the final phase of the BRAIN Initiative, scientists will attempt to understand how brain circuits work by diagramming connected neurons. But claims for what can be achieved are far more restrained than in the project’s early days. The researchers now realize that understanding the brain will be an ongoing task—it’s not something that can be finalized by a project’s deadline, even if that project meets its specific goals.

“With a brand-new tool or a fabulous new microscope, you know when you’ve got it. If you’re talking about understanding how a piece of the brain works or how the brain actually does a task, it’s much more difficult to know what success is,” says Eve Marder, a neuroscientist at Brandeis University. “And success for one person would be just the beginning of the story for another person.” 

Yuste and his colleagues were right that new tools and techniques would be needed to study the brain in a more meaningful way. Now, scientists will have to figure out how to use them. But instead of answering the question of consciousness, developing these methods has, if anything, only opened up more questions about the brain—and shown just how complex it is. 

“I have to be honest,” says Yuste. “We had higher hopes.”

Emily Mullin is a freelance journalist based in Pittsburgh who focuses on biotechnology.

Pew’s new global survey of climate change attitudes finds promising trends but deep divides (The Conversation)

September 14, 2021 10.00am EDT

By Kate T. Luong (Postdoctoral Research Fellow, George Mason University), Ed Maibach (Director of Center for Climate Communication, George Mason University), and John Kotcher (Assistant Professor of Communications, George Mason University)

People’s views about climate change, from how worried they are about it affecting them to how willing they are to do something about it, have shifted in developed countries around the world in recent years, a new survey by the Pew Research Center finds.

The study polled more than 16,000 adults in 17 countries considered to be advanced economies. Many of these countries have been large contributors to climate change and will be expected to lead the way in fixing it.

In general, the survey found that a majority of people are concerned about global climate change and are willing to make lifestyle changes to reduce its effects.

However, underneath this broad pattern lie more complicated trends, such as doubt that the international community can effectively reduce climate change and deep ideological divides that can hinder the transition to cleaner energy and a climate-friendly world. The survey also reveals an important disconnect between people’s attitudes and the enormity of the challenge climate change poses.

Here’s what stood out to us as professionals who study the public’s response to climate change.

Strong concern and willingness to take action

In all the countries surveyed in early 2021 except Sweden, between 60% and 90% of the citizens reported feeling somewhat or very concerned about the harm they would personally face from climate change. While there was a clear increase in concern in several countries between 2015, when Pew conducted the same survey, and 2021, this number did not change significantly in the U.S.

Chart of responses to question on concern about climate change harming the people surveyed personally

Similarly, in all countries except Japan, at least 7 out of 10 people said they are willing to make some or a lot of changes in how they live and work to help address global climate change.

Across most countries, young people were much more likely than older generations to report higher levels of both concern about climate change and willingness to change their behaviors.

Perceptions about government responses

Clearly, on a global level, people are highly concerned about this existential threat and are willing to change their everyday behaviors to mitigate its impacts. However, focusing on changing individual behaviors alone will not stop global warming.

In the U.S., for example, about 74% of greenhouse gas emissions are from fossil fuel combustion. People can switch to driving electric vehicles or taking electric buses and trains, but those still need power. To pressure utilities to shift to renewable energy requires policy-level changes, both domestically and internationally.

When we look at people’s attitudes regarding how their own country is handling climate change and how effective international actions would be, the results painted a more complex picture.

On average, most people evaluated their own government’s handling of climate change as “somewhat good,” with the highest approval numbers in Sweden, the United Kingdom, Singapore and New Zealand. However, data shows that such positive evaluations are not actually warranted. The 2020 U.N. Emissions Gap Report found that greenhouse gas emissions have continued to rise. Many countries, including the U.S., are projected to miss their target commitments to reduce emissions by 2030; and even if all countries achieve their targets, annual emissions need to be reduced much further to reach the goals set by the Paris climate agreement.

When it comes to confidence in international actions to address climate change, the survey respondents were more skeptical overall. Although the majority of people in Germany, the Netherlands, South Korea and Singapore felt confident that the international community can significantly reduce climate change, most respondents in the rest of the countries surveyed did not. France and Sweden had the lowest levels of confidence with more than 6 in 10 people being unconvinced.

Together, these results suggest that people generally believe climate change to be a problem that can be solved by individual people and governments. Most people say they are willing to change their lifestyles, but they may not have an accurate perception of the scale of actions needed to effectively address global climate change. Overall, people may be overly optimistic about their own country’s capability and commitment to reduce emissions and fight climate change, and at the same time, underestimate the value and effectiveness of international actions.

These perceptions may reflect the fact that the conversation surrounding climate change so far has been dominated by calls to change individual behaviors instead of emphasizing the necessity of collective and policy-level actions. Addressing these gaps is an important goal for people who are working in climate communication and trying to increase public support for stronger domestic policies and international collaborations.

Deep ideological divide in climate attitudes

As with most surveys about climate change attitudes, the new Pew report reveals a deep ideological divide in several countries.

Perhaps not surprisingly, the U.S. leads in ideological differences for all but one question. In the U.S., 87% of liberals are somewhat or very concerned about the personal harms from climate change, compared to only 28% of conservatives – a stark 59-point difference. This difference persists for willingness to change one’s lifestyle (49-point difference), evaluation of government’s handling of climate change (41-point difference), and perceived economic impacts of international actions (41-point difference).

And the U.S. is not alone; large ideological differences were also found in Canada, Australia and the Netherlands. In fact, only Australians were more divided than Americans on how their government is handling the climate crisis.

This ideological divide is not new, but the size of the gap between people on the two ends of the ideological spectrum is astounding. The differences lie not only in how to handle the issue or who should be responsible but also in the scope and severity of climate change in the first place. Such massive, entrenched differences in public understanding and acceptance of the scientific facts regarding climate change will present significant challenges in enacting much-needed policy changes.

Better understanding of the cultural, political and media dynamics that shape those differences might reveal helpful insights that could ease the path toward progress in slowing climate change.

Metaverso pode ser nova Internet e vira prioridade das Big Techs (MIT Technology Review)

by Guilherme Ravache

setembro 10, 2021

Em maio, afirmei, aqui na MIT Technology Review Brasil, que o “Brasil tem chance de liderar a corrida pelo metaverso”. Em apenas três meses muito aconteceu e o metaverso se tornou um termo cada vez mais presente na mídia, e principalmente, uma nova estratégia de gigantes de tecnologia. O termo foi mencionado por CEOs em várias recentes conferências de anúncio de resultados no segundo trimestre. Mark Zuckerberg, do Facebook, Satya Nadella, da Microsoft, David Baszucki, da Roblox, e Shar Dubey, da Match Group, afirmaram que o metaverso iria pautar a estratégia de suas empresas.

Do Vale do Silício a Shenzhen, as empresas de tecnologia aumentam suas apostas nesse setor. Para os não iniciados, “o metaverso é a terminologia utilizada para indicar um tipo de mundo virtual que tenta replicar a realidade através de dispositivos digitais. É um espaço coletivo e virtual compartilhado, constituído pela soma de ‘realidade virtual’, ‘realidade aumentada’ e ‘Internet’”, como afirma a página do termo na Wikipédia. A expressão foi cunhada pelo escritor Neal Stephenson em seu romance de 1992, “Snow Crash”. Depois, Ernest Cline usou o mesmo conceito para criar o Oásis em seu romance “Ready Player One”, que virou filme de Steven Spielberg.

Mark Zuckerberg, fundador e CEO do Facebook, parece ter se tornado o mais recente convertido ao metaverso. O executivo deu uma série de entrevistas recentemente afirmando que o Facebook vai apostar o seu futuro no metaverso. “Nós vamos realizar uma transição de ser empresa vista primariamente como de redes sociais para sermos uma empresa de mertaverso”, disse Zuckerberg.

Em julho, o Facebook disse que estava criando uma equipe de produto para trabalhar no metaverso que faria parte de seu grupo de AR e VR, no Facebook Reality Labs. Dias atrás tivemos uma demonstração do que está por vir. O Facebook convidou um grupo de jornalistas para conhecer seu Horizon Workrooms. O app é a primeira tentativa da rede social de criar uma experiência de Realidade Virtual especificamente para as pessoas trabalharem juntas.

Segundo o jornalista Alex Heath, que participou da demonstração, até 16 pessoas em VR podem estar juntas em uma sala de trabalho, enquanto outras 34 pessoas podem entrar em uma videochamada sem usar um fone de ouvido. Um aplicativo de desktop complementar permite que você faça uma transmissão ao vivo da tela do seu computador sobre o seu espaço de mesa virtual. Graças ao rastreamento manual e às câmeras frontais, uma representação virtual do seu teclado físico fica embaixo da tela para digitar em um aplicativo web simples que o Facebook criou para fazer anotações e gerenciar calendários. Ou seja, você entra em um mundo virtual para realizar a reunião com seus colegas.

Facebook não deve liderar o metaverso

Zuckerberg fala de realidade virtual há anos. Ainda em 2014, quando o Facebook comprou a Oculus por US$ 2 bilhões, ele afirmou com entusiasmo que a compra permitiria experiências virtuais imersivas nas quais você se sentiria “presente em outro lugar com outras pessoas”. De certa forma, o metaverso é uma sequência dos planos do Facebook iniciados há quase uma década.

O Facebook é um player gigante a ser reconhecido, mas minha aposta é que não será o vencedor na corrida pelo metaverso. Da mesma forma que a IBM não se tornou a líder nos computadores pessoais ou na nuvem, o Google nunca conseguiu construir uma presença sólida nas redes sociais ou no setor de mensagens instantâneas e nem a Microsoft e muito menos a Nokia se tornaram as líderes em smartphones, o Facebook, apesar de seu entusiasmo, não deve liderar essa corrida.

Basicamente, porque mesmo tendo a vontade e os recursos, usualmente falta às empresas líderes a cultura para operar nesses novos mercados. E não estou dizendo que o Facebook será um player irrelevante, longe disso. Os bilhões de dólares que a empresa já investiu no desenvolvimento do Oculos Quest e toda a tecnologia de hardware criada para uso em realidade virtual (e consequentemente o metaverso) são impressionantes e levaram a avanços indiscutíveis.

“O metaverso, o sonho de um tecnólogo, é o pesadelo do Facebook. Ele tornaria a rede social irrelevante”, afirmou Scott Galloway, professor de marketing. “O ativo mais valioso do Facebook é seu gráfico social, seu conjunto de dados de usuários, links entre usuários e seu conteúdo compartilhado. Em um futuro metaverso, nós todos teremos identidades no metaverso e qualquer um pode abrir um espaço virtual para compartilhar fotos da festa de aniversário de seu filho de 10 anos ou discutir sobre vacinas”, conclui.

Quem tem potencial no metaverso?

De um ponto de vista ocidental, eu apostaria minhas fichas na Roblox e na Epic Games como novos líderes do metaverso de maneira mais ampla. Nas aplicações empresariais, a vantagem seria da Microsoft.

Da perspectiva hardware/software Nvidia e Apple levam vantagem por já terem a capacidade de desenvolverem seus próprios chips (o Facebook compra chips prontos da Qualcomm). Uma vasta biblioteca de chips de Inteligência Artificial e o software necessário para executá-los também são peças essenciais do metaverso.

Do outro lado do mundo, Tencent, Bytedance e Sea são competidores robustos, mas as duas primeiras se vêem diante da crescente regulação chinesa e a terceira tem seu foco na construção de um e-commerce competitivo na Ásia.

A Microsoft tem uma grande vantagem não somente por sua gigantesca comunidade de desenvolvedores criando soluções corporativas e sua robusta presença no mundo corporativo. A Microsoft também está trazendo jogos em nuvem para seus consoles Xbox. Em breve, os assinantes do Xbox Game Pass Ultimate nos consoles Xbox Series X / S e Xbox One poderão transmitir mais de 100 jogos sem baixá-los. Segundo a Microsoft, as métricas de desempenho do serviço serão 1080p e 60 frames por segundo. O Xbox Cloud Gaming se tornou disponível para dispositivos móveis e PC em junho de 2021. A Microsoft também anunciou esta semana que o próximo capítulo da popular série Halo, Halo Infinite, será lançado em 8 de dezembro de 2021.

O poder da comunidade

Há anos a Microsoft desenvolve hardware de mixed reality para aplicações corporativas. Seu HoloLens é um dos mais usados no mercado. Realidade mista ou realidade híbrida é a tecnologia que une características da realidade virtual com a realidade aumentada. Ela insere objetos virtuais no mundo real e permite a interação do usuário com os objetos, produzindo novos ambientes nos quais itens físicos e virtuais coexistem e interagem em tempo real.

No ano passado, a Nvidia lançou sua plataforma Omniverse “para conectar mundos 3D em um universo virtual compartilhado.” O presidente-executivo, Jensen Huang, usou a maior conferência anual da empresa, em outubro, para creditar publicamente “Snow Crash”, de Stephenson, como a inspiração original para o conceito de um sucessor de realidade virtual para a Internet, afirmando que “o metaverso está chegando”.

Mas o que definirá os vencedores do metaverso não será apenas o dinheiro, a vontade de fazer liderar esse movimento ou a propriedade intelectual de uma empresa. É a capacidade de envolver comunidades, seja para as pessoas congregarem no metaverso ou desenvolverem as experiências desse ambiente digital que criará os vencedores.

Games, Netflix e onde gastamos nosso tempo

Os games são uma parte essencial do metaverso, mas o metaverso não irá se limitar aos jogos. Eles são apenas a porta de entrada, um primeiro passo nesse sentido. Reed Rastings, CEO da Netflix, já disse que o Netflix “compete com (e perde para) o Fortnite mais do que a HBO”. Recentemente, a Netflix inclusive anunciou que a partir de 2022 entrará no segmento de jogos, oferecendo games em seu app.

Como aponta o ensaísta Matthew Ball, o mercado de games é enorme e cresce rapidamente, mas essa não é a única razão para a entrada da Netflix em games. “Embora seja comum ouvir que ‘os jogos agora têm quatro vezes o tamanho da bilheteria global dos cinemas’, a bilheteria é menos de 1/15 da receita total de vídeo globalmente. Em outras palavras, os jogos provavelmente vão arrecadar cerca de US$ 180 bilhões em 2021, enquanto os vídeos excederão US$ 650 bilhões”, diz Ball. Ou seja, na guerra pela atenção do consumidor o videogame e o metaverso têm um potencial enorme e a receita de games mostra que esse ainda é um mercado bastante incipiente em comparação ao vídeo como um todo.

Vale lembrar que somente em 2021 a Netflix deve investir US$ 19 bilhões na produção de conteúdo original. Mesmo assim, a empresa tem perdido assinantes nos Estados Unidos e Canadá. A entrada do HBO Max, Paramount+ e diversos novos concorrentes ajudam a explicar a queda, mas os games também são um elemento a ser considerado. E no final do dia, a Netflix está no mercado de vender entretenimento, e estar próximo da indústria de games não é uma ideia ruim.

Nossas crianças, nosso futuro

Mas assim como o Facebook, se sobra dinheiro e vontade/necessidade de reter nossa atenção, falta o elemento da comunidade de desenvolvedores para uma entrada relevante no metaverso. Ao observarmos o Roblox fica mais fácil de entender como esse elemento se aplica.

O Roblox é muito mais que um jogo, é uma plataforma onde qualquer um pode criar um jogo (ou experiência). Hoje, já são mais de 8 milhões de desenvolvedores criando essas experiências. São mais de 20 milhões de experiências, que vão desde adotar um animal de estimação no Adopt Me! ou aprender sobre história em uma visita virtual ao Coliseu.

Desde 2008, quando a plataforma foi lançada, os usuários já passaram mais de 30,6 bilhões de horas engajados no jogo. No segundo trimestre, a receita da Roblox aumentou 127% em relação ao segundo trimestre de 2020, indo para US$ 454,1 milhões. A média de usuários ativos diários (DAUs) foi de 43,2 milhões, um aumento de 29% ano após ano.

Perceba a ironia de que enquanto Facebook e Netflix estagnaram no crescimento de usuários, a Roblox continua aumentando sua base mesmo com a pandemia diminuindo o isolamento social e permitindo que muitos retornem às suas atividades.

Mas provavelmente os grandes números do Roblox e da Epic Games (dona do Fortnite), que tem o capital fechado e não divulga números da mesma maneira que o Roblox, são o aspecto menos interessante das possibilidades que oferecem.

O metaverso é o novo terceiro lugar 

Como já escrevi aqui na MIT Tech Review ao falar sobre o impacto dos games no e-commerce, o crescimento dos jogos eletrônicos está diretamente ligado à transformação dos games em um “Terceiro Lugar”. O termo foi cunhado pelo sociólogo Ray Oldenburg e se refere a lugares onde as pessoas passam o tempo entre a casa (“primeiro” lugar) e o trabalho (“segundo” lugar). São espaços onde as pessoas trocam ideias, se divertem e estabelecem relacionamentos. Igrejas, cafés e parques são exemplos de “Terceiro Lugar”. Ter um terceiro lugar para socializar fora de casa e do trabalho é crucial para o bem-estar, pois traz um sentimento de conexão e pertencimento. E os videogames são cada vez mais um “Terceiro Lugar”. Historicamente, as atividades e o desenvolvimento da comunidade eram offline, mas graças aos avanços da tecnologia os videogames se tornaram sociais.

Não por acaso, são cada vez mais frequentes shows e eventos dentro do Roblox e Fortnite (Travis Scott reuniu milhares de pessoas e o diretor Christopher Nolan fez uma premiere). As marcas têm investido pesadamente para entrar nesse universo. De olho nos 43 milhões de usuários que acessam o Roblox diariamente, a Netflix anunciou em julho um novo ponto de encontro virtual baseado na série Stranger Things. Mais recentemente, a Roblox anunciou o lançamento do Vans World, um metaverso de skate interativo da marca Vans dentro do mundo dos jogos. Ele é inspirado nos locais da marca, como a House of Vans e outros destinos de skate, o Vans World é um espaço 3D contínuo onde os fãs podem praticar suas manobras com outras pessoas e experimentar os equipamentos da marca.

“A Roblox é o novo ponto de encontro social, muito parecido com o shopping local na década de 1980, onde os adolescentes se reuniam”, afirma Christina Wootton, vice-presidente de parcerias de marca da Roblox. “O Starcourt Mall virtual é um cenário semelhante reinventado dentro do Roblox que abre possibilidades únicas para envolver e aumentar o público global do programa.”

Vale assistir a essa apresentação de fevereiro de David Baszucki, CEO da Roblox. Nela, o executivo detalha a estratégia de crescimento da empresa com seu potencial de criar experiências, inclusive educativas e comerciais, com uma crescente comunidade.

Brasil pode ser protagonista no metaverso

De tempos em tempos acontece um alinhamento de estrelas que pode beneficiar um mercado. E o Brasil possivelmente se vê diante dessa oportunidade. Na China, o governo cria um ambiente cada vez mais inóspito para empresas e desenvolvedores. Nos Estados Unidos, existe o dinheiro e a escala de usuários, mas falta engajamento e mão de obra. Não é fácil apostar no metaverso em um país que sobram empregos e faltam candidatos. Na Europa há desenvolvedores, principalmente no Leste Europeu, mas a fragmentação é gigantesca.

Enrico Machado, brasileiro que desenvolve Roblox, é um exemplo do potencial de milhares de usuários acostumados a uma base desde a infância. Ele começou a jogar Roblox com 11 anos de idade. Aos 15 já era um desenvolvedor. Hoje, na faculdade, cursa sistemas da informação e trabalha em um grande estúdio brasileiro desenvolvendo apenas jogos para Roblox.

“O Roblox está muito popular. Ele funciona a partir de microtransações. Você pode comprar coisas nos jogos que as pessoas criam e os desenvolvedores ganham dinheiro com isso. Hoje tem muita gente fazendo uma grana absurda. É tipo o mercado de futebol que você tem que você tem alguns caras que estão no topo da Pirâmide. Para cada Neymar você tem milhões de pessoas que gostariam de ser Neymar, essa relação é parecida. Mas qualquer pessoa pode ganhar um dinheiro razoável”, diz Machado.

Ele garante que não é muito difícil ganhar um dinheiro razoável na plataforma.

Tem muita consumidor querendo jogar. Então, se você entende o básico de comunidade, de design, de jogo, de programação, você sai do zero e em um curto espaço de tempo já começa a ganhar uma graninha se você focar nisso”.

Machado trabalha em um estúdio com outras dezenas de desenvolvedores. “No estúdio fazemos reuniões e tudo mais para para aplicar as melhores práticas para todos os jogos. Estou aprendendo bastante com eles. Eu sei programar, sei fazer um joguinho bonitinho mas eu não entendo nada de game design. Eu não sei como fazer um jogo de sucesso. Você sabe que existem melhores práticas, mas com um grupo maior fica mais fácil. Conhecer essas práticas é tão importante quanto saber programar”, garante.

Milhões de desenvolvedores se unindo 

Não é um caso isolado. Como Machado existem milhares de jovens no Brasil trabalhando em estúdios enormes desenvolvendo Roblox. E diferentemente de outras linguagens, a utilizada pela Roblox é acessível e de fácil aprendizado. Além disso, não é essencial ter um computador super poderoso ou uma conexão ultra-rápida.

Não por acaso o Brasil já é o quinto mercado de games do mundo, tem uma das maiores comunidades de usuários do planeta, um crescente mercado de streaming e ícones de jogos eletrônicos como Nobru.

A Wildlife, unicórnio brasileiro avaliado em mais de US$ 1,3 bilhão, já conta com mais de 800 colaboradores em países como Brasil, Estados Unidos, Argentina e Irlanda. Criada em 2011, a empresa tem mais de 60 jogos mobile.

O metaverso precisa de tecnologia e software, mas o fator determinante é uma engajada comunidade de desenvolvedores e usuários. Por essas razões, o Roblox e o Fortnite estão na dianteira. Já o Brasil tem todos os elementos para ser o líder global neste setor. Mas nada garante que isso irá acontecer. Montreal, no Canadá, oferece pistas sobre como podemos acelerar esse processo ao criar incentivos para atrair e reunir empresas, desenvolvedores e investimentos. Mas esse será assunto para a próxima coluna.

O metaverso deverá se tornar a próxima Internet e muitos gigantes de hoje vão perder influência. Mas assim como a Internet criou uma nova indústria, com novos empregos e novos bilionários, o metaverso repetirá essa história e possivelmente em uma escala ainda maior. É irônico que Stephenson tenha dito para a revista Vanity Fair, em 2017, que quando escrevia “Snow Crash” e criava o metaverso, estava “apenas inventando merda”. Décadas depois, os CEOs levam essa “invenção” cada vez mais a sério.

Este artigo foi produzido por Guilherme Ravache, jornalista, consultor digital e colunista da MIT Technology Review Brasil.

Is everything in the world a little bit conscious? (MIT Technology Review)

Christof Koch – August 25, 2021

The idea that consciousness is widespread is attractive to many for intellectual and, perhaps, also emotional reasons. But can it be tested? Surprisingly, perhaps it can.

Panpsychism is the belief that consciousness is found throughout the universe—not only in people and animals, but also in trees, plants, and bacteria. Panpsychists hold that some aspect of mind is present even in elementary particles. The idea that consciousness is widespread is attractive to many for intellectual and, perhaps, also emotional reasons. But can it be empirically tested? Surprisingly, perhaps it can. That’s because one of the most popular scientific theories of consciousness, integrated information theory (IIT), shares many—though not all—features of panpsychism.

As the American philosopher Thomas Nagel has argued, something is conscious if there is “something that it is like to be” that thing in the state that it is in. A human brain in a state of wakefulness feels like something specific. 

IIT specifies a unique number, a system’s integrated information, labeled by the Greek letter φ (pronounced phi). If φ is zero, the system does not feel like anything; indeed, the system does not exist as a whole, as it is fully reducible to its constituent components. The larger φ, the more conscious a system is, and the more irreducible. Given an accurate and complete description of a system, IIT predicts both the quantity and the quality of its experience (if any). IIT predicts that because of the structure of the human brain, people have high values of φ, while animals have smaller (but positive) values and classical digital computers have almost none.

A person’s value of φ is not constant. It increases during early childhood with the development of the self and may decrease with onset of dementia and other cognitive impairments. φ will fluctuate during sleep, growing larger during dreams and smaller in deep, dreamless states. 

IIT starts by identifying five true and essential properties of any and every conceivable conscious experience. For example, experiences are definite (exclusion). This means that an experience is not less than it is (experiencing only the sensation of the color blue but not the moving ocean that brought the color to mind), nor is it more than it is (say, experiencing the ocean while also being aware of the canopy of trees behind one’s back). In a second step, IIT derives five associated physical properties that any system—brain, computer, pine tree, sand dune—has to exhibit in order to feel like something. A “mechanism” in IIT is anything that has a causal role in a system; this could be a logical gate in a computer or a neuron in the brain. IIT says that consciousness arises only in systems of mechanisms that have a particular structure. To simplify somewhat, that structure must be maximally integrated—not accurately describable by breaking it into its constituent parts. It must also have cause-and-effect power upon itself, which is to say the current state of a given mechanism must constrain the future states of not only that particular mechanism, but the system as a whole. 

Given a precise physical description of a system, the theory provides a way to calculate the φ of that system. The technical details of how this is done are complicated, but the upshot is that one can, in principle, objectively measure the φ of a system so long as one has such a precise description of it. (We can compute the φ of computers because, having built them, we understand them precisely. Computing the φ of a human brain is still an estimate.)

Debating the nature of consciousness might at first sound like an academic exercise, but it has real and important consequences.

Systems can be evaluated at different levels—one could measure the φ of a sugar-cube-size piece of my brain, or of my brain as a whole, or of me and you together. Similarly, one could measure the φ of a silicon atom, of a particular circuit on a microchip, or of an assemblage of microchips that make up a supercomputer. Consciousness, according to the theory, exists for systems for which φ is at a maximum. It exists for all such systems, and only for such systems. 

The φ of my brain is bigger than the φ values of any of its parts, however one sets out to subdivide it. So I am conscious. But the φ of me and you together is less than my φ or your φ, so we are not “jointly” conscious. If, however, a future technology could create a dense communication hub between my brain and your brain, then such brain-bridging would create a single mind, distributed across four cortical hemispheres. 

Conversely, the φ of a supercomputer is less than the φs of any of the circuits composing it, so a supercomputer—however large and powerful—is not conscious. The theory predicts that even if some deep-learning system could pass the Turing test, it would be a so-called “zombie”—simulating consciousness, but not actually conscious. 

Like panpsychism, then, IIT considers consciousness an intrinsic, fundamental property of reality that is graded and most likely widespread in the tree of life, since any system with a non-zero amount of integrated information will feel like something. This does not imply that a bee feels obese or makes weekend plans. But a bee can feel a measure of happiness when returning pollen-laden in the sun to its hive. When a bee dies, it ceases to experience anything. Likewise, given the vast complexity of even a single cell, with millions of proteins interacting, it may feel a teeny-tiny bit like something. 

Debating the nature of consciousness might at first sound like an academic exercise, but it has real and important consequences. Most obviously, it matters to how we think about people in vegetative states. Such patients may groan or otherwise move unprovoked but fail to respond to commands to signal in a purposeful manner by moving their eyes or nodding. Are they conscious minds, trapped in their damaged body, able to perceive but unable to respond? Or are they without consciousness?

Evaluating such patients for the presence of consciousness is tricky. IIT proponents have developed a procedure that can test for consciousness in an unresponsive person. First they set up a network of EEG electrodes that can measure electrical activity in the brain. Then they stimulate the brain with a gentle magnetic pulse, and record the echoes of that pulse. They can then calculate a mathematical measure of the complexity of those echoes, called a perturbational complexity index (PCI).

In healthy, conscious individuals—or in people who have brain damage but are clearly conscious—the PCI is always above a particular threshold. On the other hand, 100% of the time, if healthy people are asleep, their PCI is below that threshold (0.31). So it is reasonable to take PCI as a proxy for the presence of a conscious mind. If the PCI of someone in a persistent vegetative state is always measured to be below this threshold, we can with confidence say that this person is not covertly conscious. 

This method is being investigated in a number of clinical centers across the US and Europe. Other tests seek to validate the predictions that IIT makes about the location and timing of the footprints of sensory consciousness in the brains of humans, nonhuman primates, and mice. 

Unlike panpsychism, the startling claims of IIT can be empirically tested. If they hold up, science may have found a way to cut through a knot that has puzzled philosophers for as long as philosophy has existed.

Christof Koch is the chief scientist of the MindScope program at the Allen Institute for Brain Science in Seattle.

The Mind issue

This story was part of our September 2021 issue

A notável atualidade do Animismo (Outras Palavras)

Ele foi visto pela velha antropologia como “forma mais primitiva” de religião. Mas, surpresa: sugere respostas a questões cruciais de hoje: o divórcio entre cultura e natureza e a tendência da ciência a tratar como objeto tudo o que não é “humano”

Publicado 02/09/2021 às 17:46 – Atualizado 02/09/2021 às 18:00

Por Renato Sztutman, na Revista Cult, parceira editorial de Outras Palavras

Muito se tem falado hoje em dia sobre o animismo. E mais, muito se tem falado sobre uma necessidade de retomar o animismo – uma forma de responder ao projeto racionalista da modernidade, que transformou o ambiente em algo inerte, opaco, sinônimo de recurso, mercadoria. Em tempos de pandemia, constatamos que algo muito importante se perdeu na relação entre os sujeitos humanos e o mundo que eles habitam, e isso estaria na origem da profunda crise que vivemos.

Animismo é, em princípio, um conceito antropológico, proposto por Edward Tylor, em Primitive Culture (1871), para se referir à forma mais “primitiva” de religião, aquela que atribui “alma” a todos os habitantes do cosmos e que precederia o politeísmo e o monoteísmo. O termo “alma” provém do latim anima – sopro, princípio vital. Seria a causa mesma da vida, bem como algo capaz de se desprender do corpo, viajar para outros planos e tempos. O raciocínio evolucionista de autores como Tylor foi refutado por diferentes correntes da antropologia ao longo do século 20, embora possamos dizer que ainda seja visto entranhado no senso comum da modernidade. A ideia de uma religião embrionária, fundada em crenças desprovidas de lógica, perdeu lugar no discurso dos antropólogos, que passaram a buscar racionalidades por trás de diferentes práticas mágico-religiosas.

Uma reabilitação importante do conceito antropológico de animismo aparece com Philippe Descola, em sua monografia “La nature domestique” (1986), sobre os Achuar da Amazônia equatoriana. Descola demonstrou que, quando os Achuar dizem que animais e plantas têm wakan (“alma” ou, mais precisamente, intencionalidade, faculdade de comunicação ou inteligência), isso não deve ser interpretado de maneira metafórica ou como simbolismo. Isso quer dizer que o modo de os Achuar descreverem o mundo é diverso do modo como o fazem os naturalistas (baseados nos ditames da Ciência moderna), por não pressuporem uma linha intransponível entre o que costumamos chamar Natureza e Cultura. O animismo não seria mera crença, representação simbólica ou forma primitiva de religião, mas, antes de tudo, uma ontologia, modo de descrever tudo o que existe, associada a práticas. Os Achuar engajam-se em relações efetivas com outras espécies, o que faz com que, por exemplo, mulheres sejam tidas como mães das plantas que cultivam, e homens como cunhados dos animais de caça.

Para Descola, a ontologia naturalista não pode ser tomada como único modo de descrever o mundo, como fonte última de verdade. Outros três regimes ontológicos deveriam ser considerados de maneira simétrica, entre eles o animismo. Esse ponto foi desenvolvido de maneira exaustiva em Par-delà nature et culture (2005), no qual o autor se lança em uma aventura comparatista cruzando etnografias de todo o globo. O animismo inverte o quadro do naturalismo: se neste último caso a identificação entre humanos e não humanos passa pelo plano da fisicalidade (o que chamamos corpo, organismo ou biologia), no animismo essa mesma identificação se dá no plano da interioridade (o que chamamos alma, espírito ou subjetividade). Para os naturalistas, a alma seria privilégio da espécie humana, já para os animistas é uma mesma “alma humana” que se distribui entre todos os seres do cosmos.

A ideia de perspectivismo, que autores como Eduardo Viveiros de Castro e Tânia Stolze Lima atribuem a cosmologias ameríndias, estende e transforma a de animismo. O perspectivismo seria, grosso modo, uma teoria ou metafísica indígena que afirma que (idealmente) diferentes espécies se têm como humanas, mas têm as demais como não humanas. Tudo o que existe no cosmos pode ser sujeito, mas todos não podem ser sujeitos ao mesmo tempo, o que implica uma disputa. Diz-se, por exemplo, que onças veem-se como humanas e veem humanos como presas. O que os humanos veem como sangue é, para elas, cerveja de mandioca, bebida de festa. Onças e outros animais (mas também plantas, astros, fenômenos meteorológicos) são, em suma, humanos “para si mesmos”. Um xamã ameríndio seria capaz de mudar de perspectiva, de se colocar no lugar de outrem e ver como ele o vê, portanto de compreender que a condição humana é partilhada por outras criaturas.

Como insiste Viveiros de Castro em A inconstância da alma selvagem (2002), a perspectiva está nos corpos, conjuntos de afecções mais do que organismos. A mudança de perspectiva seria, assim, uma metamorfose somática e se ancoraria na ideia de um fundo comum de humanidade, numa potencialidade anímica distribuída horizontalmente no cosmos. Se o perspectivismo é o avesso do antropocentrismo, ele não se separa de certo antropomorfismo, fazendo com que prerrogativas humanas deixem de ser exclusividade da espécie humana, assumindo formas as mais diversas.

O livro de Davi Kopenawa e Bruce Albert, A queda do céu (2010), traz exemplos luminosos desses animismos e perspectivismos amazônicos. Toda a narrativa de Kopenawa está baseada em sua formação como xamã yanomami, que se define pelo trato com os espíritos xapiripë, seres antropomórficos que nada mais são que “almas” ou “imagens” (tradução que Albert prefere dar para o termo utupë) dos “ancestrais animais” (yaroripë). Segundo a mitologia yanomami, os animais eram humanos em tempos primordiais, mas se metamorfosearam em seus corpos atuais. O que uniria humanos e animais seria justamente utupë, e é como utupë que seus ancestrais aparecem aos xamãs. Quando os xamãs yanomami inalam a yãkoana (pó psicoativo), seus olhos “morrem” e – mudando de perspectiva – eles acessam a realidade invisível dos xapiripë, que se apresentam em uma grande festa, dançando e cantando, adornados e brilhosos. O xamanismo yanomami – apoiando-se em experiências de transe e sonho – é um modo de conhecer e descrever o mundo. É nesse sentido que Kopenawa diz dos brancos, “povo da mercadoria”, que eles não conhecem a terra-floresta (urihi), pois não sabem ver. Onde eles identificam uma natureza inerte, os Yanomami apreendem um emaranhado de relações. O conhecimento dessa realidade oculta é o que permitiria a esses xamãs impedir a queda do céu, catalisada pela ação destrutiva dos brancos. E assim, insiste Kopenawa, esse conhecimento passa a dizer respeito não apenas aos Yanomami, mas a todos os habitantes do planeta.

Embora distintas, as propostas de Descola e de Ingold buscam na experiência animista um contraponto às visões naturalistas e racionalistas, que impõem uma barreira entre o sujeito (humano) e o mundo. Como propõe Viveiros de Castro, essa crítica consiste na “descolonização do pensamento”, pondo em xeque o excepcionalismo humano e a pretensão de uma ontologia exclusiva detida pelos modernos. Contraponto e descolonização que não desembocam de modo algum na negação das ciências modernas, mas que exigem imaginar que é possível outra ciência ou que é possível reencontrar o animismo nas ciências. Tal tem sido o esforço de autores como Bruno Latour e Isabelle Stengers, expoentes mais expressivos dos science studies: mostrar que a ciência em ação desmente o discurso oficial, para o qual conhecer é desanimar (dessubjetivar) o mundo, reduzi-lo a seu caráter imutável, objetivo.

No livro Sobre o culto moderno dos deuses “fatiches” (1996), Latour aproxima a ideia de fetiche nas religiões africanas à ideia de fato nas ciências modernas. Um fetiche é um objeto de culto (ou mesmo uma divindade) feito por humanos e que, ao mesmo tempo, age sobre eles. Com seu trabalho etnográfico em laboratórios, Latour sugeriu que os fatos científicos não são meramente “dados”, mas dependem de interações e articulações em rede. Num laboratório, moléculas e células não seriam simplesmente objetos, mas actantes imprevisíveis, constantemente interrogados pelo pesquisador. Em seu pioneiro Jamais fomos modernos (1991), Latour assume que fatos científicos são em certo sentido feitos, e só serão aceitos como fatos quando submetidos à prova das controvérsias, isto é, quando conseguirem ser estabilizados como verdades.

Isabelle Stengers vai além da analogia entre fatos (“fatiches”) e fetiches para buscar na história das ciências modernas a tensão constitutiva com as práticas ditas mágicas. Segundo ela, as ciências modernas se estabelecem a partir da desqualificação de outras práticas, acusadas de equívoco ou charlatanismo. Ela acompanha, por exemplo, como a química se divorciou da alquimia, e a psicanálise, do magnetismo e da hipnose. Em suma, as ciências modernas desqualificam aquilo que está na sua origem. E isso, segundo Stengers, não pode ser dissociado do lastro entre a história das ciências e a do capitalismo. Em La sorcellerie capitaliste (A feitiçaria do capitalismo, 2005), no diálogo com a ativista neopagã Starhawk, Stengers e Philippe Pignarre lembram que o advento da ciência moderna e do capitalismo nos séculos 17 e 18 não se separa da perseguição às práticas de bruxaria lideradas por mulheres. Se o capitalismo, ancorado na propriedade privada e no patriarcado, emergia com a política dos cercamentos (expulsão dos camponeses das terras comuns), a revolução científica se fazia às custas da destruição de práticas mágicas. Stengers e Pignarre encontram no ativismo de Starhawk e de seu grupo Reclaim, que despontou na Califórnia no final dos anos 1980, um exemplo de resistência anticapitalista. Para Starhawk, resistir ao capitalismo é justamente retomar (reclaim) práticas – no caso, a tradição wicca, de origem europeia – que foram sacrificadas para que ele florescesse.

Retomar a magia, retomar o animismo seria, para Stengers, uma forma de existência e de resistência. Como escreveu em Cosmopolíticas (1997), quando falamos de práticas desqualificadas pelas ciências modernas, não deveríamos apenas incorrer em um ato de tolerância. Não se trata de considerar a magia uma crença ou “cultura”, como fez-se na antropologia da época de Tylor e até pouco tempo atrás. Ir além da “maldição da tolerância” é levar a sério asserções indígenas, por exemplo, de que uma rocha tem vida ou uma árvore pensa. Stengers não está interessada no animismo como “outra” ontologia: isso o tornaria inteiramente exterior à experiência moderna. Ela tampouco se interessa em tomar o animismo como verdade única, nova ontologia que viria desbancar as demais. Mais importante seria experimentá-lo, seria fazê-lo funcionar no mundo moderno.

Que outra ciência seria capaz de retomar o animismo hoje? Eis uma questão propriamente stengersiana. Hoje vivemos mundialmente uma crise sanitária em proporções jamais vistas, que não pode ser dissociada da devastação ambiental e do compromisso estabelecido entre as ciências e o mercado. A outra ciência, diriam Latour e Stengers, seria a do sistema terra e do clima, que tem como marco a teoria de Gaia, elaborada por James Lovelock e Lynn Margulis nos anos 1970. Gaia é para esses cientistas a Terra como um organismo senciente, a Terra como resultante de um emaranhado de relações entre seres vivos e não vivos. Poderíamos dizer que Gaia é um conceito propriamente animista que irrompe no seio das ciências modernas, causando desconfortos e ceticismos. O que Stengers chama de “intrusão de Gaia”, em sua obra No tempo das catástrofes (2009), é uma reação ou resposta do planeta aos efeitos destruidores do capitalismo, é a ocorrência cada vez mais frequente de catástrofes ambientais e o alerta para um eventual colapso do globo. Mas é também, ou sobretudo, um chamado para a conexão entre práticas não hegemônicas – científicas, artísticas, políticas – e a possibilidade de recriar uma inteligência coletiva e imaginar novos mundos.

O chamado de Stengers nos obriga a pensar a urgência de uma conexão efetiva entre as ciências modernas e as ciências indígenas, uma conexão que retoma o animismo, reconhecendo nele um modo de engajar humanos ao mundo, contribuindo assim para evitar ou adiar a destruição do planeta. Como escreve Ailton Krenak, profeta de nosso tempo, em Ideias para adiar o fim do mundo (2019), “quando despersonalizamos o rio, a montanha, quando tiramos deles os seus sentidos, considerando que isso é atributo exclusivo de humanos, nós liberamos esses lugares para que se tornem resíduos da atividade industrial e extrativista”. Em outras palavras, quando desanimamos o mundo, o deixamos à mercê de um poder mortífero. Retomar o animismo surge como um chamado de sobrevivência, como uma chance para reconstruir a vida e o sentido no tempo pós-pandêmico que há de vir.