Arquivo da categoria: Incerteza

>96% de tudo o que há é invisível!

>Pesquisa FAPESP – Edição 168 – Fevereiro 2010

Universo invisível

Astrônomos e físicos do mundo todo tentam desvendar do que são feitos 96% do Cosmo
Ricardo Zorzetto

A Agência Espacial Europeia (ESA, na sigla em inglês) divulgou no final de janeiro uma imagem mostrando a concentração de galáxias a diferentes distâncias em uma pequena região do Universo. Cada ponto colorido da imagem (veja acima) corresponde a um agrupamento com centenas a milhares de galáxias – cada uma delas formada por centenas de bilhões de estrelas e uma quantidade elevada de gás muito quente. São o que os astrônomos chamam de aglomerados de galáxias, as estruturas em equilíbrio de maior dimensão e massa já identificadas no Cosmo. Calculando o número de corpos celestes que podem existir ali, fica difícil imaginar que eles contribuam para compor apenas 4,6% de tudo o que existe no Universo. O restante, na verdade quase tudo, não pode ser visto. Os outros 95,6% são formados, de acordo com a vasta maioria dos físicos e dos astrônomos, por dois tipos de elementos descobertos apenas nos últimos 80 anos: a matéria escura e a energia escura, sobre as quais quase nada se sabe além do fato de que precisam existir para que o Universo seja como se imagina que é. Alvo de uma série de experimentos internacionais que contam com a participação de brasileiros, alguns já em andamento e outros previstos para iniciar nos próximos anos, essa forma de matéria e de energia não absorve nem emite luz e, portanto, é invisível ao olho humano.

Nenhum equipamento em atividade até o momento foi capaz de detectá-las diretamente. Mas os físicos preveem a existência das duas em seus modelos de evolução do Cosmo, e os astrônomos inferem a presença delas a partir de assinaturas que deixam na estrutura do Universo, identificáveis em imagens como essa produzida pela ESA, resultado do Levantamento sobre a Evolução Cosmológica (Cosmos) – esse projeto usa os maiores telescópios em terra e no espaço para vasculhar uma região do céu do tamanho de oito luas cheias.

Foi apenas no último século que a compreensão do Universo se complicou tanto. Na década de 1920 o astrônomo norte-americano Edwin Hubble percebeu que o Cosmo era formado por grandes agrupamentos de estrelas – as galáxias – e que elas estavam se afastando umas das outras. A constatação de que o Universo estava se expandindo levou físicos e astrônomos a reverem suas ideias, pois até então acreditava-se que ele fosse estático e finito.

Estudando as galáxias, o astrônomo búlgaro Fritz Zwicky, considerado por muitos um mal-humorado, notou em 1933 que elas precisariam de 10 vezes mais massa do que tinham para se unirem em aglomerados apenas pela atração gravitacional, a força proposta por Isaac Newton para explicar a atração de corpos de massa elevada a distâncias muito grandes, como os planetas e as estrelas. A massa que não se conseguiu enxergar foi chamada de matéria escura. A energia escura só seria proposta cerca de 70 anos mais tarde, quando os grupos de Adam Riess e Saul Perlmutter, que investigavam supernovas, estrelas que explodiram passando a emitir um brilho milhões de vezes mais intenso, estavam se afastando de nós cada vez mais rapidamente. O Universo não se encontrava apenas em expansão, mas em expansão acelerada. Algo desconhecido, uma espécie de força contrária à da gravidade – mais tarde chamada de energia escura –, fazia o Cosmo crescer a velocidades cada vez maiores como um lençol de borracha puxado pelas pontas.

Poucos cientistas duvidam hoje da existência da matéria escura e da energia escura, também conhecidas como a componente escura do Universo. O principal desafio – muitos pesquisadores a consideram uma das questões mais importantes a serem resolvidas – é determinar a natureza de ambas, ou seja, o que de fato as compõem.

Sobre esse ponto, físicos e astrônomos nada sabem com segurança. Quando muito, têm bons palpites. E, como os demais habitantes do planeta, devem continuar às escuras até que uma avalanche de dados sobre mais agrupamentos de galáxias e outras estruturas do Universo mais antigas do que as observadas hoje comece a alimentar seus computadores.

“Nunca nossa ignorância foi quantificada com tamanha precisão”, comenta o astrônomo Laer-te Sodré Júnior, da Universidade de São Paulo (USP), referindo-se aos cálculos mais aceitos hoje da quantidade de matéria escura e de energia escura existentes no Cosmo: 22,6% e 72,8%, respectivamente. Há quase 30 anos Sodré estuda os aglomerados de galáxias, que reúnem cerca de 10% das galáxias existentes e podem ser compreendidos como sendo as metrópoles cósmicas: assim como as metrópoles da Terra, são poucas, mas têm dimensões absurdas e são muito populosas.

Com base em informações sobre aglomerados de galáxias e outros astros muito antigos e distantes, os físicos teóricos Élcio Abdalla, Luis Raul Abramo e Sandro Micheletti, todos do Instituto de Física (IF) da USP, em parceria com o físico chinês Bin Wang, decidiram recentemente verificar se os dados dessas observações astronômicas confirmavam uma ideia apresentada anos antes por outro brasileiro, o físico Orfeu Bertolami, pesquisador do Instituto Superior Técnico de Lisboa, em Portugal. Quase uma década atrás, pouco depois de identificadas as primeiras evidências de que a energia escura existe, Bertolami propôs que, se a matéria escura e a energia escura interagissem, como havia sugerido o astrônomo italiano Luca Amendola, essa influência mútua deixaria sinais em estruturas muito grandes do Cosmo, a exemplo dos aglomerados de galáxias.

Partículas – Para quem não está habituado, pode parecer estranho imaginar que algo que não se sabe muito bem o que é afete de alguma forma outra coisa sobre a qual não se tem o menor conhecimento. Mas não é o que os físicos pensam. Seja qual for a natureza da matéria escura e da energia escura, espera-se que o comportamento de ambas na escala do infinitamente pequeno (o mundo das partículas atômicas) influencie o mundo do infinitamente grande. Por isso, conhecer a interação entre elas – e delas com a matéria visível – pode ajudar a compreender como e em quanto tempo o Universo se formou e se tornou o que é, possibilitando inclusive a existência de vida. “Se acreditarmos minimamente no modelo padrão da física de partículas, que explica a composição da matéria bariônica [a matéria comum, composta de prótons, nêutrons e elétrons, e formadora das estrelas, dos planetas e de tudo o mais que se conhece] e, como as partículas que a formam interagem entre si, não há motivo para duvidar que também possa existir interação entre a matéria escura e a energia escura”, afirma Abdalla.

Inicialmente Abdalla, Micheletti e Bin Wang, da Universidade Fudan, em Xangai, elaboraram um modelo rudimentar no qual descreveram a matéria escura e a energia escura com propriedades semelhantes às de líquidos e gases como a água e o ar – os físicos os chamam de fluidos, materias formados por camadas que se movimentam continuamente umas em relação às outras e, nesse deslocamento, podem se deformar reciprocamente. Na construção do modelo, uma série de equações matemáticas que tentam descrever o que aconteceu no passado e predizer o que ocorrerá no futuro levou em consideração informações obtidas durante anos por meio da observação de quasares, núcleos de galáxias muito brilhantes e antigos; supernovas, estrelas que explodiram e passaram a emitir uma luz milhões de vezes mais intensa que o normal; e da radiação cósmica de fundo em micro- -ondas, uma forma de energia eletromagnética produzida nos instantes iniciais após o Big Bang, a explosão inicial que gerou o Universo e o próprio tempo 13,7 bilhões de anos atrás.

Mesmo sem determinar o modo como a matéria escura e a energia escura interagiam – apenas supuseram que a interação ocorreria –, eles verificaram que, ao resolver essas equações mais as formuladas por Einstein na teoria da relatividade geral, obtinham um Universo semelhante ao que se conhece hoje: em expansão acelerada, com tudo o que existe nele se afastando cada vez mais rapidamente, segundo artigo apresentado em junho de 2009 na Physical Review D. Na interação, de acordo com esse modelo, a energia escura liberaria radiação e se converteria em matéria escura – uma consequência da famosa equação E=m.c2, segundo a qual, em determinadas condições, matéria pode se transformar em energia e energia em matéria.

Interação – Mas não era o suficiente. Com o físico Luis Raul Abramo, Abdalla aprimorou o modelo e, dessa vez, procurou uma assinatura da interação entre energia escura e matéria escura nas informações obtidas de 33 aglomerados de galáxias, 25 deles estudados anos atrás em detalhes por Laerte Sodré e Eduardo Cypriano, pesquisadores do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP. Em colaboração com Sodré, Abdalla, Abramo e Wang usaram três métodos conhecidos para estimar a quantidade de matéria (massa) dos aglomerados de galáxias. Se não houvesse interação, os resultados teriam de ser iguais ou, no mínimo, muito próximos. Já se a matéria escura se transformasse em energia escura, ou vice-versa, um desses valores, sensível a essa conversão, diferiria dos demais. No trabalho publicado em 2009 na Physics Letters B, eles afirmam que há uma possibilidade real, ainda que pequena, de que a interação de fato ocorra, com a energia escura se convertendo em matéria escura.

Mesmo o próprio grupo vê esse resultado com cautela, porque há uma série de incertezas na medição das massas dos aglomerados de galáxias. Algumas dessas técnicas dependem de que esses agrupamentos estejam em equilíbrio e não interajam com outras galáxias ou aglomerados. Mas isso é pouco provável porque a massa dos aglomerados é muito elevada e atrai tudo o que está por perto. “A incerteza na medição da massa de cada aglomerado é grande”, comenta Abramo. “Esse modelo terá de ser testado por alguns anos. Analisamos 33 aglomerados de galáxias, mas, para ter segurança, teríamos de avaliar de centenas a milhares deles”, afirma Sodré, que atualmente negocia com astrônomos e físicos espanhóis a participação brasileira no projeto Javalambre Physics of the Accelerating Universe Survey (J-PAS), destinado a entender melhor as propriedades da energia escura e a evolução das galáxias medindo com mais precisão a que distância se encontram.

Infográfico: A expansão do Cosmo

Estruturas do Universo – Abdalla, que teve a iniciativa de verificar os sinais dessa interação alguns anos atrás, sabe que muitos discordam de sua proposta. “Uma vez um referee [revisor científico] mal-educado disse que esse trabalho era especulação ao quadrado”, lembra o físico da USP. “Mas, se estivermos certos e essa interação for bem definida, poderá ser verificada em experimentos de física de partículas.”

Há cerca de cinco anos os físicos teóricos brasileiros Gabriela Camargo Campos e Rogério Rosenfeld, ambos do Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp), criaram um modelo de interação entre matéria escura e energia escura que também as tratava como fluidos. No trabalho – feito em parceria com Luca Amendola, do Observatório Astronômico de Roma, o autor da ideia de interação entre esses elementos –, a dupla brasileira levou em consideração tanto informações sobre supernovas como sobre a radiação cósmica de fundo. Feitas as contas, concluíram que essa conversão não deve ocorrer, de acordo com artigo de 2007 na Physical Review D.

Com as informações disponíveis hoje sobre as estruturas do Universo, porém, fica difícil saber quem tem razão. “Há poucos dados e eles são fragmentados”, comenta Cypriano, astrônomo do IAG-USP. “Necessitamos de dados homogêneos e em grande quantidade.” Por esse motivo, mais de uma dúzia de projetos internacionais de grande porte já passaram pelo menos do estágio de planejamento.

O estudo da estrutura e da evolução das galáxias leva boa parte dos físicos e astrônomos a darem por certo que a matéria escura de fato existe – e que sua composição será descoberta em breve, talvez em até uma década. “Se for composta por partículas frias de massa muito elevada, vários modelos de física de partículas preveem que poderá ser produzida no Large Hadron Collider [LHC]”, afirma Abramo. Instalado na fronteira da Suíça com a França, o LHC começou a funcionar em fase experimental no final de 2009 e deve lançar, umas contra as outras, partículas atômicas viajando a velocidades próximas à da luz, desfazendo-as nos seus menores componentes. Já a resposta para a natureza da energia escura deve levar bem mais tempo, pois depende de levantamentos extensos das galáxias e estrelas encontradas em diferentes regiões do céu.

Um desses levantamentos, previsto para começar no segundo semestre de 2011, é o Dark Energy Surgey (DES), do qual devem participar cerca de 30 brasileiros (entre pesquisadores, estudantes e técnicos) de instituições no Rio de Janeiro, São Paulo e Rio Grande do Sul. Esse projeto pretende usar uma supercâmera digital – com capacidade de produzir imagens de altíssima resolução (500 megapixels), 40 vezes maior do que as das câmeras comuns – acoplada ao telescópio Blanco do Observatório Interamericano de Cerro Tololo, no Chile, para coletar ao longo de quatro anos informações de aproximadamente 400 milhões de galáxias. “Queremos estudar a distribuição de massa dos aglomerados de galáxias a diferentes distâncias”, conta Luiz Alberto Nicolaci da Costa, astrônomo do Observatório Nacional (ON), no Rio de Janeiro, coor-denador da participação brasileira no DES. Dependendo da massa total do Universo e da existência ou não de interação entre matéria escura e energia escura, pode haver um número maior ou menor desses aglomerados a determinadas distâncias.

Força repulsiva – Mesmo antes de o experimento começar, Nicolaci sabe que ele não trará uma resposta definitiva sobre a natureza da energia escura, a força repulsiva, uma espécie de antigravidade, que faz os objetos se afastarem a velocidades cada vez maiores no Universo. “No início desta década um grupo internacional de pesquisadores se reuniu e tentou delinear os experimentos mais adequados a serem realizados em quatro fases para tentar descobrir o que é a energia escura”, explica o astrônomo do Observatório Nacional. Os mais simples já terminaram e o DES é da fase três. “Com o DES, esperamos restringir os candidatos a energia escura”, conta Nicolaci.

Uma das mais cotadas é a chamada energia do vácuo, que, ao contrário do que se pensa, não é vazio. O vácuo é rico em partículas muito fugazes que surgem e desaparecem antes que possam ser detectadas e poderiam fornecer a força antigravitacional que faz os corpos celestes se afastarem. Para a física de partículas, a força do vácuo é o correspondente à constante cosmológica, termo que Albert Einstein acrescentou às equações da relatividade geral para que sua teoria representasse um Universo estático. “Mas essa seria uma solução feia, porque a densidade de energia do vácuo teria de ser 10120 [o número um seguido de 120 zeros] maior do que a observada pelos astrônomos”, comenta Élcio Abdalla.

Pode ser também que a energia escura seja uma espécie de fluido desconhecido, chamado pelos astrônomos de quintessência, em alusão aos quatro elementos que se acreditava que compunham o Universo (ar, água, fogo e terra). Ou ainda, que ela não exista, e os efeitos atribuídos a ela sejam consequên-cia de o Universo não ser homogêneo como se imagina e a Via Láctea se encontrar em uma região contendo muito pouca matéria. O astrofísico Filipe Abdalla, pesquisador da University College London e filho de Élcio Abdalla, trabalha em dois experimentos mais avançados, que integram a quarta fase da busca da energia escura e só devem começar a funcionar em alguns anos: o do satélite Euclid e o do te-les–cópio de mi-cro-ondas Square Kilometre Array, a ser construído na África do Sul ou na Austrália. “Se for alguma incorreção nas equações de Einstein, que explicam bem a atração gravitacional nas galáxias”, comentou Filipe durante uma visita a São Paulo em agosto de 2009, “esses experimentos nos permitirão saber”.

>Signs of Damage to Public Trust in Climate Findings (N. Y. Times/Dot Earth blog)

>
By ANDREW C. REVKIN
February 5, 2010, 4:27 pm

CBS News has run a report summarizing fallout from the illegal distribution of climate scientists’ email messages and files and problems with the 2007 report from the Intergovernmental Panel on Climate Change. The conclusion is that missteps and mistakes are creating broader credibility problems for climate science.

Senator James M. Inhofe was quick to add the report to the YouTube channel of the minority on the Environment and Public Works committee:

Ralph J. Cicerone, the president of the National Academy of Sciences, has an editorial in this week’s edition of the journal Science (subscription only) noting the same issue. Over all, he wrote, “My reading of the vast scientific literature on climate change is that our understanding is undiminished by this incident; but it has raised concern about the standards of science and has damaged public trust in what scientists do.”

Dr. Cicerone, an atmospheric scientist, added that polls and input he has received from various sources indicate that “public opinion has moved toward the view that scientists often try to suppress alternative hypotheses and ideas and that scientists will withhold data and try to manipulate some aspects of peer review to prevent dissent. This view reflects the fragile nature of trust between science and society, demonstrating that the perceived misbehavior of even a few scientists can diminish the credibility of science as a whole.” (A BBC report on its latest survey on climate views supports Dr. Cicerone’s impression.)

What should scientists do? Dr. Cicerone acknowledged both the importance of improving transparency and the challenges in doing so:

“It is essential that the scientific community work urgently to make standards for analyzing, reporting, providing access to, and stewardship of research data operational, while also establishing when requests for data amount to harassment or are otherwise unreasonable. A major challenge is that acceptable and optimal standards will vary among scientific disciplines because of proprietary, privacy, national security and cost limitations. Failure to make research data and related information accessible not only impedes science, it also breeds conflicts.”

As recently as last week, senior members of the intergovernmental climate panel had told me that some colleagues did not see the need for changes in practices and were convinced that the recent flareup over errors in the 2007 report was a fleeting inconvenience. I wonder if they still feel that way.

UPDATE: Here’s some additional reading on the I.P.C.C’s travails and possible next steps for the climate panel:

IPCC Flooded by Criticism, by Quirin Schiermeier in Nature News.

Anatomy of I.P.C.C.’s Mistake on Himalayan Glaciers and Year 2035, by Bidisha Banerjee and George Collins in the Yale Forum on Climate Change and the Media.

* * *

After Emergence of Climate Files, an Uncertain Forecast

By ANDREW C. REVKIN
December 1, 2009, 10:56 am

Roger A. Pielke Jr. is a political scientist at the University of Colorado who has long focused on climate and disasters and the interface of climate science and policy. He has been among those seeking some clarity on temperature data compiled by the Climatic Research Unit of the University of East Anglia, which is now at the center of a storm over thousands of e-mail messages and documents either liberated or stolen from its servers (depending on who is describing the episode). [UPDATED 11:45 a.m. with a couple more useful voices “below the fold.”]

On Monday, I asked him, in essence, if the shape of the 20th-century temperature curve were to shift much as a result of some of the issues that have come up in the disclosed e-mail messages and files, would that erode confidence in the keystone climate question (the high confidence expressed by the Intergovernmental Panel on Climate Change in 2007 that most warming since 1950 is driven by human activities)?

This is Dr. Pielke’s answer. (I added boldface to the take-home points.):

Here is my take, in a logical ordering, from the perspective of an informed observer:

The circumstances:

1. There are many adjustments made to the raw data to account for biases and other factors.
2. Some part of the overall warming trend is as a result of these adjustments.
3. There are legitimately different ways to do the adjusting. Consider that in the e-mails, [Phil] Jones writes that he thinks [James] Hansen’s approach to urban effects is no good. There are also debates over how to handle ocean temperatures from buckets versus intake valves on ships and so on. And some of the procedures for adjusting are currently contested in the scientific literature.
4. Presumably once the data is readily available how these legitimate scientific choices are made about the adjusting would be open to scrutiny and debate.
5. People will then be much more able to cherry pick adjustment procedures to maximize or minimize the historical trends, but also to clearly see how others make decisions about adjustments.
6. Mostly this matters for pre-1979, as the R.S.S. and U.A.H. satellite records provide some degree of independent checking.

Now the implications:

A. If it turns out that the choices made by CRU, GISS, NOAA fall on the “maximize historical trends” end of the scale, that will not help their perceived credibility for obvious reasons. On the other hand, if their choices lead to the middle of the range or even low end, then this will enhance their credibility.
B. The surface temps matter because they are a key basis for estimates of climate sensitivity in the models used to make projections. So people will fight over small differences, even if everyone accepts a significant warming trend. (This is a key point for understanding why people will fight over small differences.)
C. When there are legitimate debates over procedures in science (i.e., competing certainties from different scientists), then this will help the rest of us to understand that there are irreducible uncertainties across climate science.
D. In the end, I would hypothesize that the result of the freeing of data and code will necessarily lead to a more robust understanding of scientific uncertainties, which may have the perverse effect of making the future less clear, i.e., because it will result in larger error bars around observed temperature trends which will carry through into the projections.
E. This would have the greatest implications for those who have staked a position on knowing the climate future with certainty — so on both sides, those arguing doom and those arguing, “Don’t worry be happy.”

So, in the end, Dr. Pielke appears to say, closer scrutiny of the surface-temperature data could undermine definitive statements of all kinds — that human-driven warming is an unfolding catastrophe or something concocted. More uncertainty wouldn’t produce a climate comfort zone, given that poorly understood phenomena can sometimes cause big problems. But it would surely make humanity’s energy and climate choices that much tougher.

[UPDATE, 11:45 a.m.] Andrew Freedman at the Capital Weather Gang blog has interviewed Gerald North, the climate scientist who headed the National Academies panel that examined the tree-ring data and “hockey stick” graphs. Some excerpts:

On whether the emails and files undermine Dr. North’s confidence in human-driven climate change:

This hypothesis (Anthropogenic GW) fits in the climate science paradigm that 1) Data can be collected and assembled in ways that are sensible. 2) These data can be used to test and or recalibrate climate simulation models. 3) These same models can be used to predict future and past climates. It is understood that this is a complicated goal to reach with any precision. The models are not yet perfect, but there is no reason to think the approach is wrong.

On Stephen McIntyre of Climateaudit.org:

I do think he has had an overall positive effect. He has made us re-examine the basis for our assertions. In my opinion this sorts itself out in the due course of the scientific process, but perhaps he has made a community of science not used to scrutiny take a second look from time to time. But I am not sure he has ever uncovered anything that has turned out to be significant.

Also, please note below that Michael Schlesinger at the University of Illinois sent in a response to sharp criticisms of his Dot Earth contribution from Roger Pielke, Sr., at the University of Colorado, Boulder. (Apologies for Colorado State affiliation earlier; he’s moved.)

>Do folclore à cidadania ambiental

>
Ensaio

Do folclore à cidadania

Em tempos de discussão acirrada sobre os efeitos do aquecimento global, o pesquisador Renzo Taddei avalia que as populações tradicionalmente vitimadas pelas secas têm contribuição decisiva para consolidação do que chama de cidadania ambiental

Renzo Taddei
especial para O POVO
Fortaleza – 24 Out 2009 – 12h48min
Foto: TALITA ROCHA

A ideia de que as variações do clima vão afetar de forma decisiva o futuro das pessoas é uma novidade com a qual habitantes de muitos centros urbanos do planeta – e do Brasil – agora têm que se acostumar. Para a população do nordeste semiárido, não há nenhuma novidade aí. Foi assim desde sempre. Por isso, poderíamos dizer que, pelo menos nesse sentido, há uma certa cearencização da população urbana mundial.

Brincadeiras a parte, o fato é que há lições a serem aprendidas com as sociedades que convivem com ameaças climáticas há muito tempo. Se ficarem confirmadas previsões a respeito da expansão do semiárido brasileiro e da desertificação de partes do cerrado, como resultado do aquecimento global, o Ceará e estados vizinhos irão, certamente, exportar conhecimento a respeito da convivência com o semiárido.

Os esforços de convivência com o semiárido deram-se, no Ceará, por exemplo, em duas frentes. Uma, mais antiga, está pautada nos conhecimentos da cultura popular, que desde muito cedo na história da região – antes mesmo da chegada dos europeus – já buscava decifrar os enigmas colocados pelo clima, fator fundamental para a garantia da sobrevivência. A outra, mas recente, é o uso da técnica e da ciência na criação de condições materiais para que a vulnerabilidade das populações à seca seja reduzida.

No primeiro grupo, encontramos um sem-número de métodos tradicionais de previsão do tempo e do clima, componentes da base de conhecimentos comuns e compartilhados da população sertaneja, ainda que feitos mais visíveis nas figuras dos profetas da chuva do sertão. Além da atividade de prever as chuvas, as estratégias populares combinam ainda formas específicas de organizar sua produção local, como a escolha de sementes e a criação de animais resistentes à pouca chuva. E tudo isso emoldurado dentro de um marco de referência religioso, em que todas as coisas, inclusive o clima, são parte de uma ordem cósmica regida pelo criador, a quem cabe aos sertanejos pedir proteção e amparo.

No segundo, têm papel de destaque o envio de engenheiros ao estado, por Pedro II, ainda no período imperial, de modo a iniciar um longo processo de institucionalização dos esforços de combate aos efeitos das secas. O momento mais decisivo deste processo foi, certamente, a criação do que viria mais tarde a ser conhecido pela sigla Dnocs.

O Dnocs faz um século de vida. É interessante, e inspirador, ver como, depois de tanto tempo trilhando caminhos separados, paralelos, atuando com os mesmos objetivos, a técnica e a cultura popular têm finalmente a oportunidade de se encontrar. Há dois eventos que ocorrem regularmente no Ceará que sinalizam nessa direção. O primeiro é a reunião anual de profetas da chuva do município de Quixadá. Nessa reunião, que acontece no segundo sábado do mês de janeiro, profetas da região anunciam publicamente os seus prognósticos para a estação de chuvas.

O que têm chamado a minha atenção, desde que comecei a observar estes encontros, é o fato de que muitos dos profetas apresentam-se como “pesquisadores“, uma vez que, dizem eles, suas previsões são baseadas em observação sistemática da natureza, e não em inspirações metafísicas. Por essa razão, muitos destes indivíduos não se sentem confortáveis com o rótulo de profetas. Além disso, é comum que suas previsões incluam algum grau de incerteza associada ao clima, da mesma forma como ocorre em previsões meteorológicas.

A diferença, obviamente, está na linguagem: entre os profetas, a incerteza frequentemente é comunicada através da mensagem “só Deus sabe tudo“. Ou seja, fica claro, nas palavras e previsões dos profetas da chuva, que já não há uma rejeição do conhecimento técnico e das formas “urbanas“ de pensamento, como encontramos, por exemplo, nos poemas Cante lá que eu canto cá ou Ao dotô do avião, de Patativa do Assaré.

O segundo evento, que ocorre com mais frequência, são as reuniões dos comitês de bacias hidrográficas, que ocorrem em todo o Ceará, e, graças à atuação do Dnocs, em várias outras regiões do Nordeste. Nos comitês, técnicos e membros das lideranças populares locais discutem as formas de uso e administração das águas dos açudes do Estado. Como não há água sem chuva, não há conhecimento hídrico sem conhecimento meteorológico. É nos comitês, desta forma, que o conhecimento popular e o conhecimento técnico interagem, criando a possibilidade da criação da verdadeira participação democrática.

Esse panorama está inserido dentro de um contexto mundial em que a expressão cidadania ambiental ganha significados novos e importantes. Todos os habitantes desse planeta se entendem, agora, de alguma forma vinculados à questão ambiental global, seja como consumidores, seja como afetados. E exigem informação a respeito do meio ambiente, e voz no que tange a como sociedade e meio ambiente interagem.

Está aí colocado um desafio real, para o mundo e para o Ceará. Infelizmente, é preciso que se diga, no Ceará e nos demais estados do Nordeste, ainda que a participação popular seja fundamental nos comitês de bacias, há certa resistência com relação ao conhecimento popular. A visão técnica a respeito da natureza é preponderante, e muitas vezes outras formas de conhecimento não tem vez nem voz. Na democratização das águas no Brasil, há um passo faltando, o passo da inclusão da diversidade cultural. Para que se crie uma verdadeira democracia ambiental, aqui e em outros países, todas as vozes têm que ter sua vez.

RENZO TADDEI é antropólogo e professor da Universidade Federal do Rio de Janeiro (UFRJ)

>I know I know nothing; but at least I know that

>
Willem Buiter – FT’s Maverecon Blog

September 10, 2009 3:00pm

Science with very few (if any) data

Doing statistical analysis on a sample of size 1 is either a very frustrating or a very liberating exercise. The academic discipline known as history falls into that category. Most applied social science, including applied economics, does too. Applied economists use means fair and foul to try to escape from the reality that economics is not a discipline where controlled experiments are possible. The situation that an economically relevant problem can be studied by means of a control group and a treatment group that are identical as regards all but one external or exogenous driver, whose influence can as a result be isolated, identified and measured, does not arise in practice.

Time series analysis (which establishes associations or correlations between measurable variables over time), cross section analysis (which studies associations or correlations between between variables observed during a common time period but differing by some other criterion (say location, individual or family identity or whatnot)), and panel data analysis, which combines time-series and cross-section data and methodology, all struggle (mostly in vain) with the problem that the economic analyst cannot control for all relevant influences on the behaviour of the phenomenon he is investigating, GDP growth or unemployment, say. The reason for this is first and foremost that the investigating economist doesn’t have a clue as to what should be on an exhaustive list of possible relevant drivers of GDP growth or unemployment. Second, many of the key variables he is aware of may not be measurable or only be measurable with serious errors. Expectations are an example. Finally, the long list of possible explanatory variables that are omitted from consideration are extremely unlikely to be statistically independent of the errors or residuals from a statistical or econometric analysis/estimation that uses just a truncated set of explanatory variables. The result: biased and inconsistent estimates of parameters and other features of the relationship between the explanandum and the explanans.

Economists have made a growth industry of seeking out or concocting quasi-natural experiments that might look like controlled experiments in the natural sciences. Freakonomics: A Rogue Economist Explores the Hidden Side of Everything by Steven Levitt and Stephen J. Dubner contains a sampling of this kind of work.

I have not read a single one of these quasi-natural experiment studies where one could not easily come up with a long list of potentially relevant omitted explanatory variables. Such ‘unobserved heterogeneity’ means that other things were definitely not equal, and the attribution of cause and effect is bound to be flawed. In addition, the determined chase for yet another quasi-controlled or natural experiment has led many economists to look under the lamppost for their missing knowledge, not because that is where they lost it, but because that’s where the light is. A flood of cute but irrelevant studies of issues of no conceivable economic significance has been undertaken simply because a cute but irrelevant natural experiment had been conducted.

Experimental economics was the last refuge of the empirically desperate. It mostly involves paying a bunch of undergraduates (or, if you have a very small budget, graduates) to play a variety of simple games with monetary and occasionally non-monetary pay-offs for the participants. The actions of the players in these highly artificial settings – artificial if only because the players are aware they are the guineau pigs in some academic experiment – are meant to cast light on the behaviour of people in real-word situations subject to similar constraints and facing similar incentives. Halfway between proper experimental or laboratory economics and natural experiments are ‘constructed experiments’ (aka randomised experiments) in which a (team of) economists conducts an experiment in a real-world setting and uses randomised evaluation methods to make inferences and test hypotheses. Typically, the guinea pigs in such randomised experiments are a selection of Indian villagers or other poor population groups – a little research grant goes a long way in a very poor environment. Again, the intentions are good, but the ceteris paribus assumption – that all other material influences on behaviour have either been controlled for or don’t distort the results of the study because they are independent of the unexplained component of behaviour in the constructed experiment – is (a) untestable and (b) generally implausible.

Of course, economics and the other social sciences are not alone in being bereft of meaningful controlled experiments. Two of the jewels in the ‘hard’ or natural science crown, cosmology and the theory of evolution, provide generous companionship for the social science waifs. Scientists at CERN may be able (wittingly or unwittingly) to create little bangs and mini black holes a few miles below ground in Switzerland and France, but this does not amount to a test of the big bang theory. They have no more than one dodgy observation on that. Evolutionary biologists may be able to observe evolution at work in real time ‘in the small’, that is, in microorganisms, butterflies etc. but they don’t have replications of the 4.5 billion year history of the earth, through a collection of parallel universes each of which differs from the others in one observable and measurable aspect only. This does not mean that anything goes. Finding fossils that can confidently be dated to be around 150 million years old makes rather a hash of strict young earth creationist accounts that date the creation of the universe to somewhere between 5,700 and 10,000 years ago. Other propositions, like intelligent design, cannot be proven or disproved and are therefore not scientific in nature.

So what is the poor economist to do when confronted with the need to make predictions or counterfactual analyses? Fundamentally, you pray and you punt.

How do we evaluate the reliability or quality of such forecasts and analyses? Ex-post, by matching them up against outcomes, in the case of forecasts. This is not straighforward – very few economists make completely unconditional forecasts, but it is in principle feasible. In the case of a counterfactual analysis where the counterfactual policy action or event did not take place – who knows? A necessary test of the acceptability of a counterfactual argument is its logical coherence – its internal consistency. That probably gets rid of about 90 percent of what is released into the public domain, but still leaves us with a lot of counterfactual propositions (and forecasts that can not yet be tested against outcomes).

For the counterfactual proposition and the forecasts beyond today that survive the test of logical coherence, all we have is the one data point of history to lend some plausiblity.

What will be the likely shape of the recovery in the overdeveloped world?

What does history teach us about the likely shape of the recovery in the overdeveloped world following the bottoming out of global GDP? Is the financial collapse phase of the Great Depression a good guide? Probably not, because the banking sector and the financial system of the late 1920s and early 1930s were so different from those that went down the chute starting August 2007. A financial sector that is one layer deep, with banks funding themselves mainly from household deposits and investing mainly in loans to the non-financial business sector, is a very different animal from the multi-layered financial sector in the second half of the first decade of the 21st century.

The modern banking system is part of a multi-layered financial sector. It funds itself to a large degree in financial wholesale markets and has on the asset side of its balance sheet many financial instruments issued by other banks and by non-bank financial institutions, including off-balance sheets vehicles of the banks. Rapid deleveraging of a 1930s-style single-layer financial system is bound to be massively disruptive for the real economy. Rapid deleveraging of a modern multi-layered financial system needs not be massively disruptive for the real economy, although it will be if it is done in an uncoordinated, voluntary manner. Since most liabilities (assets) of banks are assets (liabilities) of other banks and non-bank financial institutions, an intelligent, coordinated netting or write-down of intra-financial sector assets and liabilities is technically possible without significant impact on the exposure (on both sides of the balance sheet) of the financial system as a whole to the non-financial sectors.

There are many legal and political obstacles to such a de-layering of financial intermediation – it amounts to the temporary imposition of a form of central planning on the key banks and their financial sector counterparties, but it could be done if the political will were there.

This important difference between the situation of the 1930s and that facing us today makes one more optimistic about the pace of the recovery to come. Against that, much of the tentative insight I have gained about the financial crisis has not come from the lessons of the 1930s but from emerging markets crises since the 1970s. Except for the important qualifier that the US dollar is a global reserve currency, and that the US government (and private sector) has most of its domestic and external liabilities denominated in US dollars, the pathologies of financial boom, bubble and bust in the US, the UK, Iceland, Ireland and Spain (and many of the Central and East European emerging market economies) track those of classical emerging market crises in South America, Asia and CEE in the 1990s, rather well.

The emerging market analogy makes one less optimistic about a robust recovery, as typically, emerging markets whose financial sector was destroyed by a serious financial crisis took many years to recover their pre-crisis growth rates and often never recovered their pre-crisis GDP paths.

But cleary, there are many differences in economic structure, policy regimes and external environment between the overdeveloped world of today and either the industrialised world of the 1930s or the emerging markets of the 1980s and 1990s. For starters, we are now aware of what happened in the 1930s and in the emerging markets (the arrow of history flies only in one direction). Another key difference is that today’s emerging markets and developing countries, whose domestic financial sectors have not been destroyed by the financial crisis, add up to 50 percent of global GDP. Even if China itself cannot be a global locomotive (not even the little engine that could), a sufficient number of emerging markets jointly could lead the global economy out of recession. Controlling for all the things that make ceteris non paribus is a hopeless task. But just because it is hopeless does not mean that we can avoid it. Decisions have to be taken and choices have to be made on the basis of the best available information and analysis, even if the best is pretty crummy. It is, however, key that if it is indeed the case that the best is no good, we admit to this and don’t pretend otherwise. False certainty can be deadly.

Earlier this week, Joseph Stiglitz, told Bloomberg that the U.S. economy faces a significant chance of contracting again after emerging from the worst recession since the Great Depression of the 1930s.

“There’s a significant chance of a W, but I don’t think it’s inevitable,” … . The economy “could just bounce along the bottom.” Sure, but how does he know it whether it will be a V, a W, a rotated and reflected L, a W or double dip, a triple jump or a quadruple bypass? With a sample of at most size one to underpin one’s forecast, the quality of the argument/analysis that produces and supports the forecast is essential. The forecast itself is indeed likely to be much less important than the reasoning behind it. If the conclusion is open-ended, the story better be good.

>Forecasting: Relationship of trust is permanently damaged

>
By Chris Giles – Financial Times – October 5 2009

No one, not even the most gloomy economic forecaster, predicted the global economy’s sudden collapse a year ago. Those that said the crisis would get nasty can feel vindicated, but even they did not foresee the global crisis of confidence that followed the collapse of Lehman Brothers.

Arguably, they could not, says Bart van Ark, chief economist of the Conference Board, the global business organisation. “What you cannot forecast is a shock,” he says.

But in a less precise sense, the crisis of the past year has been the most predicted shock in history. For years, economists and officials have warned that many aspects of the world’s economic system were unsustainable.

“Even if nobody could be sure exactly when the timebomb was going to explode, it was at least useful to know we were sitting on one,” says Andrew Smith, chief economist of accountancy firm KPMG.

Most thought a crisis would arise from a loss of confidence in the dollar, resulting from the huge and prolonged US trade deficit. Instead, something similar arose after it was found that the capital flows to the US had been frittered away by banks lending money to unsuitable sub-prime borrowers and keeping those debts in their off-balance-sheet vehicles.

But though the risk of an economic crisis was regularly highlighted, it was impossible to incorporate into economic models and was therefore put to one side – filed in the “interesting and scary, but not very likely” box. That meant economic forecasts have had a terrible recent record.

Just over a year ago, in summer 2008, the International Monetary Fund thought the prospects for both 2008 and 2009 had improved and were forecasting world economic growth of 3.9 per cent in 2009 – far from a recession. The forecast was a reflection of the prevailing consensus and fears of global inflation.

Then Lehman filed for bankruptcy and economists began a painful process of recognising the likelihood of recession in the advanced world, the spread of the pain to the entire global economy and that the economic crisis was even deeper than had been thought.

By November, the IMF had almost halved its 2009 forecast to 2.2 per cent. And by April this year the Fund was talking about a “slump”, with world output sliding in 2009 by 1.4 per cent, the first drop since the second world war.

By spring 2009, the consensus of private forecasters expected the worst economic performance in the world economy since the Great Depression and little recovery in 2010.

The ever-changing outlook has raised many questions for those making policy. And yet economists have never been so uncertain about the future. It depends crucially on the financial system and its interaction with confidence and trust among people around the world.

Willem Buiter, professor of European political economy at the London School of Economics, argues that it is a fallacy to think economic models, particularly those based on history, can hope to understand the fundamental relationships in a large and complex economy. “So what is the poor economist to do when confronted with the need to make predictions or counterfactual analyses? Fundamentally, you pray and you punt,” he says.

Economists and policymakers are doing just that, alongside telling everyone that their forecasts are dependent on specific events and highly uncertain. Users of forecasts now know they cannot simply take them on trust.

In future there is also likely to be a greater tendency for economists to use their own judgment rather than the outcome of many equations run through a large computer, says Mr van Ark. “Don’t just rely on your model,” he says, “and you want to combine the short-term outlook with a longer term perspective”.

Modesty among economists is also something that will be needed in future, a soft skill that comes with difficulty to many.

But with signs that the global economy is recovering and will grow next year, the world is already hanging on forecasters’ words, however unwise that might be.

Economists will still be stuck with the problem that the unpredictable will happen. And when it does, the vast majority will have much egg on their faces.

* * *

Há paralelos muito interessantes entre o que a economia está vivendo agora, e o cotidiano da meteorologia. Ambos vivem de prognósticos sobre o futuro.

Economistas, que nos Estados Unidos gostam de atuar na área de psicologia (e vice-versa – mas psicólogos, até onde eu sei, não fazem prognósticos públicos), agora sentem na pele os dilemas e pressões só sentidas por meteorologistas.

E, com relação ao uso da experiência e do bom senso como complemento (ou no lugar de) modelos matemáticos – vide parágrafos finais do texto acima -, quando um meteorologista faz isso, é criticado por todos os lados (vide livro de Gary Alan Fine, Authors of the Storm).

>Acaso, cognição e cotidiano

>
Cervejas e alguma sorte

A ação do acaso na vida é mais importante do que se pensa, e o cérebro não lida bem com probabilidade, diz físico em novo livro

RICARDO MIOTO
COLABORAÇÃO PARA A FOLHA

Caderno Mais! – 13/09/2009

Você é homem, americano, branco, heterossexual e não usa drogas. Corre o ano de 1989. Faz um exame de sangue, desses descompromissados e, após alguns dias, recebe a notícia: HIV positivo. O médico sente muito, mas a morte é inevitável. Se quiser, você pode fazer outro exame, mas a chance de que não esteja contaminado é bem pequena: uma em mil.

Aconteceu com Leonard Mlodinow, físico do Caltech (Instituto de Tecnologia da Califórnia) que já havia escrito o livro “Uma Nova História do Tempo” com Stephen Hawking. “É difícil descrever (…) como passei aquele fim-de-semana; digamos apenas que não fui à Disneylândia”, escreve em “O Andar do Bêbado”, seu novo livro, recém-lançado no Brasil.

Talvez o médico de Mlodinow fosse ótimo. Mas não serviria como estatístico. Isso porque, em 1989, nos EUA, uma em cada 10 mil pessoas nas condições citadas estava infectada pelo HIV. Imagine que essas 10 mil fizessem exames. O único soropositivo receberia, possivelmente, uma notícia ruim. Mas, como um em cada mil exames dá o resultado errado, dez pessoas saudáveis também a receberiam.

Ou seja, nessas condições, de cada 11 pessoas que recebiam o veredicto “HIV positivo”, apenas uma realmente estava contaminada. A porcentagem de “falsos positivos” é dez vezes maior que a de “verdadeiros positivos”. Faria, então, mais sentido que Mlodinow não deixasse de ir à Disneylândia. No final, soube que não tinha HIV.

Mas dificuldades com probabilidades não são exclusividade do médico de Mlodinow. Humanos desprezam a presença do aleatório nas suas vidas – nossos cérebros são programados para achar padrões, mesmo quando não existem.

Isso vai desde coisas evidentemente desprovidas de sentido (como usar uma mesma meia velha em jogos do Brasil) até situações mais sérias.

Jegue estabanado

Nesse sentido, é muito comum considerar que sucessos ou fracassos são resultado exclusivamente da nossa competência. Em boa medida são, claro, mas quanta aleatoriedade está envolvida nisso?

Jogadores, vendedores, homens atrás de mulheres nas festas. Quase todas as atividades humanas estão sujeitas ao acaso. Os resultados se distribuem ao redor de uma média (alta, para quem é competente), mas existem dias bons (quando o centroavante faz três gols e se consagra) e dias ruins (quando o “pegador” volta pra casa sozinho).

Mas isso vale também para o mercado financeiro, por exemplo. Será que os investidores que ganham milhões na bolsa o fazem porque são competentes ou porque, em uma série determinada de anos, tiveram mais sorte -fazendo escolhas tão “chutadas” quanto muitos que tiveram menos sucesso?

Como exemplo, Mlodinow conta a história de Daniel Kahneman, psicólogo que em 2002 ganhou o Nobel de Economia. Como não se escolhe trabalho no começo da carreira, ele foi, nos anos 1960, ensinar aos instrutores da Aeronáutica israelense que recompensar funciona melhor do que punir erros.

Foi interrompido por um dos instrutores que o ouvia. Ele dizia que muitas vezes elogiou a manobra de um aluno e, na vez seguinte, o sujeito se saiu muito pior. E que, quando gritou com a besta que havia quase acabado de destruir o avião, ela melhorava em seguida. Os outros instrutores concordaram.
Estariam os psicólogos errados? Kahneman concluiu que não. Apenas que a experiência dos instrutores estava relacionada com a probabilidade.

A ideia dele era que os aprendizes melhoram a sua capacidade aos poucos, e isso não é perceptível entre uma manobra e outra. Qualquer voo perfeito ou qualquer pouso que leve embora meio aeroporto junto são questões pontuais, desvios da média. Na próxima tentativa, é alta a chance de que se retorne ao “padrão” central -nem fantástico, nem desastroso.

Então, diz Mlodinow, quando os instrutores elogiavam uma performance impecável, tinham a impressão de que, em seguida, o aluno piorava. Já se ele, digamos, esquecia de baixar o trem de pouso e escutava um grito de “seu jegue estabanado”, na próxima melhorava.

A pergunta por trás do livro é até que ponto não nos deixamos enganar por desvios da média como sinais de competência extrema ou de falta de aptidão para a vida. Quando um ator é descoberto de repente, após anos de fracasso, como Bruce Willis, ou quando alguém ganha muito dinheiro em poucos anos, como Bill Gates, qual foi a importância de estar no lugar certo, na hora certa? O andar do bêbado, sem direção consciente, acaba sendo uma ótima metáfora para os caminhos que tomamos na vida.


LIVRO – “O Andar do Bêbado: Como o Acaso Determina Nossas Vidas”
Leonard Mlodinow; trad. de Diego Alfaro; ed. Zahar, 261 págs., R$ 39

>Jesús Martín-Barbero: As formas mestiças da mídia

>
Entrevista

As formas mestiças da mídia
Pesquisador fez da América Latina laboratório de uma original teoria da comunicação num mundo globalizado

Mariluce Moura

Pesquisa FAPESP – Edição Impressa 163 – Setembro 2009
Fotos: Eduardo César

O vasto auditório do Memorial da América Latina, com 870 lugares, estava lotado na tarde da segunda-feira, 17 de agosto. Viam-se sobretudo rostos jovens emergindo na quase penumbra da plateia, e era isso o surpreendente: difícil entender de primeira por que tantos deles tinham livremente decidido participar da instalação do Fórum Permanente dos Programas de Pós-Graduação de Comunicação do Estado de São Paulo, programação no mínimo um tanto aborrecida para fases e tempos inquietos da vida. Registre-se, a propósito, que em São Paulo estão hoje 14 dos 34 programas de pós em comunicação existentes no país. Sem sinais explícitos de impaciência, enquanto se sucediam as falas dos integrantes da mesa, a verdadeira expectativa que dominava o auditório, entretanto, era a aula magna do professor Jesús Martín-Barbero que abordaria a comunicação no presente.

Barbero começou a falar e logo lançou a pergunta de caráter epistemológico sobre “como pesquisar a comunicação hoje”. Entrou pelo conceito moderno de incerteza e suas raízes fincadas na lógica difusa (ou lógica fuzzy), passou por Merleau-Ponty e sua descrença nas leis da história, declarada em 1956, junto com a afirmação de que a história só é pensável em termos de ambiguidade, e deteve-se no medo que hoje nos provoca um conceito novíssimo de informação, o da informação genética.

O professor passeou o olhar pelas metodologias de pesquisa em comunicação fundadas no estruturalismo, no marxismo e no funcionalismo e aportou no ecossistema especial em que os homens contemporâneos veem e são vistos (algo como o “terceiro entorno” de Javier Echeverría ou o “bios midiático” de Muniz Sodré). Estava na seara da imagem sob todas as formas, no campo especial da comunicação já nem tanto concebido a partir de um conjunto de meios e aparelhos que se transformam, se desfazem e refazem “ante nossos olhos”, mas tateado com uma atenção especial para a internet e o computador, que trazem “algo de radicalmente novo” à história dos homens. Um “algo”, para Barbero, jamais comparável à imprensa, ao avião ou a qualquer das máquinas fundamentais das mais conhecidas revoluções tecnológicas, e comparável, como quer Roger Chartier, à invenção do alfabeto. Algo radical a ponto de assinalar uma divisão entre épocas – ou eras. “Estamos na crise. O velho já morreu e não conhecemos ainda o que está por vir”, Barbero disse, trazendo Gramsci para a plateia.

Na véspera ele já dissera à Pesquisa FAPESP que os meios e os gêneros que os meios produzem estão sendo reinventados à luz da interface da televisão com a internet, numa interação e contaminação que desestabilizam os discursos próprios de cada meio e criam o que ele tem nomea¬do de “as formas mestiças da comunicação”. Formas um tanto incoerentes que atuam transversalmente em todos os meios.

Esse homem de quase 72 anos é, como apresentou Maria Immacolata Vassalo Lopes, coordenadora do programa de pós-graduação em comunicação da Universidade de São Paulo (USP), um “cidadão latino-americano nascido na Espanha”, em Ávila. Barbero escolheu a América Latina como lugar para viver e sobre o qual pensar muito cedo, quando a Espanha, sob a ditadura de Francisco Franco, “era um lugar muito triste”.

Autor, entre outras obras, do já clássico Dos meios às mediações: comunicação, cultura e hegemonia (Editora UFRJ, 5ª edição, tradução de Ronald Polito e Sérgio Alcides), Ofício de cartógrafo: travessias latino-americanas de comunicação na cultura (Edições Loyola, 2004, tradução de Fidelina González) e Os exercícios do Ver: hegemonia audiovisual e ficção televisiva, este em coautoria com Germán Rey (Editora Senac, 2004, tradução de Jacob Gorender), Jesús Martín-Barbero é doutor em filosofia pela Universidade de Louvain e pós-doutor em antropologia e semiologia na Escola de Altos Estudos em Paris. Em seu currículo, há que se destacar a criação do Departamento de Ciências da Comunicação da Universidad del Valle, Colômbia, que se transformou em Escola de Comunicação Social, e suas atividades de professor e pesquisador nas universidades Complutense de Madri, Autônoma de Barcelona, de Guadalajara e na Escola Nacional de Antropologia e História do México. No segundo semestre de 2008 foi professor visitante na Escola de Comunicações e Artes (ECA) da USP. Hoje é professor e coordenador de pesquisa da Faculdade de Comunicação e Linguagem da Universidade Javeriana de Bogotá. A seguir, os principais trechos da entrevista (ver a versão mais completa no site http://www.revista.fapesp.br).

Eu gostaria de começar esta entrevista lhe perguntando como falar de comunicação hoje. O que é, em seu olhar, a comunicação?

Há basicamente três maneiras de enfocar a comunicação em nosso mundo latino-americano: as duas primeiras estiveram em contraposição. Partimos da visão hegemônica que dois pesquisadores norte-americanos construíram no fim da Segunda Guerra Mundial, com base em um profundo mal-entendido: um engenheiro de telefonia chamado [Claude] Shannon teve a ousadia de chamar teoria geral da comunicação a um livro que fala de economia da transmissão de informação, ou seja, como fazer para que a transmissão de informação tivesse o menor ruído possível e durasse o menor tempo possível, portanto, com a menor redundância possível. Essa proposta de um engenheiro de telefones, manipulada por [Harold] Lasswell e [Paul] Lazarsfeld, se converteu na grande teoria da comunicação. Quando voltei à Colômbia em 1973, depois de meu doutorado, entrei no campo de comunicação e o encontrei identificado com essa concepção de transmissão de informação – ora, à luz do que vejo, a comunicação está nos modos de se comunicar das pessoas nas ruas, na casa, na igreja, na praça – nada tinha a ver com a ideia de transmissão da informação como estava proposta. De maneira que entro nesse campo – em castelhano se diria – “como um burro na cacharrería”.

Mas quando Lasswell e outros fizeram essa proposta, eles não tinham uma clareza de que havia uma distância enorme entre uma teoria proposta para a engenharia e aquilo que se dava no campo humano das comunicações?

Shannon pensou seu objeto. Os que nos armaram uma armadilha foram Lasswell e Lazarsfeld, que passaram a estudar com base nessa teoria os grandes fenômenos de opinião pública, por exemplo, a grande propaganda para convencer as mães norte-americanas a aceitarem que seus filhos fossem lutar a guerra contra Hitler na Europa. O primeiro estudo foi esse e depois vieram vários outros baseados nessa concepção de destinador/destinatário, fonte, canal etc. Era o que cabia no esquema. Para mim, o mais terrível foi se identificar comunicação com transmissão, um conceito muito mecânico. Portanto, os dois propuseram uma concepção que depois chamamos de instrumental, o meio era um instrumento. E a elaboração dos marxistas, mais adiante, caiu na mesma armadilha, com a noção reduzida dos meios para manipular a consciência.

Como, ao voltar de seu doutorado em filosofia na França, em 1973, acontece seu interesse pela comunicação?

Foi uma mescla de conjuntura e circunstâncias. Primeiro, a conjuntura: voltei à Colômbia apaixonado pela filosofia contemporânea. Fui aluno de Paul Ricoeur e de Maurice Merleau-Ponty que, para mim, foi o grande filósofo ocidental do século XX – não foi [Martin] Heidegger ou [Richard] Rorty. Ele inverte o olhar ocidental porque inclui o corpo como o grande tema da filosofia. Mas não havia nenhuma universidade em Bogotá que me permitisse continuar nesse percurso, eu teria que seguir falando de Aristóteles, de ética etc. Quanto à circunstância, aquela que é minha esposa hoje estava estudando comunicação em uma faculdade que começara havia pouco. Era uma pequena universidade privada, mas reunira um grupo de loucos que tinham lido algo de Roland Barthes, de Lévi-Strauss e queriam fazer alguma coisa, ainda que não soubessem muito bem o quê. Conversei com eles, lhes levei todos esses livros que queriam e outros que enchiam duas caixas que tinham chegado de barco da Europa. Eles me propuseram abrir uma área nova de pesquisa na faculdade. Aceitei e a organizei com dois semestres de linguística, dois de semiótica e dois de estética. Aí vem a segunda circunstância: podia-se aplicar de diferentes maneiras aquilo de que obtínhamos informação, mas aprendi ali que estudar comunicação era estudar meios: imprensa, rádio – pouquíssimo –, cinema, visto como forma de arte, e a televisão, que era, digamos, “a prostituta da calçada”. Naquele momento as grandes emissoras de televisão na América Latina, nos melhores horários, tinham uma programação toda norte-americana, e havia aquele discurso do império cultural etc. etc. Em suma, tínhamos que tratar de meios modernos, contemporâneos, e estudar meios tinha então basicamente duas formas: economia política dos meios e leitura ideológica das mensagens.


Eram as vias propostas pelo marxismo, pelo estruturalismo…

Sim, eram os métodos que propunham para ler como a ideologia dominante domina. A mim isso sempre pareceu muito estreito, porque já sabemos que a ideologia dominante é a da classe dominante, e o que a classe dominante faz é dominar do jeito que puder. Reprimindo, às vezes, como fez, por exemplo, na América andina em 1977, em episódios que contribuíram bastante para a criação da Associação Latino-americana de Pesquisadores de Comunicação (Alaic). Aliás, quando [Héctor] Schmucler fez na Universidade Autônoma Metropolitana (UAM-Xochimilco), no México, o I Encontro Latino-americano de Escolas de Comunicação, fiz ali uma conferência que marcou toda a minha vida. Porque eu disse coisas que acreditava elementares, mas eram grandes blasfêmias, tanto para nossos funcionalistas quanto para os marxistas estruturais.

Por exemplo…

Esta frase: e se, em lugar de pensar a comunicação como dominação, pensássemos a dominação como processo de comunicação? Porque Gramsci me ensinou que a dominação é de dois tipos. Primeiro, há a repressão bruta, os tanques e tal. E dei um exemplo que guardei para sempre: essa dominação é como a relação entre a bota do militar e a barata, entre uma e outra não pode haver uma relação senão de esmagamento, e a barata tem que correr. Mas Gramsci nos ensinou também a noção de dominação como hegemonia e a hegemonia é feita de cumplicidade, de sedução, de fascinação. E há que se pensar sobre “o que, nos dominados, trabalha a favor do dominador”.

Foi um escândalo!

Sim, começaram a dizer que, não bastasse a exploração, eu ainda queria tornar os pobres culpados da dominação. E então lhes disse que o problema na comunicação era justamente os meios terem sido esmagados na queda produzida para explicar economicamente o seu funcionamento. E ainda se ter inferido dessa explicação econômica as análises das mensagens, as análises dos discursos. Mas quero ser justo: isso teve muito a ver com o percurso da teoria da dependência no desenvolvimento do pensamento social latino-americano. Para mim, a teoria da dependência é um pensamento bastante complexo, mas à comunicação se aplicou um pensamento muito menos complexo.

Ou seja, ao se usar a teoria da dependência também para entender a comunicação e o funcionamento dos meios, terminou por se empobrecer nesse âmbito a própria teoria.

Sim. Veja, eu sempre tomei Paulo Freire como um autor-chave da teoria da dependência. Há um livrinho não traduzido para o português que fiz para uma coleção latino-americana chamada La Educación desde la Comunicación. E há nele um capítulo de minha tese sobre a concepção de comunicação que havia em Paulo Freire. Penso que Freire tem que ser incluído na história dos meios culturais, os estudos latino-americanos não podem alijá-lo, porque se há quem agregue a noção de cumplicidade do oprimido, se há quem a percebeu fenomenologicamente na vida cotidiana, é Freire. Tive a sorte de conhecer muitos que fizeram a teoria da dependência, Teothônio dos Santos, por exemplo, e eles tinham uma concepção de economia muito menos economicista, muito menos de fundo positivista, do que os leitores dela no campo da comunicação. Mas resumindo: primeira concepção, comunicação como transmissão, e segunda concepção, os meios tomados de forma muito empobrecida, porque se tratava de economia política e análise de mensagem. Evidentemente, era o que se podia fazer naquele tempo.

E a terceira concepção de comunicação, em que não entramos até aqui?

Deixo de lado as brigas em que entrei para introduzir a ideia de que a comunicação de massa era mais ampla que os meios, e que os meios não podiam ser pensados só em sua economia e ideologia, tinham que ser relacionados com a cultura cotidiana da maioria – ¬portanto, havia grandes mediações que vinham de formatos históricos, de matrizes culturais. Assim saltamos ao contemporâneo. Em resumo, travou-se uma luta entre uma concepção positivista e uma outra concepção muito mais fenomenológico-antropológica, que envolve Nestor Canclini e todo o pessoal que foi forçando a entrada dessa nova visão a partir de outubro de 1983 – uma data-chave. O que aconteceu foi um encontro entre estudiosos de comunicação e de ciência política, crítica literária e arte, propiciado pelo Conselho Latino-americano de Ciên¬cias Sociais (Clacso), em Buenos Aires, num momento muito rico de retorno da Argentina à democracia.

E então começam a se desenvolver as ideias que vão aparecer em seu livro de 1987, Dos meios às mediações.

Essas ideias começaram sete anos antes. Eu tinha ficado por um ano e meio naquela pequena universidade para onde fora em 1973. Então a Universidad del Valle, a mais avançada da Colômbia, em Cali, me convidou para que eu fundasse um departamento de ciências da comunicação. Criei um departamento no qual estavam as ciências sociais, a economia, a sociologia, a ciência política e reuni alguns dos melhores sociólogos, politólogos, historiadores que havia no país. Armamos um plano de estudos no qual as ciências sociais iriam pensar, pesquisar os meios, os processos e as práticas de comunicação. Fiz isso por cima de todas as escolas de comunicação, que eram as de jornalismo, publicidade e relações públicas, o que as colocou em rota de colisão comigo e pôs em crise o Ministério da Educação. Isso porque o diretor da instituição, que dentro do ministério era responsável pela aprovação dos planos de estudos, se encantou com o projeto e decidiu defendê-lo. E aprovaram o plano de estudos! Quero dizer que a segunda “cara” desse departamento foi muito importante, porque a imprensa em Cali era muito ruim, e então atendi os alunos, que me pediram cursos de música e cinema. Cali era a cidade da salsa, e fazia e segue fazendo filmes! Quase metade dos alunos estudava no conservatório de música e o que interessava às pes¬soas era rádio, que tem a ver com música e com realidades populares, e cinema. Fiz, assim, uma composição tão explosiva que na primeira reunião, em Lima, para a criação da Alaic, em que eu era um dos três conferencistas convidados, junto com um chileno e um peruano, quase me lincham. Na verdade, eu passei 10 anos na Colômbia muito ilhado. Eu vinha ao Brasil, ia à Argentina, ao México, aos Estados Unidos, a Barcelona, mas na Colômbia ninguém queria saber nada de mim. Fizeram-me uma guerra.

Quando foi seu primeiro contato com a América Latina?

Em 1963, quando eu era professor de filosofia na Espanha, fui à Colômbia num programa de intercâmbio de professores, e lá entrei em contato com aqueles anos loucos, divinos, tempo da teologia da libertação etc. Era muito forte o debate cristão-marxista na Colômbia, aliás tendência da igreja em toda a América Latina, e me encarregam de uma fundação cristã, mas para criar uma revista de debates. Então eu vivi o processo de Camilo Torres, a discussão da guerrilha, o debate na universidade nacional, traduzimos textos de [Louis] Althusser etc.

Mas por que um espanhol formado em filosofia se deixou seduzir pela Colômbia e pela América Latina?

Primeiro, o franquismo era horrível, muito triste, excessivamente estreito. Eu nasci e vivi em Ávila, um povoado pequeno junto a Madri, e tive a sorte de ter meus amigos desde a infância por lá. E esse meu grupo importava discos da América Latina, era ligado nessa música muito parecida à andaluza, e que era afinal a nossa música, porque o franquismo utilizou o folclore andaluz para convertê–lo na música da Espanha. No começo dos anos 1960, eu estava esperando uma bolsa para doutorado em Paris, quando soube que estavam pedindo professores de filosofia na Colômbia. Fui. Fiquei por cinco anos, vivi a aventura apaixonante de criar um espaço de debate cristão-marxista na universidade.

Mas voltando à teoria…

Só para lembrar, a segunda abordagem da comunicação entre nós é a versão latino-americana do que nos vinha dos Estados Unidos e da Europa ou o funcionalismo dos Estados Unidos traduzido em funcionalismo marxista. Há um texto famoso de Eliseo Verón que se chama O funcionalismo marxista. Mas podemos voltar a Dos meios às mediações.

No livro há um esforço para ir buscar lá no começo do século XX os fundamentos da radionovela, do cinema latino-americano. Como se processa esse diálogo entre teoria e história da comunicação?

Foi ao escrever a introdução para a quinta edição que percebi que fiz esse livro para as ciências sociais. Ou seja, a comunicação estava tomando uma tal envergadura que ia se tornar algo central no mundo e eu queria transformar os estudos de comunicação. Na América Latina tinha sido passada uma ideia demasiado técnica do que é comunicação. No livro situo o grande debate sobre a cultura popular, depois mostro como se estudou isso e, na terceira parte, falo da América Latina na história política da comunicação “popular”. Ou seja, como reagiram os populismos históricos, sob Getúlio Vargas, Perón, Cárdenas etc. Estes, sim, foram capazes de perceber o potencial de criação, à sua maneira, de cidadania com as massas urbanas.

Como sua teoria avança para dar conta do conceito de comunicação depois dos anos 1990?

As ideias do livro começam a funcionar entre os alunos com uma pesquisa que eu coordeno no final dos anos 1980 sobre a telenovela em toda a América Latina. Fui ao México, Peru, Chile, Argentina e Brasil. Li um montão de livros do Brasil. Aliás, pediram-me e fiz um balanço trabalhoso que apresentei no IV Intercom com o título “O que os estudos de comunicação na América Latina devem às ciências sociais brasileiras”. E é muito o que devem a Octavio Ianni, a Milton Santos, a Renato Ortiz, a Roberto da Matta, à coleção O Nacional e o Popular na Cultura Brasileira, de vários autores… Mas essa pesquisa a que me refiro é a que torna explícita a maneira como os estudiosos de comunicação latino-americanos leram meu livro. Ou seja, leram desde o descobrimento do sujeito, do ator do processo, que é o receptor. Ou seja, contra a visão positivista, a descoberta era que o receptor reagia!

E aí, quando Immacolata vai para a casa do receptor de novela, ela leva seu trabalho por essa mesma via no Brasil.

Immacolata foi a pessoa que instaurou no Brasil a perspectiva do estudo das mediações para poder entender o processo inteiro. Já não se tratava do “por um lado, a política…”, “por outro lado, a audiência”, não, podíamos pensar tudo junto. Esse aporte é um feito: a investigação da telenovela aproveita meu aporte começando a atribuir valor à figura do sujeito. O sujeito da comunicação não é o meio, mas a relação. Importante não é o que diz o meio, mas o que fazem as pessoas com o que diz o meio, com o que elas veem, ouvem, leem… Esta é a mudança. E isso foi o que realmente produzi, o que propus. A telenovela vai ser ao mesmo tempo como que a demonstração da minha teoria – está lá a importância da cultura popular, dos formatos populares, dos gêneros populares para entender os meios, entender a comunicação – e a via para que se comece a estudar o contexto local, quando para aquele marxismo catequético a ideologia era a mesma na Europa, nos Estados Unidos ou na América Latina.

No trânsito dos anos 1990 ao presente, queria saber da crítica de seus amigos no sentido de que talvez já fosse hora de retornar “das mediações aos meios”.

Essa crítica de dois amigos eu respondi no prefácio à quinta edição.

Gosto particularmente neste prefácio de seu mapa das mediações e deste trecho [respectivamente páginas 16 e 14]: “Mais do que substituí-la [a política], a mediação televisiva ou radiofônica passou a constituir, a fazer parte da trama dos discursos e da própria ação política”.

Que proponho com o mapa? Eu sei que os meios estão tendo um protagonismo cada vez maior. A televisão já não é simplesmente uma ajuda à política, é a própria política, a política se faz na televisão, há muito menos rua para a política. O prefácio saiu originalmente em 1998. Aqui aceito a proposição de meus amigos, dizendo: “a investigação agora já não será sobre as matrizes culturais da comunicação, mas sobre as matrizes comunicativas da cultura […]”. Naturalmente o computador pessoal levava a essa mudança, mas aqui há uma pergunta, um esboço para entender o que eu estava propondo. Digo: “Como assumir então a complexidade social e perceptiva que hoje reveste as tecnologias comunicacionais, seus modos transversais de presença na cotidianidade, desde o trabalho até o jogo, suas intrincadas formas de mediação tanto do conhecimento como da política, sem ceder ao realismo do inevitável produzido pela fascinação tecnológica, e sem deixar-se apanhar na cumplicidade discursiva da modernização neoliberal – racionalizadora do mercado como único princípio organizador da sociedade em seu conjunto – com o saber tecnológico, segundo o qual, esgotado o motor da luta de classes, a história teria encontrado seu substituto nos avatares da informação e comunicação?” Esta é a mudança, para mim. E isto é o que nos situaria no presente.

Graças à tevê a cabo, programas de vários países, sobretudo dos Estados Unidos, são cada vez mais vistos pela classe média brasileira e, imagino, de outros países da América Latina. Em paralelo, há o fenômeno da expansão do acesso à internet. O Brasil tem hoje 65 milhões de pessoas acessando a internet

Quase 35% da população.

O que isso muda na configuração das matrizes comunicativas da cultura?

No meu novo mapa [ver página 12]temos: tempo, espaço, migrações, fluxos. Então as mediações passam a ser transformação do tempo e transformação do espaço a partir de dois grandes eixos, ou seja, migrações e fluxos de imagens. De um lado, grandes migrações de população, como jamais visto. De outro, os fluxos virtuais. Temos que pensá-los conjuntamente. Os fluxos de imagens, a informação, vão do norte ao sul, as migrações vão do sul ao norte. E há a compressão do tempo, a compressão do espaço e é aí que eu recomponho as duas mediações fundamentais hoje: a identidade e a tecnicidade – eu adoto essa palavra não por esnobismo, mas sim porque um antropólogo francês, André Leroi-Gourhan, contemporâneo de Marcel Mauss, forja a ideia de que a técnica entre os “povos primitivos” também é sistema, não apenas um conjunto de ferramentas. Eu ligo tecnicidade ao que está se movendo na direção da identidade. Por exemplo, a quantidade de adolescentes que inventam uma personagem para si mesmos é impressionante. Fiz uma pesquisa em Guadalajara sobre o acesso dos adolescentes à internet e constatei que era enorme a quantidade de meninas de 15 e 16 anos que fabricavam para si uma identidade de homem para escreverem a mulheres da Suécia. As mães quando descobriam diziam “não é minha filha”, não conseguiam acreditar.

É um campo livre de experimentação e invenção.

Sim, o próprio “eu” é o campo de experimentação. Portanto, a questão da identidade cultural hoje está sofrendo, na base da identidade subjetiva, uma transformação gigantesca. Porque os modelos de conduta, os padrões de conduta de que falavam Parson e Piaget não funcionam. Nós, os pais, não somos mais os modelos de nossos filhos, a televisão acabou com isso. Os modelos são os seus contemporâneos: ginastas, cantores, atrizes, jogadores de futebol, esses são os padrões de conduta, são seus pares. Então eu junto em meu mapa tecnicidade e identidade, ponho ritualidade ao lado de cognitividade. Retiro dele as duas mediações que eram mais sociais, institucionalidade e socialidade, para colocar a transformação.

Então, se colocamos seu mapa anterior junto com o novo temos qual foi o trânsito para a transformação ocorrida.

Temos quais são as chaves da mudança. Ela é muito maior do que estamos pensando na comunicação. O filósofo basco Javier Echeverría, em El tercer entorno, um de seus livros mais importantes, afirma que o ser humano habitou durante milhares de séculos um entorno natural. A partir dele conseguiu sobreviver e passar de nômade a sedentário. Depois de centenas ou milhares de séculos, criou a cidade. E a cidade, desde suas formas mais primitivas, é o lugar das instituições políticas e culturais. Esse é o segundo entorno, urbano, ligado às instituições da família, do trabalho, da religião, da política. Hoje estamos assistindo à emergência de um novo entorno que se chama tecnocomunicativo.

Não lhe parece que esse conceito tem parentesco com a noção de bios midiático de Muniz Sodré?

Sim, é isso, a imersão não é pontual, na base do eu ligo, desligo. Assim como estou imerso na natureza e nas instituições, agora estou imerso nesse terceiro entorno. Eu não posso ligar o computador sem saber que sou visto. Vejo, mas sou visto, não há forma de impedir isso.

É um mundo de total visibilidade.

É um mundo onde somos vistos e vemos. E vemos ativamente. Produzimos visibilidade. Construímos visibilidade para nós e outros. A ideia importante então é o “entorno”, o novo ecossistema. Não podemos mais falar de comunicação como um conjunto de meios, e tal como são eles não duram mais 10 anos. É uma mudança de tempo, lembre-se. Passamos do sino do convento que na Idade Média dizia aos camponeses quando deviam levantar, rezar, comer, dormir, ao rádio, tempo da notícia, da radionovela, da música, das dedicatórias aos noivos… E a televisão potencializou mais essa marcação.

E o que é hoje o nosso “sino da igreja”?

Não existe mais. Há uma liberação do tempo e, simultaneamente, uma mobilidade que comprime o tempo – cada vez temos menos tempo. De fato, se o capitalismo não tivesse enlouquecido quando o Muro de Berlim caiu, se tivesse tido um pouco de visão histórica, em vez de produzir a crise em que estamos mergulhados, teria criado um modelo no qual a humanidade trabalharia quatro horas, e não oito. Mas se pôs a produzir dinheiro com dinheiro, sem produzir nada. Então, há uma transformação radical do tempo e do tempo de trabalho.

Mas a ideia de que o tempo de trabalho diminuiria parece morta a essa altura.

Sim, porque a morte é outra. A morte é a saída do mundo do trabalho de milhares. O ideal do capitalismo, enquanto existia o socialismo real, era o pleno emprego. O ideal era incluir, agora não, agora se desconecta e a população que trate de saber como viverá.

Nessa sua análise do encolhimento do trabalho, fica só uma visão pessimista?

No último número de uma revista brasileira [Cult], Zygmunt Bauman cita uma coisa que aprendi diretamente de Gramsci. Ele entende a crise como sendo um tempo em que o velho já se foi, mas o novo não tem forma ainda. Portanto estamos habitando algo para que ninguém nos preparou, segundo minha amiga Hannah Arendt, que é a incerteza. Ninguém no cristianismo nem no marxismo nos ensinou a conviver com a incerteza. Então, eu habito um tempo de profunda incerteza. Não é uma incerteza que me dá o direito de fazer o que tenho vontade porque não sei para onde vai o mundo, e então passo a me dedicar aos grandes prazeres intelectuais, corporais, eróticos, o que seja, porque nada vale a pena. Desconfigurou-se aquilo em que eu acreditava, aquilo que eu cria que sabia. Creio que a minha incerteza é não otimista, mas esperançosa. Sabe como tinha esperança um judeu ateu chamado Walter Benjamin? Sem esperança os judeus não existiriam. Veja o que disse Benjamin: “Não podemos viver sem esperança, mas a esperança só nos é dada pelos desesperados”. Eu vejo cada vez mais desesperados no mundo e daí a minha esperança cresce. Porque são pessoas que, à sua maneira, estão se rebelando, estão inventando.

Como essa sua visão filosófica flui para o campo dos estudos de comunicação?

Percebi que eu só quero pesquisar o que me dê esperança. Temos que pesquisar não só o que permite denunciar, mas o que permite transformar, mesmo em pequena medida. Eu sempre recorro a uma teoria não escrita brasileira, a teoria das brechas, segundo a qual todo muro, por mais maciço que pareça, tem sempre uma brecha que alguém pode aumentar para derrubá-lo. Eu transmito cada vez mais esperança. Cada vez ponho mais paixão no que digo, porque é a única maneira de fazer as pessoas perceberem algum valor no que digo. A paixão é contagiosa, não se deve pedir desculpas pela paixão.

Em termos práticos, que pesquisas suas consideram essa ideia da esperança?

Dois temas. Um é o das transformações tecnológicas. Eu faço uma relação provocadora: García Márquez, quando ganhou o Prêmio Nobel, em seu discurso começou perguntando se os povos que tinham sofrido 100 anos de solidão teriam uma segunda oportunidade sobre a terra. Eu, agora, respondo que sim. Porque aquela cultura que foi desprezada pelos intelectuais da cultura letrada, que é a cultura visual, a cultura oral, sonora e gestual, agora elas entram como cultura pela internet e se juntam no hipertexto. Como disse Manuel Castells, o computador acabou com a separação dos dois lados do cérebro: o lado da razão, da argumentação, e o lado da paixão, da imaginação, que agora estão juntos. A imaginação não é mais um poder dos poetas e dos artistas. Então, viso às novas tecnologias enquanto permitem uma apropriação que, por sua vez, permitem a hibridação, a mestiçagem das culturas cotidianas da maioria com o que era a cultura da pequena elite que tinha a escritura. O segundo tema, as mudanças de sensibilidades das pessoas jovens, aparece no título do livro que estou preparando: Sentidos da técnica e figuras do sensível.

>Jesús Martín-Barbero: Comunidades falsificadas (FSP, 23/08/2009)

>
Comunidades falsificadas

Filósofo espanhol diz que a utopia de democracia direta e igualdade total na internet é mentirosa e ameaça minar as práticas de representação e participação políticas reais

RENATO ESSENFELDER
DA REDAÇÃO

Com a emergência de gigantescas redes sociais virtuais, como o Facebook, a internet configura a sua utopia máxima: todos somos iguais. E, se somos todos iguais, não precisamos mais de eleições, pois não precisamos ser representados. Todos nos representamos no espaço democrático da internet.

O raciocínio é tentador, mas, para o filósofo espanhol Jesús Martín-Barbero, é mentiroso -e temerário. “Nunca fomos nem seremos iguais”, ele diz, e na vida cotidiana continuaremos dependendo de mediações para dar conta da complexidade do mundo, seja a mediação de partidos políticos ou a de associações de cidadãos.

Martín-Barbero vê a internet como um dos fatores de desestabilização do mundo hoje, que não pode ser pensado por disciplinas estanques. Mundo, aliás, tomado pela incerteza e pelo medo, que nos faz sonhar com a relação não mediada das comunidades pré-modernas. O filósofo conversou com a Folha durante visita a São Paulo, na semana passada.

FOLHA – Desde 1987, quando o sr. lançou sua obra de maior repercussão [“Dos Meios às Mediações”, ed. UFRJ], até hoje, o que mudou na comunicação e nas ciências sociais?

JESÚS MARTÍN-BARBERO – Estamos em um momento de pensar o conceito de conhecimento como certeza e incerteza. A incerteza intelectual dos modernos se vê hoje atravessada por outra sensação: o medo. A sociedade vive uma espécie de volta ao medo dos pré-modernos, que era o medo da natureza, da insegurança, de uma tormenta, um terremoto. Agora vivemos em uma espécie de mundo que nos atemoriza e desconcerta.
O medo vem, por exemplo, da ecologia: o que vai acontecer com o planeta, o nível do mar vai subir? A natureza voltou a ser um problema hoje, como aos pré-modernos. Depois vem o tema da violência urbana, a insegurança urbana. Por toda cidade que passo, de 20 mil a 20 milhões de habitantes, há esse medo.
Como terceira insegurança, que nos afeta cada vez mais, aparece a vida laboral. Do mundo do trabalho, que foi a grande instituição moderna que deu segurança às pessoas, vamos para um mundo em que o sistema necessita cada vez menos de mão de obra. O mundo do trabalho se desconfigurou como mundo de produção do sentido da vida.

FOLHA – Nesse mundo de incertezas, como se comporta a noção de comunidade? Como ela aparece em redes virtuais como o Facebook?

MARTÍN-BARBERO – Acho que ainda não temos palavras para nomear esse fenômeno. Falamos em rede social, mas o que significa social aí? Apenas uma rede de muita gente. Não necessariamente em sociedade. Há diferenças entre o que foi a comunidade pré-moderna e o que foi o conceito de sociedade moderna.
A comunidade era orgânica, havia muitas ligações entre os seus membros, religiosas, laborais. Renato Ortiz [sociólogo e professor na Universidade Estadual de Campinas] faz uma crítica muito bem feita a um livro famoso de [Benedict] Anderson, que diz que a nação é como uma comunidade imaginada [“Comunidades Imaginadas”, ed. Companhia das Letras], principalmente por jornais e a literatura nacional.
É verdade, são fundamentais para a criação da ideia de nação. Mas Renato Ortiz diz que há muito de verdade e muito de mentira nisso. O que acontece é que, quando a sociedade moderna se viu realmente configurada pelo Estado, pela burocracia do Estado, começou a sonhar novamente com a comunidade. Era uma comunidade imaginada no sentido de querer ter algo de comunidade, e não só de sociedade anônima.
Falar de comunidade para falar da nação moderna é complicado, porque se romperam todos os laços da comunidade pré-moderna. Eu diria que há aí um ponto importante, considerando que no conceito de comunidade há sempre a tentação de devolver-nos a uma certa relação não mediada, presencial. Essa é um pouco a utopia da internet.

FOLHA – Qual utopia?

MARTÍN-BARBERO – A utopia da internet é que já não necessitamos ser representados, a democracia é de todos, somos todos iguais. Mentira. Nunca fomos nem somos nem seremos iguais. E portanto a democracia de todos é mentira. Seguimos necessitando de mediações de representação das diferentes dimensões da vida. Precisamos de partidos políticos ou de uma associação de pais em um colégio, por exemplo.

FOLHA – As comunidades virtuais da atualidade têm pouco das comunidades originais, então?

MARTÍN-BARBERO – Quando começamos a falar de comunidades de leitores, de espectadores de novela, estamos falando de algo que é certo. Uma comunidade formada por gente que gosta do mesmo em um mesmo momento. Se a energia elétrica acaba, toda essa gente cai.
É uma comunidade invisível, mas é real, tão real que é sondável, podemos pesquisá-la e ver como é heterogênea. Comunidade não é homogeneidade. Nesse sentido é muito difícil proibir o uso da expressão “comunidade” para o Facebook. Mas o que me ocorre ao usarmos o termo “comunidade” para esses sites é que nunca a sociedade moderna foi tão distinta da comunidade originária.
O sentido do que entendemos por sociedade mudou. Veja os vizinhos, que eram uma forma de sobrevivência da velha comunidade na sociedade moderna. Hoje, nos apartamentos, ninguém sabe nada do outro. Outra chave: o parentesco. A família extensa sumiu. Hoje, uma família é um casal. O que temos chamado de sociedade está mudando. Estamos numa situação em que o velho morreu e o novo não tem figura ainda, que é a ideia de crise de [Antonio] Gramsci.

FOLHA – A proposta de sites como o Facebook não é exatamente de fazer essa reaproximação?

MARTÍN-BARBERO – Creio que há pessoas no Facebook que, pela primeira vez em suas vidas, se sentem em sociedade. É uma questão importante, mas não podemos esquecer da maneira como nos relacionamos com o Facebook.
Um inglês que passa boa parte de sua vida só, em um pub, com sua grande cerveja, desfruta muito desse modo de vida. Nós, latinos, desfrutamos mais estando juntos.
Evidentemente a relação com o Facebook é distinta. O site é real, mas a maneira como nos relacionamos, como o usamos, é muito distinta. O Facebook não nos iguala. Nos põe em contato, mas nada mais.

FOLHA – De que maneira essas questões devem transformar os meios de comunicação?

MARTÍN-BARBERO – Não sei para onde vamos, mas em muito poucos anos a televisão não terá nada a ver com o que temos hoje. A televisão por programação horária é herdeira do rádio, que foi o primeiro meio que começou a nos organizar a vida cotidiana. Na Idade Média, o campanário era que dizia qual era a hora de levantar, de comer, de trabalhar, de dormir. A rádio foi isso.
A rádio nos foi pautando a vida cotidiana. O noticiário, a radionovela, os espaços de publicidade… Essa relação que os meios tiveram com a vida cotidiana, organizada em função do tempo, a manhã, a tarde, a noite, o fim de semana, as férias, isso vai acabar. Teremos uma oferta de conteúdos. A internet vai reconfigurar a TV imitadora da rádio, a rádio imitadora da imprensa escrita… Creio que vamos para uma mudança muito profunda, porque o que entra em crise é o papel de organização da temporalidade.

FOLHA – A ascensão da internet e da oferta de informação por conteúdos suscita outra questão, ligada à formação do cidadão. Não corremos o risco de que um fã de séries de TV, por exemplo, só busque notícias sobre o tema, alienando-se do que acontece em seu país?

MARTÍN-BARBERO – Antigamente, todos líamos, escutávamos e víamos o mesmo. Isso para mim era muito importante. De certa forma, obrigava que os ricos se informassem do que gostavam os pobres -sempre defendi isso como um aspecto de formação de nação.
Quando lançaram os primeiros aparelhos de gravação de vídeo, disseram-me que isso era uma libertação: as pessoas poderiam selecionar conteúdos.
Mas esse debate já não é possível hoje. Passamos para um entorno comunicativo, as mudanças não são pontuais como antes. A questão não é se eu abro ou não abro o correio. Não quero ser catastrofista, mas o tanto que a internet nos permite ver é proporcional ao tanto que sou visto. Em quanto mais páginas entro, mais gente me vê. É outra relação.
Temos acesso a tantas coisas e tantas línguas que já não sabemos o que queremos. Hoje há tanta informação que é muito difícil saber o que é importante. Mas o problema para mim não é o que vão fazer os meios, mas o que fará o sistema educacional para formar pessoas com capacidade de serem interlocutoras desse entorno; não de um jornal, uma rádio, uma TV, mas desse entorno de informação em que tudo está mesclado. Há muitas coisas a repensar radicalmente.