Arquivo mensal: julho 2014

Stengers: Ciencia y Valores (Networks & Matter)

07.04.14

por 

Ando dándole vueltas a cómo Stengers pudiera ayudarnos a pensar las “colaboraciones experimentales“. Por ello, me he embarcado en una traducción apócrifa de algunos pasajes de Stengers, I. (2013). Science et valeurs : comment ralentir?. In Une autre science est possible ! Manifeste pour un ralentissement des sciences suivi de Le poulpe du doctorat (pp. 51-82). Paris: La Découverte/Les Empêcheurs de Penser en Rond.

https://i0.wp.com/ecx.images-amazon.com/images/I/510rHJZQm3L._SY300_.jpg

Están divididos por bloques… Cualquier sugerencia de mejora con la traducción será más que bienvenida.

Carácter exigente del experimento / expansión a otros dominios más allá de las ciencias experimentales / diferencia entre logro en ciencias experimentales y sociales

“[…] Subrayar el carácter extremadamente exigente de lo que supone el éxito de un experimento [réussite expérimentale] no es confirmar el privilegio del que ya se benefician las ciencias experimentales, ‘duras’ por definición, sino liberar el espacio para otros tipos de éxito que prolonguen el éxito de un experimento, pero reinventándolo, asociándolo a otro tipo de condiciones. Esas otras condiciones no debieran ser ‘blandas’, sino tan exigentes como las experimentales –aunque exigiendo otra cosa-” (pp.65-66)

“[…] Una perspectiva que llamaremos ‘pragmática’ pudiera, por tanto, sustituir a la noción de ‘visión científica’ del mundo, de un mundo concebido bajo el modelo de lo que exige el éxito de un experimento: en el fondo indiferente, en efecto complicado, pero no proponiendo más que un sólo tipo de éxito, a saber, el descubrimiento del ‘buen punto de vista’ que permite hacerse ‘buenas preguntas’ a partir de las cuales el follón de las observaciones empíricas pueda devenir inteligible […] Una aproximación pragmática prestará, sin embargo, la mayor de las atenciones a esta diferencia que supone que las condiciones del éxito de un experimento puedan ser puestas en duda [mettre en cause].” (p. 66)

“[…] Pragma significa ‘asunto’ [affaire], y el asunto de los científicos es siempre el de la puesta en relación, en de la creación de una relación con otros seres, que busca obtener una respuesta a una pregunta de esos otros seres. Pero hay muchos tipos de puestas en relación de ese género –relaciones por ejemplo bajo la insignia de la seducción, de la tortura, de la investigación estadísticas…–. Si, como propongo, llamamos ‘ciencias modernas’ a las prácticas colectivas que reunen a ‘colegas competentes’ en torno a ponerse en relación con éxito con quien es interrogado, esa relación debiera ser tal que permitiera a los colegas aprender acerca de lo que estudian. En otros términos, esa relación, para tener un valor ‘científico’ que prolongue los valores del éxito de un experimento, debería solicitar que quien es interrogado tenga la capacidad de poner en riesgo [mettre en risque] la pregunta que se le ha lanzado” (pp. 66-67)

“[…] Es únicamente a través de protagonistas ‘recalcitrantes’, que exigen que aquello que les importa sea reconocido y tomado en consideración en la manera de dirigirse a ellos, como se puede crear una relación susceptible de reivindicar un valor científico” (p.67)

“Pero mientras que la puesta en riesgo [mise en risque] en las ciencias experimentales exige la indiferencia de quien es interrogado por la pregunta, las ciencias sociales exigirían sin embargo su no-indiferencia –no desde luego su derecho a dictar a los científicos cómo quieren ser descritos, sino su capacidad de evaluar la pertinencia de la puesta en relación propuesta. Así, está claro que lo que el ‘sociólogo latouriano’ relatará a sus colegas será diferente de lo que relate un experimentador en al menos tres puntos. Para empezar, no podrá tratarse de hechos de los que pretenda tener el poder de imponer su propia interpretación, siendo los colegas sus verificadores […] Asimismo, los colegas no serán convocados a reunirse en una dinámica colectiva en la que cada puesta en relación lograda abra o cierre nuevas posibilidades de puesta en relación. Y estarán, por último, tan poco unidos que la publicación de quien lo ha logrado no les tendrá como únicos destinatarios. De hecho, un logro de este tipo es susceptible de interesar a mucha gente y, si falla, de transformar la manera en que los sociólogos serán acogidos y puestos a prueba por otros grupos” (p.68)

Del “saber sobre” al “saber entre” / Descolonización del pensamiento como ocasión de aprendizaje y no sólo de culpa-heroismo

“La ‘ralentización’ de las ciencias no es una respuesta a los contrastes que debemos introducir entre ciencias, sino que es la condición sine qua non para una respuesta, esto es, también para las prácticas de evaluación que reúnen a los colegas en torno a un modo liberado del modelo acumulativo que trata el mundo considerándolo como dado. Nuestros mundos requieren de otro tipo de imaginación que el ‘pero entonces eso debiera…’ o el ‘y por tanto eso podría…’. Y la pluralidad de estas demandas podría bien responder a una pluralidad de dinámicas de aprendizaje colectivo, poniendo en juego lo que significa, para cada ciencia, una puesta en relación arriesgada”. (pp. 69-70)

“Tomaría como caso prometedor la manera en que ciertos etnólogos han aprendido a desplegar lo que tal puesta en relación supondría, en tanto se han arriesgado a cortar amarras con el anclaje que aseguraba la diferencia estable entre el etnólogo y aquellos a los que interroga. Lo que han relatado es menos un saber ‘sobre’ que un saber ‘entre’, un saber indisociable de la transformación misma del investigador cuyas cuestiones han sido puestas a prueba por otras maneras de dotar de importancia a las cosas, los seres y las relaciones. Y es en la medida en que esa transformación les concierne a todos, con sus riesgos y peligros que los colegas son ‘competentes’, es decir, interesados en primer lugar por lo que uno de ellos ha aprendido, los límites con los que ha tropezado, la manera en que ha podido negociar o reconocer el sentido, pero también la manera en que ha sido forzado a posicionarse, a aceptar que su manera de pensar, de escuchar y de anticipar le sitúa. Es eso que Eduardo Viveiros de Castro denomina un proceso de ‘descolonización del pensamiento’; pero mi aproximación me lleva a pensar este proceso no con connotación de culpa ni de heroísmo, sino en términos de aprendizaje –el etnólogo puede tener viva la memoria del denso vínculo entre la etnología y la colonización, pero no es esto lo que le hará capaz de aprender de aquellos que acepten acogerle” (p.70)

Permitir que cada uno se exprese en sus términos y evalúe desde sus términos / Las ciencias sociales no serán nunca amigas del estado / Extensión de la democracia

“[…] Imaginemos unas ciencias sociales ‘desamalgamadas’ de las ciencias camerales, afirmando el carácter altamente selectivo de sus logros, la necesidad de que aquellos a los que se dirigen, a propósito de quienes tratan de aprender, estén habilitados para evaluar la manera en que se dirigen a ellos y que eso ocurra, sin embargo, sin ‘capturar’ al investigador, convirtiéndolo en un portavoz. Esta doble condición responde a un agenciamiento simbiótico. Tanto el investigador ‘de visita’ como aquellos que lo acogen deben ser capaces de aceptar no capturar al otro y, gracias a esta condición, serán susceptibles de aprender, pero de un modo diferente, en función de lo que les es relevante. Pero lo que requieren las ciencias sociales es también lo que requiere eso que llamamos democracia, si por ella entendemos una dinámica colectiva que permita a aquellos concernidos por una cuestión hacerse capaces de no aceptar o defender una formulación precocinada” (p.76)

“La gobernanza [la gouvernance] en sí misma, y sus ciencias camerales, no tienen los medios de plantearse la cuestión de qué sería una evaluación pertinente, puesto que la pertinencia no es su propósito. Dejadas a ellas mismas, percibirán toda situación con sus propias categorías: ‘debe poder ser evaluado’. La posibilidad de una respuesta que no sea defensiva (¡nada de evaluación!) exige la negociación de convenciones y estas negociaciones exigen la ‘recalcitrancia’, la capacidad para los grupos concernidos de formular lo que cuenta para ellos, lo que deberá tomar en consideración la evaluación –lo que constituirá una ‘convención’ aceptable.

No nos equivoquemos, la cuestión ‘¿cómo queremos ser evaluados?’ no es una verdadera prueba que exija la dinámica colectiva de habilitación que he asociado con la democracia. Y es ahí, evidentemente, donde las ciencias sociales podrían a la vez aprender y valorizar sus saberes en un entorno donde no serían una autoridad sino un recurso. No ‘contra’ la gobernanza, sino en un modo que active las posibilidades de resistir a la captura cameral. Entre las ciencias sociales y el Estado no debiera haber antagonismo, pero tampoco colaboración únicamente. Sólo un vínculo que tuviera la misma precariedad que la definición misma del ‘Estado democrático’, uniendo dos maneras de hacer importar que serían cada una la pesadilla de la otra. Las ciencias sociales no serán jamás las amigas del Estado, puesto que sus logros están destinados a complicarle la vida. Pero la manera en que el Estado escucha y anticipa, o al contrario sufre o a lo mejor tolera esta complicación es una medida de la efectividad de su relación con eso que llamamos democracia.” (pp. 77-78)

“[…] Las ciencias funcionan por extracción, y si hay procesos de aprendizaje, éstos suelen apoyarse en la extracción de aquello que, situado aquí, es susceptible de ser relatado en otro lado. Es la manera en que se han ligado extracción y modernización donde se plantea el problema, lo que transforma la pregunta ‘¿qué podemos aprender aquí?’ en un principio de juicio que identifica lo que ha sido extraído con lo que importa verdaderamente y el resto con un caparazón de creencias y hábitos parásitos. Disolver este vínculo requiere de una verdadera prohibición: que nadie pueda estar autorizado a definir ‘lo que importa verdaderamente’. Esta prohibición no es moral, sino la condición de una cultura de la simbiosis, de una cultura en que cada protagonista tenga la capacidad de presentarse con lo que le importa y de saber que lo que aprenderá del otro quedará comprendido entre las respuestas a las cuestiones que para él importan. Cuestiones cuyo valor remite, entonces, pertinencia, condición para que la respuesta no sea arrebatada, puesto que es precisamente la pertinencia la que prohíbe el sueño de la extracción de aquello que es ‘verdaderamente importante’ Uno no se adueña de aquello de lo que depende. Si aquello que hace existir al otro con su consistencia propia es lo que le permite su recalcitrancia, y si ésta es la condición del aprendizaje de lo pertinente, el sueño en cuestión no remite a la aventura de las ciencias modernas, sino a los felices tiempos de las colonias, cuando los pueblos eran, junto a todo lo otro, aquello de lo que se debía extraer aquello que nos permitiría ‘progresar’, con la ocurrencia de decir ‘ellos creen / nosotros sabemos’.” (p. 80)

“[…] ralentizar es volver a ser capaces de aprender, de conocer con, de reconocer eso que nos sostiene y permite tener, pensar e imaginar. Y, en ese mismo proceso, de crear con los otros relaciones que no sean de captura; es, por tanto, crear entre nosotros y con los otros el tipo de relación que conviene a los enfermos, que tienen necesidad unos de otros para reaprender los unos con los otros, gracias a los otros, lo que supone una vida digna de ser vivida, saberes dignos de ser cultivados” (p.82)

Plantas podem ‘ouvir’ seus predadores e emitir repelentes (O Globo)

JC e-mail 4981, de 03 de julho de 2014

Estudo conseguiu provar capacidade de reação dos vegetais a vibrações sonoras

Apesar do que muitos pensam, as plantas também podem ouvir e reagir a determinados sons. Essa foi a principal conclusão de um estudo da Universidade de Missouri, publicado na revista Oecologia.

Os pesquisadores descobriram que determinados tipos de vegetais têm a capacidade de ouvir lagartas que comem folhas e responder através da emissão de produtos químicos para repelir o predador. Até então, já se sabia que algumas plantas respondem às vibrações emitidas pelo ambiente a sua volta, mas o que não se compreendia era o motivo das respostas.

O experimento observou o comportamento de um conjunto de plantas ao ser exposto à gravação de lagartas comendo folhas. O resultado mostrou que os vegetais emitiram maior quantidade de produto químico repelente, e fez isso mais rapidamente do que as plantas que não foram expostas ao som. Além disso, ruídos de fundo como vento ou insetos não tiveram impacto sobre as plantas, indicando que elas poderiam distinguir o som de seus predadores.

O próximo passo dos pesquisadores será agora procurar as “orelhas” das plantas. Até o momento, a principal hipótese é os canais auditivos tomam a forma de proteínas conhecidas como “mecanorreceptores”, encontradas em vegetais e animais que respondem à pressão.

(O Globo, com Agências)
http://oglobo.globo.com/sociedade/ciencia/plantas-podem-ouvir-seus-predadores-emitir-repelentes-13117320#ixzz36PnetUb1

Mudança do clima e ação humana alteram litoral no Brasil (Fapesp)

Barreira de proteção para proteger a praia da força das ondas. Estudo realizado por pesquisadores de São Paulo e de Pernambuco detalhou a vulnerabilidade da costa nos dois estados (foto: Eduardo Siegle)
04/07/2014

Por Fabio Reynol

Agência FAPESP – As zonas costeiras costumam sofrer alterações provocadas por elementos naturais, como elevação do nível do mar e o regime de ondas a que são submetidas. Com as mudanças climáticas, os elementos naturais que influenciam nas alterações das praias, chamados de condições forçantes, devem se intensificar e modificar o desenho das terras costeiras.

Pesquisa conduzida em São Paulo e Pernambuco, que investigou os impactos sofridos por quatro praias nos dois estados, concluiu, no entanto, que os efeitos da ação humana podem ser ainda mais fortes do que os da natureza.

Executado com apoio da FAPESP e da Fundação de Amparo à Ciência e Tecnologia do Estado de Pernambuco (Facepe), o trabalho é resultado de uma chamada de propostas lançada no âmbito de um acordo de cooperação entre as instituições.

A pesquisa “Vulnerabilidade da zona costeira dos estados de São Paulo e Pernambuco: situação atual e projeções para cenários de mudanças climáticas” durou três anos, período em que foram estudadas as praias paulistas de Ilha Comprida, no município de mesmo nome, e de Massaguaçu, em Caraguatatuba, e as pernambucanas praia da Piedade, em Jaboatão dos Guararapes, e praia do Paiva, em Cabo de Santo Agostinho.

“Escolhemos praias com características diferentes para fazer as comparações. Massaguaçu, no litoral norte paulista, e Jaboatão, na região metropolitana do Recife, são praias urbanas, enquanto Ilha Comprida e Paiva ficam em regiões menos habitadas”, disse o coordenador do projeto, Eduardo Siegle, professor do Instituto Oceanográfico da Universidade de São Paulo (IO/USP), que dividiu a liderança dos trabalhos com a professora Tereza Araújo, da Universidade Federal de Pernambuco (UFPE).

A pesquisa analisou como as mudanças climáticas globais provocam alterações na costa. Uma das condições forçantes é o clima de ondas. Segundo Siegle, as mudanças climáticas provocam alterações nos regimes de ventos, principais influenciadores na formação das ondas. Com direção e força alteradas, as ondas podem redesenhar o contorno das praias, refazendo sua morfologia.

“As ondas redefinem os depósitos de sedimentos e as praias atingem um equilíbrio dinâmico mediante as condições a que estão sujeitas; pode ocorrer erosão em alguns pontos e deposição de material em outros”, disse Siegle, acrescentando que uma praia pode encolher, mudar de formato e até aumentar de tamanho.

Outro fator decorrente das mudanças climáticas é a elevação do nível do mar, que leva as ondas a ter maior alcance e atingir novos pontos da costa. Essa condição costuma aumentar erosões e provocar inundações de áreas próximas à costa.

Um ponto confirmado pelos resultados obtidos foi o fato de que, em algumas regiões, as ações antrópicas no litoral exerceram mais influência nessas alterações que as forças da natureza. “Acompanhamos imagens de décadas. Nesse período, os impactos de uma ocupação mal feita do litoral podem ser muito maiores do que aqueles provocados por mudanças climáticas”, disse.

Processos de urbanização que impermeabilizam áreas praianas necessárias ao movimento de sedimentos, por exemplo, costumam provocar erosões de forma mais acentuada. No estudo, a ação humana figurou entre os principais influenciadores da vulnerabilidade costeira.

Observação dos processos costeiros

O trabalho também se debruçou sobre as mudanças históricas nas condições forçantes naturais. Para isso, a equipe lançou mão de modelos computacionais que simularam essas forças e seus efeitos ao longo das últimas décadas. Outro método de investigação foi a coleta de dados em campo. Os pesquisadores fizeram levantamentos morfológicos, que analisam o formato das praias e mediram parâmetros de suas ondas.

A medição de variáveis físicas na região costeira exigiu a aplicação de métodos inovadores para colocar instrumentos nas zonas de arrebentação, relatou Siegle. A equipe acoplou um perfilador acústico de correntes marinhas Doppler (ADCP) em uma moto aquática com um trenó.

O equipamento fornece parâmetros como velocidade das correntes na coluna d’água, altura, direção e período das ondas. A moto aquática foi usada para levantamentos batimétricos e hidrodinâmicos em áreas rasas sujeitas à arrebentação de ondas, nas quais embarcações convencionais não conseguem navegar.

Uma série de imagens aéreas registradas ao longo de aproximadamente 40 anos foi outra importante fonte de dados para a pesquisa. Foram acessados arquivos do Instituto Nacional de Pesquisas Espaciais (Inpe) e do próprio Instituto Oceanográfico da USP. Por meio de pontos georreferenciados marcados sobre as imagens, foi possível acompanhar as alterações na faixa costeira ao longo do tempo.

Com os dados coletados pelos diferentes métodos, o grupo estabeleceu nove indicadores de vulnerabilidade: posição da linha de costa, largura da praia, elevação do terreno, obras de engenharia costeira, permeabilidade do solo, vegetação, presença de rios ou desembocaduras, taxa de ocupação e configurações ao largo. Este último diz respeito à área de mar aberto adjacente à região costeira em estudo.

Sistemas praiais mais largos tendem a ser mais estáveis que faixas estreitas, portanto menos vulneráveis. A presença de vegetação bem desenvolvida na zona pós-praia sugere um cenário de baixa erosão e rara intrusão de água salina.

A vulnerabilidade à inundação pode ser estimada, entre outros fatores, pela permeabilidade do solo. Quanto menos permeável for o solo, mais sujeita à inundação será a área. E por alterar simultaneamente vários desses fatores, a taxa de ocupação da costa é um dos mais preponderantes indicadores de vulnerabilidade de uma área costeira.

Os indicadores foram depois tabulados e classificados de acordo com três graus de vulnerabilidade: alta, média ou baixa, para cada ano analisado. Registrou-se a evolução da vulnerabilidade de cada praia estudada e os pesquisadores chegaram a várias conclusões.

“Entre elas eu destacaria a importância da ocupação humana no litoral na elevação da vulnerabilidade da praia”, disse Siegle. As praias urbanas nos dois estados apresentaram situação de vulnerabilidade maior que aquelas com taxa de ocupação menor.

A aplicação desse método foi detalhada na tese de doutorado de Paulo Henrique Gomes de Oliveira Sousa, intitulada “Vulnerabilidade à erosão costeira no litoral de São Paulo: interação entre processos costeiros e atividades antrópicas”, defendida em 2013 no Programa de Pós-Graduação em Oceanografia do IOUSP.

O projeto de pesquisa resultou em cinco trabalhos de iniciação científica, quatro dissertações de mestrado e duas teses de doutorado, uma com bolsa FAPESP – Cássia Pianca Barroso desenvolveu o trabalho “Uso de imagens de vídeo para a extração de variáveis costeiras: processos de curto a médio termo”.

De acordo com Siegle, vários artigos estão em fase de redação e quatro já foram publicados, entre elesEvolução da vulnerabilidade à erosão costeira na Praia de Massaguaçú (SP), Brasil noJournal of Integrated Coastal Management e Vulnerability assessment of Massaguaçú Beach (SE Brazil) na Ocean & Coastal Management.

Parceria São Paulo-Pernambuco

Além dos resultados científicos, o projeto apresentou como fruto a aproximação entre instituições de pesquisa paulistas e pernambucanas. “A interação foi muito grande e pesquisadores pernambucanos participaram das pesquisas em campo em São Paulo e vice-versa”, contou Siegle.

A aproximação dos grupos levou a outro trabalho conjunto FAPESP-FACEPE, o projeto “Suscetibilidade e resistência de sistemas estuarinos urbanos a mudanças globais: balanço hidro-sedimentar, elevação do nível do mar, resposta a eventos extremos”, coordenado pelos professores Carlos Schettini (UFPE) e Rubens Cesar Lopes Ferreira (IO/USP).

A execução do projeto coordenado por Siegle e Tereza Araújo ainda levou à formação do Grupo de Trabalho “Respostas da Linha de Costa” que incorpora o Instituto Nacional de Ciência e Tecnologia Ambientes Tropicais Marinhos (AmbTropic) , sediado no Instituto de Geociências da Universidade Federal da Bahia e apoiado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e pela Fundação de Amparo à Pesquisa do Estado da Bahia (Fapesb).

Declassified Documents Given By Biden to Rousseff Detail Secret Dictatorship-Era Executions, “Psychophysical” Torture in Brazil (Unredacted)

JULY 3, 2014

"Allegations of Torture in Brazil."

The Brazilian military regime employed a “sophisticated and elaborate psychophysical duress system” to “intimidate and terrify” suspected leftist militants in the early 1970s, according to a State Department report dated in April 1973 and made public yesterday. Among the torture techniques used during the military era, the report detailed “special effects” rooms at Brazilian military detention centers in which suspects would be “placed nude” on a metal floor “through which electric current is pulsated.” Some suspects were “eliminated” but the press was told they died in “shoot outs” while trying to escape police custody. “The shoot-out technique is being used increasingly,” the cable sent by the U.S. Consul General in Rio de Janeiro noted, “in order to deal with the public relations aspect of eliminating subversives,” and to “obviate ‘death-by-torture’ charges in the international press.”

Because of the document’s unredacted precision, it is one of the most detailed reports on torture techniques ever declassified by the U.S. government.

"****"

Titled “Widespread Arrests and Psychophysical Interrogation of Suspected Subversives,” it was among 43 State Department cables and reports that Vice President Joseph Biden turned over to President Dilma Rousseff during his trip to Brazil for the World Cup competition on June 17, for use by the Brazilian National Truth Commission (CNV). The Commission is in the final phase of a two-year investigation of human rights atrocities during the military dictatorship which lasted from 1964 to 1985.  On July 2, 2014, the Commission posted all 43 documents on its website. “The CNV greatly appreciates the initiative of the U.S. government to make these records available to Brazilian society and hopes that this collaboration will continue to progress,” reads a statement on the Commission’s website.

The records range in date from 1967 to 1977. They report on a wide range of human rights-related issues, among them: secret torture detention centers in Sao Paulo, the military’s counter-subversion operations, and Brazil’s hostile reaction in 1977 to the first State Department human rights report on abuses. Some of the documents had been previously declassified; others, including the April 1973 report from Rio, were reviewed for declassification as recently as June 5, 2014, in preparation for Biden’s trip.

***

During his meeting with President Rousseff, Biden announced that the Obama administration would undertake a broader review of still highly classified U.S. records on Brazil, among them CIA and Defense Department documents, to assist the Commission in finalizing its report.  “I hope that in taking steps to come to grips with our past we can find a way to focus on the immense promise of the future,” he noted.

Since the inception of the Truth Commission in May 2012, the National Security Archive has been assisting the Commissioners in obtaining U.S. records for their investigation, and pressing the Obama administration to fulfill its commitment to a new standard of global transparency and the right-to-know by conducting a special, Brazil declassification project on the military era.

Advancing truth, justice and openness is precisely the way classified U.S. historical records should be used.  Biden’s declassified diplomacy will not only assist the Truth Commission in shedding light on the dark past of Brazil’s military era, but also create a foundation for a better and more transparent future in U.S.-Brazilian relations.

To call attention to the records and the Truth Commission’s work, the Archive is highlighting five key documents from Biden’s timely donation:

1)  Widespread arrests and psychophysical interrogation of suspect subversives

2) Political arrests and torture in São Paulo

3) Allegation of torture in Brazil

4) Conditions in DEOPS Prison as told by Detained American Citizen

5) Esquadrão da Morte

 

For more information contact Peter Kornbluh (peter.kornbluh@gmail.com202 374-7281) who directs the National Security Archive’s Brazil Documentation Project.

David Harvey: “As contradições do capitalismo” (Rede Castor Photo)

11/4/2014, [*] David Harvey entrevistado por Jonathan Derbyshire, Prospect Magazine, UK

The contradictions of capitalism: an interview with David Harvey

Traduzido pelo pessoal da Vila Vudu

David Harvey é professor de antropologia e geografia do Centro de Graduação da City University of New York (CUNY). Dá aulas sobre “O Capital” de Karl Marx há mais de 40 anos e é autor de um “guia de leitura”, em dois volumes, para ler a grande obra de Marx. Essa leitura microscópica de “O Capital” é fruto de uma série de 13 conferências, cujos vídeos Harvey distribuiu online.

Seu livro mais recente é 17 Contradições e o Fim do Capitalismo. O livro começa com uminsight de Marx – que crises periódicas são endêmicas nas economias capitalistas – e oferece uma análise da atual conjuntura histórica. Conversei com o professor Harvey em Londres, semana passada.

Prospect Magazine: No início do livro, o senhor observa, como outros também observaram, que há algo de diferente na mais recente crise do capitalismo, a crise financeira global de 2008:

Seria de esperar que todos – o senhor escreveu lá – tivessem diagnósticos concorrentes a oferecer sobre o que está errado, e que houvesse uma proliferação de propostas de o que fazer para corrigir tudo. O que mais surpreende hoje é a miséria de pensamento novo e de novas políticas.

Por que não há nem diagnósticos nem propostas nem ideias novas?

David Harvey: Uma hipótese é que a concentração de poder de classe que se vê hoje é de tal modo gigantesca, que não há por que a classe capitalista precise ou queira ver qualquer tipo de pensamento novo. A situação, por mais que seja disruptiva para a economia, não é necessariamente disruptiva para a capacidade de os ricos acumularem mais riqueza e mais poder. Assim sendo, há bem claro interesse em manter as coisas como estão. O que é curioso é que havia também, é claro, muito interesse em manter as coisas como estavam nos anos 1930s, mas aquele interesse foi atropelado por Roosevelt, pelo pensamento Keynesiano etc..

O problema da demanda agregada, que era o centro do pensamento nos anos 1930s, é problema de realização, em termos marxistas. As pessoas respondiam a pergunta e, na sequência, entraram num problema de produção, que foi respondido pelo monetarismo e pela economia de oferta. E exatamente hoje, o mundo está dividido entre os que se põem do lado da oferta e querem mais austeridade, e outros – China, Turquia e quase todas as economias em desenvolvimento – que assumem a linha keynesiana.

Mas parece que só há duas respostas – não há “terceira via”. No âmbito do capitalismo, as possibilidades são limitadas. O único modo pelo qual você pode encontrar outra resposta é pôr-se fora do capitalismo, mas ninguém quer nem ouvir falar disso!

Prospect MagazineIsso posto, o senhor aceita, no livro, que há elementos na classe capitalista, na classe intelectual, que reconhecem a ameaça que o senhor identifica e chama de “contradições” do capitalismo. Exemplo notável aí é a discussão do problema da desigualdade.

David Harvey: Credito ao movimento Occupy ter lançado e posto em circulação essa nova conversa. O fato de que temos em New York um prefeito completamente diferente do que havia antes e que disse que vai fazer tudo que puder para reduzir a desigualdade, toda a possibilidade dessa discussão é coisa que brotou diretamente do movimento Occupy. É interessante que todos sabem do que você está falando, sempre que se fala do “1%”. A questão do 1% foi afinal posta na agenda e se tornou objeto de estudos em profundidade, como, por exemplo, o livro de Thomas Piketty, O Capital no século 21 (fr. [1]). Joseph Stiglitz também tem um livro sobre desigualdade e vários outros economistas estão falando do assunto. Até o FMI já está dizendo que há um perigo específico que surge quando a desigualdade alcança determinado nível.

Prospect Magazine: Até Obama já anda dizendo isso!

David Harvey: Mas Obama nada diria sobre isso se o movimento Occupy não tivesse aberto a trilha. Mas quem está fazendo alguma coisa sobre o problema e de que modo alguma coisa estaria sendo realmente mudada? Se se consideram as políticas reais, vê-se que as desigualdades continuam a aprofundar-se. Há reconhecimento apenas retórico do problema, mas não há reconhecimento político, em termos de políticas ativas e redistribuição ativa.

Prospect MagazineO senhor falou de Occupy. No livro, o senhor critica muito duramente o que o senhor chama de “restos da esquerda radical” – a qual hoje, para o senhor, é predominantemente liberal, libertarista e anti-estado.

David Harvey: Tenho uma regra que por definição nunca falha: o modo de produção dominante, seja qual for, e sua articulação política, criam a forma de oposição contra eles. Assim, as grandes fábricas e grandes corporações – General Motors, Ford etc. – criaram uma oposição baseada no movimento trabalhista e nos partidos da social-democracia; o rompimento dessa ordem – e vivemos hoje precisamente o momento desse rompimento – criou esse tipo de oposição dispersa e dispersiva que só sabe usar algumas específicas linguagens para suas reivindicações.

A esquerda não dá sinais de estar percebendo que muito do que diz é consistente com a ética neoliberal, em vez de lhe fazer oposição… Parte do anti-estatismo que se encontra hoje na esquerda casa-se perfeitamente com o anti-estatismo do capital empresarial corporativista.

Preocupa-me muito que não se ouça pensamento da esquerda que diga “Vamos nos afastar dessas conversas e observar o quadro completo”. Espero que meu livro contribua para que tenhamos essa nova conversa.

Prospect MagazineO livro conclui num lugar interessante – com algo como um programa, 17 “ideias para a prática política”. Mas não aparece a pergunta, embora, sim, possa estar implícita no que o senhor acabou de dizer, sobre qual é o veículo apropriado para realizar aquele programa. Não se sabe onde encontrá-lo. Não é óbvio que o encontraremos.

David Harvey: Uma das coisas que temos de aceitar é que está emergindo um  novo modo de fazer política. No presente, ainda é muito espontaneísta, efêmero, voluntarista, com alguma relutância a deixar-se institucionalizar. Como poderá ser institucionalizado é, creio eu, questão aberta. E não tenho resposta para isso. Mas é claro que, de algum modo, terá de institucionalizar-se ou ser institucionalizado. Há novos partidos começando a emergir – o Syrizana Grécia, por exemplo. O que me preocupa é o que comento no livro como um estado de alienação em massa, que está sendo capitalizado amplamente pela direita. Há portanto, sim, alguma urgência em a esquerda tratar da questão de como nós nos institucionalizaremos como força política, para resistir contra uma virada de direita e capturar parte significativa do descontentamento que está nas ruas e empurrá-lo numa direção progressista, não em direção neofascista.

Prospect MagazineO senhor descreve seu livro como tentativa para expor as contradições, não do “capitalismo”, mas do “capital”. O senhor pode explicar essa diferença?

David Harvey: Essa diferença vem de minha leitura de Marx. Pensa-se quase sempre que Marx teria criado alguma espécie de compreensão totalista do capitalismo, mas Marx não fez nada disso. Marx não arredou pé da economia política e manteve seus argumentos sempre na linha de como opera o motor econômico de uma economia capitalista. Se você isola o motor econômico, você consegue ver quais serão os problemas daquela economia.

Não implica dizer que não haverá outros tipos de problemas numa sociedade capitalista – é claro que há racismo, discriminação por gênero, problemas geopolíticos. Mas a questão que me preocupava ao escrever esse livro era outra, mais limitada: como funciona o motor da acumulação de capital?

Já estava bem claro desde o estouro de 2007/8 que havia alguma coisa errada com o próprio motor. E dissecar o que esteja errado com o motor já será um passo na direção de política mais ampla. Esse motor econômico é muito complicado. E Marx criou um meio para compreender o motor econômico, servindo-se de ideias como “contradição” e “formação-de-crises”.

Prospect MagazineMais uma questão de definição: o que é capital?

David Harvey: Capital é o processo pelo qual o dinheiro é posto em ação para que se obtenha mais dinheiro. Mas é preciso muito cuidado, se só se fala de dinheiro, porque em Marx há uma relação muito complexa, como aponto no livro, entre “valor” e “dinheiro”. O processo é de busca de valor para criar e apropriar-se de mais valor. Mas esse processo assume diferentes formas – a forma dinheiro, de bens e mercadorias, processos de produção, terra… Ele tem manifestações físicas, forma-de-coisa, mas, no fundamento, não é coisa: é um processo.

Prospect MagazineVoltemos à noção de “contradição”, que é a categoria analítica central no livro. O senhor fez uma distinção entre os choques externos pelos quais pode passar uma economia capitalista (guerras, por exemplo) e contradições, no seu sentido da palavra. Assim, por definição, contradições são internas ao sistema capitalista?

David Harvey: Sim. Se você quiser redesenhar o modo de produção, é preciso, então, responder as questões postas pelas contradições internas.

Prospect MagazineO senhor identifica três classes de contradições, que o senhor chama de “fundacionais”, as “mutantes” e as “perigosas”. Comecemos pela primeira categoria: o que faz as contradições fundacionais serem fundacionais?

David Harvey: Não importa onde esteja o capitalismo e o modo de produção capitalista, você sempre encontrará essas contradições em operação. Em qualquer economia – seja a China contemporânea, o Chile ou os EUA – a questão do valor de uso e do valor de troca, por exemplo, lá estará, sempre. Há algumas contradições que são traços permanentes de como o motor econômico está montado. E há outras que mudam constantemente ao longo do tempo. Então, eu quis distinguir as que são relativamente permanentes e as outras, que são muito mais dinâmicas.

Prospect MagazineAlgumas contradições fundacionais são mais fundacionais que outras? Um dos traços que mais chamam a atenção no livro é que tudo, no seu modelo analítico, parece derivar, no fundo, da diferença entre valor de troca e valor de uso.

David Harvey: Ora… esse é o ponto inicial da análise. Sempre me chamou a atenção que Marx dedicou muito tempo para demarcar o ponto no qual sua análise começaria; e decidiu começar por aí, porque é o ponto de partida mais universal. Mas o que mais me impressiona – e trabalho com Marx há muito, muito tempo – é o quanto as suas contradições são intimamente interligadas. Você percebe que essa distinção entre valor de uso e valor de troca pressupõe alguma coisa sobre propriedade privada e o Estado, por exemplo.

Prospect MagazineOutra das suas contradições fundacionais é entre “propriedade privada e o Estado capitalista”. Quer dizer: a tensão ou a contradição entre os direitos individuais de propriedade e o poder coercivo do Estado. Agora, imaginemos alguém como Robert Nozick, criado na tradição liberal, Lockeana, que chega e diz que não há aí qualquer contradição. Ao contrário: o papel do estado “mínimo” é proteger a propriedade privada.

David Harvey: Uma das coisas que digo sobre contradições é que elas estão sempre latentes. Por isso, a existência de uma contradição não gera, necessariamente, uma crise. Gerará, sob algumas dadas circunstâncias. Portanto, é possível construir teoricamente a ideia de que tudo que um estado “guarda-noturno” faz é proteger a propriedade privada. Mas nos sabemos que esse estado “guarda-noturno” tem muito mais a fazer, além disso. Há externalidades no mercado que têm de ser controladas; já bens públicos que têm de ser fornecidos – e assim, muito rapidamente, o estado acaba por se envolver em todos os tipos de atividades, muito além de apenas cuidar do quadro legal dos contratos e dos direitos à propriedade privada.

Prospect MagazineO senhor nega que haja qualquer conexão necessária entre capitalismo e democracia. Pode explicar por quê?

David Harvey: A questão da democracia depende muito de definições. Supostamente haveria democracia nos EUA, mas é claro que não há, é uma espécie de farsa, de engodo – é a democracia do poder do dinheiro, não do poder do povo. E minha avaliação, desde os anos 1970s, a Suprema Corte legalizou o processo pelo qual o poder do dinheiro corrompe o processo político.

Prospect MagazineHá um aspecto do poder do estado que avançou para o centro do palco na crise recente e imediatamente depois, sobretudo durante a crise da dívida na Eurozona: falo do poder dos bancos centrais. O senhor acha que a função dos bancos centrais mudou de modo significativo durante a era dos “resgates”?

David Harvey: Evidentemente mudou. A história dos bancos centrais é, ela própria, terrivelmente interessante. Não tenho certeza de que o que o Federal Reserve fez durante a crise tenha tido qualquer base legal. O Banco Central Europeu, por sua vez, é caso clássico do que Marx disse, quando comentou a Lei dos Bancos de 1844, a qual, para ele, teve o efeito de estender e aprofundar a crise de 1847-8 na Grã-Bretanha. Mas nos dois casos, do Fed e do Banco Central Europeu, o que vimos é uma espécie de ajuste no traseiro – como alfaiates fazem com calças apertadas – de grandes instituições e a emergência de políticas que só seriam justificáveis depois do fato. Quero dizer: não há dúvida alguma de que, sim, houve mudanças no front do banco central.

Prospect MagazineHá um conceito ao qual o senhor volta várias vezes no livro: o conceito de “conversão em mercadoria” [também “mercadorização”, ing. commodification (NTs)].

David Harvey: O capital trata, sempre, da produção de mercadorias. Se há terreno não-mercadorizado, ali o capital não entra nem circula. Um dos meios mais fáceis para o capital conseguir penetrar aquele espaço é o estado impor ali um sistema de privatização – ainda que privatize algo que é só ficcional. Os créditos de carbono, por exemplo – trocar direitos de poluir é excelente exemplo de mercadoria criada por processo ficcional, que tem efeitos muito reais sobre o volume de dióxido de carbono na atmosfera, e assim por diante. Criar mercados onde antes não havia mercados é um dos meios pelos quais, historicamente, o capital expandiu-se.

Prospect MagazineO senhor foi pesadamente influenciado pelo trabalho de Karl Polanyi nessa área, não? Especificamente a obra prima dele, A Grande Transformação.

David Harvey: Polanyi não era marxista, mas compreendia, como Marx também compreendeu, que as ideias de terra, trabalho e capital não são mercadorias no sentido ordinário, mas que assumem uma forma de mercadoria.

Prospect Magazine: Um dos aspectos mais impressionantes do livro, pode-se dizer, mesmo, mobilizadores, emocionantes, é o relato que o senhor faz dos custos humanos da conversão em mercadoria – especificamente a conversão em mercadoria daquelas áreas da experiência humana que antes não eram parte do “nexo dinheiro”[orig. cash nexus, exp. de Marx]. Há aí uma conexão com o que o senhor chama de “alienação universal”. O que é isso?

David Harvey: Vivemos há tempos num mundo no qual o capital lutou sem parar para diminuir o trabalho, o poder do trabalho, aumentando a produtividade, removendo o aspecto mental dos serviços e empregos. Quando você vive em sociedade desse tipo, surge a questão de como alguém pode encontrar algum significado na própria vida, dado o que se faz como trabalho, no local de trabalho. Por exemplo, 70% da população dos EUA ou odeia trabalhar ou é totalmente indiferente ao trabalho que faz. Em mundo desse tipo, as pessoas têm de encontrar alguma identidade para elas mesmas que não seja baseada na experiência do trabalho.

Sendo assim, surge a questão do tipo de identidade que as pessoas podem assumir. Uma das respostas é o consumo. E temos um tipo de consumismo irrefletido que tenta compensar a falta de significação de um mundo no qual há bem poucos trabalhos com algum significado. Irrita-me muito ouvir políticos dizer que “vamos criar mais empregos”… Mas que tipo de empregos?

A alienação brota, entendo eu, de um sentimento de que temos capacidade e poder para ser alguém muito diferente do que é definido por nossas possibilidades. Daí surge a questão de até que ponto o poder político é sensível à criação de outras possibilidades? As pessoas olham os partidos políticos e dizem “Aqui, não há nada que preste”. Há, pois, a alienação para longe do processo político, que se manifesta em comparecimento declinante nas eleições; há a alienação para longe da cultura da mercadoria, também, que cria uma carência e o correspondente desejo por um outro tipo de liberdade. As irrupções periódicas que foram vistas pelo mundo – Parque Gezi em Istambul, “manifestações” no Brasil, quebra-quebra em Londres em 2011 – obrigam a perguntar se a alienação pode vir a ser uma força política positiva. E a resposta é sim, pode, mas não se vê nada parecido nos partidos ou movimentos políticos. Viram-se alguns elementos disso no modo como o movimento Occupy ou os Indignados na Espanha tentaram mobilizar pessoas, mas foi coisa efêmera e não amadureceu em ação mais substancial. Mesmo assim, há muito fermento nos campos da dissidência cultural; há algo em movimento, e é fonte de alguma esperança.

Prospect MagazineQuando o senhor discute as contradições “perigosas”, o senhor oferece o que me parece ser uma versão do materialismo histórico de Marx. Quero dizer: o senhor pensa, como Marx, que o presente está grávido de futuro, embora o senhor não pense de modo inevitabilista… Acho também que o senhor não vê nada de inevitabilismo, tampouco, no próprio Marx. Estou certo?

David Harvey: Não vejo, não, nada de inevitabilismo em Marx. Há quem diga que Marx teria dito que o capital desabará sob o peso de suas próprias contradições, e que Marx teria uma teoria mecanicista das crises das crises capitalistas. Mas jamais encontrei uma linha em que Marx tenha escrito coisa semelhante! O que Marx, sim, disse é que as contradições estão no coração das crises e que crises são momentos de oportunidade.

Marx também disse que os seres humanos podem criar a própria história, mas que não escolhem as condições sob as quais criarão a própria história. Para mim, portanto, há um Marx que, se não é libertarista, diz que os seres humanos são capazes de decidir coletivamente, de empurrar as coisas mais para uma direção, que para outra. Marx criticou o socialismo utópico, porque entendia que o socialismo utópico não lidava com o onde estamos. Marx disse que é preciso analisar onde se está, ver o que é viável para nós e, na sequência, tentar construir algo radicalmente diferente.

______________________

Nota dos tradutores

[1] “A Editora Intrínseca comprou os direitos de tradução para o português do Brasil de O Capital no Século XXI, do francês Thomas Piketty. Está em tradução, esperado nas livrarias no segundo semestre de 2014” (deve ser tudo mentira, mas é o que escreveu o Lauro Jardim).

_________________________

[*] David Harvey (Gillingham, Kent, 7 de dezembro de 1935) é um geógrafo britânico, formado na Universidade de Cambridge. É professor daCity University of New York e trabalha com diversas questões ligadas à geografia urbana. Seu primeiro livro, Explanation in Geography, publicado em 1969, versa sobre a epistemologia da geografia, ainda no paradigma da chamada geografia quantitativa. Posteriormente, Harvey muda o foco de sua atenção para a problemática urbana, a partir de uma perspectiva materialista-dialética. Publica então Social Justice and the City no início da década de 1970, onde confronta o paradigma liberal e o paradigma marxista na análise dos problemas urbanos.

Busca de novas metodologias direciona conservação biológica (Fapesp)

Pesquisadores avaliam fatores limitantes atuais na área em livro sobre ecologia aplicada e dimensões humanas na governança da biodiversidade (foto: Wikimedia)
03/07/2014

Por Elton Alisson

Agência FAPESP – A necessidade de ampliação da base conceitual e de inovações metodológicas e tecnológicas, além do aprimoramento da gestão, tem limitado a identificação e a solução de problemas relacionados à conservação biológica no planeta.

A avaliação é feita no livro Applied Ecology and Human Dimensions in Biological Conservation, recém-lançado pela editora Springer. A publicação é resultado de dois workshops internacionais realizados pelo Programa FAPESP de Pesquisas em Caracterização, Conservação, Restauração e Uso Sustentável da Biodiversidade (BIOTA-FAPESP), respectivamente, em 2009 e 2010, e dos avanços propiciados por esses eventos.

No workshop de 2009, o tema tratado foi ecologia aplicada e dimensões humanas na conservação biológica. Em 2010, foram abordados programas de estudos de longa duração em biodiversidade relacionados principalmente a monitoramento de padrões de diversidade biológica.

“Uma das novidades desses dois workshops foi abordar a conservação biológica do ponto de vista dos fatores que a limitam, como a necessidade de ampliação de sua base conceitual”, disse Luciano Martins Verdade, professor do Centro de Energia Nuclear na Agricultura (Cena) da Universidade de São Paulo (USP) e um dos editores do livro, à Agência FAPESP.

“Muitas vezes não se sabe como identificar e solucionar os problemas porque faltam conceitos sobre o tema”, afirmou Verdade, que coordenou os dois workshops e é membro da coordenação do Programa BIOTA-FAPESP.

Segundo Verdade, um conceito que precisa ser aprimorado é o da própria diversidade biológica. Ao tratar as espécies como unidades da diversidade biológica – pressupondo que, quanto mais espécies, maior a diversidade biológica de um determinado grupo –, corre-se o risco de subestimar o valor de linhagens mais antigas em termos evolutivos, mas que foram mais conservativas e tiveram menor especiação do que grupos mais recentes.

“Mesmo tendo originado menos espécies, o patrimônio gênico dessas linhagens mais antigas pode ter um valor maior do ponto de vista evolutivo do que o de grupos mais recentes”, avaliou.

Outro conceito que tem sido revisto, segundo o pesquisador, é o do papel histórico da ação humana na montagem dos padrões de diversidade biológica observados atualmente.

Há uma tendência de achar que biomas, como a Floresta Amazônica e até mesmo a Mata Atlântica, tenham áreas intocadas (prístinas) que reflitam padrões de diversidade biológica não influenciados pelo homem.

Ao estudar a história desses biomas, contudo, é possível observar que neles há registros da presença humana de forma significativa nos últimos milênios.

Mesmo antes da chegada dos europeus, no século XVI, já havia um uso da terra expressivo que pode ter se refletido nos atuais padrões de diversidade biológica de biomas como a Floresta Amazônica, apontou Verdade.

“Há registros de que índios caiapós plantavam pomares na Floresta Amazônica em intervalos mais ou menos regulares, contribuindo para aumentar a diversidade florística e, consequentemente, faunística do bioma, uma vez que animais se aproximavam dos pomares atraídos pelas árvores frutíferas e tornavam-se alvo de caça”, disse.

Dessa forma, o papel do ser humano no passado e no presente na montagem dos padrões de biodiversidade é um fator crucial que não pode ser ignorado, ressaltou Verdade.

“A pressão humana associada à expansão da agricultura hoje é tão forte que provavelmente tem causado mudanças genéticas nas espécies que fazem com que, do ponto de vista do patrimônio gênico, elas sejam diferentes daquelas que existiam no passado”, exemplificou.

Monitoramento da biodiversidade

Segundo Verdade, outro fator limitante para a tomada de decisão em conservação biológica é a falta de uma política de monitoramento que permita a detecção de problemas de mudança na biodiversidade dos biomas em tempo de serem solucionados.

Ainda não há um conjunto de indicadores que permita realizar medições da biodiversidade de modo a indicar se uma determinada espécie está em declínio, se virou uma praga ou se o uso que está sendo feito dela é sustentável ou não, segundo Verdade.

Por isso, os autores do livro defendem a necessidade de se estabelecer uma rede mundial de estações de monitoramento da biodiversidade em longo prazo a fim de contribuir efetivamente para os processos de tomada de decisão em matéria de conservação, uso e controle da biodiversidade do planeta.

“A implementação de uma política de monitoramento da biodiversidade necessita de instituições bem estruturadas, que saibam como, quando e o que deve ser monitorado”, avaliou Verdade. “Além disso, também exige a estruturação de programas de pesquisa de longo prazo, como o BIOTA-FAPESP, para ampliar os conceitos e possibilitar a detecção dos problemas relacionados à conservação da biodiversidade.”

Os pesquisadores também apontam no livro a necessidade de desenvolvimento e aprimoramento de métodos de levantamento populacional e de tecnologias que auxiliem na detecção e identificação de espécies em campo e na avaliação de processos ecológicos e evolutivos, especialmente em ambientes já alterados pela ação humana.

“O uso de marcadores moleculares em fezes de animais que normalmente não são fáceis de serem observados em campo, por exemplo, pode auxiliar a estimar a população da espécie de forma menos invasiva e até mesmo mais acurada e precisa do que a observação direta”, avaliou Verdade.

Divisão por seções

O livro Applied Ecology and Human Dimensions in Biological Conservation tem 14 capítulos, escritos por 38 especialistas do Brasil e do exterior, e é dividido em três seções.

Na primeira seção é enfatizada a importância de uma rede ampla de monitoramento de padrões de biodiversidade e o papel dos processos ecológicos, evolutivos e históricos condicionantes dos padrões atuais de biodiversidade.

Já na segunda seção são apresentadas as inovações metodológicas e tecnológicas que permitem o desenvolvimento da conservação biológica. E a terceira seção apresenta exemplos de governança da biodiversidade.

“Os autores dos capítulos trazem informações de ponta em relação a conceitos, inovação e gestão da conservação biológica do ponto de vista da aplicação da Ciência da Ecologia, que chamamos de Ecologia Aplicada, e das dimensões humanas associadas a ela”, disse Verdade.

Applied Ecology and Human Dimensions in Biological Conservation
Lançamento: 2014
Preço: US$ 189 (impresso) e US$ 149 (e-book)
Páginas: 228
Mais informações: www.springer.com/life+sciences/ecology/book/978-3-642-54750-8 .

NASA launches carbon mission to watch Earth breathe (Science Daily)

Date: July 2, 2014

Source: NASA/Jet Propulsion Laboratory

Summary: NASA successfully launched its first spacecraft dedicated to studying atmospheric carbon dioxide on July 1, 2014. OCO-2 soon will begin a minimum two-year mission to locate Earth’s sources of and storage places for atmospheric carbon dioxide, the leading human-produced greenhouse gas responsible for warming our world, and a critical component of the planet’s carbon cycle.

The Orbiting Carbon Observatory-2, NASA’s first mission dedicated to studying carbon dioxide in Earth’s atmosphere, lifts off from Vandenberg Air Force Base, California, at 2:56 a.m. Pacific Time, July 2, 2014. The two-year mission will help scientists unravel key mysteries about carbon dioxide.

Credit: NASA/Bill Ingalls

NASA successfully launched its first spacecraft dedicated to studying atmospheric carbon dioxide at 2:56 a.m. PDT (5:56 a.m. EDT) Tuesday (July 1, 2014).

The Orbiting Carbon Observatory-2 (OCO-2) raced skyward from Vandenberg Air Force Base, California, on a United Launch Alliance Delta II rocket. Approximately 56 minutes after the launch, the observatory separated from the rocket’s second stage into an initial 429-mile (690-kilometer) orbit. The spacecraft then performed a series of activation procedures, established communications with ground controllers and unfurled its twin sets of solar arrays. Initial telemetry shows the spacecraft is in excellent condition.

OCO-2 soon will begin a minimum two-year mission to locate Earth’s sources of and storage places for atmospheric carbon dioxide, the leading human-produced greenhouse gas responsible for warming our world, and a critical component of the planet’s carbon cycle.

“Climate change is the challenge of our generation,” said NASA Administrator Charles Bolden. “With OCO-2 and our existing fleet of satellites, NASA is uniquely qualified to take on the challenge of documenting and understanding these changes, predicting the ramifications, and sharing information about these changes for the benefit of society.”

OCO-2 will take NASA’s studies of carbon dioxide and the global carbon cycle to new heights. The mission will produce the most detailed picture to date of natural sources of carbon dioxide, as well as their “sinks” — places on Earth’s surface where carbon dioxide is removed from the atmosphere. The observatory will study how these sources and sinks are distributed around the globe and how they change over time.

“This challenging mission is both timely and important,” said Michael Freilich, director of the Earth Science Division of NASA’s Science Mission Directorate in Washington. “OCO-2 will produce exquisitely precise measurements of atmospheric carbon dioxide concentrations near Earth’s surface, laying the foundation for informed policy decisions on how to adapt to and reduce future climate change.”

Carbon dioxide sinks are at the heart of a longstanding scientific puzzle that has made it difficult for scientists to accurately predict how carbon dioxide levels will change in the future and how those changing concentrations will affect Earth’s climate.

“Scientists currently don’t know exactly where and how Earth’s oceans and plants have absorbed more than half the carbon dioxide that human activities have emitted into our atmosphere since the beginning of the industrial era,” said David Crisp, OCO-2 science team leader at NASA’s Jet Propulsion Laboratory in Pasadena, California. “Because of this, we cannot predict precisely how these processes will operate in the future as climate changes. For society to better manage carbon dioxide levels in our atmosphere, we need to be able to measure the natural source and sink processes.”

Precise measurements of the concentration of atmospheric carbon dioxide are needed because background levels vary by less than two percent on regional to continental scales. Typical changes can be as small as one-third of one percent. OCO-2 measurements are designed to measure these small changes clearly.

During the next 10 days, the spacecraft will go through a checkout process and then begin three weeks of maneuvers that will place it in its final 438-mile (705-kilometer), near-polar operational orbit at the head of the international Afternoon Constellation, or “A-Train,” of Earth-observing satellites. The A-Train, the first multi-satellite, formation flying “super observatory” to record the health of Earth’s atmosphere and surface environment, collects an unprecedented quantity of nearly simultaneous climate and weather measurements.

OCO-2 science operations will begin about 45 days after launch. Scientists expect to begin archiving calibrated mission data in about six months and plan to release their first initial estimates of atmospheric carbon dioxide concentrations in early 2015.

The observatory will uniformly sample the atmosphere above Earth’s land and waters, collecting more than 100,000 precise individual measurements of carbon dioxide over Earth’s entire sunlit hemisphere every day. Scientists will use these data in computer models to generate maps of carbon dioxide emission and uptake at Earth’s surface on scales comparable in size to the state of Colorado. These regional-scale maps will provide new tools for locating and identifying carbon dioxide sources and sinks.

OCO-2 also will measure a phenomenon called solar-induced fluorescence, an indicator of plant growth and health. As plants photosynthesize and take up carbon dioxide, they fluoresce and give off a tiny amount of light that is invisible to the naked eye. Because more photosynthesis translates into more fluorescence, fluorescence data from OCO-2 will help shed new light on the uptake of carbon dioxide by plants

OCO-2 is a NASA Earth System Science Pathfinder Program mission managed by JPL for NASA’s Science Mission Directorate in Washington. Orbital Sciences Corporation in Dulles, Virginia, built the spacecraft bus and provides mission operations under JPL’s leadership. The science instrument was built by JPL, based on the instrument design co-developed for the original OCO mission by Hamilton Sundstrand in Pomona, California. NASA’s Launch Services Program at NASA’s Kennedy Space Center in Florida is responsible for launch management. JPL is managed for NASA by the California Institute of Technology in Pasadena.

For more information about OCO-2, visit: http://oco.jpl.nasa.gov

OCO-2 is the second of five NASA Earth science missions scheduled to launch into space this year, the most new Earth-observing mission launches in one year in more than a decade. NASA monitors Earth’s vital signs from land, air and space with a fleet of satellites and ambitious airborne and ground-based observation campaigns. NASA develops new ways to observe and study Earth’s interconnected natural systems with long-term data records and computer analysis tools to better see how our planet is changing. The agency shares this unique knowledge with the global community and works with institutions in the United States and around the world that contribute to understanding and protecting our home planet.

For more information about NASA’s Earth science activities in 2014, visit:http://www.nasa.gov/earthrightnow

Follow OCO-2 on Twitter at: https://twitter.com/IamOCO2

Story Source:

The above story is based on materials provided by NASA/Jet Propulsion LaboratoryNote: Materials may be edited for content and length.

São Paulo: o que muda com novo Plano Diretor (Outras Palavras)

2/7/2014 – 12h10

por Nabil Bonduki, para o Outras Palavras

SaoPauloplanodiretor São Paulo: o que muda com novo Plano Diretor

Área para habitação social dobrou. Mercado imobiliário submetido a regulamentações importantes. Aberto espaço para agricultura orgânica. Pressões do MTST foram essenciais.

Quando a Câmara dos Vereadores de São Paulo aprovou ontem, depois de nove meses, o novo Plano Diretor Estratégico da Cidade (PDE), centenas de sem-teto, que haviam acampado em frente ao Legislativo, soltaram fogos de artifício. O novo PDE, que vigorará por dezesseis anos, não converte a maior cidade do país num exemplo de igualdade; nem a reconciliará, a curto prazo, com a Mata Atlântica, sua vasta rede de rios, os vales e montanhas em meio aos quais se ergueu. Mas demonstra que a especulação imobiliária não é invencível. Ela pode ser revertida progressivamente, com políticas corajosas e, em especial, com mobilização da sociedade.

Proposto pela prefeitura em agosto de 2013, o PDE suscitou um amplo processo de audiências públicas, às quais a mídia tradicional fechou os olhos. Era previsível. Basta observar, a cada dia, o vasto espaço ocupado nos jornais pela publicidade de lançamentos imobiliários para constatar: a cidade, para as construtoras e a velha imprensa, não é um espaço de convívio e debate democrático, mas um território a ser colonizado pela lógica da acumulação e do lucro. O boicote, porém, não vingou. As audiências ocorreram e — ainda mais importante — algo imprevisto sucedeu, ao longo de seu transcurso. Um setor historicamente empurrado para as margens da cidade e da política tradicional irrompeu no centro da cena. No período decisivo de tramitação do Plano Diretor, os sem-teto ocuparam dois imensos terrenos, nas periferias Sul e Leste de S.Paulo. Mas não se confinaram a estes redutos. Fizeram exigências à Prefeitura. Manifestaram-se (sempre dezenas de milhares de pessoas) diante da Câmara. Ocuparam avenidas, às vésperas da Copa do Mundo. Se o país pode gastar bilhões com a construção de estádios moderníssimos – avisaram — tem de ser possível aprovar leis que tornem as cidades menos arcaicas.

Urbanista ligado aos movimentos pelo Direito à Cidade, o vereador Nabil Bonduki (PT) foi o relator do Plano Diretor. No texto abaixo, publicado originalmente no site “Cidade Aberta” ele expõe em detalhes o que muda, a partir de agora, nos parâmetros legais que definem a expansão de São Paulo. Dois pontos destacam-se. A moradia social ganha importante espaço. As Zonas Especiais de Interesse Social (ZEIS), onde pode haver desapropriações para habitação popular, passam a ocupar 33 km² — contra 17 km², no PDE anterior. Ai, 60% das construções deverão ser destinadas a famílias cuja renda está abaixo de 3 salários-minimos. Elas não ficarão confinadas aos rincões da periferia. Agora, as ZEIS expandem-se por bairros centrais e históricos, como Bela Vista, Brás, Santa Ifigênia, Campos Elísios e Pari. Se a pressão dos movimentos populares se mantiver, e a letra da lei virar realidade, estará aberta uma brecha na muralha de segregação social que separa as “zonas nobres” do subúrbio.

Além disso, uma norma inteligente permitirá contrabalançar, em parte, a marcha desumanizante da especulação imobiliária. Para erguer novas construções, será preciso levar em conta a dinâmica do transporte coletivo. Prédios mais altos, só em torno das linhas do metrô ou dos corredores de ônibus — o que valoriza estas artérias. No miolo dos bairros, edifícios de no máximo 28 metros. Ou seja: embora mantenha sua força, o mercado será forçado a colocá-la em sintonia com políticas públicas.

Há outras inovações importantes. A cidade reconhece que tem uma Zona Rural (situada na periferia Sul, ocupando 25% do território) — o que permite estabelecer estímulos fiscais à agricultura orgânica e ao turismo ecológico. Para refrear a ditadura do automóvel, punem-se, com impostos mais altos, prédios com mais de uma vaga de garagem por apartamento. Para aproveitar melhor o escasso espaço urbano (e evitar seu encarecimento incessante), estimulam-se prédios residenciais que reservem seu andar térreo para comércio. Instituem-se Zonas Especiais de Proteção Ambiental (ZEPAms), visando dobrar a área do município ocupada por parques. Cria-se um Corredor Cultural, tendo como eixo o antigo Cine Belas Artes — cuja reinauguração, após intensa luta, ocorrerá logo após a Copa do Mundo.

Adensamento populacional nos eixos/cidade compacta

A construção de prédios altos na cidade, hoje dispersa, será reordenada, concentrando o adensamento construtivo e populacional ao longo dos eixos de transporte de massa. O plano propõe tornar a cidade mais “compacta”, com mais pessoas morando em áreas já urbanizadas, reduzindo desse modo, os deslocamentos, e aproximando moradia e emprego. Ao mesmo tempo, áreas mais periféricas receberão maior infraestrutura e emprego, com a implantação dos Polos de Desenvolvimento Econômico, o que também contribuirá para melhorar a ofertas de serviços nessas regiões e reduzir os deslocamentos.

O processo de adensamento ao longo dos eixos somado ao desenho da malha de corredores de ônibus estruturados na cidade, que foram propostos pela prefeitura, e da construção de ciclovias, contribuirá para a racionalização do uso do automóvel.

Por outro lado, as zonas estritamente residenciais serão preservadas e haverá um limite de altura de 28 metros nos miolos dos bairros, evitando os espigões. Dessa forma, o Plano regulará a atuação do mercado imobiliário levando-o para a onde a cidade deve crescer e restringindo onde não deve mais.

Recriação da zona rural

Após 12 anos de extinção, a zona rural, no extremo-sul da cidade, será recriada e abrangerá 25% do território paulistano. O objetivo é conter a expansão horizontal da cidade, proteger o que resta do cinturão verde, aliando à ideia de cidade compacta, e fazer essas áreas serem melhor utilizadas, criando emprego e renda com atividades que garantam a preservação do meio ambiente, como a agricultura orgânica e o ecoturismo.

Limite de vagas de garagens

Na construção de novos prédios, será permitida sem cobrança extra a construção de uma vaga por unidade residencial e uma vaga para cada 100m2 de área construída em empreendimentos não residenciais. Será cobrada a outorga onerosa para vagas além do estabelecido.

Fachadas ativas

Os prédios que tiverem “fachada ativa”, ou seja, que oferecerem o térreo para estabelecimentos comerciais, receberão incentivos para construção. O objetivo é promover usos mais dinâmicos dos passeios públicos em interação com atividades instaladas nos térreos dos prédios, fortalecendo a vida urbana nos espaços públicos.

Redução do déficit habitacional

Com o novo Plano Diretor, o número de Zeis (Zonas Especiais de Interesse Social), destinadas à produção de moradia para famílias de baixa renda, serão ampliadas em 117% em relação ao Plano vigente, reduzindo significativamente o déficit habitacional da cidade.

No Plano em vigor atualmente, 40% das Zeis são destinadas a famílias de 6 salários mínimos e outros 40% a famílias de até 16 salários mínimos.

Com o novo Plano, famílias que mais necessitam terão maior possibilidade de acesso à moradia. As Zeis foram reformuladas, de modo que 60% delas serão destinadas à população de até 3 salários mínimos, garantindo, assim, que um número maior de moradias sejam destinadas à população mais pobre da cidade.

Zeis na periferia e no centro

Com o novo Plano Diretor, Zeis serão demarcadas em áreas com assentamentos precários e informais, como favelas localizadas nas periferias, que precisam ser urbanizadas e regularizadas do ponto de vista fundiário.

Assim, essas áreas irão garantir moradia com qualidade para aqueles que vivem nessas regiões, que poderão ter um endereço, documento, receber infraestrutura e ser, enfim, parte da cidade.

Novas Zeis também foram demarcadas em áreas centrais, como nos bairros da Santa Efigênia, Pari, Brás, Campus Elíseos, e Bela Vista, e também, em bairros como o Jabaquara, na zona sul, regiões bem localizadas da cidade, que ficarão reservadas para a população de até 3 salários mínimos.

A outorga onerosa, contrapartida na qual o proprietário paga para construir entre o gratuito e o máximo permitido pela lei, será mais cara no centro, desestimulando a construção de imóveis comerciais, enquanto os residenciais serão barateados, principalmente para famílias com renda de 6 a 10 salários.

Recursos para habitação e mobilidade

Ao menos 30% dos recursos do Fundurb (Fundo Municipal de Desenvolvimento Urbano), que possui repasses da outorga onerosa, contrapartida no qual os empreendimentos pagam para construir entre o gratuito e o máximo permitido pela lei, será destinado ao sistema de mobilidade (transporte coletivo, cicloviário e de pedestres), enquanto ao menos 30% serão destinados à aquisição de errenos bem localizados para a construção de moradia popular.

Zeis e proteção ambiental

Algumas dessas áreas demarcadas como Zeis se localizam em área de proteção aos mananciais, protegida por legislação estadual. Lá existem áreas indevidamente ocupadas, que precisam ser reordenadas, para isso é preciso grafar Zeis: tanto para reurbanizar e regularizar o que for possível, tanto quanto para reassentar as famílias que estão precariamente assentadas nas áreas onde isso não é permitido. Apesar de definir restrições ao uso e ocupação do solo, a legislação estadual não proíbe a construção de moradias nem a regularização fundiária e urbanização de assentamentos precários, mas estabelece locais e parâmetros para isso. As Zeis grafadas em área de proteção aos mananciais seguem estritamente a legislação estadual.

Preservação ambiental

Para preservar o que resta de áreas verdes serão ampliadas as Zepams (Zonas Especiais de Proteção Ambiental). Nas novas Zepams há projetos para construção de 164 novos parques públicos, que se somarão aos 105 existentes. Serão 82 km² de áreas verdes, quase o dobro dos 42 km² de área dos parques atuais na cidade. A proposta é criar editais semestrais para que sejam remuneradas as empresas que preservarem, por exemplo, áreas remanescentes de mata atlântica, por meio do pagamento por serviços ambientais.

Fundo para novos parques

O Plano Diretor propõe a criação do Fundo Municipal dos Parques, destinado exclusivamente à aquisição de áreas e viabilizar a implantação de parques na cidade. O objetivo é captar recursos tanto da prefeitura quanto do setor privado e de cidadãos, numa espécie de financiamento coletivo. O fundo terá contas específicas para cada parque e para cada real doado a prefeitura destinará o mesmo valor, que sairá do Fema, Fundo Municipal do Meio Ambiente.

Cota de solidariedade

Outro instrumento de planejamento urbano e habitacional para estimular produção de habitação para baixa renda no município é a Cota de Solidariedade. Já utilizada em grandes metrópoles como Nova York, a cota cria mecanismos de contrapartida na construção de empreendimentos de grande porte. A proposta é que imóveis acima de 20.000 m², destinem 10% do próprio imóvel ou de uma área na mesma região para a implantação de moradias de interesse social, visando cumprir a função social da propriedade e da cidade.

Evitar imóveis ociosos

Imóveis desocupados próximos às zonas destinadas a moradias populares e nos eixos de mobilidade, como nas Marginais e nos corredores de trem, ônibus e metrô, terão IPTU mais caro. Isso é para forçar que um terreno não fique ocioso ou subutilizado e que o proprietário o utilize apenas para especulação imobiliária. Com isso, queremos baixar o preço dos terrenos, aumentar a produção habitacional e estimular mais a economia da cidade.

Território cultural

Será criado um território cultural que liga o centro, à Avenida Paulista. A área demarcada como território cultural concentra um grande número de espaços culturais que podem ser enquadrados com ZEPEC APC (zonas especiais de preservação cultural), cujo objetivo é resguardar locais com importância para a cultura da cidade, evitando seu fechamento, como aconteceu com o Cine Belas Artes, na Rua da Consolação, que será reaberto em maio. Saiba mais

Discussão de outras leis de planejamento urbano

O Plano Diretor vai orientar a elaboração de outras leis voltadas ao planejamento urbano municipal, como a Lei de Parcelamento, Uso e Ocupação do Solo, os Planos Regionais, o código de Obras e Edificações e Leis Urbanísticas Específicas, por isso sua rápida aprovação é tão importante. Saiba mais

Tramitação do projeto

O projeto de lei do Plano Diretor foi enviado pelo prefeito Fernando Haddad à Câmara Municipal em 26 de setembro de 2013. A proposta foi, então, submetida a debate e, após 45 audiências públicas, entre temáticas e regionais, o vereador Nabil Bonduki e sua equipe técnica analisaram o projeto do Executivo e elaboraram um substitutivo, acrescentando novas temáticas e aperfeiçoando outras.

O texto final da proposta de substitutivo do Plano Diretor foi apresentado à Câmara pelo vereador Nabil Bonduki, em 26 de março, e submetido a sete novas audiências públicas temáticas e regionais.

Em 23 de abril, a proposta foi aprovada pelos sete vereadores da Comissão de Política Urbana, Metropolitana e Meio Ambiente, da Câmara Municipal, foi aprovada em primeira em 30 de abril, e seguiu para novas audiências e segunda votação.

* Publicado originalmente no site Outras Palavras.

(Outras Palavras)

Rachel Biderman: Agropecuária está se tornando a principal fonte de emissões brasileiras (Carbono Brasil)

02/7/2014 – 10h03

por Maura Campanili, do IPAM

Rachel Rachel Biderman: Agropecuária está se tornando a principal fonte de emissões brasileiras

A produção agropecuária de baixo carbono é importante para que o Brasil cumpra suas metas de redução de emissões e colabora para que o produtor consiga adequação ambiental, mas pode ser também um caminho para abrir portas e aumentar a competitividade no mercado internacional, principalmente na Europa e nos Estados Unidos.

Uma ferramenta que pode ajudar o produtor brasileiro a acessar esses benefícios é o Greenhouse Gas Protocol (GHG Protocol) Agropecuária, primeiro instrumento voluntário para medir emissões em propriedades rurais, cuja primeira versão foi lançada em primeira mão no Brasil, no final de maio.

O instrumento foi desenvolvido por meio de uma parceria entre o WRI, a Empresa de Pesquisa Agropecuária (Embrapa) e a Universidade Estadual de Campinas (Unicamp), levando em consideração as condições brasileiras. Segundo Rachel Biderman, diretora Executiva do WRI Brasil, “ações desse tipo também ajudam a criar uma cultura de gestão, contribuindo para a solução do problema das mudanças climáticas”.

Em entrevista para a Clima e Floresta, Rachel, que também é professora responsável por módulo de meio ambiente do MBA em Gestão da Sustentabilidade e coordenadora do curso de extensão da Fundação Getúlio Vargas de “Gestão para o Baixo Carbono”, explica porque é importante reduzir as emissões da agricultura no Brasil.

Clima e Floresta – Qual a importância do combate às emissões de gases de efeito estufa na agricultura brasileira?

Rachel Biderman – O Brasil cada vez mais se consolida como grande fonte de alimentos para o mundo. Ao mesmo tempo, estamos entre os maiores emissores de gases de efeito estufa (GEE) do planeta. Considerando a redução das emissões em mudanças do uso da terra, devido à queda dos desmatamentos, a agropecuária está se tornando a principal fonte de emissões brasileiras e já representa 29,7% das emissões brutas brasileiras em CO2e.

Clima e Floresta – Como a agricultura emite GEE?

Biderman – O setor agropecuário gera emissões em função da fermentação entérica dos animais criados; do manejo de dejetos animais; do cultivo de arroz; da queima de resíduos agrícolas e dos solos agrícolas, estas decorrentes da fertilização nitrogenada e de organossolos cultivados. Há também emissões relativas a atividades associadas ao setor, que incluem a conversão de uso do solo – por exemplo, de florestas para pastagens ou de um tipo de lavoura em outro -, e outras relacionadas à produção de energia.

Clima e Floresta – O que é o GHG Protocol Agrícola e como ele pode colaborar para diminuir as emissões?

Biderman – Trata-se de um conjunto de dois instrumentos principais: as Diretrizes e a Ferramenta de Cálculo de Emissões de GEE no setor Agropecuário. Esses instrumentos permitem aos produtores rurais conhecer melhor o perfil das suas emissões de gases de efeito estufa e desenvolver planos de redução mitigando seus impactos sobre o clima. Esses instrumentos permitirão aos produtores rurais contribuir diretamente para o cumprimento dos objetivos do Plano ABC (Agricultura de Baixo Carbono) e para que mecanismos financeiros adequados sejam alocados para essa atividade sustentável.

Clima e Floresta – A quem o GHG Protocol é destinado?

Biderman – Produtores rurais de qualquer porte.

Clima e Floresta – Pequenos agricultores, assentamentos rurais, populações tradicionais podem participar? Como?

Biderman – Os instrumentos se aplicam a qualquer tipo de produção agropecuária. O WRI Brasil organizará projeto para treinar empresas e interessados para o uso dessas ferramentas.

Clima e Floresta – Além da questão das emissões, há outros benefícios na adoção de uma agricultura de baixo carbono?

Biderman – As empresas que adotarem as diretrizes e ferramenta de cálculo do GHG Protocol terão algumas vantagens competitivas. Entre elas podemos citar: Entender riscos operacionais e de reputação; identificar oportunidades de redução de emissões; implantar metas de redução e monitorar a performance; melhorar a reputação e transparência através da divulgação pública de suas emissões de GEE; colher os frutos dos benefícios associados à redução de emissões, como conservação de energia, ampliação de produtividade, melhora na qualidade do solo e da água; preparar-se para regime de quotas e cumprimento legal; antecipar-se para um potencial mercado de carbono.

* Publicado originalmente no site CarbonoBrasil.

(CarbonoBrasil)

Key to adaptation limits of ocean dwellers: Simpler organisms better suited for climate change (Science Daily)

Date: July 1, 2014

Source: Alfred Wegener Institute, Helmholtz Centre for Polar and Marine Research

Summary: The simpler a marine organism is structured, the better it is suited for survival during climate change, researchers have discovered this in a new meta-study. For the first time biologists studied the relationship between the complexity of life forms and the ultimate limits of their adaptation to a warmer climate.

The temperature windows of some ocean dwellers as a comparison: the figures for green algae, seaweed and thermophilic bacteria were determined in the laboratory. The fish data stem from investigations in the ocean. Credit: Sina Löschke, Alfred Wegener Institute

The simpler a marine organism is structured, the better it is suited for survival during climate change. Scientists of the Alfred Wegener Institute, Helmholtz Centre for Polar and Marine Research, discovered this in a new meta-study, which appears today in the research journal Global Change Biology. For the first time biologists studied the relationship between the complexity of life forms and the ultimate limits of their adaptation to a warmer climate. While unicellular bacteria and archaea are able to live even in hot, oxygen-deficient water, marine creatures with a more complex structure, such as animals and plants, reach their growth limits at a water temperature of 41 degrees Celsius. This temperature threshold seems to be insurmountable for their highly developed metabolic systems.

The current IPCC Assessment Report shows that marine life forms respond very differently to the increasing water temperature and the decreasing oxygen content of the ocean. “We now asked ourselves why this is so. Why do bacteria, for example, still grow at temperatures of up to 90 degrees Celsius, while animals and plants reach their limits at the latest at a temperature of 41 degrees Celsius,” says Dr. Daniela Storch, biologist in the Ecophysiology Department at the Alfred Wegener Institute (AWI) and first author of the current study.

Since years Storch and her colleagues have been investigating the processes that result in animals having a certain temperature threshold up to which they can develop and reproduce. The scientists found that the reason for this is their cardiovascular system. They were able to show in laboratory experiments that this transport system is the first to fail in warmer water. Blood circulation supplies all cells and organs of a living organism with oxygen, but can only do so up to a certain maximum temperature. Beyond this threshold, the transport capacity of this system is no longer sufficient; the animal can then only sustain performance for a short time. Based on this, the biologists had suspected at an early date that there is a relationship between the complex structure of an organism and its limited ability to continue to function in increasingly warm water.

“In our study, therefore, we examined the hypothesis that the complexity could be the key that determines the ultimate adaptability of diverse life forms, from marine archaea to animals, to different living conditions in the course of evolutionary history. That means: the simpler the structure of an organism, the more resistant it should be,” explains the biologist. If this assumption is true, life forms consisting of a single simply structured cell would be much more resistant to high temperatures than life forms whose cell is very complex, such as algae, or whose bodies consist of millions of cells. Hence, the tolerance and adaptability thresholds of an organism type would always be found at its highest level of complexity. Among the smallest organisms, unicellular algae are the least resistant because they have highly complex cell organelles such as chloroplasts for photosynthesis. Unicellular protozoans also have cell organelles, but they are simpler in their structure. Bacteria and archaea entirely lack these organelles.

To test this assumption, the scientists evaluated over 1000 studies on the adaptability of marine life forms. Starting with simple archaea lacking a nucleus, bacteria and unicellular algae right through to animals and plants, they found the species in each case with the highest temperature tolerance within their group and determined their complexity. In the end, it became apparent that the assumed functional principle seems to apply: the simpler the structure, the more heat-tolerant the organism type.

But: “The adaptation limit of an organism is not only dependent on its upper temperature threshold, but also on its ability to cope with small amounts of oxygen. While many of the bacteria and archaea can survive at low oxygen concentrations or even without oxygen, most animals and plants require a higher minimum concentration,” explains Dr. Daniela Storch. The majority of the studies examined show that if the oxygen concentration in the water drops below a certain value, the oxygen supply for cells and tissues collapses after a short time.

The new research results also provide evidence that the body size of an organism plays a decisive role concerning adaptation limits. Smaller animal species or smaller individuals of an animal species can survive at lower oxygen concentration levels and higher temperatures than the larger animals.

“We observe among fish in the North Sea that larger individuals of a species are affected first at extreme temperatures. In connection with climate warming, there is generally a trend that smaller species replace larger species in a region. Today, however, plants and animals in the warmest marine environments already live at their tolerance limit and will probably not be able to adapt. If warming continues, they will migrate to cooler areas and there are no other tolerant animal and plant species that could repopulate the deserted habitats,” says Prof. Dr. Hans-Otto Pörtner of the Alfred Wegener Institute. The biologist initiated the current study and is the coordinating lead author of the chapter “Ocean systems” in the Fifth Assessment Report.

The new meta-study shows that their complex structure sets tighter limits for multicellular organisms, i.e. animals and plants, within which they can adapt to new living conditions. Individual animal species can reduce their body size, reduce their metabolism or generate more haemoglobin in order to survive in warmer, oxygen-deficient water. However, marine animals and plants are fundamentally not able to survive in conditions exceeding the temperature threshold of 41 degrees Celsius.

In contrast, simple unicellular organisms like bacteria benefit from warmer sea water. They reproduce and spread. “Communities of species in the ocean change as a result of this shift in living conditions. In the future animals and plants will have problems to survive in the warmest marine regions and archaea, bacteria as well as protozoa will spread in these areas. There are already studies showing that unicellular algae will be replaced by other unicellular organisms in the warmest regions of the ocean,” says Prof. Dr. Hans-Otto Pörtner. The next step for the authors is addressing the question regarding the role the complexity of species plays for tolerance and adaptation to the third climatic factor in the ocean, i.e. acidification, which is caused by rising carbon dioxide emissions and deposition of this greenhouse gas in seawater.

Living at the limit

For generations ocean dwellers have adapted to the conditions in their home waters: to the prevailing temperature, the oxygen concentration and the degree of water acidity. They grow best and live longest under these living conditions. However, not all creatures that live together in an ecosystem have the same preferences. The Antarctic eelpout, for instance, lives at its lower temperature limit and has to remain in warmer water layers of the Southern Ocean. If it enters cold water, the temperature quickly becomes too cold for it. The Atlantic cod in the North Sea, by contrast, would enjoy colder water as large specimens do not feel comfortable in temperatures over ten degrees Celsius. At such threshold values scientists refer to a temperature window: every poikilothermic ocean dweller has an upper and lower temperature limit at which it can live and grow. These “windows” vary in scope. Species in temperate zones like the North Sea generally have a broader temperature window. This is due to the extensively pronounced seasons in these regions. That means the animals have to withstand both warm summers and cold winters.

The temperature window of living creatures in the tropics or polar regions, in comparison, is two to four times smaller than that of North Sea dwellers. On the other hand, they have adjusted to extreme living conditions. Antarctic icefish species, for example, can live in water as cold as minus 1.8 degrees Celsius. Their blood contains antifreeze proteins. In addition, they can do without haemoglobin because their metabolism is low and a surplus of oxygen is available. For this reason their blood is thinner and the fish need less energy to pump it through the body — a perfect survival strategy. But: icefish live at the limit. If the temperature rises by a few degrees Celsius, the animals quickly reach their limits.

Journal Reference:

  1. Daniela Storch, Lena Menzel, Stephan Frickenhaus, Hans-O. Pörtner. Climate sensitivity across marine domains of life: limits to evolutionary adaptation shape species interactionsGlobal Change Biology, 2014; DOI:10.1111/gcb.12645

*   *   *

Starting With the Oceans, Single-Celled Organisms Will Re-Inherit the Earth (Motherboard)

Written by BEN RICHMOND

July 1, 2014 // 07:41 PM CET

I’ll be the first to cop to being guilty of multi-celled chauvinism: Having complex cells with organelles, which form complex systems allowing you to breathe, achieve consciousness, play volleyball, etc, is pretty much as good as it gets. While we enjoy all these advantages now, though, single-celled, simple organisms are just biding their time. More readily adaptable than us multi-celled organisms, it’s really a simple, single-celled world, and we’re just passing through.

Case in point: the oceans. A team of German researchers just published a paper in the journal Global Change Biology that found that the more simple an organism is, the better off it’s going to be as the oceans warm. Trout will die out, whales will fail, but unicellular bacteria and archaea (a type of microorganism) are going to flourish.

Animals can only develop and reproduce up to a temperature threshold in the water of about 41 degrees Celsius, or 105 degrees Fahrenheit. Beyond this, the cardiovascular system can’t deliver necessary oxygen throughout the body. Even as individual animal species can develop smaller bodies or generate more hemoglobin to survive in warmer and oxygen deficient water, the highly developed metabolic systems that allow for things like eyeballs can’t get over the temperature threshold and the other hurdles it brings, like decreasing oxygen.

Image: Sina Löschke, Alfred Wegener Institute

“The adaptation limit of an organism is not only dependent on its upper temperature threshold, but also on its ability to cope with small amounts of oxygen,”said Daniela Storch, the study’s lead author . “While many of the bacteria and archaea can survive at low oxygen concentrations or even without oxygen, most animals and plants require a higher minimum concentration.”

That’s part of the reason that unicellular organisms are found in the most dramatic settings that Earth has to offer: from Antarctic lakes that were buried under glaciers for 100,000 years, to super-hot hydrothermal vents on the ocean floor, acidic pools in Yellowstone, and the Atacama desert in Chile. When we look around the solar system, we see environments that can’t support complex, multicellular life, but still hold out hope that unicellular life has found a way in Europa’s unseen seas, or below the surface of Mars.

But as the Earth’s climate changes, and the ocean gets warmer and more acidic, complexity goes from an asset to a liability, and simplicity reigns.

“Communities of species in the ocean change as a result of this shift in living conditions. In the future animals and plants will have problems to survive in the warmest marine regions and archaea, bacteria as well as protozoa will spread in these areas,” said Dr. Hans-Otto Pörtner, one of the study’s co-authors. “There are already studies showing that unicellular algae will be replaced by other unicellular organisms in the warmest regions of the ocean.”

The story of life on Earth is, if nothing else, symmetrical. Three and a half billion years ago, prokaryotic cells showed up, without a nucleus or other organelles. Complex, multicellular life emerged with an increase in biomass and decrease in global surface temperature half a billion years ago. In another billion and a half years that complex multicellular life died back out, leaving the planet to the so-called simpler forms of life, as they basked in the light of a much brighter Sun. The best-case scenario is that life lasts until the Sun runs out of fuel, swells into a red giant,and vaporizes whatever is left of our planet in 7.6 billion years.

Multicellular life will have just been a two billion year flicker against a backdrop of adaptable single-celled life. But hey, we had a good run.

Insect diet helped early humans build bigger brains: Quest for elusive bugs spurred primate tool use, problem-solving skills (Science Daily)

Date: July 1, 2014

Source: Washington University in St. Louis

Summary: Figuring out how to survive on a lean-season diet of hard-to-reach ants, slugs and other bugs may have spurred the development of bigger brains and higher-level cognitive functions in the ancestors of humans and other primates, suggests new research.

An adult female tufted capuchin monkey of the Sapajus lineage using a stone tool and a sandstone anvil to crack a palm nut as her infant hangs on. Credit: E. Visalberghi

Figuring out how to survive on a lean-season diet of hard-to-reach ants, slugs and other bugs may have spurred the development of bigger brains and higher-level cognitive functions in the ancestors of humans and other primates, suggests research from Washington University in St. Louis.

“Challenges associated with finding food have long been recognized as important in shaping evolution of the brain and cognition in primates, including humans,” said Amanda D. Melin, PhD, assistant professor of anthropology in Arts & Sciences and lead author of the study.

“Our work suggests that digging for insects when food was scarce may have contributed to hominid cognitive evolution and set the stage for advanced tool use.”

Based on a five-year study of capuchin monkeys in Costa Rica, the research provides support for an evolutionary theory that links the development of sensorimotor (SMI) skills, such as increased manual dexterity, tool use, and innovative problem solving, to the creative challenges of foraging for insects and other foods that are buried, embedded or otherwise hard to procure.

Published in the June 2014 Journal of Human Evolution, the study is the first to provide detailed evidence from the field on how seasonal changes in food supplies influence the foraging patterns of wild capuchin monkeys.

The study is co-authored by biologist Hilary C. Young and anthropologists Krisztina N. Mosdossy and Linda M. Fedigan, all from the University of Calgary, Canada.

It notes that many human populations also eat embedded insects on a seasonal basis and suggests that this practice played a key role in human evolution.

“We find that capuchin monkeys eat embedded insects year-round but intensify their feeding seasonally, during the time that their preferred food — ripe fruit — is less abundant,” Melin said. “These results suggest embedded insects are an important fallback food.”

Previous research has shown that fallback foods help shape the evolution of primate body forms, including the development of strong jaws, thick teeth and specialized digestive systems in primates whose fallback diets rely mainly on vegetation.

This study suggests that fallback foods can also play an important role in shaping brain evolution among primates that fall back on insect-based diets, and that this influence is most pronounced among primates that evolve in habitats with wide seasonal variations, such as the wet-dry cycles found in some South American forests.

“Capuchin monkeys are excellent models for examining evolution of brain size and intelligence for their small body size, they have impressively large brains,” Melin said. “Accessing hidden and well-protected insects living in tree branches and under bark is a cognitively demanding task, but provides a high-quality reward: fat and protein, which is needed to fuel big brains.”

But when it comes to using tools, not all capuchin monkey strains and lineages are created equal, and Melin’s theories may explain why.

Perhaps the most notable difference between the robust (tufted, genus Sapajus) and gracile (untufted, genus Cebus) capuchin lineages is their variation in tool use. While Cebus monkeys are known for clever food-foraging tricks, such as banging snails or fruits against branches, they can’t hold a stick to their Sapajus cousins when it comes to theinnovative use and modification of sophisticated tools.

One explanation, Melin said, is that Cebus capuchins have historically and consistently occupied tropical rainforests, whereas the Sapajus lineage spread from their origins in the Atlantic rainforest into drier, more temperate and seasonal habitat types.

“Primates who extract foods in the most seasonal environments are expected to experience the strongest selection in the ‘sensorimotor intelligence’ domain, which includes cognition related to object handling,” Melin said. “This may explain the occurrence of tool use in some capuchin lineages, but not in others.”

Genetic analysis of mitochondial chromosomes suggests that the Sapajus-Cebus diversification occurred millions of years ago in the late Miocene epoch.

“We predict that the last common ancestor of Cebus and Sapajus had a level of SMI more closely resembling extant Cebus monkeys, and that further expansion of SMI evolved in the robust lineage to facilitate increased access to varied embedded fallback foods,necessitated by more intense periods of fruit shortage,” she said.

One of the more compelling modern examples of this behavior, said Melin, is the seasonal consumption of termites by chimpanzees, whose use of tools to extract this protein-rich food source is an important survival technique in harsh environments.

What does this all mean for hominids?

While it’s hard to decipher the extent of seasonal dietary variations from the fossil record, stable isotope analyses indicate seasonal variation in diet for at least one South African hominin, Paranthropus robustus. Other isotopic research suggests that early human diets may have included a range of extractable foods, such as termites, plant roots and tubers.

Modern humans frequently consume insects, which are seasonally important when other animal foods are limited.

This study suggests that the ingenuity required to survive on a diet of elusive insects has been a key factor in the development of uniquely human skills: It may well have been bugs that helped build our brains.

Journal Reference:

  1. Amanda D. Melin, Hilary C. Young, Krisztina N. Mosdossy, Linda M. Fedigan.Seasonality, extractive foraging and the evolution of primate sensorimotor intelligenceJournal of Human Evolution, 2014; 71: 77 DOI:10.1016/j.jhevol.2014.02.009

The World Cup 2014 in Brazil: better organised than the Olympics in London 2012? (FREE)

JUNE 26, 2014

Football Research in an Enlarged Europe (FREE)

Yesterday, I was quoted in a number of French newspapers as saying that the World Cup 2014 has been, so far, better organised than the London Olympics 2012. It is my duty to report that this does not in any way whatsoever misrepresent my views.
I stand by what I said.

There have been months, if not years, of negative reports on the 2014 World Cup. Before the event started, comments from all quarters (Western media, FIFA, patrons and waiters at the pub alike) promised absolute doom and gloom in Brazil. The stadia would not be ready in time, spectators would be prevented from travelling to the venues because the infrastructures would not be ready in time or because Brazilians would be protesting to no end. Most commentators were very short of saying ‘those lazy, unpatriotic and unreliable Brazilians’ – when they did not actually say it…

Unless I am mistaken, so far none of this has actually happened. All the stadia are ready and used for the Cup. Brazilians are exercising their democratic right to protest and there are isolated reports of Pelé or other football celebrities not making it to the venue. Yet, stadia are not only ready. They are full at every game! Even when South Korea is playing Algeria, in a game where the sporting stakes are not high.

Compare this with the London Olympics which were marred by a number of controversies:

We could add to the list of ‘things that went pearshaped at London 2012’: for example, the gatecrasher at the parade of nations which shocked many people in India, LOCOG displaying a South-Korean flag instead of North-Korea (logically the North-Korean team refused to warm up and play until the right flag was displayed, prompting the game to be very much delayed…) but the point is not to criticise otherwise relatively well organised Olympics. I don’t want to be unfair with the Brits either as there are often controversies surrounding the organisation of a mega event. Let’s just recall that, to my knowledge, the only international sporting event that had to change country because a stadium was not built in time, is the 2007 Athletics World Championship, planned in Wembley, London and which finally happened in Oslo. Once more, let’s be fair with Britain: construction delays are common in every country, and construction budgets almost invariably go overboard.

The point, instead, is to show the gap between reality and perception. Whenever an event is organised in a Southern country, the discourse, and the memory, is of potential fiascos, that have usually not materialised. Whenever an event is organised in a Northern country, the discourse, and the memory, is of success, even when there were actual fiascos.

Following Edward Said, we can call this ‘orientalisation’, and say that in a world where the East/West divide was replaced in the 1990s by a North-South divide,  this is the result of a distorted view that the Western/Northern media have of the Orient/South.

Let’s say things much more clearly: this is a xenophobic, or even racist, discourse.

David Ranc

Brasil x Argentina: a promoção disfarçada do ódio (Carta Capital)

Não dá para aceitar que nossa mídia promova tendências à xenofobia e ao preconceito na sua busca por vender cervejas e aumentar sua audiência

por Coletivo Intervozes — publicado 01/07/2014 11:15, última modificação 01/07/2014 12:45

Juan Mabromata / AFP

Torcida da Argentina na Copa do Mundo

Torcedores argentinos aguardam a chegada de sua seleção na porta do Beira-Rio, estádio da Copa do Mundo em Porto Alegre

*Por Bruno Marinoni

Todos eles foram levados para dentro de uma pequena casa à beira-mar, trancafiados e eliminados. Mais um filme sobre o genocídio nazista? Não. Trata-se de uma “humorada” publicidade de cerveja sobre a “rivalidade” entre brasileiros e argentinos, que vem sendo veiculada desde a partida Argentina e Nigéria, no dia 25 de junho. Qual o problema de os nossos veículos de comunicação alimentarem a xenofobia? De fazerem graça com a proposta de que os hermanos devem ser lançados ao mar, ou ao espaço por nós?

O portal Diário na Copa, do grupo Diário do Nordeste (CE), no mesmo dia 25, publicou uma matéria com a manchete “Argentinos assaltam torcedores e roubam ingressos antes de partida em Porto Alegre”. O conteúdo da notícia aponta que os suspeitos são argentinos, pois vestiam camisas da seleção argentina. E, assim, nossa imprensa acredita possuir elementos suficientes para associar as imagens do crime à de uma nacionalidade específica. Essa é uma equação bem conhecida pelas vítimas de campanhas racistas e xenófobas. Qual o problema de chamar de “assaltantes argentinos” pessoas que vestem camisa da argentina e roubam ingressos?

Uma matéria do site do Globo Esporte do dia 21 anunciava que “a Copa do Mundo registrou na madrugada deste sábado a primeira grande briga entre brasileiros e argentinos”. Qual o problema de se naturalizar a briga entre representantes das duas nacionalidades, já insinuando que ela é a primeira de uma série?

Temos assim exemplos nos quais o espetáculo da Copa do Mundo, a grande competição entre as nações, mostra-se um prato cheio para que a nossa indústria cultural alimente e se alimente da violência (simbólica?). Promover a criminalização de um determinado grupo, a naturalização da violência e a necessidade de eliminação do outro: eis um mecanismo comum que se volta de diferentes maneiras para diversos atores no nosso cotidiano e para o qual é preciso estarmos atentos.

Enquanto na publicidade temos um exemplo que se vale do humor para tentar neutralizar qualquer possibilidade de crítica, tem-se por outro lado a imprensa utilizando a estratégia do “realismo”, na qual o “relato objetivo do fato” esconde o papel ativo do jornalismo na construção do discurso sobre a realidade. Dessa forma, o discurso que demoniza um determinado grupo tenta nos seduzir tanto de forma indireta (foi só uma piada!) como de forma direta (essa é a verdade).

Alguém pode minorar o fato de que o futebol é um fenômeno midiático e argumentar que essa rivalidade entre brasileiros e argentinos não foi criada pela mídia. Tá legal, eu aceito o argumento. O que não dá para aceitar é que nossa mídia promova tendências à xenofobia e ao preconceito na sua busca por vender cervejas e aumentar sua audiência. Seu papel deveria ser problematizar e combater, ao invés de estimular, o espetáculo do ódio travestido de rivalidade.

Abaixo, o vídeo em que os argentinos são mandados para o espaço:

* Bruno Marinoni é repórter do Observatório do Direito à Comunicação, doutor em Sociologia pela UFPE e integrante do Conselho Diretor do Intervozes.

Ceremonial PTSD therapies favored by Native American veterans (Science Daily)

Date: June 30, 2014

Source: Washington State University

Summary: Traditional healing therapies are the treatment of choice for many Native American veterans, — half of whom say usual PTSD treatments don’t work — according to a recent survey. In the Arizona desert, wounded warriors from the Hopi Nation can join in a ceremony called Wiping Away the Tears. The traditional cleansing ritual helps dispel a chronic “ghost sickness” that can haunt survivors of battle.

Urquhart is a Native veteran and graduate student in the WSU College of Education. Credit: Rebecca E. Phillips

Native American veterans battling Post Traumatic Stress Disorder find relief and healing through an alternative treatment called the Sweat Lodge ceremony offered at the Spokane Veterans Administration Hospital.

In the Arizona desert, wounded warriors from the Hopi Nation can join in a ceremony called Wiping Away the Tears. The traditional cleansing ritual helps dispel a chronic “ghost sickness” that can haunt survivors of battle.

These and other traditional healing therapies are the treatment of choice for many Native American veterans, — half of whom say usual PTSD treatments don’t work — according to a recent survey conducted at Washington State University. The findings will be presented at the American Psychological Association conference in Washington D.C. this August.

The study is available online at https://www.surveymonkey.com/s/nativeveterans.

Led by Greg Urquhart and Matthew Hale, both Native veterans and graduate students in the College of Education, the ongoing study examines the attitudes, perceptions, and beliefs of Native American veterans concerning PTSD and its various treatment options. Their goal is to give Native veterans a voice in shaping the types of therapies available in future programs.

“Across the board, Native vets don’t feel represented. Their voices have been silenced and ignored for so long that they were happy to provide feedback on our survey,” said Hale.

Historically, Native Americans have served in the military at higher rates than all other U.S. populations. Veterans are traditionally honored as warriors and esteemed in the tribal community.

A 2012 report by the Department of Veterans Affairs showed that the percentage of Native veterans under age 65 outnumbers similar percentages for veterans of all other racial groups combined.

The WSU survey provides a first-hand look at the veterans’ needs, but more importantly, reveals the unique preferences they have as Native American veterans, said Phyllis Erdman, executive associate dean for academic affairs at the college and mentor for the study.

Cultural worldview

Urquhart said many Native veterans are reluctant to seek treatment for PTSD because typical western therapy options don’t represent the Native cultural worldview.

“The traditional Native view of health and spirituality is intertwined,” he explained. “Spirit, mind, and body are all one — you can’t parcel one out from the other — so spirituality is a huge component of healing and one not often included in western medicine, although there have been a few studies on the positive effects of prayer.”

For many years, the U.S. government banned Native religious ceremonies, which subsequently limited their use in PTSD programs, said Urquhart. Seeking to remedy the situation, many Veterans Administration hospitals now offer traditional Native practices including talking circles, vision quests, songs, drumming, stories, sweat lodge ceremonies, gourd dances and more. Elders or traditional medicine men are also on staff to help patients process their physical and emotional trauma.

“PTSD is a big issue and it’s not going away anytime soon,” said Hale who identifies as Cherokee and was a mental health technician in the Air Force.

Urquhart, who is also Cherokee and developed mild symptoms of PTSD after a tour as a cavalry scout in Iraq, said there have been very few studies on Native veterans and PTSD. He and Hale designed their survey to be broader and more inclusive than any previous assessments. It is the first to address the use of equine therapy as a possible adjunct to both western treatments and Native ceremonial approaches.

Standard treatments disappointing

So far, 253 veterans from all five branches of the military have completed the survey, which includes 40 questions, most of them yes or no answers. It also includes an open-ended section where participants can add comments. The views reflect a diverse Native population ranging from those living on reservations to others who live in cities.

The majority of survey takers felt that “most people who suffer from PTSD do not receive adequate treatment,” said Urquhart. For Native veterans who did seek standard treatment, the results were often disappointing. Sixty percent of survey respondents who had attempted PTSD therapy reported “no improvement” or “very unsatisfied.”

Individual counseling reportedly had no impact on their PTSD or made the symptoms worse for 49 percent of participants. On the other hand, spiritual or religious guidance was seen as successful or highly successful by 72 percent of Native respondents. Animal assisted therapy — equine, canine, or other animals — was also highly endorsed.

“The unique thing about equine therapy is that it’s not a traditional western, sit-down-with-a-therapist type program. It’s therapeutic but doesn’t have the stigma of many therapies previously imposed on Native Americans,” said Urquhart.

Strongly supportive of such efforts, Erdman is expanding the long-running WSU Palouse Area Therapeutic Horsemanship (PATH) program to include a section open to all veterans called PATH to Success: A Warrior’s Journey.

Giving veterans a voice

Urquhart, Hale, and teammate, Nasreen Shah say their research is gaining wide support in Native communities throughout the nation.

The team plans to distribute the survey results to all U.S. tribes, tribal governments, Native urban groups, and veteran warrior societies. They also hope the departments of Veterans Affairs and Indian Health Services will take notice and continue to incorporate more traditional healing methods into their programs.

As one Iroquois Navy veteran commented on the survey, “Traditional/spiritual healing can be very effective together with in depth education and background in modern treatment methods.”

A Nahua Army veteran agreed, writing, “Healing ceremonies are absolutely essential, as is story telling in front of supportive audiences. We need rituals to welcome back the warriors.”

Story Source:

The above story is based on materials provided by Washington State University. The original article was written by Rebecca E. Phillips. Note: Materials may be edited for content and length.

The Map Of Native American Tribes You’ve Never Seen Before (Code Switch/NPR)

June 24, 2014 4:03 PM ET
Aaron Carapella, a self-taught mapmaker in Warner, Okla., has designed a map of Native American tribes showing their locations before first contact with Europeans.

Aaron Carapella, a self-taught mapmaker in Warner, Okla., has designed a map of Native American tribes showing their locations before first contact with Europeans.

Hansi Lo Wang/NPR

Finding an address on a map can be taken for granted in the age of GPS and smartphones. But centuries of forced relocation, disease and genocide have made it difficult to find where many Native American tribes once lived.

Aaron Carapella, a self-taught mapmaker in Warner, Okla., has pinpointed the locations and original names of hundreds of American Indian nations before their first contact with Europeans.

As a teenager, Carapella says he could never get his hands on a continental U.S. map like this, depicting more than 600 tribes — many now forgotten and lost to history. Now, the 34-year-old designs and sells maps as large as 3 by 4 feet with the names of tribes hovering over land they once occupied.

Carapella has designed maps of Canada and the continental U.S. showing the original locations and names of Native American tribes. View the full map (PDF).

Carapella has designed maps of Canada and the continental U.S. showing the original locations and names of Native American tribes. View the full map (PDF).

Courtesy of Aaron Carapella

“I think a lot of people get blown away by, ‘Wow, there were a lot of tribes, and they covered the whole country!’ You know, this is Indian land,” says Carapella, who calls himself a “mixed-blood Cherokee” and lives in a ranch house within the jurisdiction of the Cherokee Nation.

For more than a decade, he consulted history books and library archives, called up tribal members and visited reservations as part of research for his map project, which began as pencil-marked poster boards on his bedroom wall. So far, he has designed maps of the continental U.S., Canada and Mexico. A map of Alaska is currently in the works.

What makes Carapella’s maps distinctive is their display of both the original and commonly known names of Native American tribes, according to Doug Herman, senior geographer at the Smithsonian National Museum of the American Indian in Washington, D.C.

This map of Mexico features both the original and commonly known names of some indigenous nations. View the full map (PDF).

This map of Mexico features both the original and commonly known names of some indigenous nations. View the full map (PDF).

Courtesy of Aaron Carapella

“You can look at [Carapella’s] map, and you can sort of get it immediately,” Herman says. “This is Indian Country, and it’s not the Indian Country that I thought it was because all these names are different.”

He adds that some Native American groups got stuck with names chosen arbitrarily by European settlers. They were often derogatory names other tribes used to describe their rivals. For example, “Comanche” is derived from a word in Ute meaning “anyone who wants to fight me all the time,” according to the Encyclopaedia Britannica.

“It’s like having a map of North America where the United States is labeled ‘gringos’ and Mexico is labeled ‘wetbacks,’ ” Herman says. “Naming is an exercise in power. Whether you’re naming places or naming peoples, you are therefore asserting a power of sort of establishing what is reality and what is not.”

Look at a map of Native American territory today, and you’ll see tiny islands of reservation and trust land engulfed by acres upon acres ceded by treaty or taken by force. Carapella’s maps serve as a reminder that the population of the American countryside stretches back long before 1776 and 1492.

Carapella describes himself as a former “radical youngster” who used to lead protests against Columbus Day observances and supported other Native American causes. He says he now sees his mapmaking as another way to change perceptions in the U.S.

“This isn’t really a protest,” he explains. “But it’s a way to convey the truth in a different way.”

Take a closer look at Aaron Carapella’s map of the continental U.S. and Canada and his map of Mexico. He sells prints on his website.

Experimento demonstra decaimento do bóson de Higgs em componentes da matéria (Fapesp)

Comprovação corrobora a hipótese de que o bóson é o gerador das massas das partículas constituintes da matéria. Descoberta foi anunciada na Nature Physics por grupo com participação brasileira (CMS)
02/07/2014

Por José Tadeu Arantes

Agência FAPESP – O decaimento direto do bóson de Higgs emférmions – corroborando a hipótese de que ele é o gerador das massas das partículas constituintes da matéria – foi comprovado no Grande Colisor de Hádrons (LHC, na sigla em inglês), o gigantesco complexo experimental mantido pela Organização Europeia para a Pesquisa Nuclear (Cern) na fronteira da Suíça com a França.

O anúncio da descoberta acaba de ser publicado na revista Nature Physics pelo grupo de pesquisadores ligado ao detector Solenoide Compacto de Múons (CMS, na sigla em inglês).

Da equipe internacional do CMS, composta por cerca de 4.300 integrantes (entre físicos, engenheiros, técnicos, estudantes e pessoal administrativo), participam dois grupos de cientistas brasileiros: um sediado no Núcleo de Computação Científica (NCC) da Universidade Estadual Paulista (Unesp), em São Paulo, e outro no Centro Brasileiro de Pesquisas Físicas, do Ministério da Ciência, Tecnologia e Inovação (MCTI), e na Universidade do Estado do Rio de Janeiro (Uerj), no Rio de Janeiro.

“O experimento mediu, pela primeira vez, os decaimentos do bóson de Higgs em quarks bottom e léptons tau. E mostrou que eles são consistentes com a hipótese de as massas dessas partículas também serem geradas por meio do mecanismo de Higgs”, disse o físico Sérgio Novaes, professor da Unesp, à Agência FAPESP.

Novaes é líder do grupo da universidade paulista no experimento CMS e pesquisador principal do Projeto Temático “Centro de Pesquisa e Análise de São Paulo” (Sprace), integrado ao CMS e apoiado pela FAPESP.

O novo resultado reforçou a convicção de que o objeto cuja descoberta foi oficialmente anunciada em 4 de julho de 2012 é realmente o bóson de Higgs, a partícula que confere massa às demais partículas, de acordo com o Modelo Padrão, o corpo teórico que descreve os componentes e as interações supostamente fundamentais do mundo material.

“Desde o anúncio oficial da descoberta do bóson de Higgs, muitas evidências foram coletadas, mostrando que a partícula correspondia às predições do Modelo Padrão. Foram, fundamentalmente, estudos envolvendo seu decaimento em outros bósons (partículas responsáveis pelas interações da matéria), como os fótons (bósons da interação eletromagnética) e o W e o Z (bósons da interação fraca)”, disse Novaes.

“Porém, mesmo admitindo que o bóson de Higgs fosse responsável pela geração das massas do W e do Z, não era óbvio que ele devesse gerar também as massas dos férmions (partículas que constituem a matéria, como os quarks, que compõem os prótons e os nêutrons; e os léptons, como o elétron e outros), porque o mecanismo é um pouco diferente, envolvendo o chamado ‘acoplamento de Yukawa’ entre essas partículas e o campo de Higgs”, prosseguiu.

Os pesquisadores buscavam uma evidência direta de que o decaimento do bóson de Higgs nesses campos de matéria obedeceria à receita do Modelo Padrão. Porém, essa não era uma tarefa fácil, porque, exatamente pelo fato de conferir massa, o Higgs tem a tendência de decair nas partículas mais massivas, como os bósons W e Z, por exemplo, que possuem massas cerca de 80 e 90 vezes superiores à do próton, respectivamente.

“Além disso, havia outros complicadores. No caso particular do quark bottom, por exemplo, um par bottom-antibottom pode ser produzido de muitas outras maneiras, além do decaimento do Higgs. Então era preciso filtrar todas essas outras possibilidades. E, no caso do lépton tau, a probabilidade de decaimento do Higgs nele é muito pequena”, contou Novaes.

“Para se ter ideia, a cada trilhão de colisões realizadas no LHC, existe um evento com bóson de Higgs. Destes, menos de 10% correspondem ao decaimento do Higgs em um par de taus. Ademais, o par de taus também pode ser produzido de outras maneiras, como, por exemplo, a partir de um fóton, com frequência muito maior”, disse.

Para comprovar com segurança o decaimento do bóson de Higgs no quark bottom e no lépton tau, a equipe do CMS precisou coletar e processar uma quantidade descomunal de dados. “Por isso nosso artigo na Nature demorou tanto tempo para sair. Foi literalmente mais difícil do que procurar uma agulha no palheiro”, afirmou Novaes.

Mas o interessante, segundo o pesquisador, foi que, mesmo nesses casos, em que se considerava que o Higgs poderia fugir à receita do Modelo Padrão, isso não ocorreu. Os experimentos foram muito coerentes com as predições teóricas.

“É sempre surpreendente verificar o acordo entre o experimento e a teoria. Durante anos, o bóson de Higgs foi considerado apenas um artifício matemático, para dar coerência interna ao Modelo Padrão. Muitos físicos apostavam que ele jamais seria descoberto. Essa partícula foi procurada por quase meio século e acabou sendo admitida pela falta de uma proposta alternativa, capaz de responder por todas as predições, com a mesma margem de acerto. Então, esses resultados que estamos obtendo agora no LHC são realmente espetaculares. A gente costuma se espantar quando a ciência não dá certo. Mas o verdadeiro espanto é quando ela dá certo”, disse Novaes.

“Em 2015, o LHC deverá rodar com o dobro de energia. A expectativa é chegar a 14 teraelétrons-volt (TeV) (14 trilhões de elétrons-volt). Nesse patamar de energia, os feixes de prótons serão acelerados a mais de 99,99% da velocidade da luz. É instigante imaginar o que poderemos descobrir”, afirmou.

O artigo Evidence for the direct decay of the 125 GeV Higgs boson to fermions (doi:10.1038/nphys3005), da colaboração CMS, pode ser lido emhttp://nature.com/nphys/journal/vaop/ncurrent/full/nphys3005.html

 

GLOSSÁRIO

Modelo Padrão

Modelo elaborado ao longo da segunda metade do século XX, a partir da colaboração de um grande número de físicos de vários países, com alto poder de predição dos eventos que ocorrem no mundo subatômico. Engloba três das quatro interações conhecidas (eletromagnética, fraca e forte), mas não incorpora a interação gravitacional. O Modelo Padrão baseia-se no conceito de partículas elementares, agrupadas em férmions (partículas constituintes da matéria), bósons (partículas mediadoras das interações) e o bóson de Higgs (partícula que confere massa às demais partículas).

Férmions

Assim chamados em homenagem ao físico italiano Enrico Fermi (1901-1954), prêmio Nobel de Física de 1938. Segundo o Modelo Padrão, são as partículas constituintes da matéria. Compõem-se de seis quarks (up, down, charm, strange, top, bottom), seis léptons (elétron, múon, tau, neutrino do elétron, neutrino do múon, neutrino do tau) e suas respectivas antipartículas. Os quarks agrupam-se em tríades para formar os baryons (prótons e nêutrons) e em pares quark-antiquark para formar os mésons. Em conjunto, baryons e mésons constituem os hádrons.

Bósons

Assim chamados em homenagem ao físico indiano Satyendra Nath Bose (1894-1974). Segundo o Modelo Padrão, os bósons vetoriais são as partículas mediadoras das interações. Compõem-se do fóton (mediador da interação eletromagnética); do W+, W− e Z (mediadores da interação fraca); e de oito tipos de glúons (mediadores da interação forte). O gráviton (suposto mediador da interação gravitacional) ainda não foi encontrado nem faz parte do Modelo Padrão.

Bóson de Higgs

Nome em homenagem ao físico britânico Peter Higgs (nascido em 1929). Segundo o Modelo Padrão, é o único bóson elementar escalar (os demais bósons elementares são vetoriais). De forma simplificada, diz-se que é a partícula que confere massa às demais partículas. Foi postulado para explicar por que todas as partículas elementares do Modelo Padrão possuem massa, exceto o fóton e os glúons. Sua massa, de 125 a 127 GeV/c2 (gigaelétrons-volt divididos pela velocidade da luz ao quadrado), equivale a aproximadamente 134,2 a 136,3 vezes a massa do próton. Sendo uma das partículas mais massivas propostas pelo Modelo Padrão, só pode ser produzido em contextos de altíssima energia (como aqueles que teriam existido logo depois do Big Bang ou os agora alcançados no LHC ), decaindo quase imediatamente em partículas de massas menores. Após quase meio século de buscas, desde a postulação teórica em 1964, sua descoberta foi oficialmente anunciada no dia 4 de julho de 2012. O anúncio foi feito, de forma independente, pelas duas principais equipes do LHC, ligadas aos detectores CMS e Atlas do LHC. Em reconhecimento à descoberta, a Real Academia Sueca concedeu o Prêmio Nobel de Física de 2013 a Peter Higgs e ao belga François Englert, dois dos propositores da partícula.

Decaimento

Processo espontâneo por meio do qual uma partícula se transforma em outras, dotadas de massas menores. Se as partículas geradas não são estáveis, o processo de decaimento pode continuar. No caso mencionado no artigo, o decaimento do bóson de Higgs em férmions (especificamente, no quark bottom e no lépton tau) é tomado como evidência de que o Higgs é o gerador das massas dessas partículas.

LHC

O Grande Colisor de Hádrons é o maior e mais sofisticado complexo experimental já possuído pela humanidade. Construído pelo Cern ao longo de 10 anos, entre 1998 e 2008, consiste basicamente em um túnel circular de 27 quilômetros de extensão, situado a 175 metros abaixo da superfície do solo, na fronteira entre a França e a Suíça. Nele, feixes de prótons são acelerados em sentidos contrários e levados a colidir em patamares altíssimos de energia, gerando, a cada colisão, outros tipos de partículas, que possibilitam investigar a estrutura da matéria. A expectativa, para 2015, é produzir colisões de 14 TeV (14 trilhões de elétrons-volt), com os prótons movendo-se a mais de 99,99% da velocidade da luz. O LHC é dotado de sete detectores, sendo os dois principais o CMS e o Atlas.

The Politics of Violence and Brazil’s World Cup (Anthropoliteia)

JUNE 30, 2014

 

The editors of Anthropoliteia welcome Sean T. Mitchell with the latest entry in our forum Security in Brazil: World Cup 2014 and Beyond.

A June 19, 2014 São Paulo protest called by the Movimento Passe Livre (Free Fare Movement) to protest transport fares and conditions, but mischaracterized internationally as an “Antigovernment” and “World Cup” protest. The banner in front reads, “There will be no fare.” Photo. Oliver Kornblihtt/ Midia NINJA

On Failure, Violence, and the World Cup

Not unlike the 2010 hoopla anticipating that year’s South Africa World Cup, the breathless expectation of failure and security breakdown that characterized much international coverage of the lead up to Brazil’s 2014 World Cup, now, midway through the month-long event, seems to have been illfounded.

When reporting wasn’t merely what Meg Stalcup characterized on this forum as fluff—which much of it was—pre World Cup coverage in the global north press was overheated and macabre.  Why?

The last year has seen the emergence of large scale Brazilian protest movements of clear importance, and the World Cup has been a target of their criticism.  But the macabre emphasis on violence and failure has obscured much more than it has illuminated about these movements, and about the real violence and social conflicts in contemporary Brazil.

To understand why so much coverage has taken this lurid form, it helps to look at historical representations of peace and violence in Brazil, as well as contemporary politics in Brazil and abroad.

First, consider this: in the run up to Brazil’s World Cup, The New York Times described the “highly modernistic improvement” in stadium security technology designed for the “highly excitable public” and the “huge crowds possible in this soccer-mad country.”  The same year, The Washington Post lamented that “Brazil has for several years been miring deeper into a real crisis characterized by inflation” and a “breakdown” in “national equipment.” The paper warned of a country that had “outgrown its transportation system and power resources,” of “impoverished hordes” in Sao Paulo and Rio de Janeiro and that “the cost of living, already high, is going higher each day.” There was mention of elites hoping that a president, “swept into power by the underprivileged,” could “maintain a reasonable restraint on the masses.” Without such control the country might suffer “violent swings to the left, then to the right,” producing “chaos” that might prevent the country from setting “its economic house in order.”

Despite clear similarities with recent Anglophone reporting on Brazil, these articles were not from Brazil’s World Cup year of 2014, but from 1950, when Brazil also hosted the event.  The “highly modernistic improvement” to Rio’s Maracanã stadium was a moat, designed to protect players from spectators—somewhat lower tech than the “Robocops” of today’s sensational headlines.

The list of economic and political woes in The Washington Postarticle fits neatly with recent coverage of Brazil in the Anglophone press.  But the president in question was the newly-elected former dictator, Getúlio Vargas, not today’s soon-up-for-reelection former revolutionary, Dilma Rousseff of Brazil’s PT (Worker’s Party).  Like Dilma, Getúlio inherited a political program vastly popular with Brazil’s poor, but faced discontent, political turmoil, and the imperative to assuage fears of socialism among elites in Brazil and abroad.

When I went looking for 1950 reports about Brazil in the US press, the pickings were few, a dramatic contrast to the live video feeds, social media posts, and news reports of all kinds we are assaulted with today.

I will be in New York until I fly to Brazil on the night of the World Cup final.  I’ll send in a few posts in this series on the aftermath of the Cup and on the (very different) topic of the book I’m currently finishing over the next few months, so I draw heavily here on those media.  But, mindful of Jonathan Franzen’s warning that “free and universally accessible” information devalues many kinds of research (If you’re reading this, you can Google this stuff yourself), I will do my best to put some of the reporting we have been getting in a broader interpretive context.

The key point as I see it is this: in conversations in New York, I have been struck by the much greater continued focus on violence and failure than in (virtual) conversations with people in Brazil.  The other night I had a discussion with a group of well-meaning New Yorkers wrongly convinced that massive battles between protestors and police are ongoing outside most of the stadiums.  A few days earlier, I tried in vain to argue against the likelihood of stadium collapse with a man who thought such a disastrous event likely.

My colleagues on this forum have done an excellent job analyzing the real conflicts surrounding Brazil’s 2014 World Cup and 2016 Olympics, and repression of dissent around the stadiums has been draconian.  This post should not be misunderstood as undermining the importance of these conflicts and that violence.  As Ben Penglase has shown in this forum, the characterization of young dark-skinned men in Rio’s favelas as potential criminals serves to legitimate highly militarized policing of those spaces.  Similarly, the lurid, often unrealistic, focus on Brazilian violence that I continue to encounter in conversations in the US (and in a style of reporting best described as violence porn), does not so much illuminate the conflicts in Brazilian society as it  helps to legitimate the repression of dissent.

So why, prior to the World Cup, did violence and failure become such central tropes in foreign representations of Brazil, even though some Brazilian sources could have offered a useful counter-perspective?

The Myths of a Peaceful and a Violent Nation

To begin to answer this question, I’ll note that there has been a deep shift in the ideas about peace and violence that have circulated about Brazil over the last half century or so.I did my best in the introduction to emphasize the many similarities between reporting in 1950 and 2014; now I’ll emphasize the equally significant differences.

The 1950 New York Times article about the moat didn’t do a lot to stir up fear, and, unlike contemporary reports, mentioned no dangers greater than rowdy sports fans.

The 1950 Washington Post article (published after that year’s World Cup) clearly referenced many of the fears of a Washington Postreadership worried about “socialism” in Latin America after the election of a populist Brazilian president, similar to fears voiced in the international press during the early years of Brazil’s PT governance (2003 – the present).  And the thrust of the Post article, awkwardly entitled, “Brazil’s ‘Socialism’ Probably Will Be a Relative Thing,” was to console Cold War-era readers that the president elect “wants foreign capital to help on the long-term national improvements that must be made.”

It is here that clear differences with the present emerge.  The Postrelied on a cultural analysis to come to its mollifying conclusion.  In a polar inversion of recently dominant representations of Brazil as an especially violent country, the article described a Brazilian national inclination to peacefulness. “The ‘adaptability’ of Brazilians helps them solve their problems with far less violence and stress than most peoples,” the article soothed.

This conception of Brazil as a uniquely peaceful country is one with a long history, although, at least in elite circles, it has mostly fallen into eclipse.  Some of the main tropes of the myth are that Brazil achieved independence from Portugal without the bloodshed that characterized independence throughout the Americas; the country abolished slavery without a war (abolition came to Brazil after all other countries in the hemisphere, in 1888); the Brazilian military has not engaged in military action against foreigners in South America since the brutal Paraguayan War (1864-1870).

Contemporary English language readers may be most familiar with a closely-related myth generally called, “the myth of racial democracy,” the idea that Brazil has long had uniquely friendly and peaceful race relations.  But if casual readers are familiar with this myth, it is likely because they have seen or heard it critiqued.  Like the myth of Brazilian peacefulness, “racial democracy” enjoys some life as a popular ideology. But, in scholarship and middle and highbrow journalism, it is invoked almost exclusively to be debunked.

If I can take the general impressions held by my more interested US undergraduate students as a guide, the idea of Brazil as a violent and racist country, along with hard-edged popular culture such as Baile Funk, and City of God, have now completely surpassed the mid-20th century conceptions of peacefulness, racial democracy, and the soothing Garota de Ipanema, and Carmen Miranda as sources of internationally circulating clichés about Brazil.

The causes of this broader cultural shift are beyond the scope of this essay, though I will write about them in the future. Suffice it to say that the myth of peaceful Brazil is as faulty as the now-dominant polar opposite of violent Brazil.  For a nation without significant external enemies, yet with high levels of urban and police violence and one of the world’s major small arms industries, one could, if so inclined, build a case for either myth.

I’ve written a paper with anthropologists, Thaddeus Blanchette and Ana Paula da Silva (currently in peer review), in which we show how representations of Brazil in the global north (especially the United States) frequently swing between utopian and dystopian poles, in part because the nation is just similar enough to the United States to serve as a conveniently blank slate.  The myths of violent and peaceful Brazil follow this general pattern very closely.

The Failure of the World Cup?

Narrowing down on more recent history, why has the Anglophone global north press been so concerned with violence and failure when writing about the World Cup, when they stray beyond “fluff” and simple sports reporting?

First, there is major political unrest in Brazil, and the World Cup is part of this. The deaths, physical displacement, and many other human costs of the preparations for the event, along with the waste and private appropriation of needed public funds have catalyzed public dissent. The mega events of the World Cup and 2016 Olympics are being used to favor real estate interests and the neoliberal restructuring of major cities. Moreover, FIFA acts as rapacious dictator while issuing alarmist warnings about Brazil’s preparation.  All the while, the World Cup has provided the pretext to turn major parts of Brazil’s large cities into effective police states.

But contemporary protests are about more than just the World Cup, as has already been shown in this forum.  Despite this, the political concerns of the protests have been lost in international coverage that emphasizes the World Cup, on the one hand, and unspecified “anti-government” forces, on the other.  For example, the one year anniversary of the massive nationwide June 19, 2013 protests were marked by some violence and by violent police repression, but this much-circulated piece from Reuters featured the words “World Cup” in the headline and multiple uses of “anti-government” before coming to the buried lede of the movement for free bus fares, which sparked those 2013 protests and these protests one year later.  Similarly, this piece in Time about the same protest, featured a photo captioned, “protest against 2014 FIFA World Cup,” and alleged that the protests were “Antigovernment riots” merely “ostensibly calling for free public transit.”

To put this in perspective, on the day Vice.com put out the third video in their extremely popular “Chaos in Brazil” series (which includes some good journalism, despite the Vice-style lurid headlines and horror movie music), some 50,000 people were protesting in London against austerity. As my friend, the Rio de Janeiro based geographer, Brian Mier (who has done some high quality reporting for Vice himself), put it: “That’s around 50 times larger than any anti-World Cup protest that happened last week. According to the type of analysis in places like CNN about Brazil, this must be a sign that British society is crumbling at the foundations.”

But there’s a much stronger market for stories about Brazilian “society crumbling at the foundations” than there is for such stories about England.  As journalist Lawrence Charles lamented from Brazil, “the only stories editors across the world are interested in fall into the Angry Violent Brazilian Who Might Mess Up The World Cup category.” So macabre and sensational stories are the ones we get.  There’s a post-colonial and geopolitical logic to this: I predict more international hand-wringing about Brazil’s 2016 Olympics and Russia’s 2018 World Cup, but not about the prosperous and NATO-aligned Japan’s 2020 Olympics.

Additionally, in this Brazilian election year, analyses of the event and its consequences are inevitably shaped by partisan politics in Brazil.  As political scientists João Feres Junior and Fábio Kerche have been arguing, the most powerful news sources in Brazil (Folha de São Paulo, O Estado de São Paulo, O Globo, Veja, and Época), are systematically biased against the PT (Worker’s Party) government that has been in charge of Brazil’s executive since 2003, shaping impressions of the nation’s politics domestically and abroad.

I think these scholars are right about this.  Yet, their argument leaves open a significant question.  The major Brazilian media have been positioned against the PT since the party’s founding in 1980. Yet for most of the first decade of the 21st century, Brazil’s PT, and its 2003-2010 President Lula, were beloved by institutions of global north governance and media, despite the party’s enmity with Brazil’s major media organizations.  This global north affection seems to be on the wane under current PT president, Dilma Rousseff, with foreign and Brazilian major media swinging into closer alignment.

In a future post, I will offer some reasons for this shift.  The answer lies in more than the downturn in Brazil’s economy, the differing policies and personalities of these different presidents, and Brazil’s emerging protest movements, I will argue.

For now, I will end with the suggestion that English language readers consider decontextualized accounts of Brazilian violence with some skepticism.  Brazil’s new protest movements are clearly historic, and their police repression is real, but we do them no favors by taking internationally circulating violence porn at face value.

Sean T. Mitchell is assistant professor of anthropology at Rutgers University, Newark. His ethnographically-based work focuses on the politics of inequality, particularly in Brazil. His work also touches on science and technology studies; race and ethnicity; war and violence; governance and citizenship; social movements; and the politics of expertise. He is coeditor of “Anthropology and Global Counterinsurgency” (Chicago 2010), and is currently completing a manuscript, “Space and Race: The Politics of Inequality at Brazil’s Satellite Launch Center.”

What caused the baby boom in the American southwest 1500 years ago? (The Christian Science Monitor)

By Tia Ghose, LiveScience Staff Writer / July 1, 2014

For hundreds of years, Native Americans in the southwestern United States had a prolonged baby boom — which would average out to each woman giving birth to more than six children, a new study finds. That baby streak, however, ended a little before the Spanish colonized the Americas.

“Birthrates were as high, or even higher, than anything we know in the world today,” said study co-author Tim Kohler, an archaeologist and anthropologist at Washington State University.

The precolonial baby boom was likely fueled by Native Americans in the region switching from a nomadic, hunter-gathering lifestyle to a settled farming way of life, Kohler said. [Images: Maya Maize Secrets Revealed In Tikal Soil]

Skeletal analysisThe researchers analyzed thousands of skeletal remains from hundreds of sites across the Four Corners region of the Southwest (the area that now makes up Utah, Arizona, New Mexico and Colorado) dating from 900 B.C. until the beginning of the colonial period in the early 1500s. (Most sites were excavated decades ago, and most of the remains have been returned to their tribes, Kohler said.)

By estimating the fraction of the population between ages 5 and 19 (young children’s remains are too poorly preserved to include in the calculation), the researchers could get a rough estimate of the birthrate, or the number of babies born per year for every 1,000 people.

The birthrate slowly increased until about A.D. 500, and then rose more quickly and stayed high until A.D. 1300. The birthrate, about 0.049 in a year, was akin to that in modern-day Niger, where every woman has, on average, 6.89 children.

The rise in birthrate coincided with shifts in agricultural production. Though maize was first cultivated around Mexico City nearly 8,000 years ago and reached the Southwest by about 2000 B.C., most Native Americans in the region were nomadic, so they weren’t farming it.

Then, in A.D. 500, selective breeding led to plumper maize seeds, and the crop also became more productive. This shift also coincided with a transition to a more settled way of life.

“We begin to see much more substantial dwellings, indicating that people are spending a much longer period of time in specific places,” with shifts from wood to stone structures, Kohler told Live Science.

The number of dwellings also increased around this time period.

“We go from small hamlets to large villages in space of time from A.D. 600 to A.D. 800,” Kohler said.

Birthrates leveled off around A.D. 1100 and declined precipitously after A.D. 1300. It’s not clear exactly why that happened, but a severe drought in the 1100s may have fueled more conflict, eventually leading to a sudden collapse in the population, the researchers noted.

Nomad vs. agriculturalist

The shift to agriculture could have spurred a baby boom in multiple ways.

A nomadic lifestyle could mean picking up camp and trekking long distances every month — no easy feat for a woman if she had more than one child to carry. At the same time, hunter-gatherers tend to breastfeed their children longer because they have few appropriate “weaning foods.” The high-caloric demand of the lifestyle, combined with prolonged breastfeeding, may have suppressed ovulation in women, leading to fewer children, Kohler said.

In contrast, a woman who had to walk only a small distance to tend the fields could take care of multiple dependent children, and could also wean her children sooner by feeding them a maize porridge, Kohler said.

The findings were published today (June 30) in the journal Proceedings of the National Academy of Sciences.

Follow Tia Ghose on Twitter and Google+. Follow Live Science @livescience, Facebook & Google+. Original article on Live Science.

Top 10 Mysteries of the First Humans History’s 10 Most Overlooked Mysteries In Photos: Human Skeleton Sheds Light on First AmericansCopyright 2014 LiveScience, a TechMediaNetwork company. All rights reserved. This material may not be published, broadcast, rewritten or redistributed.

Mexico Vigilante Leader Demands Community Rule (ABC/AP)

MEXICO CITY — Jul 1, 2014, 5:18 PM ET

The leader of one of the first vigilante movements to spring up in Mexico last year filed a petition Tuesday demanding that the government allow communities in the southern state of Guerrero to elect local officials with open assemblies and show-of-hand votes.

Vigilante leader Bruno Placido said the petition filed with the Federal Electoral Tribunal asks specifically that the collective-vote system be allowed in the town of San Luis Acatlan. But Placido said his People’s Union movement would push for the system to be adopted in all 27 townships where vigilante forces known as “community police” now operate.

The system known as “usage and customs” forbids traditional campaigning and political parties. It currently is practiced in about 420 indigenous towns and villages, almost all in southern Oaxaca state.

Its adoption in non-Indian or mixed towns in Guerrero would mark a significant expansion. To date, its only use outside Oaxaca has been by rebellious Indian towns in Chiapas state and a lone Indian township in the western state of Michoacan, where a vigilante movement also exists.

Placido said the open-vote system would help keep drug gangs and violent crime out of the communities because current election procedures can put politicians in the pocket of drug gangs that finance their campaigns.

“The crime gangs are fomented by the politicians. When they campaign, they are financed with illicit funds, and when they get in, they are controlled by criminal funds,” Placido said. “What we are proposing to do is to get rid of this practice, in which the criminals name the authorities.”

His vigilante movement rose up with old shotguns and rifles in Guerrero in January 2013 and now has several thousand “citizen police” vigilantes serving in several towns.

Guerrero has been the scene of stubborn drug violence, including a Monday confrontation between soldiers and alleged drug gang members that killed 22 suspects at a warehouse and left a soldier injured.

The “usage and customs” system has been criticized for trampling on the rights of women, who are sometimes not allowed to run for office. But Placido said the assembly system would allow members of each of the three main ethnic groups in Guerrero — blacks, Indians and mixed-race — to elect representatives to a sort of town council.

There is no deadline for the federal tribunal to rule on the petition. The town of San Luis Acatlan is scheduled to hold a referendum soon on whether to formally adopt the system.

Mexican courts have generally upheld the right of Indian communities to make their own decisions on local governance issues.