Arquivo mensal: novembro 2015

Força do El Niño deve agravar a seca que atinge o semiárido, diz Cemaden (Cemaden)

Relatório divulgado nesta quarta-feira (18) aponta para cenário de poucas chuvas no Nordeste entre fevereiro e maio de 2016. Seca atinge 910 municípios e um milhão de propriedades da agricultura familiar

Relatório divulgado nesta quarta-feira (18) pelo Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden/MCTI) aponta para um cenário de poucas chuvas na região Nordeste entre fevereiro e maio de 2016, o que deve agravar os impactos da seca que atinge a região.

Relatório da Situação Atual da Seca e Impactos no Semiárido do País também revela que choveu pouco nos últimos 90 dias, sobretudo, no Maranhão, sul da Bahia, e norte de Minas Gerais e Espírito Santo. Ainda que neste período sejam esperados índices pluviométricos mais baixos, nos últimos meses os acumulados foram abaixo da média. Segundo o Cemaden, a causa é o fenômeno El Niño, que está mais forte.

“A avaliação das condições climáticas de grande escala mostra que o fenômeno El Niño está presente, intenso e em franco desenvolvimento. Sob este condicionante, no trimestre novembro-dezembro de 2015 e janeiro de 2016, há chances mínimas de reverter o quadro crítico, apontado pelo indicador de risco agroclimático. Outra indicação decorrente deste cenário climático, altamente provável, é que já se pode inferir que a próxima estação chuvosa do norte do Nordeste (de fevereiro a maio de 2016) apresente condições de deficiência de precipitação”, diz o documento.

Cerca de um milhão de propriedades da agricultura familiar estão localizadas nas áreas afetadas pela seca, em 910 municípios. De acordo com o índice VSWI (sigla em inglês para Índice de Vegetação de Abastecimento de Água), indicador de seca agrícola, esses municípios apresentam pelo menos 50% de suas áreas agrícolas ou de pastagens em condições de déficit hídrico.

Monitoramento

De acordo com a Resolução Nº 13, de 22 de maio de 2014 do Ministério da Integração Nacional e, posteriormente, com o Decreto Presidencial Nº 8.472, de 22 de junho de 2015, o Cemaden/MCTI tem a responsabilidade de fornecer informações para as ações emergenciais adotadas pelo governo para mitigar os impactos da seca. Assim, além do monitoramento da seca, o Cemaden desenvolve um sistema de alerta de riscos de colapso de safras para a agricultura familiar do semiárido.

(Cemaden)

Site monitora em tempo real emissões de CO2 do setor elétrico no Brasil (Estadão)

Giovana Girardi

19/11/2015

Produção em termoelétricas cresceu 171,2% de 2011 a 2014 

Produção em termoelétricas cresceu 171,2% de 2011 a 2014 

De 2011 a 2014, as emissões de gases de efeito estufa do setor elétrico no Brasil cresceram 171%, enquanto a geração de energia subiu apenas 11%. A quantidade de gás carbônico (CO2) emitido por gigawatt de energia gerado passou de 32,26 para 133. Hoje o País – conhecido por ter uma matriz elétrica mais limpa, por conta da forte presença de hidrelétricas – está sujando sua geração de energia.

Dados como esses, na escala de anos, meses, semanas e dias, estão disponíveis a partir desta quinta-feira, 19, em uma nova ferramenta que monitora a geração e as emissões do setor no País. Trata-se de um subproduto do Seeg – sistema que estima desde 2013 as emissões anuais de gases de efeito estufa brasileiras. O levantamento, que traz dados totais e por setor, é feito paralelamente ao oficial do governo federal e tem oferecido essas informações de modo mais ágil.

Além dos dados anuais, agora também será possível acompanhar praticamente em tempo real como está se comportando o setor elétrico. A ferramenta entra no ar nesta quinta-feira junto com o novo relatório anual, que trará os dados de 2014. “Ter os dados anuais mostra a tendência e é muito importante. Mas aí as coisas já aconteceram. O que vemos no monitoramento em tempo real é que as decisões que são tomadas no dia a dia têm um tremendo impacto nas emissões. Isso acontece com o consumo de combustíveis, com a energia elétrica. Se mudar o preço do álcool ou da gasolina, por exemplo, muda a emissão. Então a gente queria capturar isso para poder fazer esse debate sobre as emissões e as decisões que a gente está tomando”, explica Tasso Azevedo, coordenador do Seeg.

O produto é o primeiro do que deve se tornar a série Seeg Monitor. “Começamos com o setor elétrico porque foi onde vimos que houve mais variação. Foi onde mais cresceram as emissões nos últimos quatro anos”, diz Azevedo. “E vemos que varia todo dia, toda semana, todo mês, com base nas decisões tomadas. Em três dias às vezes vemos uma variação de 15%”, complementa.

Crise hídrica. Ele se refere, por exemplo, à decisão de acionar mais as usinas termoelétricas, o que vem ocorrendo por conta da seca que atinge o País desde o ano passado. “Olhando para o monitor a gente consegue visualizar bem o que é a crise do setor elétrico”, comenta Larissa Rodrigues, da campanha de clima e energia do Greenpeace. A ONG colaborou com a elaboração da ferramenta, que foi capitaneada por técnicos do Instituto de Energia e Meio Ambiente (Iema).

O levantamento mostra que entre 2011 e 2014, a geração de eletricidade por fontes renováveis (hidráulica incluída) diminuiu 6,8%, por conta da seca. Outras fontes renováveis, principalmente eólica, subiram 67,2% no período. Mas a produção em termoelétricas cresceu muito mais: 171,2% – número que bate com o aumento das emissões.

“Ficam claros no monitor a sazonalidade das fontes e também como elas se complementam. Toda vez que a linha das hidrelétricas cai, a da eólica sobe”, afirma Marcelo Cremer, do Iema. Há uma tendência no País, especialmente para o Nordeste, de que se chove, não venta, e quando está seco, venta mais.

No site é possível acessar diversas informações. Logo no início há um gráfico que mostra os dados de geração elétrica do dia anterior, dividida pelas principais fontes (hidráulica, eólica, térmica a combustível renovável, térmica nuclear, térmica a combustível fóssil e térmica a combustível não identificado). Também dá para ver a geração nas usinas térmicas subdividida por combustível (carvão, petróleo, gás natural). A informação por dia está disponível até 1.º de janeiro de 2009. Nos próximos dias devem ser acrescentadas as informações até 2006.

Ao lado está um gráfico que mostra a evolução total das emissões do setor e por fonte de energia, também por dia, mês ou ano. Os dados representam a energia que circula na rede nacional, o chamado SIN (Sistema Interligado Nacional). Fontes isoladas e a geração distribuída (por exemplo, com solar nos telhados das casas) ainda não são contadas.

Outra opção de visualização é por subsistema gerador de energia: Norte, Nordeste, Sul, Sudeste e Centro-Oeste. E é possível fazer um zoom ainda maior na rede e olhar as emissões de cada usina do Brasil. O plano, para os próximos meses é oferecer mais informações, como outros poluentes emitidos e quanto de água está sendo consumido para o resfriamento de termoelétricas. A ideia é também traduzir como as escolhas do sistema nacional para a geração de energia refletem no valor da tarifa paga pelo consumidor.

Acordo da conferência de Paris sobre clima terá cumprimento obrigatório (Folha de S.Paulo)

Clóvis Rossi

23/11/2015

A COP21, a conferência global sobre o clima que se inicia no dia 30 em Paris, será de cumprimento obrigatório pelas partes, ao contrário do que tinha dito, na semana passada, o secretário de Estado norte-americano, John Kerry.

Kerry dissera que não sairia de Paris um tratado, mas seu chefe, o presidente Barack Obama, assinou nesta segunda-feira, 16, com seus pares do G20, texto em que afirmam “a determinação de adotar um protocolo, outro instrumento legal ou um desenlace acordado com força legal nos termos da Convenção-Quadro das Nações Unidas sobre Mudanças Climáticas”.

É o acordo que prevê limitar o aumento da temperatura na Terra a 2°C até o final do século, em relação aos níveis da era pré-industrial.

Superar esse teto, dizem os especialistas, geraria consequências apocalípticas.

Berk Ozkan/AFP
Líderes do G20 posam para a tradicional foto do grupo durante a cúpula realizada em Antalya, na Turquia
Líderes do G20 posam para a tradicional foto do grupo durante a cúpula realizada em Antalya, na Turquia

Não por acaso, o comunicado final da cúpula do G20, encerrada nesta segunda-feira, 16, em Antalya, afirma que “a mudança climática é um dos grandes desafios de nosso tempo” e que “2015 é um ano crítico, que requer ação efetiva, forte e coletiva sobre a mudança climática e seus efeitos”.

É natural nessas circunstâncias que o tema tenha sido, depois de terrorismo, o que provocou debates mais agudos na cúpula das grandes economias do planeta.

Uma das polêmicas, não resolvida no comunicado final, girou em torno da revisão das INDCs (Contribuições Pretendidas Nacionalmente Determinadas), ou seja, os compromissos que cada país estabeleceu para si próprio e que levará à COP21.

Já são 160 os países que estabeleceram suas INDCs, Brasil inclusive (a meta brasileira prevê reduzir em 43% a emissão dos gases do efeito estufa até 2030, com base no nível registrado em 2005).

“Vamos cumprir”, assegurou a presidente Dilma Rousseff, “e, se não o fizermos, teremos que prestar contas”.

REVISÃO EM CINCO ANOS

O Brasil apoiou, no G20, a tese de revisão das metas de cinco em cinco anos, mas outros países foram contra, pelo que o comunicado final não a menciona.

Dilma explicou o apoio brasileiro: a revisão a cada cinco anos permitiria analisar a incorporação de tecnologias e modalidades de financiamento que, eventualmente, abreviassem a obtenção das metas.

A presidente se diz otimista sobre o resultado de Paris, entre outras razões porque o formato mudou na comparação com Copenhague, a outra grande cúpula climática: desta vez, serão os chefes de governo que estarão na conferência no momento inicial, indicando claramente as orientações a serem seguidas.

Em Copenhague, foram os negociadores que abriram o encontro, ao qual os chefes de governo compareceram apenas do meio para o fim, com impasses já cristalizados.

AMBIENTALISTAS CRITICAM

O otimismo de Dilma, no entanto, não é compartilhado pelas entidades ambientalistas, que criticaram duramente o comunicado do G20.

“Os chefes de Estado poderiam ter oferecido um claro e poderoso sinal ante a iminência da Cúpula do Clima, pondo uma data para o fim dos subsídios a combustíveis fósseis e concordando em parar de financiar projetos de combustível fóssil ao redor do mundo”, disse, por exemplo, Ümit Sahin, da ONG Pelo Clima.

“Em vez disso” –continuou– “recuperaram posições anteriores e, ao fazê-lo, correm o risco de ficar do lado errado da história.”

Acidente em Mariana é o maior da História com barragens de rejeitos (Jornal da Ciência)

Volume de material despejado é duas vezes e meia superior ao segundo maior

A tragédia de Mariana é o maior acidente da História em volume de material despejado por barragens de rejeitos de mineração. Os 62 milhões de metros cúbicos de lama que vazaram dos depósitos da Samarco no dia 5 representam uma quantidade duas vezes e meia maior que o segundo pior acidente do gênero, ocorrido em 4 de agosto de 2014 na mina canadense de Mount Polley, na Colúmbia Britânica, diz o pesquisador Marcos Freitas, coordenador executivo do Instituto Virtual Internacional de Mudanças Globais (Ivig), ligado à Coppe/UFRJ.

Leia na íntegra: O Globo

Leia também:

O Estado de S. Paulo – Dilma diz que será criado fundo para áreas afetadas por lama

O Estado de Minas – Samarco admite que barragens correm risco de rompimento; chuva agrava situação

Conta das mudanças climáticas é mais alta para nações ricas (O Globo)

ActionAid calcula que países desenvolvidos devem doar 0,1% do PIB a fundo comum

POR O GLOBO

Mulheres polonesas conversam em frente à usina: países desenvolvidos não pagam valores justos para atenuar mudanças climáticas, diz ONG – JOE KLAMAR/AFP

RIO — Um novo estudo da ONG ActionAid denunciou ontem a diferença abissal entre as quantias exigidas e as doadas pelos países desenvolvidos para que as nações mais pobres criem medidas de adaptação contra as mudanças climáticas. Em 2013, foram destinados cerca de US$ 5 bilhões para o combate ao aquecimento global. Na próxima década, serão necessários US$ 150 bilhões por ano para combater os eventos extremos. O debate sobre financiamento está entre as prioridades da Conferência do Clima de Paris, a partir do dia 30.

De acordo com o instituto, as nações ricas deveriam dedicar pelo menos 0,1% de seu PIB a um fundo climático internacional. É um índice 70 vezes menor do que o gasto em 2008 para a adoção de políticas contra a recessão econômica.

Os EUA deveriam aumentar suas contribuições aos países pobres em mais de 154 vezes, passando dos US$ 440 milhões gastos em 2013 para US$ 67,5 bilhões em 2025.

A União Europeia precisa multiplicar os seus investimentos em 11 vezes, passando dos US$ 3,2 bilhões vistos em 2013 para US$ 36,9 bilhões em 2025.

Os cálculos são baseados nas emissões históricas — a contribuição atribuída a cada país para provocar as mudanças climáticas — e em sua capacidade de ajudar financeiramente, levando em conta os dados da Organização para a Cooperação e Desenvolvimento Econômico (OCDE).

Especialista em financiamento climático da ActionAid, Brandon Wu acredita que os países em desenvolvimento estão enfrentando sozinhos “uma crise que não causaram”.

— O problema não é falta de dinheiro — assegura. — Os EUA, por exemplo, gastam muito mais em subsídios para os combustíveis fósseis do que em medidas de adaptação ao clima. É falta de vontade política.

IMPASSE HISTÓRICO

Wu avalia que o financiamento contra as mudanças climáticas pode ser o item mais polêmico entre os discutidos na Conferência do Clima. Tradicionalmente, os países ricos e pobres discordam sobre o tamanho do rombo, e as nações desenvolvidas não concordam em assumir totalmente as indenizações contra o aquecimento global, eximindo economias emergentes, como China e Brasil, de qualquer compromisso financeiro.

— Um novo acordo (global sobre o clima) não é possível sem esclarecimento sobre como serão as finanças — pondera. — Os países em desenvolvimento não podem adaptar suas economias, livrando-as das emissões de carbono, sem apoio internacional. Talvez não consigamos saber exatamente quanto será investido por cada país, mas precisamos impor novos prazos e objetivos. Aqueles discutidos até agora são vagos demais.

Já Osvaldo Stella, diretor do Programa de Mudanças Climáticas do Instituto de Pesquisa Ambiental da Amazônia, acredita que as negociações financeiras não devem ser uma prioridade.

— O mais importante é discutir que metas podem impedir o avanço da temperatura global — defende. — O financiamento é um jogo político. Resistimos a abandonar o petróleo, da mesma forma como, antes, não queríamos largar o carvão. Mais do que abrir o cofre, precisamos pensar em um novo modelo econômico, que tipo de capitalismo devemos adotar.

ON reúne placas fotográficas que contribuíram para comprovar Teoria da Relatividade (MCTI)

Equipe selecionou 61 placas do Observatório Nacional que documentam eclipse de 1919. Observação em Sobral (CE) ajudou a demonstrar conclusões de Albert Einstein

Uma equipe do Observatório Nacional (ON/MCTI) fez um levantamento das placas fotográficas que fazem parte do resultado da expedição que observou o eclipse total do Sol na cidade de Sobral (CE) em 1919 e contribuiu para a comprovação da Teoria da Relatividade Geral, de Albert Einstein.

Composto pelo astrônomo Carlos H. Veiga, pelas bibliotecárias Katia T. dos Santos e M. Luiza Dias e pelo analista Renaldo N. da S. Junior, o grupo avaliou 900 placas fotográficas do acervo da biblioteca do Observatório. Pela importância científica, foram selecionadas as 61 placas das observações do famoso eclipse, que ainda guardam fielmente a imagem da lua nova encobrindo perfeitamente a imagem do Sol, registradas num dia muito especial para a ciência.

A partir da segunda metade do século XIX, as imagens fotográficas eram registradas em placas de vidro. Esse dispositivo, coberto por uma emulsão contendo sais de prata sensíveis à luz, era usado não só para registrar o cotidiano, mas também pela comunidade astronômica, até a última década do século passado, para observação de corpos celestes. Por ter um baixo coeficiente de dilatação térmica, as placas de vidro garantiam, ao longo do tempo, a precisão e confiabilidade das medidas astronômicas.

A fotografia permitiu um grande avanço para a astronomia e para o desenvolvimento da astrofísica, passando a ter um papel de detector, comparando os dados observacionais com o distanciamento temporal de grandes estruturas, como as galáxias. Em 1873 foi iniciado um programa sistemático de observação da atividade das manchas solares e eclipses e da coroa solar.

Uma manhã que mudou a ciência

Na manhã de 29 de maio de 1919, um fenômeno celeste trocaria, por alguns minutos, o dia pela noite numa pacata cidade do Nordeste brasileiro. Os minutos de duração do fenômeno deveriam ser aproveitados ao máximo. Era a oportunidade para comprovar experimentalmente uma nova afirmação científica prevista por uma teoria idealizada por Einstein (1879-1955), físico de origem alemã: a relatividade geral, que pode ser entendida como uma teoria que explica os fenômenos gravitacionais.

Sobral, a cidade cearense, seria o palco que ajudaria a confirmar um efeito previsto pela relatividade geral: a deflexão da luz, na qual um feixe de luz (neste caso, vindo de uma estrela) deveria ter sua trajetória encurvada (ou desviada) ao passar nas proximidades de um forte campo gravitacional (no caso, gerado pelo Sol).

Esse desvio da luz faz com que a estrela observada seja vista em uma posição aparentemente diferente de sua posição real. O objetivo dos astrônomos era medir um pequeno ângulo formado por essas duas posições.

Naquele dia, aconteceria um eclipse solar total. Os cálculos previam que deveria haver, pelo menos, uma estrela localizada no fundo de céu cuja luz passasse próxima ao bordo solar. Com essa configuração e boas condições meteorológicas, haveria grande chance de comprovar a nova teoria.

Leia mais e veja outras imagens do evento histórico, além de indicações bibliográficas.

(MCTI)

Indígena de 81 anos aprende a usar computador e cria dicionário para salvar seu idioma da extinção (QGA)

Marie Wilcox é a última pessoa no mundo fluente no idioma Wukchumi

Conheça Marie Wilcox, uma bisavó de 81 anos e a última pessoa no mundo fluente no idioma Wukchumi. O povo Wukchumi costumava ter uma população de 50.000 pessoas antes de terem contato com os colonizadores, mas agora são somente 200 pessoas vivendo no Vale de São Joaquim, na Califórnia. Sua linguagem foi morrendo aos poucos a cada nova geração, mas Marie se comprometeu com a tarefa de revivê-la, aprendendo a usar um computador para que conseguisse começar a escrever o primeiro dicionário Wukchumni. O processo levou sete anos, e agora que terminou ela não pretende parar seu trabalho de imortalizar sua língua nativa.

O documentário “Marie’s Dictionary”, disponível no Youtube, nos mostra a motivação de Marie e seu trabalho árduo para trazer de volta e registrar um idioma que foi quase totalmente apagado pela colonização, racismo institucionalizado e opressão.

No vídeo, Marie admite ter dúvidas sobre a gigantesca tarefa que ela se comprometeu: “Eu tenho dúvidas sobre minha língua, e sobre quem quer mantê-la viva. Ninguém parece querer aprender. É estranho que eu seja a última… Tudo vai estar perdido algum dia desses, não sei”.

Mas com sorte, esse dia ainda vai demorar. Marie e sua filha Jennifer agora dão aulas para membros da tribo, e trabalham num dicionário em áudio para acompanhar o dicionário escrito que ela já criou.

Veja o vídeo (em inglês).

(QGA)

Anna Tsing On the Precarious Possibilities of Life in Capitalist Ruins

synthetic zerØ

“Anthropologist Anna Lowenhaupt-Tsing examines our precarious present – where environmental degradation and economic alienation threaten to dismantle ways of life (and actual life itself) – and explains why collaborative survival in the future requires a radical re-imagining of growth, modernity and progress.Anna is author of The Mushroom at the End of the World: On the Possibility of Life in Capitalist Ruins from Princeton University Press”

Ver o post original

Full-scale architecture for a quantum computer in silicon (Science Daily)

Scalable 3-D silicon chip architecture based on single atom quantum bits provides a blueprint to build operational quantum computers

Date:
October 30, 2015
Source:
University of New South Wales
Summary:
Researchers have designed a full-scale architecture for a quantum computer in silicon. The new concept provides a pathway for building an operational quantum computer with error correction.

This picture shows from left to right Dr Matthew House, Sam Hile (seated), Sciential Professor Sven Rogge and Scientia Professor Michelle Simmons of the ARC Centre of Excellence for Quantum Computation and Communication Technology at UNSW. Credit: Deb Smith, UNSW Australia 

Australian scientists have designed a 3D silicon chip architecture based on single atom quantum bits, which is compatible with atomic-scale fabrication techniques — providing a blueprint to build a large-scale quantum computer.

Scientists and engineers from the Australian Research Council Centre of Excellence for Quantum Computation and Communication Technology (CQC2T), headquartered at the University of New South Wales (UNSW), are leading the world in the race to develop a scalable quantum computer in silicon — a material well-understood and favoured by the trillion-dollar computing and microelectronics industry.

Teams led by UNSW researchers have already demonstrated a unique fabrication strategy for realising atomic-scale devices and have developed the world’s most efficient quantum bits in silicon using either the electron or nuclear spins of single phosphorus atoms. Quantum bits — or qubits — are the fundamental data components of quantum computers.

One of the final hurdles to scaling up to an operational quantum computer is the architecture. Here it is necessary to figure out how to precisely control multiple qubits in parallel, across an array of many thousands of qubits, and constantly correct for ‘quantum’ errors in calculations.

Now, the CQC2T collaboration, involving theoretical and experimental researchers from the University of Melbourne and UNSW, has designed such a device. In a study published today in Science Advances, the CQC2T team describes a new silicon architecture, which uses atomic-scale qubits aligned to control lines — which are essentially very narrow wires — inside a 3D design.

“We have demonstrated we can build devices in silicon at the atomic-scale and have been working towards a full-scale architecture where we can perform error correction protocols — providing a practical system that can be scaled up to larger numbers of qubits,” says UNSW Scientia Professor Michelle Simmons, study co-author and Director of the CQC2T.

“The great thing about this work, and architecture, is that it gives us an endpoint. We now know exactly what we need to do in the international race to get there.”

In the team’s conceptual design, they have moved from a one-dimensional array of qubits, positioned along a single line, to a two-dimensional array, positioned on a plane that is far more tolerant to errors. This qubit layer is “sandwiched” in a three-dimensional architecture, between two layers of wires arranged in a grid.

By applying voltages to a sub-set of these wires, multiple qubits can be controlled in parallel, performing a series of operations using far fewer controls. Importantly, with their design, they can perform the 2D surface code error correction protocols in which any computational errors that creep into the calculation can be corrected faster than they occur.

“Our Australian team has developed the world’s best qubits in silicon,” says University of Melbourne Professor Lloyd Hollenberg, Deputy Director of the CQC2T who led the work with colleague Dr Charles Hill. “However, to scale up to a full operational quantum computer we need more than just many of these qubits — we need to be able to control and arrange them in such a way that we can correct errors quantum mechanically.”

“In our work, we’ve developed a blueprint that is unique to our system of qubits in silicon, for building a full-scale quantum computer.”

In their paper, the team proposes a strategy to build the device, which leverages the CQC2T’s internationally unique capability of atomic-scale device fabrication. They have also modelled the required voltages applied to the grid wires, needed to address individual qubits, and make the processor work.

“This architecture gives us the dense packing and parallel operation essential for scaling up the size of the quantum processor,” says Scientia Professor Sven Rogge, Head of the UNSW School of Physics. “Ultimately, the structure is scalable to millions of qubits, required for a full-scale quantum processor.”

Background

In classical computers, data is rendered as binary bits, which are always in one of two states: 0 or 1. However, a qubit can exist in both of these states at once, a condition known as a superposition. A qubit operation exploits this quantum weirdness by allowing many computations to be performed in parallel (a two-qubit system performs the operation on 4 values, a three-qubit system on 8, and so on).

As a result, quantum computers will far exceed today’s most powerful super computers, and offer enormous advantages for a range of complex problems, such as rapidly scouring vast databases, modelling financial markets, optimising huge metropolitan transport networks, and modelling complex biological molecules.

How to build a quantum computer in silicon https://youtu.be/zo1q06F2sbY

Scientists call for national effort to understand and harness Earth’s microbes (Science Daily)

Berkeley Lab researchers co-author Science article proposing Unified Microbiome Initiative

Date:
October 29, 2015
Source:
DOE/Lawrence Berkeley National Laboratory
Summary:
To understand and harness the capabilities of Earth’s microbial ecosystems, nearly fifty scientists propose a national effort in the US called the Unified Microbiome Initiative.

This colorized microscopy image hints at the complexity of microbial life. It shows two bacterial cells in soil. The bacteria glue clay particles together and protect themselves from predators. This also stabilizes soil and stores carbon that could otherwise enter the atmosphere. Credit: Manfred Auer, Berkeley Lab

Microbes are essential to life on Earth. They’re found in soil and water and inside the human gut. In fact, nearly every habitat and organism hosts a community of microbes, called a microbiome. What’s more, microbes hold tremendous promise for innovations in medicine, energy, agriculture, and understanding climate change.

Scientists have made great strides learning the functions of many microbes and microbiomes, but this research also highlights how much more there is to know about the connections between Earth’s microorganisms and a vast number of processes. Deciphering how microbes interact with each other, their hosts, and their environment could transform our understanding of the planet. It could also lead to new antibiotics, ways to fight obesity, drought-resistant crops, or next-gen biofuels, to name a few possibilities.

To understand and harness the capabilities of Earth’s microbial ecosystems, nearly fifty scientists from Department of Energy national laboratories, universities, and research institutions have proposed a national effort called the Unified Microbiome Initiative. The scientists call for the initiative in a policy forum entitled “A unified initiative to harness Earth’s microbiomes” published Oct. 30, 2015, in the journal Science.

The Unified Microbiome Initiative would involve many disciplines, including engineering, physical, life, and biomedical sciences; and collaborations between government institutions, private foundations, and industry. It would also entail the development of new tools that enable a mechanistic and predictive understanding of Earth’s microbial processes.

Among the authors of the Science article are several scientists from the Department of Energy’s Lawrence Berkeley National Laboratory (Berkeley Lab). These are Berkeley Lab Director Paul Alivisatos; Eoin Brodie, Deputy Director of the Climate and Ecosystem Sciences Division; Mary Maxon, the Biosciences Area Principal Deputy; Eddy Rubin, Director of the Joint Genome Institute; and Peidong Yang, a Faculty Scientist in the Materials Sciences Division. Alivisatos is also the Director of the Kavli Energy Nanoscience Institute, and Yang is the Co-Director.

Berkeley Lab has a long history of microbial research, from its pioneering work in metagenomics at the Joint Genome Institute, to the more recent Microbes to Biomes initiative, which is designed to harness microbes in ways that protect fuel and food supplies, environmental security, and health.

The call for the Unified Microbiome Initiative comes at a critical time in microbial research. DNA sequencing has enabled scientists to detect microbes in every biological system, thriving deep underground and inside insects for example, and in mind-boggling numbers: Earth’s microbes outnumber the stars in the universe. But to benefit from this knowledge, this descriptive phase must transition to a new phase that explores how microbial communities function, how to predict their actions, and how to make use of them.

“Technology has gotten us to the point where we realize that microbes are like dark matter in the universe. We know microbes are everywhere, and are far more complex than we previously thought, but we really need to understand how they communicate and relate to the environment,” says Brodie.

“And just like physicists are trying to understand dark matter, we need to understand the functions of microbes and their genes. We need to study what life is like at the scale of microbes, and how they relate to the planet,” Brodie adds.

This next phase of microbiome research will require strong ties between disciplines and institutions, and new technologies that accelerate discovery. The scientists map out several opportunities in the Science article. These include:

  • Tools to understand the biochemical functions of gene products, a large portion of which are unknown.
  • Technologies that quickly generate complete genomes from individual cells found in complex microbiomes.
  • Imaging capabilities that visualize individual microbes, along with their interactions and chemical products, in complex microbial networks.
  • Adaptive models that capture the complexity of interactions from molecules to microbes, and from microbial communities to ecosystems.

Many of these new technologies would be flexible platforms, designed initially for microbial research, but likely to find uses in other fields.

Ten years after the launch of the Unified Microbiome Initiative, the authors of the Science article envision an era in which a predictive understanding of microbial processes enables scientists to manage and design microbiomes in a responsible way–a key step toward harnessing their capabilities for beneficial applications.

“This is an incredibly exciting time to be involved in microbial research,” says Brodie. “It has the potential to contribute to so many advances, such as in medicine, energy, agriculture, biomanufacturing, and the environment.”


Journal Reference:

  1. A. P. Alivisatos, M. J. Blaser, E. L. Brodie, M. Chun, J. L. Dangl, T. J. Donohue, P. C. Dorrestein, J. A. Gilbert, J. L. Green, J. K. Jansson, R. Knight, M. E. Maxon, M. J. McFall-Ngai, J. F. Miller, K. S. Pollard, E. G. Ruby, S. A. Taha. A unified initiative to harness Earth’s microbiomesScience, 2015; 350 (6260): 507 DOI: 10.1126/science.aac8480

Wimps or warriors? Honey bee larvae absorb the social culture of the hive, study finds (Science Daily)

Date:
October 29, 2015
Source:
University of Illinois at Urbana-Champaign
Summary:
Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them, researchers report.

Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them. The researchers don’t yet know how the social information is being transmitted to the larvae. Credit: © gertrudda / Fotolia

Even as larvae, honey bees are tuned in to the social culture of the hive, becoming more or less aggressive depending on who raises them, researchers report in the journal Scientific Reports.

“We are interested in the general issue of how social information gets under the skin, and we decided to take a chance and ask about very young bees that are weeks away from adulthood,” said University of Illinois entomology professor and Carl R. Woese Institute for Genomic Biology director Gene Robinson, who led the research with postdoctoral researcher Clare Rittschof and Pennsylvania State University professor Christina Grozinger.

“In a previous study, we cross-fostered adult bees from gentle colonies into more aggressive colonies and vice versa, and then we measured their brain gene expression,” Robinson said. “We found that the bees had a complex pattern of gene expression, partly influenced by their own personal genetic identity and partly influenced by the environment of the colony they were living in. This led us to wonder when they become so sensitive to their social environment.”

In the new study, the researchers again cross-fostered bees, but this time as larvae in order to manipulate the bees’ early life experiences. The larvae were from a variety of queens, with sister larvae divided between high- and low-aggression colonies.

The larvae were removed from their foster hives and put into a neutral laboratory environment one day before they emerged as adults. The researchers tested their aggressiveness by exposing them to an intruder bee.

They were surprised to see that the bees retained the social information they had acquired as larvae. Those raised in aggressive colonies were 10 to 15 percent more aggressive than those raised in the gentler colonies.

“Even sisters born of the same queen but reared in different colonies differed in aggression, demonstrating the potency of this environmental effect,” Robinson said.

The finding was surprising in part because bee larvae undergo metamorphosis, which radically changes the structure of their bodies and brains.

“It’s hard to imagine what elements of the brain are influenced during the larval period that then survive the massive reorganization of the brain to bias behavior in this way,” Robinson said.

The aggressive honey bees also had more robust immune responses than their gentler counterparts, the team found.

“We challenged them with pesticides and found that the aggressive bees were more resistant to pesticide,” Grozinger said. “That’s surprising considering what we know from vertebrates, where stress in early life leads to a diminishment of resilience. With the bees, we saw an increase in resilience.”

This finding also suggests that the effects of the social environment on young bees could extend beyond brain function and behavior, Robinson said.

The researchers don’t yet know how the social information is being transmitted to the larvae. They tested whether the bees differed in size, which would suggest that they had been fed differently, but found no size differences between aggressive and gentle bees.

“Adult honey bees are well known for their sociality, their communication skills and their ability to adjust their behavior in response to the needs of the hive,” Rittschof said.

“In mammals, including humans, the effects of early life social interactions often persist throughout adulthood despite additional social experiences,” she said. “A similar pattern in honey bees has broad implications for our understanding of social behavior within the hive and in comparison with other species.”

Video: https://www.youtube.com/watch?v=4amHuHnk5XM


Journal Reference:

  1. Clare C. Rittschof, Chelsey B. Coombs, Maryann Frazier, Christina M. Grozinger, Gene E. Robinson. Early-life experience affects honey bee aggression and resilience to immune challengeScientific Reports, 2015; 5: 15572 DOI: 10.1038/srep15572