segunda-feira, 12 de agosto de 2013

Vilarejo no Alasca está ameaçado de desaparecer sob a água

Pequena aldeia está ameaçada com o aumento do nível do mar causado pelas mudanças climáticas

BBC
Vilarejo Inuit pode desaparecer sob a água dentro de dez anos

Quase ninguém nos Estados Unidos ouviu falar da vila de Kivalina, no Alasca. Ela fica presa em uma pequena faixa de areia na beira do mar de Bering, pequena demais para aparecer nos mapas do país.

O que talvez não seja tão ruim, porque dentro de uma década Kivalina deverá ficar embaixo d'água. Será lembrada ─ caso seja ─ como o local de onde vieram os primeiros refugiados climáticos dos Estados Unidos. 

Atualmente, 400 indígenas Inuit vivem nas cabines de apenas um cômodo de Kivalina. Sua sobrevivência depende da caça e da pesca.

O mar os sustentou por incontáveis gerações, mas nas últimas duas décadas o recuo dramático do gelo do Ártico os deixou vulneráveis à erosão da costa.

A camada grossa de gelo não protege mais a costa do poder destrutivo das tempestades do outono e do inverno. A faixa de areia de Kivalina foi dramaticamente reduzida.

Engenheiros do Exército americano construíram um muro ao longo da praia em 2008 para deter o avanço da água, mas a medida acabou sendo somente um paliativo. 

Uma tempestade feroz há dois anos forçou os moradores locais a uma evacuação de emergência. Agora, os engenheiros prevêem que Kivalina será inabitável até 2025.


Recuo do gelo prejudica as atividades de subsistência dos moradores

A história de Kivalina não é a única. Registros de temperatura mostram que a região do Ártico no Alasca está esquentando duas vezes mais rápido do que o resto dos Estados Unidos.

O recuo do gelo, o aumento do nível da água do mar e o aumento da erosão costeira fizeram com que três assentamentos Inuit enfrentem a destruição iminente e outros oito corram sérios riscos.

O problema também tem um custo alto. O governo americano diz que levar os habitantes de Kivalina para outro local custar até US$ 400 milhões (R$ 904 mil) ─ construir uma estrada, casas e uma escola não sai barato em uma região tão inacessível. E não há sinais de que o dinheiro virá de fundos públicos. 

A líder da assembleia de Kivalina, Colleen Swan, diz que as tribos indígenas do Alasca estão pagando o preço por um problema que não criaram .

"Se ainda estivermos aqui em 10 anos, ou esperamos pela enchente e morremos ou saímos e vamos para outro lugar", disse.

"O governo americano impôs esse estilo de vida ocidental a nós, nos deu seus fardos para carregar e agora espera que nós recolhamos tudo e carreguemos para outro lugar. Que tipo de governo faz isso?"

Ao norte de Kivalina não há estradas, só a vasta tundra ártica do Alasca. E no ponto mais ao norte do território americano fica a cidade de Barrow ─ mais perto do Pólo Norte do que de Washington. É a fronteira da mudança climática. 

Os moradores de Barrow são predominanetemente da tribo Inupiat ─ eles caçam baleias-da-groenlândia e focas para comer, mas tiveram uma série de problemas esse ano.

O gelo começou a derreter e quebrar em março. Depois ele congelou novamente, mas estava tão fino e instável que os caçadores de baleias e focas não conseguiram colocar seus barcos nele. A estação de caça foi arruinada.

Pela primeira vez em décadas, nenhuma baleia-da-groenlândia foi capturada em Barrow. Um dos capitais baleeiros mais experientes da cidade, Herman Ahsoak, diz que o gelo costumava ter 3 metros de espessura no inverno e agora tem pouco mais de um metro.

"Temos que nos adaptar ao que está acontecendo, se vamos continuar comendo e sobrevivendo através do mar. Mas a falta de baleias esse ano significa que o inverno será longo", diz.

Economia do petróleo

Ao mesmo tempo em que o território ártico americano esquenta, ele continua a ser uma fonte vital dos combustíveis fósseis que são vistos pela maioria dos cientistas como um dos principais motivos da mudança climática.

A Encosta Norte do Alasca é o maior campo de petróleo dos Estados Unidos e o oleoduto Trans Alasca é um dos principais projetos do plano de segurança energética do país. E na medida em que a produção do campo atual diminui, aumenta a pressão para explorar reservas intocadas na região.

A empresa Shell fez um lance ambicioso para começar a explorar petróleo no oceano Ártico, apesar de um coro de desaprovação de grupos ambientais. A preocupação aumentou quando uma perfuradora de petróleo se soltou do barco ao qual estava presa na costa do Alasca no início do ano.

As operações estão suspensas, mas o valor do produto é muito alto para ser ignorado.

Kate Moriarty, diretora executiva da Federação de Petróleo e Gás do Alasca, acredita que o Estado tem cerca de 50 bilhões de barris de petróleo ainda não explorados.

"A realidade é que o Ártico vai se desenvolver. E quem queremos que lidere isso? Eu acho que queremos que sejam os Estados Unidos, porque a realidade é que a demanda mundial por petróleo e gás não vai acabar", diz.

Quando o presidente Barack Obama prometeu redobrar seus esforços para diminuir as emissões de carbono nos Estados Unidos, suas palavras foram recebidas com um mero dar de ombros no Alasca.

O Estado deve sua existência ao petróleo e os lucros da indústria de petróleo equivalem a mais de 90% do orçamento estatal. O lucro significa que não há imposto sobre a renda e que parte do dinheiro é distribuída para cada um dos moradores locais anualmente.

E quando se trata de equilibrar duas pressões conflitantes ─ a rápida mudança climática de um lado e a demanda para expandir a economia movida a combustíveis do outro ─ não há dúvidas sobre qual é a prioridade.

O vice-diretor do departamento de Recursos Naturais do Alasca, Ed Fogels, não se desculpa pela estratégia do governo. "Quando todo o mundo ataca o Alasca e diz: Ah, o clima está mudando, o Ártico está mudando, as coisas estão fora de controle', nós dizemos: 'Espere um minuto. Nós estamos desenvolvendo nossos recursos naturais há 50 anos. As coisas estão muito bem, obrigado'."

Mas dentro de uma geração, o oceano Ártico pode não ter mais gelo no verão. O ritmo do aquecimento no norte não tem paralelo em nenhum lugar do planeta.

Aral: as imagens impressionantes do mar que virou deserto


A necrópole (cemitério, do grego 'necropolis') de Mizdakhan, perto de Nukus: um lugar sagrado de peregrinação provavelmente do século 4 a.C. O local era utilizado como cemitério pelos seguidores do Zoroastrismo, uma milenar religião monoteísta fundada na antiga Pérsia (Foto: Catriona Gray)

Região que está próxima a Uzbequistão, Cazaquistão e Turcomenistão, já foi quarto maior lago de água salgada do mundo.
A grande área que compreende o mar de Aral, um lago de água salgada na Ásia Central, tornou-se conhecida como o lugar onde houve o maior desastre ambiental já causado pelo homem.

O lago, que já foi considerado o quarto maior do mundo, vem se reduzindo ao longo dos anos e hoje tem apenas um terço do tamanho original.

Seu declínio começou nos anos de 1970, quando imensos projetos de irrigação conduzidos pela União Soviética desviaram as águas dos principais rios que abasteciam o Aral para irrigar plantações de algodão no Uzbequistão, Cazaquistão e Turcomenistão.

Para tentar salvar a área que sobrou, projetos internacionais de cooperação estão sendo implementados para reabastecer partes do Aral.

Apesar dos esforços, em grandes áreas do Uzbequistão o deserto de sal em que o local se tornou está fazendo com que a fauna e a flora da região desapareçam.

A fotógrafa britânica Catriona Gray visitou a região e capturou as dramáticas mudanças na paisagem, bem como a rica e diversa cultura dos povos que continuam a viver na região - com mais de 2000 anos de história.

Deserto de Sal oferece paisagens deslumbrantes na Bolívia


O maior deserto de sal do mundo oferece paisagens deslumbrantes para os visitantes da Bolívia, na região entre o Departamento de Potosí e a fronteira com o Chile

Cerca de 60 mil turistas visitam a região todos os anos

BBC Brasil

A Bolívia abriga o maior deserto de sal do mundo: o Salar de Uyuni, que fica entre o Departamento (Estado) de Potosí e a fronteira com o Chile. É a mesma região que nutria a Europa de prata quando a Bolívia era uma colônia.

O maior deserto de sal do mundo oferece paisagens deslumbrantes para os visitantes da Bolívia, na região entre o Departamento de Potosí e a fronteira com o Chile.

O deserto de sal é considerado uma das maiores reservas mundiais de lítio, metal utilizado, entre outros fins, para a construção de baterias elétricas leves, que podem ser usadas em carros elétricos, por exemplo.

Ocupa uma extensão de 10 mil quilômetros quadrados de superfície branca, segundo o governo boliviano. E atrai cerca de 60 mil visitantes ao ano, de diversas partes do mundo.

Cartéis são prática 'sistêmica', difíceis de provar e punir no Brasil


Para especialistas ouvidos pelo iG, as penas contra a prática do crime são severas, porém o mais difícil é comprovar a prática dos acordos entre empresas concorrentes para aumentar preços e dividir lucros

Os cartéis, ou acordos em que empresas definem previamente quem será o vencedor de uma licitação ou o preço que será cobrado por determinado produto ou serviço, são uma prática “sistêmica” no Brasil. É como avalia o promotor Marcelo Mendroni, do Grupo de Atuação Especial de Repressão à Formação de Cartel e à Lavagem de Dinheiro, e de Recuperação de Ativos (Gedec). Em entrevista na sexta-feira (9) sobre o caso de cartel que envolve governos do PSDB em São Paulo , Mendroni criticou a punição prevista na legislação brasileira, que incentivaria o delito. “Pela lei de hoje, é um crime que compensa", afirmou o promotor.



Juliano Souza de Albuquerque Maranhão, professor da Faculdade de Direito da USP, tem opinião diferente. Para ele, a lei tem “instrumentos efetivos” para evitar o cartel, considerado como hediondo entre os crimes contra a ordem econômica. “A legislação brasileira está bem servida há um bom tempo, há um órgão que investiga e pune”, diz. “Antes o CADE só condenava por prova indireta, por que não havia busca e apreensão, o que na lei de hoje tem.” O advogado ressalta ainda que o CADE tem elevado cada vez mais a multa, que pode chegar a 30% do faturamento da empresa. “O objetivo (da multa) é que ela seja superior ao lucro que ela (a empresa) teria ao se engajar em um cartel”, explica.

Além da multa para a empresa, que pode variar de acordo com a avaliação da gravidade do crime, o executivo envolvido no cartel também pode ser multado e condenado a penas que variam de 2 a 5 anos de prisão. Pelo sistema penal brasileiro, condenações de até 2 anos de prisão podem ser convertidas em penas alternativas, o que evita a reclusão. “O mais importante para deter o cartel é punir os executivos, e não as empresas. Porque a empresa pode calcular se o valor do lucro obtido no cartel for maior do que a multa a ser paga, mas o executivo vai ter que enfrentar a prisão”, analisa Ademir Antonio Pereira Jr, especialista em Direito Econômico. “Pena mais rigorosa pode frear o executivo. A empresa é feita de pessoas.”


Durante entrevista a jornalistas, Mendroni ressaltou que o crime é uma prática constante nas esferas municipal, estadual e nacional, mas que há uma “dificuldade em conseguir provas”. Para tipificar o crime de cartel, a lei permite que sejam consideradas provas diretas, nas quais é possível identificar por meio de um contrato ou uma ata de reunião que houve uma conversa para dividir os clientes ou combinar os preços, ou provas indiretas, que permitem concluir a existência por circunstâncias como preços iguais ou aumento de preços no mesmo período.

O acordo de leniência também é um instrumento que viabiliza as provas de um cartel. Pelo método, previsto na legislação, o membro do cartel que entregar o esquema e colaborar nas investigações obtém imunidade e não pode ser punido. E foi por essa via que a denúncia de cartel para superfaturar as obras de trens e metrô no Estado de São Paulo veio à tona. Como colaborou na denúncia, a Siemens deve ficar livre de punição.

Para Pereira Jr, que considera as penas para o crime “bastante severas” no Brasil, o problema não é o tamanho da pena, mas aplicá-la. “Você pode ter uma pena altíssima, mas que você não consegue provar. Quem faz cartel, faz escondido, por isso é difícil provar”, explica. E a leniência torna-se um instrumento essencial para reunir provas e encorpar antes de levá-lo a julgamento. Essa dificuldade, entretanto, não seria apenas para punir cartel. ”É muito difícil ter uma combinação penal que leve à condenação em crimes de colarinho branco, por isso é difícil vermos prisões”, ressalta Maranhão.

terça-feira, 6 de agosto de 2013

Aliadas contra o arsênio

Cianobactérias encontradas em lagos podem ser poderosas armas para remover elemento tóxico à saúde humana de ambientes aquáticos. Experimentos revelam potencial de atuação de duas espécies em amostras contaminadas.

Por: Célio Yano



Lago Dom Helvécio, localizado no Parque Estadual do Rio Doce (MG), onde foram coletadas cianobactérias da espécie ‘M. novacekii’ para estudo feito na UFMG. (foto: Fernando Marino/ Wikimedia Commons)


Capazes de absorver arsênio em ambiente aquático, duas espécies de cianobactérias podem se tornar aliadas do homem e ajudar a limpar rios e lagos contaminados com a substância tóxica. O potencial de Microcystis novacekii e Synechococcus nidulans foi descoberto em testes feitos por pesquisadores do Laboratório de Limnologia, Ecotoxicologia e Ecologia Aquática (Limnea), da Universidade Federal de Minas Gerais (UFMG).

Nos experimentos, soluções com diferentes concentrações de arsênio foram adicionadas a culturas de cianobactérias. As misturas foram então expostas a luz e agitação constante para permitir o crescimento dos microrganismos.

Após nove dias, M. novacekii removeu da água 21% de arsenito (forma de apresentação mais tóxica da substância), em uma solução de 15mg/L do metaloide. Já S. nidulansabsorveu 21% de arseniato (forma da substância mais comum no ambiente, encontrada sobretudo em áreas de mineração), em uma concentração de 0,05 mg/L, quatro dias depois da exposição.


‘Microcystis novacekii’ em imagem de microscopia óptica com aumento de 1.000 vezes. (foto: Fernanda Aires Guedes/ Limnea)

O arsênio é considerado elemento não essencial, ou seja, não tem função fisiológica conhecida em organismos vivos. Devido à semelhança química com o fósforo, pode substituí-lo em determinadas moléculas, modificando sua estrutura e função. Com base em estudos epidemiológicos, a Agência Internacional de Pesquisa sobre Câncero classifica como agente carcinogênico para humanos.

Em ecossistemas aquáticos, o arsênio pode contaminar peixes e moluscos, provocando a morte das espécies mais sensíveis. Devido à bioacumulação, a substância torna-se disponível ainda nas diferentes rotas da cadeia alimentar, passando para níveis tróficos superiores.
A principal fonte de exposição humana ao arsênio, considerado agente carcinogênico, é a ingestão de água contaminada

Análises feitas no fim do ano passado pela Proteste Associação de Consumidoresrevelaram a presença de arsênio em níveis alarmantes em peixes frescos vendidos em São Paulo. De acordo com a instituição, 72,5% das amostras testadas apresentavam a substância em taxa superior à estabelecida por lei.

A principal fonte de exposição humana à substância, no entanto, ainda é a ingestão de água contaminada. Estudos toxicológicos mostram que há risco à saúde quando a concentração de arsênio é superior a 10 µg (microgramas) por litro de água.


Escolha

Cianobactérias são organismos encontrados em solos úmidos, águas marinhas e continentais e em associação com outros organismos, como líquens e plantas aquáticas. Para os testes, os pesquisadores da UFMG – que participam do programaInstituto Nacional de Ciência e Tecnologia em Recursos Minerais, Água e Biodiversidade – coletaram bactérias da espécie S. nidulans em área de mineração do município de Nova Lima (MG). M. novacekii foi retirada do lago Dom Helvécio, no Parque Estadual do Rio Doce (MG).

Cada espécie foi escolhida por um motivo, segundo o ecólogo Francisco Barbosa, coordenador do Limnea. Enquanto S. nidulans é mais fácil de estudar em laboratório, por crescer e se adaptar a diferentes condições de cultivo rapidamente, M. novacekiiraramente é citada na literatura em trabalhos de ficologia. “Isso nos instigou a escolhê-lo como organismo-modelo de novas pesquisas”, diz Barbosa.
Os resultados confirmaram a hipótese de que as cianobactérias podem ser cultivadas em laboratório com o propósito de descontaminar corpos d’água

Os resultados confirmaram a hipótese de que as cianobactérias podem ser cultivadas em laboratório com o propósito de descontaminar corpos d’água. Mas, além disso, os microrganismos podem, segundo o ecólogo da UFMG, servir como bioindicadores.

“Verificamos em nossos estudos que o estado de oxidação trivalente do arsênio é duas ordens de grandeza mais tóxico que o pentavalente”, afirma. “Portanto, avaliar a contaminação ambiental por arsênio total, como é previsto pela legislação sanitária brasileira, pode não ser suficiente para estimar as concentrações seguras do metaloide para a saúde humana e para o meio ambiente.”

“Por causa da capacidade de reconhecer essas formas químicas diferentes e de reagir a elas, pretendemos testar futuramente as cianobactérias como organismo modelo de bioindicação.” No momento são feitos estudos para desvendar o comportamento do arsênio assimilado pela cianobactéria. “Nossa hipótese é que durante o processo de bioacumulação do metaloide pelo microrganismo ocorrem mudanças na substância e possivelmente formas mais tóxicas se transformam em menos tóxicas”, diz Barbosa.


‘Synechococcus nidulans’ em imagem de microscopia óptica com aumento de 1.000 vezes. (foto: Maione W. Franco/ Limnea)

Há cinco anos o Limnea desenvolve testes com o uso de cianobactérias para remoção de poluentes. Grande parte das pesquisas foi feita com M. novacekii, que já se mostrou viável como agente para biorremoção de metais (chumbo e cádmio) e semimetais (arsênio), e como agente de biodegradação de pesticidas, herbicidas e até de hormônios. Estes últimos vão parar em corpos d’água por estarem presentes em produtos como anticoncepcionais.

Célio Yano
Revista Ciência Hoje

Os bastidores do crack

Pesquisa busca dados aprofundados sobre o comportamento dos usuários de crack no Rio de Janeiro e em Salvador. A ideia é que os resultados contribuam com ações governamentais junto a esse grupo.

Por: Déborah Araujo


Estudo ouviu, entre novembro de 2010 e junho de 2011, 81 usuários de crack da cidade do Rio de Janeiro e 79 de Salvador, todos na faixa etária entre 18 e 24 anos. (foto: Marcos Gomes/ Flickr – CC BY-NC-SA 2.0)

A maioria dos estudos sobre o crack sugere que o uso da substância é prevalente entre jovens marginalizados, com graves problemas de saúde e envolvimento com o crime, e suas informações param por aí. Em busca de dados mais aprofundados, pesquisadores da Universidade Federal do Rio de Janeiro (UFRJ) avaliaram recentemente o comportamento de 160 usuários regulares de crack na capital fluminense e em Salvador.

Além das características já conhecidas, o estudo identificou outras: usuários de crack nas duas cidades tendem a fazer uso de outras drogas e mantêm comportamento de risco para doenças sexualmente transmissíveis e transmitidas pelo sangue. “As taxas encontradas foram ainda mais altas do que supúnhamos”, declara o psiquiatra Marcelo Santos Cruz, professor do Instituto de Psiquiatria da UFRJ e coordenador do estudo. “Além disso, a não utilização do preservativo, a alta frequência de relações sexuais, o grande número de parceiros diferentes e a troca de sexo por droga, comportamentos comuns entre os usuários, são muito preocupantes.”
Usuários de crack nas duas cidades tendem a fazer uso de outras drogas e mantêm comportamento de risco para doenças sexualmente transmissíveis

A pesquisa também aponta que 42% e 70% dos usuários, respectivamente, do Rio e de Salvador, têm algum tipo de trabalho, legal ou ilegal, portanto, recebem algum tipo de remuneração. A prostituição é uma forma de se obter dinheiro para o consumo para 17% do grupo de usuários de crack da capital fluminense e para 8% dos voluntários da capital baiana. Além disso, 56% dos usuários de Salvador já haviam sido detidos pela polícia, contra 28% dos usuários do Rio.

O estudo buscou identificar ainda o modo como o crack é consumido. Os recipientes plásticos são os preferidos dos usuários do município do Rio (87%) para fumar a pedra de crack, já os de Salvador preferem fumar a substância misturada aos cigarros de maconha (34%) ou ao cigarro comum (10%). 


Entrevistas e exames

Além da equipe liderada pelo psiquiatra Marcelo Santos Cruz, da UFRJ, o estudo também envolveu pesquisadores da Fundação Oswaldo Cruz, da Universidade Federal da Bahia (UFBA), da Universidade Simon Fraser e do Centro de Dependência e Saúde Mental – as duas últimas do Canadá.

Foram avaliados, entre novembro de 2010 e junho de 2011, 81 usuários de crack da cidade do Rio de Janeiro e 79 de Salvador, todos na faixa etária entre 18 e 24 anos. As duas cidades foram escolhidas para a pesquisa por terem equipes com mais experiência e maior acesso aos usuários que vivem nas ruas. “Usamos os contatos com pessoas da comunidade que as equipes já conheciam para convidar usuários de crack para as entrevistas”, explica Cruz.

As entrevistas foram feitas a partir de um questionário com seis partes: informações sócio-demográficas (sexo, idade, moradia, escolaridade, fontes de renda, entre outras); padrão do uso de drogas, incluindo padrão de uso de crack; comportamento de risco para doenças sexualmente transmissíveis; autoavaliação da saúde mental e física; utilização de serviços sociais e de saúde; e problemas com a polícia.

Os pesquisadores também realizaram testes sorológicos para os vírus da hepatite B (HBV) e C (HCV) e da Aids (HIV). Os exames revelaram que 3,7% dos voluntários do Rio de Janeiro e 11,2% dos de Salvador são portadores do HIV. Cinco participantes do Rio de Janeiro estão contaminados pelo vírus HBV e apenas um de Salvador teve resultado positivo para o HCV. “O fato de termos encontrado baixas taxas de contaminação por HIV (no Rio) e pelos vírus das hepatites B e C (nas duas cidades) mostra uma janela de oportunidade de ações preventivas”, acrescenta o psiquiatra.


Ações preventivas

Os dados coletados no estudo visam contribuir para os trabalhos de intervenção do governo federal junto a usuários de crack. “É importante mapear a rede de serviços públicos oferecida a pessoas com problemas com drogas em cada área para melhorar o encaminhamento e articulação dos mesmos”, ressalta Cruz.


Unidade de consultório de rua para dependentes químicos na cidade do Recife (PE). Pesquisa visa contribuir para ações governamentais de intervenção junto a usuários de crack. (foto: Erasmo Salomão, ASCOM/MS/ Flickr – CC BY-NC-SA 2.0)

Entre os projetos em andamento, o pesquisador destaca os Consultórios na Rua de Salvador, que desde o fim da década de 1990 atendem principalmente crianças e adolescentes usuários de álcool e drogas. “São ações sociais e de saúde que incluem atividades de prevenção, encaminhamento para a rede e, em alguns casos, até tratamento realizado nos locais onde as pessoas estão”, completa.

Cruz é crítico ao projeto de lei que autoriza a internação involuntária de dependentes de drogas, em votação no congresso. Para ele, esse tipo de internação só deve ser feito nos casos em que o médico, após examinar a pessoa individualmente, percebe que ela coloca a sua vida ou a de outras em risco. “São situações muito diferentes quando você define a internação involuntária para cada indivíduo e quando você define para grupos.”

Além disso, o pesquisador acredita que a internação por si só não garante nada além de retirar o individuo imediatamente da situação em que se encontra. “Tem que haver condições de tratamento adequadas para essas pessoas, o que não é o caso de muitos serviços de internação em atividade hoje”, completa. 

Déborah Araujo
Revista Ciência Hoje

A maior de todas as necessidades


Durante evento em Lindau, na Alemanha, o Nobel de Física Steven Chu destacou que é preciso enfrentar a realidade das mudanças climáticas e que temos a responsabilidade de criar soluções para o problema, com base na eficiência energética e no uso de fontes renováveis de energia.

Por: Fred Furtado


Para Steven Chu, que foi secretário de energia dos Estados Unidos, há uma clara relação entre a liberação de gases de efeito estufa pela humanidade e o aquecimento global. (montagem a partir de Sxc.hu e Wikimedia Commons)


Se a necessidade é a mãe da invenção, então as mudanças climáticas são a maior de todas as necessidades. Foi essa frase que o físico norte-americano Steven Chu, laureado com o Nobel de Física de 1997 por desenvolver métodos para resfriar e capturar átomos com lasers, usou para destacar, no 63º Encontro de Prêmios Nobel em Lindau, na Alemanha, a importância do desenvolvimento de soluções para combater o aquecimento global.

Segundo Chu, que foi secretário de energia dos Estados Unidos entre 2009 e o início de 2013, as mudanças climáticas são uma realidade. Ele citou levantamentos distintos realizados pela agência espacial norte-americana (Nasa), agência meteorológica e oceanográfica norte-americana (Noaa) e Universidade de Berkeley, que revelam que a temperatura média da superfície da Terra aumentou quase 1,5 ºC nos últimos 200 anos.

O físico acrescentou que o ritmo de subida do nível do mar, que pelos últimos 2 mil anos variou entre zero e 0,02 mm anuais, atinge atualmente uma taxa de 3 mm por ano. Por outro lado, análises de elementos presentes em amostras de gelo acumuladas há 650 mil anos indicam que houve picos de temperatura – devido à maior concentração de gás carbônico na atmosfera – e aumento do nível do mar ao longo desse período.

Por exemplo, há 120 mil anos, a temperatura média era 2 ºC maior e o nível do mar estava 6,6 metros acima do atual. “Isso quer dizer que o aquecimento que estamos vivendo é parte de um ciclo natural e não temos que nos preocupar?”, questionou o físico. E alertou em seguida: “Temos que nos preocupar e muito, porque os aumentos observados agora ultrapassam a escala estabelecida nos últimos 600 mil anos. De fato, eles ultrapassam os valores dos últimos dois milhões de anos.”


O físico norte-americano Steven Chu, vencedor do Nobel de Física de 1997, foi um dos participantes do encontro que reúne nesta semana em Lindau, na Alemanha, 35 ganhadores do prêmio e 600 jovens pesquisadores de 78 nações. (foto: Fred Furtado)

Para Chu, temos que abordar a questão das mudanças climáticas por um ângulo epidemiológico, como foi feito com a associação entre fumo e câncer. “Mesmo não havendo um modelo, havia uma clara relação entre o hábito de fumar e o desenvolvimento de câncer. Ocorre o mesmo com a liberação de gases de efeito estufa pela humanidade e o aquecimento global.”


Eficiência energética

Chu apontou alternativas para combater as mudanças climáticas, como o desenvolvimento e uso de aparelhos mais eficientes do ponto de vista do consumo de energia. Ele ressaltou que as geladeiras norte-americanas hoje – embora sejam maiores que as de antigamente – gastam 22% menos energia do que em 1975, quando o governo dos Estados Unidos estabeleceu padrões de eficiência mínima.

“Elas também são mais baratas, o que pode parecer contraintuitivo; mas essa é a realidade que observamos também para as máquinas de lavar“, acrescentou o físico. “Ainda não se sabe as razões para isso, mas suspeito que tenha a ver com o fato de a indústria ter se adaptado à produção desses eletrodomésticos e ganhado eficiência no processo.”
Chu: “Já existem carros elétricos extremamente eficientes e que podem competir com veículos esportivos, mas eles custam 80 mil dólares e o que queremos é algo em torno de 20 mil dólares”

O pesquisador citou ainda o desafio EV Everywhere (algo como ‘veículos elétricos em todos os lugares’), lançado pelo Departamento de Energia dos Estados Unidos em março de 2012 e cujo objetivo é permitir que as companhias norte-americanas desenvolvam, até 2022, um carro de passeio elétrico para cinco passageiros tão barato quanto os equivalentes à gasolina.

“Já existem carros elétricos extremamente eficientes e que podem competir com veículos esportivos, mas eles custam 80 mil dólares e o que queremos é algo em torno de 20 mil dólares”, explicou o físico, acrescentando que, para isso, é necessário desenvolver baterias com maior densidade energética, durabilidade e tolerância à temperatura, além de reduzir seu custo. “Atualmente, elas custam 500 dólares por kWh, mas queremos chegar a 300 dólares por kWh em 2015 e 150 dólares por kWh em 2022”, revelou Chu.


Energia limpa

O físico também destacou a importância do uso de fontes renováveis. Ele citou o programa da Agência de Projetos de Pesquisa Avançados de Energia (Arpa-e), dos Estados Unidos, que procura criar versões melhoradas do pinheiro loblolly (Pinus taeda). Além de servir como matéria-prima para a fabricação de papel, a planta poderia gerar grandes quantidades de resina, rica em hidrocarbonetos. “Esse pinheiro já é cultivado comercialmente em 10 milhões de acres, mas tem o potencial de produzir bilhões de litros de biocombustíveis por ano em menos de 250 mil acres”, afirmou.

Reduzir o custo da energia solar é o objetivo de outro programa do Departamento de Energia norte-americano, chamado SunShot (algo como ‘tiro ao sol’). Segundo o físico, o programa tem como meta reduzir o custo atual dessa fonte energética, que inclui instalação e manutenção de um sistema eletrônico e uma placa solar, de 3,80 dólares para 1 dólar por watt. “As companhias elétricas estão nervosas com a instalação de painéis solares na casa dos consumidores e com o modelo em que elas são forçadas a comprar o excedente de energia de volta do cliente”, observou Chu. Para ele, tornar as empresas parte da solução requer criar um modelo que seja vantajoso para elas também.


Para Chu, a promoção da energia solar passa por um modelo que beneficie tanto as empresas como os usuários domésticos. (foto: Robert Linder/ Sxc.hu)

A proposta do físico é que as companhias elétricas sejam responsáveis pela instalação e manutenção do sistema – elas seriam as donas do equipamento, que contaria ainda com uma bateria instalada na casa do usuário. Esse armazenamento local é vantajoso para as empresas, porque elas não precisariam construir prédios para guardar as baterias e estas não estariam expostas a vento, chuva etc., além de servirem ainda como reservatório de segurança para o cliente em caso de blecaute.

A redução dos custos das empresas seria repassada para os usuários, que teriam uma energia mais barata. “Todos ganhariam e as companhias elétricas seriam parceiras na expansão da energia solar; é economicamente vantajoso para elas apostar nisso”, ponderou Chu. O pesquisador ressaltou a necessidade de se investir também no barateamento da transmissão de energia. “Não adianta produzir, se não há como levar a eletricidade até onde ela precisa chegar.”

O físico ressaltou que temos uma responsabilidade moral com as vítimas inocentes das mudanças climáticas: as populações pobres e aqueles que ainda estão por nascer. “Há um ditado indígena norte-americano que ilustra isso: ‘não herdamos a terra dos nossos ancestrais, nós a tomamos emprestado dos nossos filhos’”, concluiu.

Fred Furtado*
Revista Ciência Hoje

Guerra não é herança evolutiva dos humanos

Pesquisadores concluem que a prática do confronto não é inata nem inevitável

Divulgação
A cena do “macaco assassino” no filme de Stanley Kubrick, 2001: Uma Odisséia no Espaço (1968), não tem base em fatos.

Por John Horgan

uma das mais insidiosas ideias modernas sustenta que a guerra é inata, uma adaptação criada em nossos ancestrais pela seleção natural. Essa hipótese – vamos chamá-la de “Teoria da Guerra com Raízes Profundas” – já foi promovida por intelectuais respeitáveis como Steven Pinker, Edward Wilson, Jared Diamond, Richard Wrangham, Francis Fukuyama e David Brooks.

A Teoria das Raízes Profundas aborda não apenas a agressão humana violenta em geral, mas uma manifestação específica dela, envolvendo ataques de um grupo contra o outro.

Os adeptos da teoria frequentemente argumentam que – por mais belicosos que sejamos atualmente – nós éramos ainda mais belicosos antes do advento da civilização.

Pinker alega em seu bestseller, Better Angels of Our Nature (Os anjos bons de nossa Natureza, em tradução livre), que “ataques e disputas crônicas caracterizam a vida em um estado natural” . Em The Social Conquest of the Earth (A Conquista Social da Terra), Wilson chama a guerra de “maldição hereditária da humanidade”.

A Teoria das Raízes Profundas se tornou extraordinariamente popular, especialmente considerando as evidências para ela são extraordinariamente fracas.

Um estudo publicado em 18 de julho na Science, “Lethal Aggresion in Mobile Forager Bandas and Implications for the Origins of War”, fornece contra-evidências para a Teoria das Raízes Profundas.

Os autores do estudo, os antropólogos Douglas Fry e Patrik Soderberg da Universidade Abo Akademi, na Finlândia, declaram que seus descobertas “contradizem afirmações recentes de que coletores nômades se engajavam regularmente em guerras de coalisão contra outros grupos”.

Fry e Soderberg se concentram em bandos de coletores com grande mobilidade, também chamados de caçadores-coletores nômades, porque se acredita que seu comportamento forneça uma janela para a evolução humana.

Nossos ancestrais viveram como coletores nômades desde a emergência do gênero Homo há cerca de dois milhões de anos até aproximadamente 10 mil anos atrás, quando humanos começaram a plantar, domesticar animais e se estabelecer em sociedades hierárquicas mais complexas.

Fry e Soderberg examinaram dados de violência mortal em 21 sociedades coletoras observadas por etnógrafos.

As sociedades incluem os Aranda e Tiwi, da Austrália, os Kaska, Kitlinermiut, e Montagnais da América do Norte; os Botocudo da América do Sul, os Kung, Haza e Mbuti da África; e os Vedda e Andamanese do Sul do Ásia.

Fry e Soderberg regisram um total de 148 “eventos de agressão letal” nessas sociedades.

Os pesquisadores distinguem entre a violência envolvendo pessoas que pertencem ao mesmo grupo, frequentemente aparentados, e a violência entre pessoas em grupos diferentes. Eles também distinguem entre a violência envolvendo apenas um perpetrador e vítima e a violência envolvendo pelo menos dois assassinos e duas vítimas.

Essas distinções são cruciais, porque a guerra, por definição, é uma atividade em grupo.

Os defensores da teoria "raízes profundas" frequentemente consideram todas as formas de violência mortal, não apenas a violência em grupo, como evidência para sua teoria. (Eles frequentemente também contabilizam a violência em sociedades que praticam a horticultura, como os Ianomami da Amazônia, mesmo que a horticultura seja uma invenção humana relativamente recente.)

Das 21 sociedades examinadas por Fry e Soderberg, em três não encontraram registro de morte de nenhum tipo, e em 10 não havia mortes provocadas por mais de um perpetrador.

Em apenas seis sociedades os etnógrafos registram mortes que envolveram dois ou mais perpetradores e duas ou mais vítimas. Uma única sociedade, no entanto, os Tiwi da Austrália, foi responsável por quase todas essas mortes em grupo.

Alguns outros pontos de interesse: 96% dos assassinos eram do sexo masculino.

Isso não é surpresa. Mas alguns leitores podem se surprender com o fato de que apenas duas de 148 mortes se originaram de luta por “recursos”, como áreas de caça, fontes de água ou árvores de frutos.

Nove episódios de agressão letal envolveram maridos matando esposas; três envolveram a “execução” de um indivíduo por outros membros de seu grupo; sete envolveram a execução de “estranhos”, como colonizadores ou missionários.

A maioria das mortes veio do que Fry e Soderberg categorizam como “disputas pessoais diversas”, envolvendo ciúmes, roubos, insultos e assim por diante. A causa mais específica de violência mortal – envolvendo perpetradores únicos ou múltiplos – foi a vingança de um ataque anterior.

Esses dados corroboram a teoria da guerra proposta por Margaret Mead em 1940.

Observando que algumas das sociedades coletoras simples, como os aborígenes australianos, podem ser belicosas, Mead rejeitou a ideia de que a guerra era uma consequência da civilização. Mas ela também descartou a noção de que a guerra fosse inata – uma “necessidade biológica”, como ela chamava – simplesmente ao apontar (como fazem Fry e Soderberg) que algumas sociedades não se engajam em violência entre grupos.

Mead (novamente como Fry e Soderberg) não encontrou evidências para o que poderia ser chamado de teoria malthusiana da guerra, que sustenta que a guerra é a consequência inevitável da competição por recursos.

Em vez disso, Mead propôs que a guerra é uma “invenção” cultural – no linguajar moderno, um meme, que pode surgir em qualquer sociedade, da mais simples até a mais complexa.

Uma vez que surge, a guerra frequentemente se auto-perpetua, com ataques de um grupo provocando retaliações e ataques preventivos de outros.

O meme da guerra também transforma sociedades, fazendo com que se tornem militarizadas e tornem a guerra mais provável.

Os Tiwi parecem ser uma sociedade que abraçou a guerra como modo de vida. Assim como os Estados Unidos da América.

A Teoria das Raízes profundas é insidiosa porque leva muitas pessoas a sucumbir a noção fatalista de que a guerra é inevitável. Errado. A guerra não é nem inata, e nem inevitável.
Scientific American Brasil

Fábrica de órgãos

Fígado humano funcional é criado em laboratório a partir de células-tronco, anunciam pesquisadores. Técnica pode futuramente salvar pacientes que hoje dependem de transplante.

Por: Célio Yano


Brotos de fígados humanos derivados de células-tronco pluripotentes induzidas. Transplantado para um camundongo, um broto foi capaz de amadurecer e realizar todas as funções de um fígado humano. (foto: Takanori Takebe)


Ainda deve levar algum tempo, mas as longas filas de espera por transplante de fígado podem estar com os dias contados. A depender da evolução da medicina regenerativa, no futuro poderá ser possível ‘fabricar’ um órgão novo, em laboratório, usando células do próprio paciente.

Um grande passo nesse sentido foi dado por pesquisadores da Universidade de Yokohama, no Japão. Em artigo que será publicado na edição desta semana da revistaNature, o grupo descreve como conseguiu produzir um fígado humano funcional a partir das chamadas células-tronco pluripotentes induzidas (iPS, na sigla em inglês).

Diferentemente da célula-tronco embrionária, a iPS é obtida por meio da reprogramação genética de uma célula adulta já diferenciada. O primeiro procedimento que o grupo japonês realizou foi direcionar a diferenciação de iPS, in vitro, produzindo células hepáticas endodérmicas (encontradas no embrião e que dão origem ao tecido do fígado).

A seguir, esse material foi cultivado com outros três tipos de células – estromáticas, mesenquimais e endoteliais da veia umbilical humana – e gerou um tipo de órgão tridimensional, embora rudimentar, chamado de broto de fígado. Confirmada a existência de uma rede vascular, o broto foi transplantado para um camundongo e amadureceu, realizando todas as funções de um fígado humano.
Veja, no vídeo abaixo, como as células se organizam para formar o broto de fígado


Experimentos anteriores com iPS falharam ao tentar produzir o órgão. “A diferença é que se buscava diferenciar células em hepatócitos [que produzem proteínas no fígado] em vez de produzir o órgão como um todo”, diz Takanori Takebe, um dos autores da pesquisa.


Aplicação clínica

Embora os testes do funcionamento do órgão tenham ocorrido em um roedor, o pesquisador afirma haver grande chance de o processo funcionar em pessoas. “Todos os tipos de células usados no estudo provêm de pacientes humanos e confirmaram funções especificamente humanas”, explica. “Assim, a aplicação clínica é altamente viável.”
Takebe: Todos os tipos de células usados no estudo provêm de humanos e confirmaram funções especificamente humanas; assim, a aplicação clínica é altamente viável

Substâncias que naturalmente são metabolizadas de modo diferente por camundongos ao serem administradas ao animal com o fígado gerado em laboratório resultaram em produtos de metabolismo do órgão humano.

Takebe afirma ainda que outros órgãos provavelmente poderão ser gerados com a mesma técnica. “Ao menos os endodérmicos, como o pâncreas, que se desenvolvem a partir do mesmo folheto embrionário que o fígado”, diz.

Marco

Para o biólogo Stevens Rehen, chefe do Laboratório Nacional de Células-Tronco Embrionárias da Universidade Federal do Rio de Janeiro (UFRJ), o feito dos japoneses é um marco nos estudos da medicina regenerativa. “É a primeira vez que se consegue criar um órgão funcional a partir de células programadas”, ressalta. “O que chama a atenção é a estratégia de se criar um broto, e não o órgão todo fora do corpo.”
Rehen: “O que chama a atenção é a estratégia de se criar um broto, e não o órgão todo fora do corpo”

A equipe da Universidade de Yokohama espera que em mais sete a dez anos possa iniciar testes clínicos com humanos. “Há ainda um grande desafio que é conseguir produzir uma quantidade enorme de brotos de fígado a um custo razoável”, diz Takebe. “Considerando que o fígado tem mais de cem bilhões de hepatócitos e que as filas para transplante em países como os Estados Unidos chegam à casa dos milhares de pacientes, você pode imaginar quantos brotos precisaríamos gerar.”

Segundo a Associação Brasileira de Transplantes de Órgãos, 1.240 pessoas estão na lista de espera para receber um fígado em 13 unidades federativas do Brasil (Bahia, Ceará, Distrito Federal, Espírito Santo, Goiás, Minas Gerais, Paraná, Pernambuco, Rio de Janeiro, Rio Grande do Sul, Rondônia, Santa Catarina, São Paulo e Sergipe), sendo 683 apenas no estado de São Paulo. Os dados são de março de 2013.

Célio Yano
Revista Ciência Hoje

Estrela próxima pode ter 3 super-terras habitáveis


A descoberta de novos mundos ao redor da estrela-anã Gliese 667C foi publicada no Astronomy & Astrophysics

ESO/M. Kornmesser

Por Lee Billings

A partir de sua posição a 22 anos-luz de distância na constelação do Escorpião a estrela anã vermelha M, Gliese 667C, não parece muita coisa.

Sua tênue luz é perdida ao olho nu, superada pela luz de duas estrelas companheiras mais brilhantes.

Mas essa estrela diminuta, excessivamente comum, poderia ter um papel fundamental para estabelecer que planetas pequenos, potencialmente como a Terra, sejam comuns por toda a nossa galáxia.

Pesquisadores anunciaram que sete planetas orbitam essa estrela – e, se suas análises matemáticas estiverem corretas, três deles poderiam ser habitáveis.

Pesquisas anteriores de Gliese 667C revelaram dois planetas, incluindo uma “super Terra” potencialmente rochosa orbitando a zona habitável da estrela, a região em que um planeta pode possuir água líquida em sua superfície.

Batizado de Gliese 667 C c, esse mundo poderia ser um planeta “Cachinhos Dourados” [NT: Costumava-se chamar a ‘região habitável’, ou ‘zona habitável’ de uma estrela, de ‘zona/região de cachinhos dourados’, em referência ao conto da personagem em questão] como a Terra, com uma temperatura “perfeitamente adequada”: nem muito quente, e nem muito fria, para a vida como a conhecemos.

Agora, após anos de sugestões de que mais planetas talvez estivessem escondidos nos dados da estrela, uma equipe internacional de astrônomos, liderada por Guillem Anglada-Escudé da Universidade de Göttingen, na Alemanha, e por Mikko Tuomi da University of Hertfordshire, na Inglaterra, anunciaram sua descoberta de três ou cinco mundos adicionais ao redor da estrela.

Dois desses corpos adicionais poderiam ser super-terras orbitando a zona habitável, levantando a possibilidade de a estrela abrigar três mundos Cachinhos Dourados. O periódico Astronomy & Astrophysics publicou o estudo online em 26 de junho.

Ao contrário de nosso próprio sistema solar, com seu arranjo espaçoso de pequenos planetas internos e grandes mundos externos orbitando uma estrela anã-amarela do tipo G, todos os supostos planetas ao redor de Gliese 667C têm massa intermediária, mais ou menos entre a Terra e Urano. Mais estranho ainda, todos eles, à exceção de um, ficam amontoados em uma órbita como a de Mercúrio, o planeta mais próximo de nosso Sol. Esse tipo de sistema é chamado de “dinamicamente aglomerado”, porque seus planetas ficam espremidos lado a lado em todas as ilhas de estabilidade ao redor da estrela.

Em anos recentes, conforme torrentes de dados começaram a chegar de grandes buscas planetárias como a missão Kepler, da Nasa, astrônomos ficaram chocados em descobrir que esses sistemas compactos parecem ser a organização planetária padrão em nossa galáxia. “Nós sabíamos da Kepler que sistemas dinamicamente aglomerados eram dominantes ao redor de estrelas como o Sol, e agora temos outro [sistema] ao redor de uma anã M”, declara Anglada. O resultado sugere que muito mais sistemas compactos – e planetas potencialmente habitáveis – residem ao redor de estrelas anãs M próximas do que se acreditava anteriormente.

Encontrar esses planetas não foi fácil, porque mundos pequenos, potencialmente habitáveis, normalmente são pouco discerníveis contra um fundo cheio de ruído estelar. Ao contrário da maior parte dos mais de três mil planetas prováveis encontrados pela missão Kepler, da Nasa, que foram descobertos por seus trânsitos – as sombras que lançam na direção da Terra quando cruzam a fronte de suas estrelas – os planetas de Gliese 667C foram detectados por meio de uma técnica mais indireta: a oscilação que seu volume induz na estrela conforme se movem para frente e para trás em suas órbitas.

Para o sistema Gliese 667C, o arrasto gravitacional de cada planeta só muda a posição da estrela inteira em cerca de um metro por segundo – a velocidade do caminhar – mas a superfície fervilhante da estrela fica cheia de atividade interestelar que a qualquer momento pode apagar esse tênue sinal.

Discernir oscilações planetárias da ordem dos metros-por-segundo a uma distância de anos-luz é um pouco como ouvir uma música baixa entre cascatas de estática saindo de um rádio mal sintonizado. O sinal de um planeta solitário é como o som de uma única corda de guitarra, tocada contínua, pura e repetidamente, quase imediatamente reconhecível. Vários planetas, porém, são muito mais difíceis de decifrar: suas oscilações sobrepostas são mais parecidas com uma orquestra desafinada tocando tudo de uma vez; apenas ouvindo durante muito tempo você pode ter esperança de decifrar qualquer sinal vindo do ruído.

Pistas exoplanetárias iniciais 

As primeiras pistas claras de um grande sistema multiplanetário ao redor de Gliese 667C emergiu no ano passado, através do trabalho de Philip Gregory, um astrônomo da University of British Columbia em Vancouver. Gregory estava analisando dados públicos do espetrógrafo HARPS do Observatório Europeu do Sul, um instrumento de primeira linha para a caça a planetas localizado em La Silla, no Chile. Ele percebeu várias oscilações potencialmente planetárias que não tinham sido relatadas anteriormente, incluindo uma que se parecia com um planeta com 2,5 vezes a massa da Terra em uma órbita de 39 dias – isto é, outro planeta rochoso dentro da zona habitável da estrela além dos que já haviam sido descobertos – Gliese 667C c. Gregory redigiu suas descobertas e as enviou a um periódico, mas não disse ter descoberto novos planetas. 

Enquanto Gregory escrevia seu artigo, Anglada e seus colegas também estavam vislumbrando as evidências oscilantes dos mundos de Gliese 667 C ao combinar as medidas do HARPS com dados de dois outros telescópios. Eles analisaram os dados combinados usando dois métodos estatísticos distintos e independentes. Os dois métodos apoiavam fortemente a presença dos dois planetas anteriormente anunciados, além de três ‘novos’ planetas com órbitas e massas essencialmente idênticas ao que Gregory relatou em 2012. Um dos métodos também encontrou evidências de dois novos planetas pequenos, um em uma órbita quente de 17 dias, e outro em uma órbita gelada de 256 dias. Várias rodadas de simulações só fizeram aumentar sua confiança de que os planetas eram reais.

Gregory elogia o trabalho do grupo como “um passo adiante muito significativo”, e aponta que apesar de seu artigo ter “servido apra atrair atenção à possibilidade de vários planetas na zona habitável”, o estudo de Anglada contém “resultados mais definitivos”.

Estatísticas oscilantes

Mesmo assim, restam dúvidas. De acordo com Xavier Bonfils, líder da pesquisa de anãs M da equipe do HARPS, a equipe de Anglada usou vários ‘atalhos’ estatísticos que tornavam suas análises mais fáceis de executar, mas menos robustas. Um ponto fundamental, argumenta Bonfils, é que a equipe supôs que os planetas de Gliese 667C residem em órbitas quase-circulares, uma noção apoiada mais por simulações dinâmicas do que por dados reais da estrela. Órbitas “excêntricas” mais alongadas tornariam um sistema tão próximo, instável. Então, se os novos planetas são reais, a maioria deles deve ter órbitas de baixa excentricidade. Ou talvez simplesmente haja menos planetas do que o alegado.

“A análise que eles propõem parece matematicamente correta, mas é uma abordagem menos conservadora do que geralmente se faz”, comenta Bonfils, apressando-se a adicionar que espera que os planetas se provem genuínos. “Os sinais estão lá, mas isso não significa que todos eles sejam planetas”. Centenas de milhares de medidas custosas e demoradas poderiam ser necessárias para confirmar a origem das oscilações planetárias de alguns metros de Gliese 667C, lembra Bonfils.

Essa não é a primeira vez em que Anglada, Tuomi e seus colaboradores fizeram alegações desse tipo, aponta Sara Seager, uma importante pesquisadora de exoplanetas do Instituto de Tecnologia de Massachusetts, que não se envolveu no estudo do grupo. Em anos recentes, o grupo também anunciou pequenos planetas – incluindo os potencialmente habitáveis – ao redor de outras estrelas, apenas de muitos deles continuarem sem confirmação.

O problema, como explica Seager, não é necessariamente que esses planetas não são reais, mas que as técnicas estatísticas usadas para revelar sua presença são tão confusas que há poucos precedentes claros e especialistas externos para verificar as alegações de maneira adequada. “Eles usam métodos especializados altamente sofisticados para extrair sinais muito fracos de dados ruidosos”, explica Seager. “Apenas um punhado de outras equipes do mundo conseguem reproduzir esse tipo de análise de dados”.

Mas se os resultados de Anglada se sustentarem, eles poderiam ajudar a reformular o futuro da busca por planetas. Sistemas multi-estelares e anãs vermelhas como Gliese 667 são os tipos mais comuns na Via Láctea, e se a maioria deles abrigar sistemas planetários aglomerados, os mundos habitáveis mais próximos fora do sistema solar poderiam estar realmente bem perto. 

“A resposta clichê a isso é que ‘alegações extraordinárias exigem provas extraordinárias’”, lembra Greg Laughlin, outro especialista em exoplanetas da University of California, Santa Cruz, que não participou do estudo. “Mas você não pode considerar isso como sendo uma alegação extraordinária, porque mesmo que isso não se pareça em nada como nosso sistema solar, o que está sendo proposto é um arranjo planetários extraordinariamente comum”. Ele adiciona que a missão Kepler “claramente indicou que sistemas como Gliese 667C, e não sistemas como os nossos, são o modo padrão de formação planetária na galáxia”.
Scientific American Brasil

Formação de planeta tem registro inédito

Observatório no Chile captou as imagens de gigante gasoso

Eso/L. Calçada
Essa concepção artística mostra a formação de um planeta gigante gasoso no anel de poeira ao redor da jovem estrela HD 100546. Suspeita-se que esse sistema também contenha outro planeta grande orbitando mais próximo da estrela. Imagem publicada em 28 de fevereiro de 2013.

Por Clara Moskowitz e SPACE.com

Astrônomos captaram o que pode ser a primeira fotografia direta de um planeta alienígena em processo de formação nos arredores de uma estrela.

A foto, que registrou um planeta alienígena gigante em formação, foi obtida pelo Very Large Telescope, do Observatório Europeu do Sul, no Chile. Ela mostra uma tênue mancha engastada em um espesso disco de gás e poeira ao redor da jovem estrela HD 100546. De acordo com cientistas, o objeto parece ser um gigante gasoso bebê, semelhante a Júpiter, formando-se a partir do material do disco.

“Até agora a formação planetária era um assunto abordado por simulações de computador”, declarou Sascha Quanz, do ETH Zurique, na Suíça, líder da equipe de pesquisa. “Se nossa descoberta de fato for um planeta em formação, então pela primeira vez cientistas serão capazes de estudar empiricamente o processo de formação planetária e a interação de um planeta em formação com seu ambiente natal em um estado bastante inicial”.

Já se acreditava que a estrela HD 100546, localizada a 335 anos-luz da Terra, abrigasse outro planeta gigante que a orbita a uma distância aproximadamente seis vezes maior que a da Terra ao sol. O novo planeta em potencial está ainda mais longe, a aproximadamente 10 vezes a distância de seu irmão, com cerca de 70 vezes a distância entre a Terra e o sol.

O possível planeta parece se encaixar no quebra-cabeça que cientistas estão montando sobre a formação de mundos. Estrelas nascem em nuvens de poeira e gás e, após sua formação, um disco de material remanescente frequentemente as orbita. A partir desse disco, planetas-bebê podem tomar forma. Aparentemente, é isso que está acontecendo aqui. 

A nova foto, por exemplo, revela estruturas no disco ao redor da estrela que poderiam ser produzidas por interações entre seu material e o planeta em formação. Além disso, os dados sugerem que o material ao redor da mancha planetária foi aquecido, o que é consistente com a hipótese de formação planetária.

As observações foram possíveis com o instrumento de ótica adaptativa NACO, do Very Large Telescope, que compensa o desfoque provocado pela atmosfera da Terra. O instrumento também usa um coronógrafo especial que observa comprimentos de onda do infravermelho próximo e permite observar os arredores da estrela tão brilhante.

“A pesquisa de exoplanetas é uma das mais empolgantes novas fronteiras da astronomia, e a imagem direta de planetas ainda é um campo novo, que se beneficia imensamente de melhorias recentes em instrumentos e métodos de análise de dados”, explica Adam Amara, outro membro da equipe. “Nessa pesquisa usamos técnicas de análises de dados desenvolvidas para a pesquisa cosmológica, mostrando que a fertilização cruzada de ideias entre campos pode levar a um progresso extraordinário”.

As descobertas foram detalhadas em um artigo publicado online no volume de 28 de fevereiro do Astrophysical Journal Letters.
Scientific American Brasil

Chineses ricos exportam poluição para regiões pobres

Controle da poluição nas províncias ricas da China levou poluidores para regiões mais vulneráveis

Bert van Dijk/Flickr
Uma fábrica na Mongólia Interior. Políticas de emissões mais rígidas nas províncias litorâneas mais ricas da China levaram suas indústrias – e suas emissões – para áreas mais pobres do interior com regras mais brandas. 

Por Tim Radford e The Daily Climate

LONDRES – De acordo com uma nova pesquisa, assim como nações ricas passaram a responsabilidade das emissões de dióxido de carbono para as nações em desenvolvimento, também as províncias ricas da China exportaram o problema para as regiões mais pobres.

O maior emissor de gás estufa do mundo – 10 bilhões de toneladas em 2011 – decidiu reduzir a “intensidade de carbono” de sua economia. No entanto, de acordo com Klaus Hubacek da University of Maryland e seus colegas, as regiões mais ricas e mais sofisticadas da China – as que têm as metas mais rígidas e específicas de redução de poluição – estão comprando bens manufaturados de locais como a Mongólia interior, uma região mais pobre onde as metas são menos limitantes.

“Isso é lamentável, porque as reduções mais baratas e mais fáceis – e portanto mais acessíveis – ficam nas províncias interiores, onde melhorias tecnológicas modestas poderiam fazer uma diferença enorme para as emissões”, declara Steven Davis da University of California, Irvine, um dos autores do estudo.

Metas mais difíceis

“Áreas mais ricas têm metas mais difíceis de alcançar, então para elas é mais fácil simplesmente comprar bens produzidos em outros locais”, adiciona Davis. “Uma meta nacional que rastreie emissões representadas no comércio seria um grande avanço para solucionar o problema. Mas não é isso que está acontecendo”. 

Em artigo publicado no Proceedings of the National Academy of Sciences, Hubacek, Davis e seis outros relatam que examinaram a produção e as emissões da China em 2007 em 57 setores da indústria, em 26 províncias e quatro cidades.

Naquele ano, as emissões da China totalizaram mais de sete bilhões de toneladas, das quais mais da metade vinha de combustíveis fósseis queimados para a produção de bens e serviços que eram consumidos ou em outras partes da China, ou fora das fronteiras chinesas em 107 países.

Na prática, os autores forneceram uma geografia do comércio interno da China. Mais de 75% das emissões associadas aos bens consumidos em Pequim-Tianjing – uma das três regiões de maior afluente [comercial] – foram bombeadas para o ar de outras províncias.

Em 2009, na conferência climática das Nações Unidas em Copenhague, a China prometeu reduzir a dependência que sua economia tem do carbono ao reduzir emissões de CO2 por unidade de produto doméstico bruto dos níveis de 2010 em 17% até 2015. De acordo com o país, isso seria conseguido com a imposição de reduções de 19% nas províncias de afluente comercial da costa leste, e 10% no oeste, que é menos desenvolvido.

Empurrando as fábricas para o leste

A implicação é que políticas de redução de emissões tendem a levar fábricas e produtores para regiões onde os custos são menos, e os padrões de poluição, menos rígidos.

“Devemos reduzir as emissões de CO2, não simplesmente terceirizá-las”, aponta Laixiang Sun da University of Maryland, um dos autores do estudo. “Regiões e países desenvolvidos precisam assumir responsabilidades, fornecendo apoio ou investimento tecnológico para promover tecnologias mais limpas e mais verdes em regiões menos desenvolvidas”.

Os resultados, concluem os autores, “demonstram a interdependência econômica de províncias chinesas, enquanto também destacam as enormes diferenças em riqueza, estrutura econômica, e mistura de combustíveis que produzem desequilíbrios no comércio interprovincial e as emissões representadas no comércio”.

Este artigo foi originalmente publicaod em The Daily Climate, a fonte de notícias da mudança climática publicada pela Environmental Health Sciences, uma empresa de mídia sem fins lucrativos. 17jun2013
Scientific American Brasil

segunda-feira, 5 de agosto de 2013

00 Trilhões de Conexões


Ruído produzido por bilhões de células cerebrais comunicando-se umas com as outras pode conter uma pista fundamental para a compreensão da consciência

Carl Zimmer
Um único neurônio está sobre placa de petri, isolado, mas vibrando, muito satisfeito consigo mesmo. De vez em quando, libera espontaneamente uma onda de corrente elétrica que percorre todo o seu corpo. Ao aplicar pulsos elétricos a uma extremidade do neurônio, ele pode responder com novos pulsos de tensão. Mergulhando o neurônio em vários neurotransmissores, é possível alterar a intensidade e o sincronismo das ondas elétricas. Na placa, isolado, o neurônio não consegue fazer muita coisa. Mas coloque 302 neurônios juntos, e eles se tornam um sistema nervoso capaz de manter vivo o verme Caenorhabditis elegans, sondar o ambiente, tomar decisões e enviar comandos para o corpo do organismo. Junte 100 bilhões de neurônios – com 100 trilhões de conexões – e terá um cérebro humano, capaz de fazer muito, mas muito mais. 

Continua um mistério o fato de nosso cérebro se formar a partir de um conjunto de neurônios. A neurociência ainda não tem condições de esclarecer esse enigma, apesar de todas as suas conquistas. Alguns neurocientistas passam a vida toda explorando neurônios isolados. Outros escolhem uma escala mais alta: observam, por exemplo, como o hipocampo – um aglomerado de milhões de neurônios – codifica as lembranças. Outros estudam o cérebro numa escala ainda mais refinada analisando as regiões ativadas em processos como ler ou sentir medo. Mas poucos tentam visualizar o cérebro em todas essas escalas simultaneamente. Em parte, a dificuldade está relacionada à natureza complexa do empreendimento. A interação apenas entre alguns neurônios pode ser um conjunto complexo de feedbacks. Acrescente mais 100 bilhões de neurônios e esse problema se transforma num insolúvel quebra-cabeça. 

Alguns cientistas, no entanto, consideram que chegou a hora de enfrentar esse desafio. Eles acreditam que nunca entenderemos de fato como o cérebro se forma a partir do sistema nervoso, mesmo dividindo-o em peças separadas. Observar apenas os pedaços seria o mesmo que tentar descobrir como a água se congela estudando uma única molécula dela. “Gelo” é um termo sem sentido na escala de moléculas individuais. O conceito só existe graças à interação entre um número imenso de moléculas, que se agregam para formar cristais.

Felizmente, os neurocientistas podem se inspirar em outros pesquisadores que estudam diferentes formas da complexidade há décadas – do mercado de ações e circuitos de computadores à interação gênica e proteica em uma única célula. O mercado de ações e uma célula podem não ter muito em comum, pois os pesquisadores descobriram algumas semelhanças intrínsecas em todos os sistemas complexos que estudaram. Ferramentas matemáticas específicas foram desenvolvidas para facilitar a análise desses sistemas. Os neurocientistas estão começando a usar essas ferramentas para tentar entender a complexidade do cérebro. A pesquisa está apenas engatinhando, mas os resultados já são promissores. O importante, segundo os cientistas, é descobrir as regras que bilhões de neurônios obedecem para se organizar em redes, e como elas se unem numa única estrutura coerente que chamamos cérebro. Para eles, a organização dessa rede é fundamental para entendermos um mundo sempre em mudanças. Alguns transtornos mentais mais devastadores, como esquizofrenia e demência, podem resultar do colapso parcial de redes 
cerebrais.

Os neurônios formam redes estendendo axônios, que fazem contato com outros neurônios. Quando isso ocorre, um sinal que se propaga por uma célula nervosa pode disparar uma onda de corrente em outros neurônios. Como cada célula pode se unir a milhares de outras – tanto as próximas, como as que se encontram do outro lado do cérebro – as redes neurais podem assumir um incrível número de arranjos. A forma como uma determinada rede se organiza tem enormes implicações no funcionamento do cérebro.
CÉREBRO DE BRINQUEDO
qual a melhor forma de estudar a rede de neurônios do cérebro? Que experimentos os cientistas podem fazer para rastrear bilhões de conexões em rede? Uma alternativa é construir um modelo do cérebro em miniatura, que mostre as diferentes formas de interação entre os neurônios. Olaf Sporns, da Indiana University, e seus colegas criaram exatamente esse modelo. Na simulação, juntaram 1. 600 neurônios e os distribuíram sobre uma superfície esférica, ligando depois cada neurônio aos demais. Em qualquer instante, todos os neurônios têm uma chance mínima de se ativar espontaneamente. Uma vez ativados, têm também uma pequena chance de acionar outros neurônios ligados a eles.

Sporns e sua equipe soldaram as conexões entre os neurônios e observaram o cérebro de brinquedo em ação. Inicialmente conectaram cada neurônio apenas a seus vizinhos imediatos. Com a rede formada, o cérebro produzia pequenos lampejos aleatórios de atividade. Quando um neurônio se ativa espontaneamente, cria uma onda elétrica que desaparece rápido. Quando os pesquisadores ligaram cada neurônio aos demais, no cérebro, o padrão resultante foi bem diferente: o cérebro inteiro foi ativado e desativado em pulsos regulares.

No fim, os cientistas acabaram atribuindo cérebro uma rede intermediária, criando conexões locais e de longa distância entre os neurônios. O cérebro havia se transformado, então, num sistema complexo. Quando os neurônios começaram a se ativar, surgiram grandes padrões brilhantes de atividade que se propagavam pelo cérebro. Alguns deles colidiam entre si e outros se propagavam pelo cérebro em círculos.

O cérebro de brinquedo de Sporns ensinou uma lição importante sobre o aparecimento da complexidade. A própria arquitetura da rede molda seu padrão de atividade. Sporns e outros pesquisadores estão aprendendo as lições que juntaram aos poucos de outros modelos cerebrais e tentando obter padrões similares em cérebros reais como os nossos. Infelizmente, os cientistas não podem monitorar cada neurônio de nosso cérebro. Por isso, usam técnicas inteligentes para registrar a atividade de alguns neurônios e tiram conclusões fantásticas desses resultados.

EM PLACAS DE PETRI
dietmar plenz, neurocientista do instituto nacional de saúde mental dos Estados Unidos, e seus colaboradores tentaram analisar a arquitetura do cérebro estimulando o crescimento de volumes de tecido cerebral do porte de sementes de gergelim em placas de Petri. Eles prenderam 64 eletrodos ao tecido para examinar o acionamento espontâneo dos novos neurônios. Os eletrodos detectaram uma rápida manifestação de atividade conhecida 
como avalanches neurais.

De início, parecia que os neurônios estavam apenas espoucando com ruído aleatório. Se isso estava realmente ocorrendo, então haveria a mesma probabilidade de que cada avalanche neural fosse mínima ou de grande alcance. No entanto, não foi isso que Plenz e os colegas descobriram. Avalanches pequenas eram muito frequentes; as grandes, mais raras; e as muito grandes, mais incomuns ainda. Num gráfico, as probabilidades de ocorrência de diferentes tamanhos formavam uma suave curva descendente.
Os cientistas já estavam bem familiarizados com esse tipo de curva. Os batimentos cardíacos, por exemplo, não são todos iguais. A maioria é um pouco mais longa ou mais curta que a média. Um pequeno número de batimentos é muito mais longo ou curto, e um número muito menor é ainda mais longo ou curto que a média. Terremotos seguem o mesmo padrão. O deslocamento das placas continentais produz muitos terremotos fracos, mas poucos muito intensos. Durante epidemias, normalmente novos casos surgem a cada dia, com um surto esporádico de novos casos. Se fizermos um gráfico, os batimentos cardíacos, terremotos e o número de novos casos, eles formarão um curva 
exponencial descendente.

Essa curva, conhecida como lei de potências, é a marca registrada de uma rede complexa que engloba conexões de curta e de longa distância. Um tremor em determinado ponto da Terra pode, em alguns casos, espalhar-se somente por uma área restrita. Em casos raros, o abalo se estende por uma região mais ampla. 

Os neurônios se comportam da mesma forma. Às vezes ativam apenas seus vizinhos imediatos, mas, em outras podem deflagrar uma onda de atividade que se estende por uma vasta área. 

A forma de curva da lei de potência pode fornecer pistas sobre a rede que a produziu. Plenz e seus colaboradores testaram várias redes neurais possíveis para ver quais produziam avalanches neurais como no caso de neurônios reais. O melhor ajuste para a curva foi obtido com uma rede de 60 aglomerados de neurônios. Esses aglomerados estavam conectados, em média, a 10 outros, e as conexões não se espalhavam aleatoriamente entre eles. Poucos aglomerados continham inúmeras conexões, enquanto muitos apresentavam apenas algumas. Como resultado, o número de conexões de um aglomerado com qualquer outro era bastante reduzido. Os cientistas chamam esse tipo de arranjo de redes de pequeno porte.

Verificou-se que esse tipo de rede pode tornar o cérebro absolutamente sensível aos sinais que chegam até ele, da mesma forma como um microfone amplifica uma ampla faixa de sons. Plenz e sua equipe aplicaram descargas elétricas de diferentes intensidades e mediram a resposta neural. Verificaram que descargas fracas estimulam um número limitado de neurônios, e descargas fortes provocam respostas intensas de uma faixa mais ampla de células.

Para entender como a estrutura da rede afeta essa resposta, os pesquisadores adicionaram uma droga aos neurônios que enfraquecia as conexões entre eles, e as células nervosas deixaram de responder aos sinais fracos. Mas, resultados diferentes foram obtidos quando os cientistas injetaram uma droga que tornava os neurônios mais propensos a se ativar em resposta ao contato com seus vizinhos. Nesse caso, os neurônios responderam intensamente aos sinais fracos – tão intensamente que a resposta aos sinais fracos equivalia à dos fortes. Esses experimentos revelaram como as redes neurais podem ser finamente sintonizadas e como essa sintonia fina permite que elas transmitam os sinais com precisão. Se os neurônios fossem organizados numa rede diferente, produziriam respostas incoerentes e sem sentido.



A grande dúvida agora é como relacionar a atividade observada na placa de laboratório com os processos mentais do dia a dia. Observando o cérebro como um todo, os pesquisadores descobriram padrões de atividade espontânea que refletem o mesmo tipo de padrão encontrado por Plenz nos blocos de tecido cerebral. Marcus E. Raichle da Washington University em St. Louis, e seus colaboradores descobriram que as ondas elétricas podem se propagar por todo o cérebro em padrões complexos quando estamos descansando, sem pensar em nada específico. Experimentos recentes sugerem que essa atividade espontânea pode desempenhar papel vital na vida mental. Pode permitir que a mente em repouso afete suas funções internas, revendo lembranças e planejando o futuro. 

CARTÓGRAFOS NEURAIS
para entender como essas ondas se comportam, os neurocientistas estão tentando mapear as conexões entre neurônios de todo o cérebro. Considerando o desafio de investigar o que ocorre num minúsculo pedaço de tecido cerebral, esse desafio parece gigantesco. Sporns dirige um dos projetos mais ambiciosos de mapeamento neural. Juntamente com Patric Hagmann, da Universidade de Lausanne, na Suíça, e seu grupo de neuroimagem, ele analisou dados obtidos do cérebro de cinco voluntários, usando um método conhecido como imagem de espectro de difusão, ou DSI (na sigla em inglês). O DSI captura rapidamente imagens de axônios cobertos por uma fina camada de gordura – fibras longas que se conectam a diferentes regiões do córtex, conhecida como matéria branca. Os cientistas selecionaram quase mil regiões do córtex e mapearam conexões da matéria branca de cada uma delas com as demais. 

A partir daí criaram uma versão simulada dessas mil regiões e realizaram experimentos para analisar os tipos de padrão produzidos. Cada região gerou sinais que podiam se propagar para as regiões conectadas, fazendo com que neurônios de outras regiões também enviassem sinais semelhantes. Quando esse cérebro virtual foi ativado, começou a produzir ondas de atividade que se desviavam de maneira lenta. Curiosamente, essas ondas se pareciam com as oscilações reais observadas por Raichle em cérebros em repouso.

A rede que Sporns e seus colegas mapearam em todo o cérebro apresenta uma organização muito semelhante àquela menor, que Plenz encontrou em seus pedacinhos de tecido: uma rede de pequeno porte, com poucos centros ou nós bem conectados. Essa arquitetura de grande escala pode ajudar nosso cérebro a economizar recursos e trabalhar mais rápido. Gastamos muitos recursos para desenvolver e manter a matéria branca. Como alguns centros bem conectados, nosso cérebro precisa de muito menos matéria branca do que necessitariam outros tipos de redes. E como são necessárias poucas conexões para ir de uma parte a outra do cérebro, a informação é processada mais rapidamente.
Em um ano, os neurocientistas terão condições de gerar mapas muito mais precisos das redes neurais, graças a um roje to de US$ 30 milhões lançado em 2009 pelo Instituto Nacional da Saúde dos Estados Unidos (NIH, na sigla em inglês). Conhecido como Human Connectome Project (a exemplo do Human Genome Project), o projeto pretende identificar todas as conexões entre neurônios de um cérebro adulto. Mas mesmo um mapa tão amplo não deverá abrigar a complexidade do cérebro humano, porque os neurônios utilizam somente um subconjunto de conexões cerebrais para se comunicar com outros. De uma hora para outra, essa rede poderá mudar de forma à medida que algumas conexões são desativadas e outras ativadas. Para criar modelos cerebrais, que possam capturar todas essas redes dinâmicas, será preciso lançar mão de todas as artimanhas da interação que a teoria da complexidade pode oferecer. 

NEURÔNIOS DE WALL STREET
dois matemáticos do dartmouth college, Daniel N. Rockmore e Scott D. Pauls, estão tentando analisar essa complexidade tratando o cérebro como um mercado de ações. Os dois ambientes consistem em grandes quantidades de pequenas unidades – neurônios e investidores – que estão organizados em uma rede de larga escala. Os investidores podem influenciar os demais na forma de comprar e vender ações; e essa influência pode se espalhar e afetar o mercado todo, fazendo o valor dos títulos subir ou descer. A rede toda, por sua vez, pode influenciar níveis mais baixos. Quando o mercado de ações começa a subir, por exemplo, os investidores isoladamente podem querer entrar numa corrida que faz o mercado subir mais ainda. 

Rockmore, Pauls e seus colegas desenvolveram um conjunto de ferramentas matemáticas para descobrir qual o tipo de estrutura da rede da Bolsa de Valores de Nova York. Eles tiveram acesso aos dados do preço de fechamento diário de 2.547 ações durante 1.251 dias e tentaram encontrar semelhanças na variação de preços de diferentes papéis – por exemplo: uma tendência de ascensão e queda praticamente simultânea. Essa pesquisa revelou a existência de 49 aglomerados de ações. Quando os cientistas retomaram os dados financeiros, descobriram que os aglomerados correspondiam principalmente a determinados setores da economia, como software ou restaurantes, ou a determinadas regiões, como América Latina ou Índia.

O fato de terem encontrado essas categorias simplesmente analisando dados tornou os cientistas mais confiantes nos próprios métodos. Afinal de contas, faz sentido que ações de empresas de acesso à internet tendam a subir e cair em cadeia (efeito dominó). Um vírus perigoso poderia pôr em risco o grupo todo. 

Rockmore e Pauls também descobriram que esses 49 aglomerados estavam, na verdade, organizados em sete superaglomerados. Em vários casos, esses superaglomerados correspondiam a indústrias que dependem umas das outras. O setor de shoppings lineares e o setor da construção caminham lado a lado. Os pesquisadores também perceberam que esses superaglomerados estavam ligados a um loop gigantesco criado, provavelmente, por uma prática comum entre administradores de investimentos, chamada de rotação setorial.
Ao longo de vários anos esses administradores movimentaram o dinheiro de uma parte da economia para outra. No momento, Rockmore e Pauls estão usando os mesmos métodos matemáticos para construir modelos cerebrais. Em vez de informação financeira se movimentando de uma parte do mercado para outra, eles analisam informações que se deslocam de uma região do cérebro para outra. E da mesma forma que os mercados financeiros têm redes dinâmicas, o cérebro pode reorganizar sua rede de um momento para outro.

Para testar seu modelo, Rockmore e Pauls analisaram, recentemente, imagens de ressonância magnética funcional (fMRI) que Raichle e seus colegas obtiveram do cérebro de uma pessoa em repouso. Eles observaram o aumento e diminuição da atividade de cada voxel – a menor região que uma fMRI pode medir, ou seja, uma porção do cérebro do tamanho de um grão de pimenta. Eles tentaram encontrar relações íntimas entre os padrões. Exatamente como os dois aglomerados no mercado de ações, eles agora descobriram que os voxels podiam ser agrupados em 23 aglomerados. E estes, por sua vez, pertenciam a quatro aglomerados maiores. Curiosamente, esses quatro aglomerados maiores correspondiam a uma versão neurológica da rotação setorial que Rockmore e Pauls encontraram no mercado de ações. Esses aglomerados se mantêm juntos num loop, e ondas de atividade os arrastam 
num ciclo.

Como Rockmore e Pauls já são capazes de reconstruir a rede num cérebro em repouso, agora estão interessados em estudar o cérebro em ação, isto é, pensando. Para entender como o cérebro altera sua organização, eles analisaram dados de fMRI de pessoas às quais eram mostrados alguns objetos. Se o modelo funcionar, os pesquisadores poderão predizer que tipo de resultado os neurocientistas obteriam da imagem de ressonância magnética de uma pessoa que recebe um determinado tipo de estímulo, como ver o rosto de um velho amigo. Isso poderia tornar a neurociência uma ciência verdadeiramente profética.

Apesar dos avanços já obtidos, ainda vai demorar até a complexidade do cérebro humano ser completamente decifrada. O verme C. elegans é um bom exemplo disso. Há mais de 20 anos o mapeamento de todas as conexões que interligavam seus 302 neurônios foi concluído, mas até agora os pesquisadores não sabem como essa rede simples dá origem a um sistema nervoso dinâmico.
Scientific American Brasil