Scientific American Brasil - Abril 2014 (1)

  • Uploaded by: marcosdantas171
  • 0
  • 0
  • February 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Scientific American Brasil - Abril 2014 (1) as PDF for free.

More details

  • Words: 45,941
  • Pages: 84
Loading documents preview...
Abril 2014 www.sciam.com.br

ASTRONOMIA As galáxias anãs e a teia cósmica de matéria escura

PSICOLOGIA ANO 12 | no 143 | R$ 12,90 | Portugal € 4,90

MEDICINA

Os bons pensamentos que inibem outros ainda melhores

Uma década depois, o segundo ato da terapia gênica

GEOCIÊNCIAS Controvérsias intrigantes sobre as rochas mais antigas da Terra

9 771676 979006

Técnicas revolucionárias prometem revelar como nascem os pensamentos e as emoções

ISSN 1676979-1

Novo Século do Cérebro

00143

O

E MAIS: o que está por trás das mudanças climáticas e da seca no Sudeste do Brasil

N A C A PA

Abril 2014 | $ù­x߸¿3

³äîßø­x³îC§_žx³îŸ‰_¸ÇCßCÇxäÔøžäC߸_yßxT߸ yž³äø‰_žx³îxÇCßCø­C_¸­Çßxx³äS¸Ç߸…ø³lC lx _¸­¸ C CîžþžlClx ³xø߸³C§ lD ¸ßžx­ C x­¸bÆxä x Çx³äC­x³î¸äÍ & lxäx³þ¸§þž­x³î¸ lx ³¸þCä îx_³¸§¸žCä ÇCßC lxîx_îCß x ßxžäîßCß xääxä_žß_øžî¸äîx­_¸³_x³îßCl¸¸äx䅸ßb¸älC ³xø߸_žz³_žCÍ ßylžî¸h ßāC³ šßžäîžxÍ

BRASIL

SUMÁRIO NEUROCIÊNCIA

26 O Novo Século do Cérebro Big Science cria perspectiva para a compreensão de como o cérebro, o sistema biológico mais complexo da Natureza, dá origem a pensamentos e emoções. Por Rafael Yuste e George M. Church ASTRONOMIA

34 Galáxias Anãs e a Teia de Matéria Escura Pequenas galáxias que orbitam a Via Láctea podem ter seguido supervias de matéria escura que se estendem pelo Universo. Por Noam I. Libeskind MED ICINA

40 Fase Dois da Terapia Gênica Uma década e meia após contratempos trágicos, que levaram a reavaliações críticas, cientistas garantem que terapia gênica está pronta para uso clínico. Por Ricki Lewis GEOLOGIA

46 As Rochas mais Antigas da Terra Uma equipe de cientistas acredita que rochas antigas descobertas no norte do Canadá sejam uma janela para a infância do planeta e origem da vida. Outro grupo sustenta que elas não têm nada de especial. Por Carl Zimmer TECNOLOGIA DA I NFO R M A Ç Ã O

52 O Caso das Palavras Roubadas Autor desejava criar um software que navegasse pelo jargão médico. Acabou descobrindo plágio generalizado e centenas de milhões de dólares em possíveis fraudes. Por Harold “Skip” Garner ECOLOGIA

56 O Renascimento Genético da Castanheira Americana Um fungo exótico quase exterminou as florestas de castanheiras, antes tão vastas na América do Norte. A engenharia genética pode ressuscitá-las. Por William Powell

Fotografia por Travis Rathbone

46

PSICOLOG I A

62 Bons Raciocínios Bloqueiam Outros Melhores Enquanto refletimos sobre um problema, a tendência do cérebro de se ater a ideias familiares pode literalmente inibir soluções mais promissoras. Por Merim Bilalic e Peter McLeod C LI MA

68 Calor Intenso e Estiagem Evidenciam Efeitos de Mudança Climática Aquecimento global com alterações no clima, que pode chegar a extremos de frio e calor, fornece pistas intrigantes de mudança que até recentemente parecia pura ficção. Por Rubens Junqueira Villela e Franco Nadal Villela F ÍSI C A

74 Um Novo Gato de Schrödinger Molécula que abriu caminho para computador quântico pode ser simulada com princípios mais elementares, como demonstra um trabalho desenvolvido na Unicamp. Por Priscila Todero de Almeida e Román López Ruiz

www.sciam.com.br 3

PUB LIC AÇ ÕES CI E NT Í F I C A S

79 Enfrentando o Ceticismo Iniciativa de um grupo de jovens da UFPR cria publicação para estimular leitura de artigos científicos e mudar postura passiva, distante do potencial criativo da ciência. Por Adonai Sant’Anna

SEÇÕES 5 Ponto de Vista

68

6 Cartas 9 Memória 10 Avanços FÓRUM

16 Por que Proibir Gorduras Trans? Uma nova política da FDA sobre esses mortais ácidos graxos estava mais que na hora. Por Walter Willett CIÊNCIA E M PAUTA

17 Libertem Willy e Todos os Seus Amigos Orcas e elefantes são grandes, inteligentes e sociáveis demais para serem mantidos em cativeiro. Pelo Conselho de Editores da Scientific American

OBSE RVAT ÓR I O

20 A Estranha Possibilidade de Tornar um Corpo Invisível Estruturas com propriedades exóticas podem viabilizar essa condição. Por Mario Novello C É U DO MÊ S

21 Abril Exibe Dois dos Quatro Eclipses do Ano Eclipse total da Lua ocorre em 15. Anular do Sol acontece em 29 e não será visto do Brasil. C I Ê N C IA DA SA Ú DE

24 Espaço, a Última Fronteira Médica Os riscos dos futuros turistas espaciais. Por Katherine Harmon Courage

TECNOLOGI A

19 Futuro Imperfeito Previsão feita por Asimov em 1964 mostra o caminho que ainda temos pela frente. Por David Pogue

C IÊ N C IA E M G R Á F I CO

82 Tempero Contaminado Especiarias importadas estão repletas de impurezas. Por John Matson

NAS BANCAS

Neste mês chega às bancas o segundo volume da edição especial de Scientific American Brasil na área de neurociências. Artigos já publicados em edições mensais, mas revistos e atualizados, permitem a compreensão do cérebro como um sistema complexo que possibilita, por exemplo, a percepção de emoções ou mesmo de objetos por pessoas que não enxergam. As pesquisas demonstram que muitos pacientes com dano no córtex visual têm visão cega. O especial também apresenta a construção do grande simulador do cérebro humano, projeto que envolve mais de 100 universidades em todo o mundo e que deve revolucionar o estudo de neurociências. O futuro cérebro artificial deve se transformar num equipamento precioso para a comunidade científica e prevê a alocação

4 Scientific American Brasil | Abril 2014

de tempo para neurocientistas com pesquisas pré-aprovadas como fazem os astrônomos com grandes telescópios. Miguel Nicolelis escreve sobre o controle de membros robóticos por ondas cerebrais e os avanços que permitirão demonstrar o controle de exoesqueleto inteiro por paraplégico na abertura da Copa do Mundo deste ano. Novas abordagens no estudo da filosofia experimental e suas possíveis implicações no discernimento das raízes do livre-arbítrio são descritas no artigo de Joshua Knobe, professor da Yale University e um dos fundadores da filosofia experimental.

PONTO DE VISTA Ulisses Capozzoli é editor-chefe da SCIENTIFIC AMERICAN BRASIL.

Percepções sobre o clima

A

velocidade e a complexidade das interações que até recentemente pareciam ser de um lado, fatos, de outro, ficção, aparentemente estão na base do desafio de compreender cenas da vida cotidiana. Há quem argumente, por exemplo, que a violência atingiu índices alarmantes e tanto as cidades como o campo estão permeados pela sumariedade. Outros contrapõem que o mundo sempre exibiu doses alarmantes de truculência e o que parece um recrudescimento dessa situação deve-se a um sistema de comunicação em tempo quase real. Na aldeia global que o filósofo canadense Marshall McLuhan anteviu no início dos anos 60, em obras como A galáxia de Gutenberg, tudo ocorre como se, de fato, partilhássemos uma aldeia: uma pequena aglomeração humana, onde tudo é do conhecimento de todos. Por trás disso está o aparato tecnológico que revolucionou as telecomunicações no pós-guerra, em particular o uso de satélites geoestacionários previstos por Arthur C. Clarke num agora célebre artigo publicado em outubro de 1945, na revista inglesa Wireless World, com o título de “Extra-terrestrial relays — can rocket station give world-wide radio coverage?”. Por essa época, satélites integravam o universo da ficção científica – ainda que, poucos anos depois, em outubro de 1957, o primeiro satélite artificial da Terra, o soviético Sputnik 1, enviasse um monótono “bip-bip” captado com misto de surpresa e assombro por umas poucas estações em terra. O que veio a seguir foram mudanças cada vez mais rápidas e que estão na base da internet e de um sistema de comunicação social que, entre outros efeitos, desmantelou a imprensa como sinônimo de um quarto poder. Fatos como esse estimulam a pensar que a sociedade humana, na segunda metade do século 20, passou por mudanças ra-

dicais que foram da liberação sexual à proliferação de automóveis quase na condição de utensílios domésticos; na reprodução de supermercados como substitutos de armazéns da esquina, e, mais recentemente, na banalização de computadores e de telefones celulares, que já foram objetos mágicos, os “comunicadores” da série Jornada nas Estrelas. A possibilidade de mudanças climáticas relacionadas à liberação de gases de efeito-estufa na atmosfera, no entanto, prevista pelo físico-químico e Prêmio Nobel sueco Svante Arrhenius, em 1896, foi algo varrido para debaixo do tapete. A partir de meados dos anos 90, quando a Organização das Nações Unidas se empenhou em divulgar cenários dessa natureza, geopolíticos ortodoxos, cientistas autodesignados “céticos” e boa parte da imprensa conservadora, aliados a segmentos ligados à exploração de combustíveis fósseis, se apressaram em refutar essa ideia, ainda que não dispusessem de fatos para amparar suas opiniões. A climatologia, de fato, é complexa o suficiente para não permitir simplificações e amparar o reducionismo das palavras de ordem. De qualquer maneira, admitir a ideia de um efeito-estufa de origem antrópica significa assumir responsabilidades por atos que podem ser ao menos amenizados, ainda que se trate de um desafio nada convencional. Em contrapartida, negar essa possibilidade e defender o processo como natural reflete arrogância, de um ponto de vista científico, ao mesmo tempo que camufla um comportamento de pura omissão. Nesta edição, convidamos o veterano meteorologista Rubens Junqueira Villela e seu filho, Franco Nadal Junqueira Villela, que seguiu as pegadas do pai, a produzirem um ensaio destinado a uma reflexão com a finalidade de alguma inteligibilidade sobre o que está ocorrendo com o clima e o risco de uma megalópole como São Paulo sofrer uma crise no abastecimento de água, algo que nos leva de volta a um período da pré-urbanização.

ALGUNS COLABORADORES Rubens Junqueira Villela, professor aposentado do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da USP, participou de 12 expedições antárticas, brasileiras e americanas, e foi o primeiro brasileiro a chegar ao polo sul, em 17 de novembro de 1961. Estagiou na Nasa e foi meteorologista sênior do The Weather Channel Latin America em Atlanta. É consultor de meteorologia para obras de engenharia costeira.

Franco Nadal Junqueira Villela, meteorologista do 7º Distrito do Instituto Nacional de Meteorologia em São Paulo, estagiou no National Weather Service em Washington, e participou de quatro missões à Antártida como responsável pela programação dos sistemas automáticos de aquisição de dados e transmissão via satélite do observatório autônomo brasileiro, Criosfera-1, instalado sobre o Planalto Polar.

Rafael Yuste, professor de ciências biológicas e neurociência na Columbia University e codiretor do Institute for Neural Circuitry da Kavli Foundation. Recentemente ele recebeu o NIH Director’s Pioneer Award. George M. Church, professor de genética na Harvard University e fundador do PersonalGenomes.org, uma fonte de acesso aberto para dados sobre genomas humanos, neuroimagens e caracteres comportamentais e cognitivos. Church integra o Conselho de Consultores de Scientific American.

Harold “Skip” Garner, professor de ciências biológicas, ciências da computação e medicina na Virginia Tech, é um empreendedor em série. Fundou a HelioText, uma empresa de análise de textos, e faz parte do conselho de assessores da Scientific American.

www.sciam.com.br 5

CARTAS

FALE CONOSCO

[email protected]

VERMELHO/ EPIGENÉTICA/ OXIDANTE S E ANTIOXIDANTE S/ N U N CA D I G A N U N CA / E N I G M A D O P R Ó T O N / E S P E C I A L NEUROCIÊNCIAS 1/ EDIÇÃO SHOW/ OPINIÕES/ESTRELAS FORA DO LUGAR

“Uma das poucas coisas que aprendi em física, e ainda está errada!”

CENTRAL DE ATENDIMENTO AO ASSINANTE

Mudança de endereço, renovação, informações e dúvidas sobre sua assinatura

Camila de Mello

www.assinaja.com/atendimento/duetto/faleconosco

São Paulo (11) 3512-9414 Rio de Janeiro (21) 4062-7551

EDIÇÃO 142

Segunda a sexta das 8h às 20h | Sábado das 9h às 15h NOVAS ASSINATURAS

Solicitação de novas assinaturas pelo pelo site www.lojaduetto.com.br ou pela Central de Atendimento ao Assinante NÚMEROS ATRASADOS

Podem ser solicitados à central de atendimento ao leitor pelo e-mail [email protected] ou pelo site www.lojaduetto.com.br

VERMELHO O artigo “Tartarugas, mantenham distância”, da seção Avanços da edição de dezembro de 2013, tem uma informação equivocada sobre o gênero Lutjanus, que pertence a uma família de peixes vermelhos Lutjanídeos, e não camarões vermelhos, como citado no texto. Aproveito para elogiar a edição especial “Libertação Animal”, espero outras edições que tratem do tema. Lorena Macêdo de Andrade — por e-mail

PUBLICIDADE

Para anunciar ou adquirir assinaturas patrocinadas [email protected] REDAÇÃO

Cartas para o editor, sugestões de temas, opiniões ou dúvidas sobre o conteúdo [email protected] MARKETING

Parcerias e projetos especiais [email protected]

EPIGENÉTICA Gostaria de ler uma edição especial da Scientific American Brasil sobre epigenética, assunto frequente na ciência mundial, menos no Brasil. Jonas Martins — via Facebook

NOSSAS PUBLICAÇÕES

BRASIL

www.sciam.com.br

www.historiaviva.com.br

www.mentecerebro.com.br

www.revistacabelos.com.br

MODACABELO

Nota da redação: Cara Lorena, na verdade ocorreu um erro de pontuação, a ausência de uma vírgula, na frase a que você se refere. O correto seria “(...) pescadores que procuram pegar atuns, camarões, vermelhos (do gênero Latjanus)...”

BRAZIL

www.esteticabrazil.com.br

RUA CUNHA GAGO, 412 – 2O ANDAR SÃO PAULO/SP – BRASIL – CEP 05421-001 TEL.: 11 2713-8150 – FAX: 11 2713-8197

N. da R.: Caro Jonas, sua sugestão será considerada. De qualquer maneira o tema já foi abordado, por exemplo, no artigo “Comutadores ocultos do cérebro”, publicado na edição especial de saúde, volume 1, 54.

dem acontecer numa revista que se propõe a oferecer informação séria. Sugiro uma melhor revisão para as próximas edições. Quero continuar a confiar nas suas reportagens. Grata por sua futura atenção Angela Zoppi — por e-mail

N. da R.: Prezada Angela. Você tem alguma razão no primeiro caso, quanto a 30 de fevereiro, que de fato não existe no calendário. Nossos mapas se referem aos dias 1º, 15 e 30 de cada mês, com diferença de uma hora para cada uma dessas datas. Por que isso ocorre? Ocorre pelo fato de o movimento de translação da Terra, o deslocamento do planeta em torno do Sol, fazer com que as estrelas nasçam a cada dia quatro minutos mais cedo. E quatro minutos multiplicados por 15, a diferença entre cada uma das datas consideradas, soma uma hora. Então, em fevereiro, para ser preciso deveríamos dizer que, em 28, o horário deveria ser 19h52 e não 20h00. Claro que essas referências dependem, também, da posição de um observador. De qualquer maneira, houve um erro de nossa parte em manter o padrão do planisfério para o dia 30, quando fevereiro se estende até 28, a não ser nos anos bissextos, quando chega a 29. Em relação à entrada do Sol nas constelações, você está considerando as datas da astrologia, não da astronomia.

Gosto de comprar a revista Scientific American Brasil para ver o mapa do céu. OXIDANTES E ANTIOXIDANTES A edição 141 tem dois erros surpreendentes. Na edição especial saúde, volume 2, o artigo Um se refere ao céu visível às 20h do dia 30 “Jejuar é Benéfico? ”, de David Stipp, cita um de fevereiro inexistente em qualquer calen- trabalho brasileiro de 2011 com as seguindário. O outro se refere à passagem do Sol tes constatações contrárias ao jejum: aunas constelações. Capricórnio se inicia no mento de glicose no sangue e nos “níveis de dia 21 de dezembro e vai até 19 de janeiro. componentes oxidantes do tecido que poAquário se inicia em 20 de janeiro e vai até dem danificar células”. Estes “componentes 17 de fevereiro. No dia 18 de fevereiro o Sol oxidantes” estão relacionados ao mito dos entra em Peixes. Erros como esses não po- antioxidantes, tratado por Melinda Moyer, POR RESTRIÇÃO DE ESPAÇO, A REDAÇÃO TOMA A LIBERDADE DE ABREVIAR CARTAS MAIS EXTENSAS.

6 Scientific American Brasil | Abril 2014

na mesma edição da revista? Alaor Augusto Machado — por e-mail

N. da R.: Caro Alaor, o artigo sobre jejum menciona os possíveis efeitos negativos do jejum à medida que leva ao acúmulo de componentes oxidantes perigosos para a integridade das células. O artigo de Melinda Moyer apenas questiona a eficácia e eficiência de agentes antioxidantes como vitamina C e outros componentes químicos no combate aos efeitos provocados por agentes oxidantes no organismo. NUNCA DIGA NUNCA No artigo que trata de coincidência nos números das loterias [“Nunca diga Nunca”, Scientific American Brasil de março de 2014, edição 142] se esqueceram de citar uma pessoa que ganhou mais de 100 vezes na loteria e disse que deve isso a Deus. Lindomar Arndt — via Facebook

N. da R.: Caro Lindomar. Nossos leitores são críticos o suficiente para se dar conta da inconsistência de versões exóticas de determinados fatos e uma evidência disso são as considerações que você faz.

N. da R.: Camila, não entre em desespero. A mecânica quântica produz esses efeitos desconcertantes desde o início, e muitos físicos de talento perderam noites de sono por isso. Outra consideração que você deve fazer (para não perder o sono) é que boa parte do que aprendemos na escola fica defasado, à medida que o conhecimento avança, independentemente da área de conhecimento. Mesmo em história, por exemplo, onde uma situação como essa parece insuspeita, reinterpretações são frequentes. ESPECIAL NEUROCIÊNCIAS 1 Li a edição especial dedicada a neurociências. Um show. Parabéns pelos temas tratados.

Camila de Mello — via Facebook

www.sciam.com.br

Lucas Boaventura Moraes — via Facebook

Scientific American Brasil é a melhor revista de divulgação científica do Brasil. Jose Geraldo Coelho — via Facebook

Scientific American Brasil traz a ciência em seu melhor estilo no Brasil e no mundo. Veículo sério e respeitado. Parabéns a todos que fazem a edição brasileira. Eduardo Sousa — via Facebook

Pedro Sá — via Facebook

A edição de fevereiro (141) está ótima. Sou estudante de biomedicina e me encantei com mais de um artigo: restrições do genoma do botulismo, as dez principais ameaças tóxicas para o meio ambiente e a batalha por uma vacina universal contra a gripe. Aline Garcez — via Facebook

ENIGMA DO PRÓTON Nãoooo! Uma das poucas coisas que aprendi em física e ainda está errada! [em relação à capa da edição 142 sobre paradoxos na medida do raio do próton] e a possível revisão das leis da física que essas considerações podem permitir.

OPINIÃO Amo essa revista. Sem ela não sei o que seria de mim.

Revista show [edição especial sobre neurociências, nº 57] Denis Coelho — via Facebook

O primeiro dos dois volumes da edição especial sobre neurociências ficou esplêndido. Karoliny Carmo Lima — via Facebook

Scientific American Brasil é ótima. Uma das melhores do país, se não a melhor. Vou passar na banca hoje e ver se já chegou para pegar a minha! Lys Marie — via Facebook

ERRAMOS Na edição de março (142) pequenas trocas no texto confundiram estrelas e constelações. Antares (o coração do Escorpião) é a estrela mais brilhante dessa constelação e não Aldebarã, a mais brilhante de Touro. Já o coração do Leão é a estrela Régulus. No texto essas estrelas aparecem nas respectivas constelações e fora delas, de forma equivocada.

Brasil

COMITÊ EXECUTIVO Jorge Carneiro e Rogério Ventura EDITOR-CHEFE: Ulisses Capozzoli EDITORA ASSISTENTE: Carmen Weingrill EDITOR DE ARTE: Débora de Bem ASSISTENTE DE ARTE: Ana Salles ASSISTENTE DE ICONOGRAFIA: Luiz Loccoman ESTAGIÁRIAS: Caterina Bloise (arte); Jéssica Nogueira (planejamento) COLABORADORES: Denise Martins (arte); Luiz Roberto Malta e Maria Stella Valli (revisão); Aracy Mendes da Costa, Áurea Akemi Arata, Marcio Bronzato de Avellar, Paulo Mathias Manes, Regina Cardeal, Suzana Schindler (tradução); Paulo César Salgado (tratamento de imagem) DIRETOR EXECUTIVO: Rogério Ventura COORDENADOR DE PUBLICIDADE: Robson de Souza (11) 2713-8185 PROJETOS ESPECIAIS MERCADO FARMACÊUTICO GERENTE DE NEGÓCIOS: Walter Pinheiro REPRESENTANTES COMERCIAIS COORDENAÇÃO GERAL: Mauro R. Bentes (21) 3882-8315/ 8135-3736 - [email protected] BRASÍLIA: Sônia Brandão (61) 3321-4304 RIO GRANDE DO SUL: Roberto Gianoni (51) 3388-7712/ 9985-5564 - [email protected] GOIÁS - RONDÔNIA: Marco Antônio Chuahy (62) 8112-1817/ 3281-2466 - [email protected] PARANÁ - SANTA CATARINA - TOCANTINS: Euclides de Oliveira, Marco Monteiro (41) 3023-0007/ 9943-8009/ 9698-8433 [email protected] / [email protected] PARÁ: Alex Bentes (91) 8718-3351/ 3222-4956 - [email protected]

MINAS GERAIS: Tadeu da Silva (31) 8885-7100 - [email protected] ESPÍRITO SANTO: Dídimo Effgen (27) 3229-1986/ 3062-1953/ 8846-4493/ 9715-7586 MATO GROSSO - MATO GROSSO DO SUL: Luciano de Oliveira (65) 9235-7446 - [email protected] CEARÁ- PERNAMBUCO - BAHIA - SERGIPE: Rozana Rocque (11) 49506844/ 99931-4696 - [email protected] / [email protected] CEARÁ: Izabel Cavalcanti (85) 3264-7342/ 9991-4360/ 8874-7342 [email protected] PERNAMBUCO: Carlos Chetto (71) 9617-6800, Rosângela Lima (81) 9431-3872/ 9159-0256 - [email protected] / [email protected] BAHIA-SERGIPE: Carlos Chetto (71) 9617-6800, Carmosina Cunha (71) 8179-1250/ 3025-2670 - [email protected] / [email protected] MARKETING GERENTE DE MARKETING: Moacir Nóbrega ANALISTAS DE MARKETING: Cinthya Müller e Samantha Seabra CIRCULAÇÃO E PLANEJAMENTO COORDENADORA DE CIRCULAÇÃO: Luciana Pereira PRODUÇÃO GRÁFICA: Wagner Pinheiro COORDENADOR DE PLANEJAMENTO: William Cardoso VENDAS AVULSAS: Fernanda Ciccarelli NÚCLEO MULTIMÍDIA/ ASSINATURAS DIRETORA: Mariana Monné REDATORA DO SITE: Fernanda Figueiredo WEB DESIGNER: Patricia Mejias ASSISTENTE ADMINISTRATIVA: Eliene Silva ANALISTA DE PLANEJAMENTO: Frederica Ricciardi ANALISTAS DE ATENDIMENTO: Cleide Orlandoni e Marcia Paiva Silva CENTRAL DE ATENDIMENTO

SEGUNDA A SEXTA DAS 8H ÀS 20H/ SÁBADO DAS 9H ÀS 15H

ASSINANTE E NOVAS ASSINATURAS SÃO PAULO (11) 3512-9414/ RIO DE JANEIRO (21) 4062-7551 www.lojaduetto.com.br e www.assineduetto.com.br Para informações sobre sua assinatura, mudança de endereço, renovação, reimpressão de boleto, solicitação de reenvio de exemplares e outros serviços acesse www.assinaja.com/atendimento/duetto/faleconosco Números atrasados e edições especiais podem ser adquiridos através da Loja Duetto, ao preço da última edição acrescido dos custos de postagem, mediante disponibilidade de nossos estoques. SCIENTIFIC AMERICAN INTERNATIONAL EDITOR IN CHIEF: Mariette DiChristina EXECUTIVE EDITOR: Fred Guterl MANAGING EDITOR: Ricki L. Rusting CHIEF NEWS EDITOR: Philip M. Yam SENIOR EDITORS: Mark Fischetti, Christine Gorman, Anna Kuchment, Michael Moyer, George Musser, Gary Stix, Kate Wong DESIGN DIRECTOR: Michael Mrak PHOTOGRAPHY EDITOR: Monica Bradley PRESIDENT: Steven Inchcoombe EXECUTIVE VICE-PRESIDENT: Michael Florek SCIENTIFIC AMERICAN BRASIL é uma publicação mensal da Ediouro Duetto Editorial Ltda., sob licença de Scientific American, Inc. FALE COM A REDAÇÃO [email protected] EDIOURO DUETTO EDITORIAL LTDA. Rua Cunha Gago, 412, cj. 33 – Pinheiros – São Paulo/SP CEP 05421-001 – Tel. (11) 2713-8150 – Fax (11) 2713-8197 Edição 142, ISSN 1676979-1. Distribuição nacional DINAP S.A. Rua Doutor Kenkiti Shimomoto, 1678. IMPRESSÃO: Edigráfica

www.sciam.com.br 7

Em cinco edições, a nova coleção Biblioteca MenteCérebro reúne artigos de especialistas sobre grandes temas: criatividade, aprendizagem, filhos, liderança e emoções.

Nas Bancas

Acesse: www.lojaduetto.com.br

50, 100 & 150 ANOS DE MEMÓRIA COMPILADO POR DANIEL C. SCHLENOFF Inovações e descobertas narradas pela SCIENTIFIC AMERICAN

AJUDA MECÂNICA Colheitadeira movida a cavalo de 1864

Quase três quartos dos estudantes que deixam a escola, quando a lei permite, o fazem não por causa de pressões econômicas diretas em casa, mas porque perderam o interesse no ensino. Isso se explica pelo fato de as escolas continuarem dando a todos os alunos apenas aquele particular pábulo que, há uma ou duas gerações, satisfazia uma pequena fração – uma fração selecionada – dos alunos. Mas a massa dos estudantes é diferente dessa fração seleta no seguinte: suas mentes são voltadas para coisas e motores e não para palavras e símbolos como seus professores.”

Abril 1864 Músculo Mecânico

Abril 1964 LSD e Psilocibina

SCIENTIFIC AMERICAN, VOL. X, Nº 14: 2 DE ABRIL DE 1864

“Os alucinógenos são atualmente objeto de intenso debate e preocupação nos círculos médicos e de psicologia. O que se discute é o grau de risco que eles representam para a saúde psicológica de quem os utiliza. Essa se tornou uma questão importante pelo rápido aumento do interesse pelas drogas entre leigos. A recente polêmica na Harvard University, que surgiu primeiramente por causa das discordâncias metodológicas entre os pesquisadores, e depois envolveu a questão da proteção da saúde mental do corpo estudantil, indicou o escopo de interesse popular em relação às drogas e a consequente preocupação pública sobre seu possível uso indevido.”

Resenha de Dyson “A resenha de James R. Newman de Interstellar Communication em sua edição de fevereiro foi escrita com sua tradicional combinação de sagacidade e sabedoria. Todos nós que pensamos seriamente sobre a detecção de inteligência extraterrestre sabemos que sofremos de uma limitação básica. Nossos detectores imaginados detectam tecnologia mais que inteligência. E não temos ideia se uma

sociedade verdadeiramente inteligente teria ou não por milhões de anos o interesse ou a necessidade de uma tecnologia avançada. Nessas circunstâncias é melhor admitir francamente que estamos buscando evidências de tecnologia mais que de inteligência. – Freeman J. Dyson”

Abril 1914 Idade do Sol, Revisada “Adotando-se a conhecida hipótese de [Hermann von] Helmholtz, que atribui a produção do calor emitido pelo Sol à sua contração, pode-se ter uma ideia da duração do Sol. Se dermos ao Sol um coeficiente de expansão intermediário entre o do mercúrio e o do gás, chegaremos à conclusão que levou de 1 milhão a 3 milhões de anos para que se contraísse ao seu raio atual. O Sol levará, por fim, 200 milhões de anos para se contrair do presente raio à metade dele e, mesmo então, sua temperatura na superfície será 3 mil graus.”

Ler é Obsoleto “As escolas têm sido negligentes ao não se adaptarem com celeridade suficiente às transformações da vida social e econômica.

“O trabalho de carregar feno no campo é muito fatigante num dia quente de verão e, nas grandes fazendas, onde são feitas colheitas pesadas, a tarefa é muito árdua. É desejável que essa atividade seja feita por máquinas, não só para livrar o agricultor do trabalho extenuante, mas para facilitar a operação e, assim, aliviar bastante o custo de produção. Com o uso de uma colheitadeira, aqui ilustrada, o agricultor ou seus auxiliares podem passar de um lado do campo a outro, enquanto a máquina é operada à medida que a equipe avança.”

Corvos por Toda Parte “Um dos mais alarmantes sinais dos tempos em que vivemos é a extraordinária e vil especulação que agora circula em Wall Street, na forma de operações com ouro e outros minérios. Companhias fictícias são criadas todos os dias, com fundações inconsistentes. Alertamos as pessoas para que fiquem atentas a esses vigaristas – elas devem evitá-los como evitam os infernais apostadores da cidade. Esses infames esquemas são gerados e criados na região da bolsa de valores e se destinam a enganar os inocentes e desavisados. Todos eles deveriam ser indiciados pelo Grande Júri e os trapaceiros culpados deveriam ser enviados para Sing Sing.”

www.sciam.com.br 9

AVANÇOS Conquistas em ciência, tecnologia e medicina

NEUROCIÊNC IA

A Brigada de Consertos do Cérebro Cientistas acreditam há tempos que um estilo de vida ativo melhora a saúde do

cérebro. Os estudos confirmam isso: a atividade física, intelectual e social, ou “enriquecimento ambiental” no jargão técnico, melhora o aprendizado, aprimora a memória e protege contra o envelhecimento e doenças neurológicas. Pesquisas recentes sugerem um benefício do enriquecimento ambiental em nível celular: ele repara a mielina cerebral, o isolamento protetor que envolve os axônios, ou fibras nervosas, que podem ser perdidos devido ao avanço da idade, lesões ou doenças como a esclerose múltipla. Mas como um ambiente enriquecido aciona o reparo de mielina em primeiro lugar? A resposta parece envolver os chamados “exossomos”, microvesículas ou bolsas envoltas por membranas que ocorrem naturalmente. Diversos tipos de células liberam esses pequenos sacos de proteínas e material genético nos fluidos do corpo. Repletos de moléculas sinalizadoras os exossomos se espalham pelo corpo “como mensagens em uma garrafa”, exemplifica R. Douglas Fields, neurobiólogo no National Institutes of

10 Scientific American Brasil | Abril 2014

Health. Eles visam determinadas células e mudam o comportamento delas. Em estudos animais, exossomos secretados por células do sistema imune durante o enriquecimento ambiental levaram células cerebrais a começar a “consertar” a mielina. Pesquisadores acreditam que exossomos talvez possam ser utilizados como biomarcadores para diagnosticar doenças ou como veículos para o fornecimento de medicamentos anticâncer, ou outros agentes terapêuticos. Os exossomos produzidos durante o enriquecimento ambiental são portadores de microRNAs, minúsculos pedaços de material genético que parecem instruir células imaturas no cérebro a se desenvolver em células produtoras de mielina chamadas oligodendrócitos. Quando pesquisadores da University of Chicago extraíram exossomos do sangue de ratos e os ministraram a animais idosos, os níveis de mielina dos ratos mais velhos aumentaram 62%, a equipe relatou em fevereiro na publicação científica Glia. Os pesquisadores também descobriram

como gerar exossomos fora do corpo, produzindo-os sob demanda para terapias potenciais. Ao estimular células imunes da medula óssea o grupo conseguiu “imitar o enriquecimento ambiental da Natureza em uma placa de Petri”, informa Richard Kraig, professor de neurologia na University of Chicago. Sua equipe agora está investigando como transformar exossomos em um tratamento para a esclerose múltipla. Os exossomos cultivados em laboratório estimularam a produção de mielina em uma amostra de tecido cerebral de rato destinada a simular danos resultantes da esclerose múltipla, restabelecendo os níveis de mielina a 77% do normal, Kraig e seus colegas relatam recentemente na publicação especializada Journal of Neuroimmunology. O passo seguinte é verificar se exossomos colhidos de células imunes funcionam com a mesma eficiência em animais vivos afetados pela doença, anuncia Aya Pusic, integrante da equipe e candidata a Ph.D. em neurobiologia. Com alguma sorte, observa ela, a pesquisa poderia avançar para testes humanos em cinco anos. —Debra Weiner

CORTESIA DE NIH COMMON FUND

“Exossomos” naturais parecem promissores ÇDßDßxÇDßDß³xßþ¸älD³ž‰`Dl¸ä

AVANÇOS CONSERVAÇÃO

A Floresta Tropical do Alabama

AMBIE NTE

Chama Extinta

Retardadores químicos de fogo permanecerão conosco por muitos anos A Califórnia receitou involuntariamente um coquetel químico

nocivo para o país na década de 70 quando o estado adotou regras destinadas a suprimir incêndios provocados por cigarros acesos. Os regulamentos exigiam que a espuma usada em estofados resistisse a uma exposição de 12 segundos a uma pequena chama viva; o que resultou no amplo uso de retardadores de chamas. Os efeitos disso foram muito além do estado, quando fabricantes optaram por aderir a um único padrão de segurança em vez de produzir um conjunto de produtos para a Califórnia e outro para o resto do país. Como se constatou, as regras californianas estavam baseadas em ciência distorcida. Pesquisas revelaram que retardadores de chamas são menos eficientes que se acreditava, além de representarem sérios riscos em potencial à saúde. Uma classe de substâncias químicas, os éteres difenil-polibromados tem sido associada ao câncer, a problemas reprodutivos e a um QI inferior em crianças. Em janeiro passado novas regras entraram em vigor na Califórnia, determinando que fabricantes de móveis reduzam a quantidade de retardadores de chamas em suas poltronas e sofás. Os novos padrões exigem que móveis estofados resistam a um cigarro aceso em vez de uma chama viva. A mudança não impede fabricantes de utilizarem retardadores de chamas, mas viabiliza evitá-los. Agora, é preciso ver como a indústria responderá a esse caso. Mesmo que os fabricantes deixassem de usá-los completamente, as substâncias químicas persistiriam no ambiente. Estudos mostraram que retardadores de chamas se infiltram em domicílios e depois se acumulam no corpo. As substâncias químicas também acabam em cursos d’água e organismos aquáticos. Além disso, há o fato de que móveis podem durar por gerações, argumenta Linda Birnbaum, diretora do National Institute of Environmental Health Sciences. “Estou pensando no meu sofá de 25 anos, que ainda adoro”, confessa ela. —Dina Fine Maron

Em um concurso de popularidade, o despretensioso pequeno bagre conhecido como chucky madtom (da espécie Noturus crypticus) não tem nenhuma chance em comparação com majestosos peixes de pesca esportiva ameaçados, como o salmão chinook, ou salmão-rei. No entanto, a situação do chucky é muito mais terrível: nenhum deles foi visto em estado selvagem desde 2004. Grupos conservacionistas estão lançando seus holofotes sobre espécies humildes como o chucky madtom em uma tentativa de chamar a atenção para o grande apuro de criaturas aquáticas no sudeste americano. Acredita-se que cerca de 70 tipos de moluscos e mariscos, além de duas espécies de peixes e um lagostim da região, estão extintos. Dezenas de outras espécies, inclusive o chucky madtom, estão à beira da extinção, devastadas por produtos químicos agrícolas, barragens e espécies invasoras. As enxurradas carregadas de sedimentos ïD®Uz®`DùåDàD®mD´¹åjyåÈy`ŸD¨®y´ïyKå`àŸDïùàD动ïàDm¹àDåÎÚ3y as condições da água nunca melhorarem, elas simplesmente morrerão”, alerta Tierra Curry, bióloga do Centro para Diversidade Biológica. àDcDåK‘y¹¨¹‘ŸDyåïEÿy¨m¹åùmyåïyjåùDàŸÕùyĆDy®UD`ŸDåŒùÿŸDŸå isoladas e a ausência de glaciares da Era do Gelo, a região é um centro de biodiversidade aquática. A maioria das espécies de mexilhões, moluscos e peixes de água doce americanos pode ser encontrada ali. Muitos animais sofreram com a construção de barragens hidrelétricas. A construção de sete barragens no rio Coosa, no Alabama, de 1914 a 1967, provou ser singularmente prejudicial e eliminou cerca de três dezenas de espécies. Ameaças mais recentes incluem um aumento da retirada de águas para consumo humano e para a mineração em ï¹È¹åmy®¹´ïD´›DåÎÚD`àŸåymy`¹´åyàÿDção sobre o que ninguém quer ouvir falar”, queixa-se Paul D. Johnson, supervisor do programa do Centro de Biodiversidade ÕùEïŸ`Dm¹ ¨DUD®DÎÚ¨D`yàïD®y´ïy´T¹ tem igual nos Estados Unidos. Não existe nada nem perto disso. ” Alguns mexilhões do sudeste ganharam status de ameaçados de extinção em 2013, mas espécies mais destacadas conso®y®D®DŸ¹àÈDàïym¹Š´D´`ŸD®y´ï¹mŸåȹ´ ÿy¨Î®÷ĈÀ÷j ¹‘¹ÿyà´¹D®yàŸ`D´¹‘Dåï¹ù`yà`Dmy73u‹ĈĈ®Ÿ¨›Çyååº para proteger trutas-arco-íris e salmões-reis, em comparacT¹`¹®`yà`Dmy73uÀñj‹®Ÿ¨›ÇyåmyåDm¹åDï¹m¹å¹å ®¹¨ùå`¹åy®yāŸ¨›ÇyåmyE‘ùDm¹`yÎÚ0DàDÕùyy¨yåàyD¨mente sobrevivam será preciso dinheiro”, adverte Curry. —Jesse Greenspan

www.sciam.com.br 11

RAYMOND GRASSO GETTY IMAGES (ACIMA); JOEL SARTORE GETTY IMAGES (ABAIXO)

Uma crise de extinção se desdobra silenciosamente no sudeste dos Estados Unidos

AVANÇOS FÍSIC A

Tesouro Plúmbeo Cientistas disputam metais recuperados de antigos naufrágios

GETTY IMAGES

Arqueólogos e físicos cobiçam igualmente chumbo romano antigo, mas por razões muito diferentes. Como o chumbo antigo é puro, denso e muito menos radioativo que o metal recém-minerado, ele é uma blindagem ideal para experimentos físicos sensíveis. No entanto, x§xîD­Uy­îx­䞐³ž‰`Dl¸šžäî¹ßž`¸x­øžî¸ä DßÔøx¹§¸¸ääx¸ÇÆx­D¸lxßßxx³î¸lx lingotes de 2 mil anos de idade. ÙääxäxĀÇxߞ­x³î¸ääT¸äø‰`žx³îx­x³îx importantes para destruir partes de nosso passado, para descobrir alguma coisa sobre nosso futuro?”, questiona Elena Perez-Alvaro, estudante de graduação em arqueologia da University of Birmingham, na Inglaterra, que escreveu um artigo sobre os dilemas envolvidos ³DÔøxäîT¸³DÇøU§ž`DcT¸`žx³îŸ‰`DRosetta. No passado, romanos usavam o chumbo para cunhar moedas e produzir canos, materiais

12 Scientific American Brasil | Abril 2014

de construção e armas. Atualmente, empresas privadas resgatam o metal de antigos sítios de naufrágios e o repassam a clientes, muitos dos quais são físicos. “Podemos perder todo o chumbo romano antigo e, portanto, as informações sobre tecnologia, transporte naval, comércio etc. que ele pode nos ¸…xßx`xßjäxäøDøžąDcT¸ÇDßDxääxîžÇ¸lx‰³D§žlDlxäxî¸ß³Dߐx³xßD§žąDlDÚjD§xßîD¸DßÔøx¹§¸¸ John Carman, da University of Birmingham. Físicos argumentam que é prudente usar o metal em algumas aplicações fundamentais, como na busca de matéria escura, material que teoricamente compõe mais de um quarto da ­DääDl¸7³žþxßä¸ÍÙ%x³šø­lx³¹äx³`DßD isso casualmente; ninguém quer destruir artefaî¸äšžäî¹ßž`¸ääx­³x`xääžlDlxÚjäD§žx³îD¸…Ÿäž`¸

Blas Cabrera da Stanford University. Ele é o porta-voz do experimento Busca Supercriogênica por Matéria Escura (SCDMS, na sigla em inglês), em Minnesota, que usa o chumbo para blindar seu detector. Além disso, em física o chumbo antigo pode ajudar a desvendar mistérios que antecedem de longe os romanos. “Esses experimentos podem revelar algumas das propriedades mais fundamentais do Universo e responder perguntas como o que somos e de onde viemos”, argumenta o físico Fernando Gonzalez-Zalba, da University of Cambridge. “Acho que vale a pena”, considera ele. — Clara Moskowitz

AVANÇOS PALEONTOLOGIA

Sepultamento Antigo Neandertais eram muito parecidos com modernos no modo como tratavam seus mortos Há cerca de 60 mil anos, em uma pequena caverna de pedra calcária no que atualmente é a região central da França, os neandertais cavaram um túmulo e sepultaram um membro idoso de seu clã. Essa é a imagem que emerge do sítio DßÔøx¸§¹ž`¸ÔøxÇ߸løąžø¸…D­¸ä¸xäÔøx§xî¸ neandertal de La Chapelle-aux-Saints, em 1908, e tem implicações importantes para compreender o comportamento e a capacidade cognitiva dos ³¸ää¸äÇDßx³îxäxþ¸§øîžþ¸ä­DžäÇß¹Āž­¸äÍ

§ø³äDßÔøx¹§¸¸äþz­äøäîx³îD³l¸šE tempos que vários sítios de neandertais preservam evidências de sepultamentos, prática considerada característica fundamental do comportamento humano moderno. Mas críticos têm argumentado que esses locais foram escavados há muito tempo com técnicas antiquadas que obscurecem os fatos. Nos últimos anos pesquisadores encontra-

ram evidências convincentes de que os neandertais tinham outras práticas modernas, como decorar seus corpos e produzir ferramentas 三äîž`DlDäͧxä…DąžD­žää¸D³îxäÔøxšø­D nos anatomicamente modernos invadissem äxøîxßߞî¹ßž¸Íää¸äøxßxÔøx¸ä³xD³lxßîDžä desenvolveram tradições culturais de forma independente, em vez de aprendê-las de recém-chegados. Uma nova escavação da caverna francesa resultou na recuperação de mais ossos e dentes de neandertais, assim como ferramentas de pedra e restos de animais. William Rendu, da %xÿ?¸ß¦7³žþxßäžîāxäxøä`¸§xDäjžlx³îž‰`Dram uma série de características indicando que a cova que continha o esqueleto neandertal foi ­¸lž‰`DlDjÇx§¸­x³¸äÇDß`žD§­x³îxjÇDßD‰³ä de sepultamento, em vez de ser uma depressão inteiramente natural no solo. Eles também observaram que, enquanto os restos de animais parecem ter sido roídos por carnívoros, os ossos do neandertal não exibem danos desse tipo, o que sugere que o cadáver foi coberto rapidamente, como ocorreria se fosse enterrado intencionalmente. Rendu e seus colegas relataram suas descobertas em janeiro na publicação `žx³îŸ‰`DProceedings of the National Academy of Sciences USA. Ironicamente, a descoberta original de La

Restos de um neandertal, La Chapelle-aux-Saints, França

Chapelle-aux-Saints, no início do século 20, deu origem à infeliz reputação de os neandertais serem “brutamontes idiotas”. Pouco depois da lxä`¸UxßîDl¸äŸîž¸DßÔøx¸§¹ž`¸¸ÇD§x¸³î¹§¸go francês Marcellin Boule reconstruiu o esqueleto para revelar uma criatura encurvada, de postura relaxada, com joelhos dobrados, um pescoço curto e crânio baixo, alongado para trás. Foi assim que nasceu a imagem desajeitada do homem das cavernas. Mais tarde, cientistas determinaram que o esqueleto, de fato, pertencia a um homem velho que sofria de artrite aguda. —Kate Wong

ESPAÇO

Planetas Anões Solitários Corrida para encontrar pares lx0§øîT¸äxDÇ߸Āž­Dl¸‰­ Durante décadas Plutão foi o indiscutível `D­ÇxT¸l¸äÇxä¸äÇxäDl¸ä³¸ä`¸³‰³äl¸ Sistema Solar exterior. Agora astrônomos sabem que aquele mundo tão querido é apenas um de muitos planetas anões conhecidos e a maioria deles orbita o Sol além de Netuno.

As descobertas que levaram Plutão a ser rebaixado de planeta a planeta anão ocorreram em uma sucessão explosiva que atingiu seu auge há cerca de uma década. Entre 2002 e 2007, o astrônomo Mike Brown do California Institute of Technology (Caltech) e seus colegas descobriram vários objetos de grandes dimensões, inclusive os planetas anões Eris, Makemake e Haumea (embora

outro grupo também reivindique o crédito de ter descoberto Haumea). Desde aquele turbilhão de atividade a descoberta de objetos grandes no Sistema Solar exterior empacou, ainda que o grupo de Brown tenha deixado largas faixas do céu inexploradas. O motivo? A maioria dos grandes objetos brilhantes já foi encontrada, de acordo com um novo estudo. Megan Schwamb, ex-aluna de graduação da Brown University e atualmente na Academia Sinica, em Taiwan (Formosa), realizou um levantamento em larga escala do Sistema Solar exterior e em seguida extrapolou a partir da busca para estimar o número total de objetos. “Os cálculos indicam que há uns 12”, informa Schwamb, acrescentando que nove já são conhecidos. “Isso realmente nos diz que praticamente completamos o inventário de planetas anões brilhantes.” Schwamb e seus colegas divulgaram suas descobertas em janeiro na publicacT¸`žx³îŸ‰`DAstronomical Journal. Embora astrônomos não tenham feito

uma varredura completa do céu, parecem ter observado as áreas lotadas de objetos brilhantes. Mas é possível que um planeta anão tenha escapado à atenção, salienta Darin Ragozzine do Instituto lx5x`³¸§¸žDlD§¹ßž da. O plano estrelado da Via Láctea poderia obscurecer um planeta anão, mas é pouco provável que haja vários aguardando uma descoberta, avalia. “Tivemos essa ‘era dourada’ de encontrar esses planetas anões”, comenta Schwamb. “Essa época se encerrou.” Pode haver objetos similares mais distantes que simplesmente äT¸îz³øxälx­DžäÇDßDäxßx­žlx³îž‰`Dl¸ä atualmente. “Eles estão espreitando nas sombras, esperando que alguém os detecte”, acrescenta. —John Matson

www.sciam.com.br 13

AVANÇOS

TECNOLOGIA

Caçador Solar

Novo carro-conceito híbrido usaria energia solar para viagens curtas

CORTESIA DE FORD MOTOR COMPANY (ACIMA); CORTESIA DE MOHAMED GHARBI UNIVERSITY OF PENNSYLVANIA (ABAIXO)

Carros movidos a energia solar têm sido pouco mais que uma novidade experimental até agora. Baterias caras, uma conversão de energia relativamente ineficiente e a escassez de dias ensolarados em muitas regiões tornaram veículos fotovoltaicos de passageiros impraticáveis. A Ford está procurando mudar isso. Uma versão de seu híbrido “plug-in” C-MAX Energi hybrid, apresentado na recente Feira Internacional de Eletrônica de Consumo (CES, na sigla em inglês) da Associação Internacional de Eletrônica de Consumo em Las Vegas, usaria painéis

solares montados no teto do veículo para carregar uma bateria de íons de lítio. A bateria abasteceria o carro para viagens de até 34 km; depois disso, o motor a gasolina do híbrido entraria em funcionamento. “Este é o primeiro veículo “plug-in” do mundo que não precisa ser ligado em uma tomada”, explica Mike Tinskey, diretor global de eletrificação e infraestrutura de veículos da Ford. O carro-conceito vem acompanhado de um acessório especial: um “canopy”, uma espécie de cobertura acrílica concentradora de luz solar, de 20 m2, equipada com lentes que agem como uma lupa gigante e direciona os raios intensos para os painéis solares do carro, dando-lhe um impulso adicional. Utilizando sensores e câmeras o veículo

O QUE É ISSO?

Cristais líquidos, como sugere o nome, ocupam um estado que se situa em algum lugar entre um líquido e ø­乧žl¸Í0xäÔøžäDl¸ßxäDÇßx³lxßD­šE­øžî¸îx­Ç¸ como explorar as propriedades únicas de cristais líquidos ao manipularem suas moléculas em forma de bastonetes para controlar a luz em mostradores digitais. Agora, uma equipe da University of Pennsylvania desenþ¸§þxøø­D³¸þDDU¸ßlDx­¹Çîž`DÍ1øD³l¸¸äÇxäquisadores deixaram cair uma bolinha de sílica em uma camada de cristais líquidos, forças capilares espalharam os cristais em centenas de diminutas pétalas ao redor lDU¸§ž³šDÇDßD…¸ß­DßxääxÇDlßT¸ً¸ßD§ÚßxîßDîDl¸ DÔøžÍ'îßDUD§š¸…¸žlxîD§šDl¸¸³§ž³x³¸äžîx`žx³îŸ‰`¸ Physical Review X. Coletivamente, as pétalas que se agrupam sozinhas agem como uma lente composta que focaliza a luz de uma forma muito parecida com o olho de uma mosca. §x³îxǸlxߞDäxßøžąDlDx­ÇDž³yžä丧Dßxäjž³îx³äž‰cando a captura de luz solar, ou formar a ponta de uma 丳lDlx‰UßD¹Çîž`DÇDßDlDßD`žßøߐžÆxäø­DþžäT¸ melhor no interior de nossos corpos. —Annie Sneed

14 Scientific American Brasil | Abril 2014

rastrearia a posição do Sol reposicionando-se automaticamente sob essa cobertura para obter uma exposição ideal. O sistema permite que o carro carregue até oito vezes mais rápido que se fosse simplesmente estacionado na luz solar, informa Tinskey. Obviamente, a Ford ainda tem de resolver algumas dificuldades para viabilizar o conceito algum dia; quanto mais colocar o carro à venda em concessionárias. O custo dos painéis solares, do sistema de rastreamento e do concentrador acrílico ainda é um ponto de interrogação. Além disso, o sistema de reposicionamento automático do veículo poderia apresentar problemas logísticos e de segurança. O caminho de acesso domiciliar médio acomodaria um carro que se move roboticamente? E o que o impediria de inadvertidamente atropelar um obstáculo em seu caminho, como o pé de uma pessoa ou um gato cochilando? Apesar dos obstáculos, o híbrido marca uma promissora mudança automotiva ao se tornar “sem fio” e energeticamente independente ao mesmo tempo. —Larry Greenemeier

AVANÇOS

B I OQU Í MIC A

Cultivando Cabelo em uma Placa de Petri Pesquisadores estão testando tratamentos para a calvície em `D`š¸ä`ø§îžþDl¸äx­§DU¸ßDî¹ßž¸

Mosquito Aedes albopictus DO ENÇA INFECCIOS A

Problema À Vista Diante da escolha entre a dengue e outra doença transmitida por mosquitos, chamada febre chikungunya, a maioria das pessoas escolheria a dengue. Não existe uma vacina ou tratamento específico disponível para nenhuma das duas, mas a chikungunya é muito mais debilitante. A doença, que provoca febre alta e dores intensas nas articulações, é, há tempos, um problema na África e no sul da Ásia. No idioma maconde, do sudeste da África, o nome “chikungunya” significa aproximadamente “aquilo que dobra” e descreve a postura encurvada dos afetados. Recentemente, a Organização Mundial da Saúde (OMS) reportou o primeiro surto de chikungunya no hemisfério ocidental, na ilha caribenha de St. Martin. No início de janeiro havia 99 casos confirmados na ilha, além de alguns poucos casos espalhados em outras ilhas do Caribe. Os Centers for Disease Control and Prevention (CDC) dos Estados Unidos advertem que o vírus pode se propagar para outras ilhas e as áreas continentais circundantes nos próximos meses ou anos. Não se sabe como, exatamente, a

chikungunya chegou a St. Martin. Como os primeiros pacientes diagnosticados não haviam deixado a ilha recentemente, portanto, devem ter contraido a doença localmente. Uma explicação plausível é que um viajante pegou a doença em outra região do mundo e a trouxe a St. Martin na volta, onde um mosquito local disseminou o vírus para outros. (Tudo o que é preciso para espalhar a chikungunya é que uma fêmea dos mosquitos Aedes aegypti ou Aedes albopictus se alimente do sangue de uma pessoa infectada e depois pique mais alguém.) Outra possibilidade, menos provável, é que um mosquito infectado viajou para St. Martin, talvez como “passageiro clandestino” em um navio ou avião. “Sabemos que a área tem os mosquitos certos para potencialmente transmitir a chikungunya; então você poderia perguntar: ‘por que só agora?’ ou ‘por que não daqui a um ano?’”, comenta Erin Staples, especialista em doenças transmitidas por vetores do CDC, para quem “isso simplesmente foi a combinação certa de fatores”. — Dina Fine Maron

SUSUMU NISHINAGA Science Source

<Ÿßøä­D§y‰`¸îßD³ä­žîžl¸Ǹß­¸äÔøžî¸ääxxäÇD§šD para o hemisfério ocidental

seus dias colhendo órgãos de pacientes de cirurgias estéticas. Mas Tobin não está atrás de rins ou outras partes vitais. Em vez disso, coleta amostras de pele removidas de trás da orelha durante procedi®y´ï¹åmyÚ¨Ÿ†ïŸ´‘†D`ŸD¨ÛʹùàŸïŸmy`ï¹®ŸDËÎ'®DŸå importante para Tobin é que as amostras de pele contêm os órgãos em miniatura, conhecidos como folículos, que produzem cabelos. No Centro para Ciências da Pele na University of Bradford, na Inglaterra, Tobin extrai os folículos cuidadosamente e os utiliza para replicar o crescimento do cabelo humano em uma placa de Petri. Com os folículos colhidos, pesquisadores `¹®¹ D®yå<ÎÊÚ<Ÿ´`yÛËàùUyàjmŸàyï¹à‘¨¹UD¨my pesquisa e desenvolvimento do departamento de Cuidados Pessoais da empresa suíça Lonza, pode ïyåïDàDyŠ`Ÿ{´`ŸDmy´¹ÿ¹åÈà¹mùï¹åÈDàD¹å cabelos e a pele sem depender de animais de laboratório. Gruber explicou seu trabalho no y´`¹´ïà¹D´ùD¨mD3¹`ŸymDmymy1ù ®Ÿ`¹å ¹åméticos em dezembro passado. Duas moléculas distintas parecem promissoras para possíveis tratamentos para a perda capilar, informou Gruber. Um peptídeo de levedura parece reverter a senescência, quando células †¹¨Ÿ`ù¨DàyåŠ`D®y®ù®yåïDm¹m¹à®y´ïyy param de se replicar. E um antioxidante chamado Ÿå¹ŒDÿ¹´DDù®y´ïDDå`¹´`y´ïàDcÇyåmy`¹¨E‘yno e elastina, que fortalecem a matriz cutânea que segura os folículos no lugar. Até o momento, Tobin e Gruber se concentraram em cabelos forçados quimicamente a entrar em senescência. O próximo passo é determinar se folículos que estão rumando naturalmente para a dormência podem ser persuadidos a retornar a um estado ativo. — Rebecca Guenard

www.sciam.com.br 15

SUSUMU NISHINAGA SCIENCE SOURCE/ ILUSTRAÇÃO DE THOMAS FUCHS

O biólogo celular Desmond Tobin passa

FÓRUM

POR WALTER WILLET

Fronteiras da ciência comentadas por especialistas Walter Willett é professor de epidemiologia e

Por que Proibir Gorduras Trans

Uma nova política da FDA sobre esses ­¸ßîDžäE`žl¸äßDĀ¸äDß`žDžäxäîDþD mais que na hora Em novembro de 2013 a Food and Drug Administration (FDA), a agência americana que controla alimentos e medicamentos, adotou com atraso uma bem-vinda determinação de que óleos parcialmente hidrogenados – a fonte primária das gorduras trans – não podem mais ser “vistos como seguros em geral”. Até o momento de nossa edição, a decisão era preliminar, mas deve ser tornada permanente. Caso isso ocorra, vai virtualmente eliminar as gorduras trans produzidas industrialmente nos Estados Unidos, salvando milhares de vidas a cada ano, com custo mínimo para a indústria. Em 1901 o químico alemão Wilhelm Normann descobriu o processo de hidrogenação parcial, que transforma óleos vegetais líquidos baratos em gorduras e margarinas e cria a gordura trans como um subproduto. Como esses produtos mais baratos e duradouros imitam os óleos das cozinhas europeias e americanas, muitos países rapidamente os incorporaram aos seus alimentos. Em 1912 os inventores da hidrogenação parcial receberam o Prêmio Nobel. Levou décadas para que os cientistas percebessem como as gorduras trans são letais, em parte porque a indústria de alimentos e a comunidade de prevenção de doenças cardiovasculares rejeitaram as preocupações sobre os efeitos adversos para a saúde, embora as evidências continuassem crescendo. 16 Scientific American Brasil | Abril 2014

Em 1980 meus colegas e eu decidimos examinar com mais detalhes a relação entre a ingestão de gorduras trans e o risco de doenças cardiovasculares. Incluímos gorduras trans numa avaliação ampla de dieta no grupo de mais de 100 mil mulheres do Nurses’ Health Study e desenvolvemos um banco de dados atualizado de alimentos contendo gordura trans. Após oito anos de acompanhamento e depois de contabilizarmos os fatores de risco conhecidos para doença cardíaca descobrimos que as mulheres com maior ingestão de gordura trans tinham risco de hospitalização ou morte atribuível a doença cardiovascular 50% mais alto. A margarina, fonte primária de gordura trans nos anos 80, também foi associada ao risco maior. À mesma época o pesquisador holandês Martijn Katan e seus colegas estavam investigando os efeitos metabólicos das gorduras trans entre voluntários saudáveis em estudos sobre alimentação rigorosamente controlados por várias semanas. Eles descobriram que a gordura trans e a gordura saturada aumentaram o colesterol “ruim” LDL em grau semelhante – mas diferentemente de outros tipos de gordura, a trans também reduz o “bom” colesterol HDL. Outros pesquisadores confirmaram esses estudos e documentaram efeitos metabólicos negativos adicionais, incluindo aumento na concentração de triglicérides no sangue e fatores inflamatórios. Cálculos sugerem que a eliminação das gorduras trans produzidas industrialmente impediria até 20% das mortes por doenças cardíacas evitáveis nos Estados Unidos. Em 2003 a FDA encontrou evidências fortes o suficiente para exigir que as gorduras trans constassem nos rótulos dos alimentos. A maioria dos fabricantes respondeu com a total eliminação delas. Logo depois a cidade de Nova York baniu seu uso em restaurantes e foi seguida por outras cidades no país. Em 2012 aproximadamente 75% das gorduras trans haviam sido removidas dos alimentos americanos. Os níveis de colesterol do sangue responderam no país todo, como era esperado. Os Centros para Controle e Prevenção de Doenças estimam que os 25% das gorduras trans que ainda se encontram nos alimentos americanos respondem por cerca de 7 mil mortes prematuras por ano. A recente decisão da FDA evitaria essas mortes. A indústria dos alimentos provavelmente não terá problemas. A maior parte das gorduras trans foi suprimida e, na Dinamarca, já foi banida há uma década, provando que a eliminação total é viável. A ação da FDA é motivo de comemoração. Significa que os esforços de muitos cientistas de diversas disciplinas em breve levarão à eliminação de uma importante causa de mortes prematuras. Como a FDA desempenha um papel de liderança global, a decisão deve estimular mudanças semelhantes no mundo todo. Mas não devemos nos empolgar muito. É decepcionante que esse momento tenha levado mais de um século para chegar. O caso das gorduras trans deve nos encorajar a estudar como riscos futuros devem ser evitados, detectados ou mais rapidamente eliminados.

ILUSTRAÇÃO POR WESLEY ALLSBROOK

nutrição e diretor do departamento de nutrição da Harvard School of Public Health. Ele também é professor de medicina da Harvard Medical School.

PELOS EDITORES

CIÊNCIA EM PAUTA

Opiniões e análises do conselho editorial de SCIENTIFIC AMERICAN

Libertem Willy e Todos os Seus Amigos

ILUSTRAÇÃO POR MARC SCHEFF

Orcas e elefantes são grandes, inteligentes e sociáveis demais para serem mantidos em cativeiro ǹ䉳D§­x³îxäx¥ø³îDßx­D¸`¸³¥ø³î¸lx¸øî߸äÇDŸäxäna restrição severa de ensaios médicos com chimpanzés, os Estados Unidos, no momento, realocam centenas de chimpanzés controlados pelo governo para santuários. Um motivo para essas mudanças é que os animais não são mais tão essenciais para a pesquisa biomédica como costumavam ser; em seu lugar, aprendemos a usar camundongos geneticamente modificados e culturas de células. Para muitos, um argumento ainda mais convincente é que o uso de pesquisa clínica com chimpanzés é improcedente, pois, como nós, eles são muito inteligentes, sentem emoção e têm consciência de si mesmos. Assim como acontece com os chimpanzés, a inteligência das orcas e elefantes é inegável. Com alguns dos cérebros mais complexos, os três animais se reconhecem no espelho, indicando também ter um conceito de si mesmos. Todos são solucionadores de problemas em cooperação. Grupos de orcas costumam caçar produzindo e direcionando ondas contra icebergs para derrubar focas e pinguins na água. Elefantes também são ferramenteiros hábeis: produzem chicotes para espantar moscas e mastigam casca de árvores em bolas para tapar pequenas poças de água, evitando a evaporação. Chimpanzés, orcas e elefantes são tão dependentes de compa-

nhia como nós. A mãe orca permanece com a maioria de seus descendentes durante a vida, às vezes, cuidando de até quatro gerações. Relações matrilineares, cada uma com seu próprio dialeto, se unem em grupos fechados que se fundem em clãs, misturando-se em grandes comunidades – semelhantes a tribos e nações. Da mesma forma, elefantas mães relacionadas e seus descendentes formam clãs coesos em que compartilham deveres parentais e protegem as crias contra predadores. Quando um membro do clã morre os elefantes ficam em luto – não há outra palavra para descrever essa situação. Na Reserva Nacional de Samburu do Quênia, o zoólogo Iain Douglas-Hamilton e sua equipe testemunharam elefantes de várias famílias que cuidavam de uma matriarca doente chamada Eleanor. Outra matriarca usou suas presas para erguer Eleanor até ela ficar em pé, após uma queda. Mesmo após a morte de Eleanor, elefantes repetidamente a visitaram e acariciaram seu corpo. Cynthia Moss e outros pesquisadores também narraram que elefantes aspergiram seus mortos com terra, cobrindoos com galhos e folhas. Diversas outras espécies exibem comportamentos humanoides semelhantes, entre elas gorilas, orangotangos, golfinhos e botos. O que distingue orcas e elefantes – o que os torna tão especiais em cativeiros tão lotados – é uma característica que os torna tão atraentes para os frequentadores de zoológico: seu imenso tamanho. Elefantes africanos podem pesar até 6,8 toneladas e costumam viajar entre poços de água e locais de alimentação a centenas de quilômetros. Os confinados passam muito tempo em pé em locais apertados. As orcas podem atingir 9,75 metros de comprimento e uma tonelada de peso. As cerca de quatro dúzias de orcas em cativeiro atualmente são obrigadas a trocar o oceano por uma banheira. No Seaquarium de Miami, a velha Lolita vive em um tanque que não tem sequer o dobro de seu comprimento. Essas condições torturantes infligem danos físicos e psicológicos graves nesses animais inteligentes e sensíveis. Os elefantes de zoológico morrem jovens, muitas vezes depois de ficarem obesos e inférteis. Com frequência desenvolvem tiques psicológicos, como ficar balançando a cabeça. Citando razões éticas, vários zoológicos grandes nos Estados Unidos, Canadá, Reino Unido e Índia fecharam suas exposições de elefantes. Orcas em cativeiro são excepcionalmente agressivas, mordem e se chocam entre si e podem agredir seus treinadores. Muitos cientistas acreditam que animais se comportam dessa forma por estarem estressados demais; alguns sugerem que o confinamento por longo período torna os cetáceos psicóticos. Em fevereiro de 2010, a orca do SeaWorld, Tilikum, puxou a treinadora sênior de 40 anos, Dawn Brancheau, para baixo d’água, agitou-a violentamente, escalpelou-a e machucou sua coluna vertebral. Foi a segunda vez que ela matou um treinador. Orcas selvagens nunca mataram alguém. Orcas e elefantes não são as únicas espécies inteligentes que merecem nosso respeito e atenção, mas eles enfrentam dificuldades especiais em cativeiro. Embora muitos zoológicos e parques marinhos aumentem a conscientização sobre a situação dos animais na Natureza, o sofrimento das orcas cativas e elefantes, em particular, ofusca esse objetivo digno. Alguns animais confinados atualmente podem não sobreviver se libertados, mas os que podem, devem ser soltos, e os programas de reprodução em cativeiro precisam ser encerrados. www.sciam.com.br 17

TECNOLOGIA POR DAVID POGUE David Pogue é colunista de tecnologia pessoal do The New York Times.

Futuro Imperfeito

ILUSTRAÇÃO POR GOÑI MONTES

Previsão feita por Asimov em 1964 mostra o caminho que ainda temos pela frente Previsões sobre o futuro da tecnologia quase sempre estão condenadas. De acordo com 2001: Uma odisseia no espaço, por exemplo, a humanidade deveria estar realizando voos para os limites do Sistema Solar. Já 1984 previu que nos tornaríamos uma sociedade de peões descerebrados trabalhando sob a vigilância constante de governantes sem rosto. É claro que isso nunca iria... ei, espere aí! De qualquer forma, Isaac Asimov, o venerado autor de ficção científica, tentou descrever nossas vidas atualmente – lá em 1964. Em um artigo do The New York Times publicado há 50 anos, Asimov chamou sua visão de “Visita à Feira Mundial de 2014”. Agora estamos, de fato, em 2014. Vamos desenterrar sua pequena cápsula do tempo e ver como ficaram suas previsões? Podemos dizer que suas projeções caem em duas categorias: as que se tornaram realidade, e as que se desfizeram. Dê crédito ao cara por antecipar carros com piloto automático, chamadas com vídeo, a disseminação da energia nuclear e robôs domésticos para

tarefas individuais. (Ele não previu o Roomba, exatamente, mas pelo menos propôs “robôs para jardinagem”.) Asimov também se preocupou muito com a superpopulação, estimando que o mundo abrigaria 6,5 bilhões em 2014, e que a população americana chegaria a 350 milhões. Ele se aproximou muito disso; a população do mundo atual é de aproximadamente 7,1 bilhões e, a americana, 317 milhões. E, sim, ele também errou muita coisa. Ele previu que casas subterrâneas e subaquáticas se tornariam populares, além de “meios de transporte que fazem o menor contato possível com a superfície” – carros e barcos que flutuavam com jatos de ar comprimido. Suas profecias mais estranhas dizem respeito ao sofrimento desesperador “da doença do tédio” uma vez que robôs e autômatos tivessem roubado a maioria de nossos empregos. “Os poucos sortudos que conseguissem envolver-se com trabalhos criativos de qualquer tipo seriam a verdadeira elite da humanidade, porque apenas eles fariam mais que apenas servir uma máquina.” Se a tecnologia nos dá mais tempo livre, ela também se torna parte dele. (Alguém aí assiste Netflix?) Mas muitos dos prognósticos de Asimov também caem em uma terceira categoria que você pode não ter esperado: tecnologias que de fato são possíveis atualmente – mas que ainda não são comuns. Ele achou que as janelas não seriam mais que “um detalhe arcaico”, graças à popularidade de painéis luminosos. É claro que temos a tecnologia de tela plana – mas ainda apreciamos observar a grama, o céu e esquilos de verdade. Em áreas movimentadas, Asimov previu calçadas móveis. Nós já construímos isso em aeroportos, mas não em cidades. Ele também supôs que nossas dietas incluiriam “produtos processados de levedura e algas”, como “pseudofilé” – item que pode deixar pensativos os amantes do peru de tofu. E previu o estabelecimento de colônias na Lua em 2014, e ocupações marcianas já nos estágios de planejamento. Nesses casos, o que impediu a realização de sua previsão não foi a tecnologia, ao contrário: nós parecemos não ter vontade, desejo ou coragem de torná-la realidade. Seu sonho de “grandes usinas solares” operando no deserto demorou a se realizar. Mas usinas estão finalmente sendo construídas, conforme obstáculos econômicos e políticos são superados. Outro exemplo: ele dá aos futuros humanos, nós, mais crédito que merecemos por enfrentar a superpopulação. Pode ter parecido lógico antecipar “campanhas mundiais em favor do controle de natalidade” – mas a oposição à contracepção continua forte. As previsões de Asimov ilustram três lições para quem quer prever o futuro. Primeiro, quase todas as tecnologias novas demoram mais tempo para chegar que imaginam os escritores de ficção científica. Segundo, você nunca vai acertar todas as coisas importantes; a história da tecnologia é marcada por enormes mudanças – pense na internet, por exemplo – que nem mesmo Asimov previu. E terceiro, muitos desenvolvimentos atraentes ou lógicos nunca se tornam realidade, devido às falhas da própria humanidade. A culpa, meu caro Isaac, não é da tecnologia, mas de nós mesmos.

www.sciam.com.br 19

OBSERVATÓRIO Céu do Mês JANEIRO

POR MARIO NOVELLO

Mario Novello, cosmólogo do Instituto de Cosmologia, Relatividade e Astrofísica (ICRA) do Centro Brasileiro de Pesquisas Físicas (CBPF).

A Estranha Possibilidade de Tornar um Corpo Invisível Estruturas com propriedades exóticas podem viabilizar essa condição A ideia de tornar invisível qualquer tipo de objeto permeia o imaginario do homem há séculos. Tradicionais argumentos científicos rejeitaram-na para o território das impossibilidades, identificando essa hipótese como fantasia proibida pelas leis da física. No entanto, a atividade científica moderna e novas técnicas de criação de estruturas macroscópicas com propriedades inusitadas e inesperadas parece estar no limiar de tornar a hipótese uma possibilidade real e factível de ser produzida tecnicamente. Isso se deve, em particular, à descoberta de novos materiais (metamateriais) com propriedades eletromagnéticas exóticas. Talvez a mais inesperada dessas descobertas consista na possibilidade de gerar materiais que apresentem índices de refração negativos. Os célebres tratados do eletromagnetismo (como a famosa coleção Landau-Lifshitz) levaram a afirmar a inexistência de materiais com essa propriedade. Mas o que está ocorrendo nos avanços tecnológicos atuais permite ir além dessa antiga certeza, demonstrada como incorreta, ou melhor, limitada, abrindo caminho para a possibilidade de tornar invisíveis corpos macroscópicos: uma propriedade até muito recentemente motivo da desconfiança e descrença de cientistas. Talvez a maneira teórica mais elegante e direta de compreender a origem dessa proeza esteja no recente progresso formal de descrição da propagação de ondas eletromagnéticas em meios dielétricos arbitrários (assim como em processos não lineares) através do método − herdado da teoria métrica da gravitação − de modificação da geometria pelos caminhos do espaço-tempo por onde a onda se propaga. Na base desse procedimento formal está a ideia original, antiga de quase um século, com a qual o fisico alemão Walter Gordon mostrou que a propagação da luz em um meio dielétrico em movimento pode ser interpretada a partir da modificação da estrutura métrica do espaço-tempo. O trabalho original de Gordon limitou-se a uma configuração de um meio material, onde a permissividade dielétrica ¡ (épsilon) independe do campo eletromagnético que gera a onda. Esse trabalho seminal foi recentemente estendido (Novello-Salim) para estruturas mais complexas onde ¡ (épsilon) pode efetivamente depender do campo eletromagnético. Essa generalização permite vislumbrar situações especiais mais complexas, gerando alterações da métrica do espaço-tempo experimentada pela onda eletromagnética capaz de imitar configurações tipicas e até então exclusivas de campos gravitacionais. A exploração desse resultado começou a ser efetivamente empreendida depois do importante congresso intitulado Analog Models, realizado no Centro Brasileiro de Pesquisas Fisicas (CBPF), em 2002, quando cientistas de diversos países se reuniram para examinar as semelhanças estruturais e formais descobertas em 20 Scientific American Brasil | Abril 2014

áreas tão diversas quanto matéria condensada, efeitos da propagação do som em meios hidrodinâmicos e processos não lineares em ondas eletromagnéticas. A partir de então iniciou-se a construção de configurações eletromagnéticas que são exemplos de modificações da geometria do espaço-tempo conhecidas teoricamente como casos particulares de campos gravitacionais, obtidos formalmente como soluções das equações da teoria da relatividade geral, mas que nunca haviam sido encontrados na Natureza. Um dos exemplos mais contundentes dessa situação está associado à conhecida métrica de Gödel que descreve um universo em rotação onde caminhos que conduzem ao passado (as famosas curvas do tipo tempo fechadas, as CTC) são permitidas. Essa estrutura, com destaque insólito entre as possíveis soluções da relatividade geral, tem sido motivo de longas discussões entre a comunidade dos físicos. Alguns, em nome de uma visão extremamente conservadora da física, afirmam que a solução de Gödel nada mais é do que uma proposta matemática sem possibilidade de ser realizada efetivamente na Natureza. Outros a consideram uma fonte de aprofundamento da noção de causalidade no cenário descrito pela teoria de Einstein da gravitação. Independentemente dessa querela, processos eletromagnéticos permitem imitar essa configuração para ondas eletromagnéticas gerando uma questão causal inerente não mais a processos gravitacionais, mas a todos os processos da física clássica. Em particular, pode-se examinar até mesmo a possibilidade de gerar em laboratório terrestre uma configuração semelhante a um buraco negro não gravitacional, envolvendo uma configuração apenas eletromagnética. Sabemos que um buraco negro gravitacional nada mais é que o resultado de um longo processo de colapso estelar. Essa configuração divide o mundo em duas regiões separadas por uma membrana, seu horizonte, em que corpos materiais só poderiam atravessar em uma direção – posta à parte a possibilidade sugerida por alguns autores entre os quais o mais popular é Stephen Hawking, segundo quem efeitos quânticos permitiriam a passagem na outra direção, produzindo o que seria uma radiação eletromagnética. Contrariamente a esses buracos negros gravitacionais que não podem ser produzidos em laboratorio (a gravitação é um fenômeno puramente atrativo e não se conhece nenhum corpo capaz de produzir efeitos gravitacionais repulsivos), um buraco negro eletromagnético poderia ocultar corpos macroscópicos cuja observação se restrinja a efeitos ópticos. Em outras palavras, seria possível esconder um corpo no interior dessa configuração. Essa situação parece tornar como uma pedra de toque fantasiosa o antigo sonho da invisibilidade, essa vaga ideia de ocultação, esse ideal imaginativo em uma possibilidade real. Em um fato.

CÉU DO MÊS

ABRIL

Abril Exibe dois dos Quatro Eclipses do Ano Eclipse total da Lua ocorre em 15. Anular do Sol acontece em 29 e não será visto do Brasil

Dos quatro eclipses do ano, dois ocorrem neste mês, o que significa que o período será movimentado. O primeiro deles será lunar, na noite de 15. O eclipse total da Lua será visível para observadores em todo o continente americano e no oceano Pacífico, incluindo a Nova Zelândia e o leste da Austrália. A 0h51, o eclipse começa de forma quase imperceptível, pois neste momento o satélite da Terra inicia seu mergulho na penumbra, o ofuscamento mais tênue produzido pela sombra mais amena do planeta projetada no espaço. A fase mais importante do eclipse se inicia por volta de 2h56, quando a Lua começa a ser encoberta pela sombra da Terra e atinge o meio do eclipse às 4h45. Na fase do eclipse total, a Lua não chegará a desaparecer no céu, mas exibirá um esmaecido disco avermelhado produzido por material em suspensão na atmosfera terrestre atravessada pela luz solar. No futuro não muito distante, quando a Lua abrigar uma colônia humana, esses observadores verão o Sol ser cada vez mais encoberto pelo disco aparente da Terra, até a fase da totalidade do que será visto, então, como um eclipse solar. O fim da totalidade do eclipse lunar ocorrerá às 5h24. Durante o período em que a Lua permanecer encoberta pela sombra da Terra as estrelas – mesmo as mais enfraquecidas do fundo do céu – aparecerão com intensidade que ficaria anulada na ausência do eclipse, que, no caso da Lua, só ocorre com o satélite em fase cheia, ou seja, alinhada nos planos vertical e horizontal na sequência Sol/Terra/Lua. Na noite do eclipse a Lua estará localizada no interior da constelação de Virgem e a estrela mais brilhante dessa constelação, Spica (alfa de Virgem, ou Espiga), estará visível na sua borda inferior, dividindo o destaque com Marte, a noroeste do satélite natural da Terra. Marte, no entanto, supera o brilho de Spica em 6,25 vezes. Saturno poderá ser visto um pouco mais distante, ligeiramente a nordeste da Lua. Fotógrafos poderão conseguir imagens interessantes do eclipse e da composição do céu temporariamente obscurecido pelo eclipse. Já o eclipse anular do Sol ocorre em 29 e será visível da Austrália oriental encaminhando-se para a Antártida e completamente

fora de visão para observadores de todo o continente americano. Enquanto o eclipse lunar, a maior atração, não chega, observadores podem satisfazer-se com um conjunto de constelações brilhantes em boa posição já no começo da primeira noite. Logo ao escurecer, a conhecida constelação de Órion estará culminando no céu, ou seja, atingindo a maior elevação aparente (bem acima de um observador). Tendo como referência Órion e o famoso asterismo das Três Marias, um observador não muito experiente poderá localizar Touro, ligeiramente a noroeste e já iniciando o movimento de mergulho em direção ao horizonte oeste. À direita de Órion estará o Cão Menor, exibindo sua joia mais reluzente, Procyon, e a norte do Cão Menor aparece Gêmeos, mostrando Pollux e Castor, suas duas estrelas principais. A partir de Órion também será fácil identificar o Cão Maior, ligeiramente superposto à Via Láctea com sua típica luminosidade leitosa. Cão Maior exibe Sirius, a estrela mais brilhante de todo o céu. Nas proximidades de Sírius, quase que alinhados sobre a faixa esbranquiçada da Via Láctea, deslocando-se em direção ao Cruzeiro do Sul, que se eleva acima do horizonte, aparecem as discretas constelações de Popa, Vela e Carina que, no passado, formavam a constelação do Navio. Carina exibe Canopus, sua estrela principal e a segunda mais brilhante do céu. Aqui é interessante uma pequena parada para reflexão: Sirius está a menos de 9 anos-luz do Sistema Solar, enquanto Canopus se encontra a 180 anos-luz. Uma supergigante brancoamarelada, equivale a 85 vezes o diâmetro do Sol, além de ser aproximadamente duas mil vezes mais luminosa. Escalando o céu no horizonte leste aparece a constelação do Leão, exibindo Regulus, o “Coração do Leão”. Essa é uma das constelações mais antigas, reconhecida por babilônios, egípcios e gregos antigos. Regulus, a 84 anos-luz do Sistema Solar, é uma estrela binária, ou seja, um par estelar girando em torno de um centro de gravidade comum. Observando o céu de leste para oeste, logo ao anoitecer, é possível identificar, a partir de Régulus, Canopus, e desviando-se ligeiramente para o Sul, numa linha irregular, identificar Achernar, na “foz” de Eridanus, o chamado “Rio Celeste”. De fato, Eridanus tem seu limite norte nas proximidades das Três Marias, ainda que ligeiramente deslocado para o leste, e como um verdadeiro rio, serpenteia entre as apagadas constelações da Baleia (Cetus), a leste, e Phoenix (Fênix) já junto à sua foz. Do lado leste, além de Órion, na descida para o Sul, estão as constelações apagadas da Lebre (Lepus), Pomba (Columba) e Dorado. Nesse momento a constelação do Peixe Austral (Pisces Austrinus), a que pertence Fomalhaut, mergulha no horizonte sudeste. Fomalhaut, a 23 anos-luz do Sistema Solar, é 11 vezes mais brilhante que o Sol. Os outros dois eclipses do ano incluem um lunar em 8 de outubro e um solar parcial, em 23 de outubro. A posição dos planetas e outras efemérides do mês estão na tabela da pág. 23. (U.C.)

www.sciam.com.br 21

N E V E N T O S P R I N C I PA I S

  Q Q Q

Q

 

Q Q

Oposição de Marte – Eclipse total da Lua visível no Brasil Oposição de (1) Ceres Ocultação de Saturno visível no Sul do Brasil Oposição de (4) Vesta Máximo da chuva de meteoros Lirídeos Máximo da chuva de meteoros Pi-Pupídeos

Visibilidade dos planetas MERCÚRIO: Primeiro em Aquário, depois em Baleia e Peixes. Visível ao amanhecer na primeira quinzena do mês na direção do nascer do Sol. Em conjunção superior em 26. VÊNUS: Visível ao amanhecer na direção do nascer do Sol, em Aquário. Próximo da Lua em 25 e 26. Em conjunção com Netuno em 12. MARTE: Visível durante toda a noite em Virgem. Em oposição ao Sol em 9. Próximo da Lua em 14. JÚPITER: Em Gêmeos, visível na primeira metade da noite a oeste do meridiano. Próximo da Lua em 6. SATURNO: Em Libra. Visível durante toda a noite. Ultrapassado pela Lua em 17, quando ocorre uma ocultação visível na região sul do Brasil.

L

URANO: Em Peixes, muito próximo da direção do Sol para ser visível. Em conjunção com o Sol em 2. NETUNO: Em Aquário. Visível ao amanhecer na direção do nascer do Sol. Em conjunção com Vênus em 12.

COMO USAR ESTE MAPA O mapa mostra o céu visível em São Paulo nos horários indicados à direita. Os pontos cardeais estão indicados no ¡DµD»0DÍDr§Z«§ÜÍDÍDÒrÒÜÍr›DÒdÂærfr{Ír§ÜrµDÍDæ¡ dos pontos cardeais de sua escolha. Pegue o mapa com as fæDÒ¡õ«Òfr¡«f«ÂærrÒÒrµ«§Ü«ZDÍfrD›ÂærµDÍD baixo. Em seguida erga o mapa acima de sua cabeça. O céu estará orientado de acordo com o mapa. – J. C. Klafke

NOME

MÁX.

TAXA CONSTELAÇÃO HORÁRIA

COMETA ASSOCIADO

FASE DA LUA EM 2014

Quadrantídeos

4 jan

95

Bootes

C/1490 Y1 (2003 EH1)

Crescente Falcada/Côncava

Lirídeos

22 abr

15

Lyra

Thatcher (C/1861 G1)

Quarto minguante

Pi-Pupídeos

23 abr

10

Popa

26P/Grigg-Skjellerup

Quarto minguante

Eta-Aquarídeos

5 mai

30

Aquarius

1P/Halley

Quarto crescente

Delta-Aquarídeos

29 jul

20

Aquarius

Desconhecido

Crescente Falcada/Côncava

22 Scientific American Brasil | Abril 2014

S

Este mapa mostra todo o céu visível às 22h de 1o de abril/ 21h de 15 de abril 20h de 30 de abril Passagem do Sol pelas constelações Peixes de 12/03/2014 a 18/04/2014 Áries de 18/04/2014 a 14/05/2014

O

DIA HORA

EVENTO

2

11h15

Conjunção de Urano com o Sol

3

05h01

Lua passa a 6,8°S do aglomerado estelar de Plêiades (M45)

4

03h54

"æDµDÒÒDDäd®i%fr ›frODÍD§·D›{Dfr5«æÍ«¸

6

20h41

Júpiter a 5°N da Lua (Conjunção)

7

05h31

Quarto crescente

8

11h52

Lua no Apogeu, máxima distância da Terra (404.500 km). Diâmetro angular aparente 29,4’

9

02h37

Lua passa a 6,6°S do aglomerado estelar de Praesepe (M44), em Câncer.

9

11h19

Marte atinge máximo brilho (magnitude -1,5)

9

11h27

Marte em oposição ao Sol

10

23h30

"æDD€i3fr2r†æ›æÒ·D›{Dfr"rõ«¸

12

05h12

Vênus a 0,7°N de Netuno

14

04h56

Planeta-anão (1) Ceres mais próximo da Terra (oposição ao Sol em 19) 245,9 milhões de quilômetros. Brilho aparente de 6,7 magnitudes. Constelação de Virgem

14

09h55

Menor distância entre Marte e a Terra: 92,4 milhões de quilômetros

14

14h21

Lua passa a 3°S de Marte (Conjunção)

15

01h40

"æDµDÒÒDDäi%fr3µ”ZD·D›{Dfr<”͆r¡¸

15

04h43

Lua cheia

15

04h46

Eclipse total da Lua

17

05h40

Lua passa a 0,3°S de Saturno (ocultação visível na região sul do Brasil)

17

16h49

Asteroide (4) mais próximo da Terra (oposição ao Sol) 184 milhões de quilômetros. Brilho aparente de 5,6 magnitudes. Constelação de Virgem

18

19h52

"æDµDÒÒDµ«Í §ÜDÍrÒ·D›{DfrÒZ«Íµ”õ«¸

22



22

04h52

22

23h44

Máximo da chuva de meteoros Lirídeos (cometa C/1861 G1 Thatcher) Quarto minguante Lua no Perigeu, menor distância da Terra (369.765 km).

Photograph/Illustration by Artist Name

Diâmetro angular aparente 32,0’

NOME

MÁX.

23



Máximo da chuva de meteoros Pi-Pupídeos (cometa 26P/ Grigg-Skjellerup)

25

20h41

Lua passa por Vênus (Conjunção)

26

00h15

Mercúrio em conjunção superior com o Sol (Sol entre a Terra e o planeta)

29

03h05

Eclipse parcial do Sol (não visível no Brasil)

29

03h15

Lua nova

TAXA CONSTELAÇÃO HORÁRIA

COMETA ASSOCIADO

FASE DA LUA EM 2014

Perseidas

12 ago

95

Perseus

3é”{ܓ5æÜܛr Ø®s×ä

Cheia

Orionídeos

22 out

20

Órion

1P/Halley

Nova

Taurídeos

03 - 13 nov

15

Taurus

2P/Encke

Cheia

Leonídeos

18 nov

12

Leo

55P/Temple-Tuttle

$”§†æD§Ür{D›ZDfDØZĀ§ZDèD

Geminídeos 14 dez

90

Gemini

3200 Phaeton (asteroide)

Quarto minguante

www.sciam.com.br 23

CIÊNCIA DA SAÚDE

POR KATHERINE HARMON COURAGE

Katherine Harmon Courage é colaboradora de IY_[dj_ÒY7c[h_YWd e autora do livro EYjefkiJ^[ceijcoij[h_ekiYh[Wjkh[_dj^[ i[W (Current/Penguin Group, 2013)

Espaço, a Última Fronteira Médica Os riscos que correm os futuros turistas espaciais da não devidamente detectados”, como informa Jeffrey-Jones, um membro do Center for Space Medicine at Baylor College. Mesmo uma breve jornada no espaço pode representar um risco para os idosos e aqueles que têm problemas de pressão alta por causa da enorme compressão do corpo, que ocorre durante a largada da nave e a reentrada na atmosfera. Longas viagens também agravam outros males – como asma, doenças do coração e câncer – que normalmente desqualificam para voos da Nasa. Ainda não existe uma regulação federal ou estadual que determine quem pode ou não pode participar de um voo espacial, e as empresas estão livres para estabelecer os seus padrões. Um porta-voz da Virgin Galatic já disse que “a maioria das pessoas” está apta para voar. Alguns médicos já começaram a preparar guias de exames para aqueles que pretendem passar férias entre as estrelas; outros estão tentando modificar alguns procedimentos médicos para serem aplicados no espaço.

Manter as pessoas saudáveis no espaço tem sido um desafio desde os primeiros dias dos programas espaciais. Foi por isso que a Nasa fez questão de selecionar uma elite entre os eleitos para as suas missões. Mas, agora, o crescente negócio dos voos comerciais está pronto para abrir as fronteiras da Galáxia para um número muito maior e menos saudável de passageiros. Se as empresas privadas mantiverem suas promessas de permitir viagens espaciais para pessoas comuns, o turismo espacial pode se transformar numa indústria de US$ 1,3 bilhão, com mais de 25 mil passageiros até 2021, segundo a empresa de consultoria Futron Corporation. A Virgin Galactic já fez 680 reservas para uma viagem de duas horas e meia, sendo que 40 minutos serão feitos no que se considera oficialmente como “espaço” – ou seja, mais de 100 km acima da superfície da Terra. E uma empresa russa chamada Orbital Technologies pretende construir um hotel espacial, totalmente equipado, para uma estada de cinco dias a mais de 320 km do planeta. Menos de uma dúzia de passageiros se dispôs até agora a pagar para uma jornada no espaço. Mas é possível imaginar os riscos médicos que a nova onda de turistas espaciais pode enfrentar, com base nas experiências dos astronautas desde os anos 60. E os principais problemas observados incluem enfraquecimento dos ossos e músculos, piora na visão, náusea e insônia. Além disso, os turistas quase certamente vão enfrentar uma “série de problemas ain-

24 Scientific American Brasil | Abril 2014

ILUSTRAÇÃO POR O.O.P.S.

UMA NOVA PRESSÃO

OS PROBLEMAS A ENFRENTAR são enormes. Nos últimos 50 anos pesquisadores descobriram que as viagens espaciais modificam praticamente todos os sistemas do corpo humano. O lançamento e a reentrada colocam as pessoas sob intensas forças gravitacionais (as chamadas forças-G), uma medida do estresse a que o corpo é submetido durante a aceleração. Altas forças G obrigam o coração a trabalhar muito mais que o normal para fazer o sangue circular, especialmente em direção ao cérebro − o que leva muitas pessoas a perderem a consciência quando submetidas a essas condições. Algumas empresas se dispuseram a ajudar os futuros passageiros a se prepararem, com a ajuda de uma máquina centrífuga gigante, mas esse treinamento não é obrigatório. Orbitando a Terra a uma velocidade, digamos, de 28 mil km/h e a cerca de 400 km acima da superfície do planeta – como é o caso da Estação Espacial Internacional – é criado um estado de total ausência de peso [imponderabilidade]. Na Terra, a gravidade mantém a maior parte dos nossos fluidos na parte mais baixa do corpo. Numa situação sem peso, os fluidos se espalham por igual, saindo das pernas e enchendo o peito e a cabeça. Nesse processo, se dispersam pelos canais do ouvido que ajudam a manter o equilíbrio, e provocam náusea que – mais que a dor – é muito difícil de ser ignorada e, se seguida por vômitos, o que pode levar à desidratação. Apesar das técnicas aprendidas para tolerar a náusea, astronautas profissionais frequentemente sentem enjoo durante os primeiros dias em órbita, e portanto podemos esperar muitos problemas com isso no caso de civis. O aumento de fluidos na cabeça é também responsável por

uma das queixas mais frequentes entre astronautas, depois do enjoo espacial: a piora da visão. O excesso de pressão no crânio pode comprimir o lado interno do globo ocular e assim embaçar os olhos. Além do problema dos fluidos, a ausência prolongada de peso enfraquece a estrutura óssea. Como os astronautas não caminham ou realizam outras atividades que envolvem peso, o osso perde entre 1% e 2% de sua densidade mineral a cada mês no espaço, relata Jeffery Sutton, diretor do National Space Biomedical Research Institute. Outro perigo adicional: o cálcio que sai do osso pode provocar cálculos renais. Os músculos também se deterioram em casos de microgravidade porque não precisam mais trabalhar para sustentar o corpo. Embora exercícios realizados no espaço possam reduzir esse problema, a redistribuição do fluido volta a ser um problema. A existência de altos níveis de ácido lático – responsável por câimbras e dores durante exercícios – pressionam os músculos dos astronautas, reduzindo a rotina deles. Outra preocupação é como o espaço afeta o músculo que mais trabalha no corpo: o coração. Marlene Grenon, da University of California, San Francisco, e seus colaboradores descobriram que depois de apenas 24 horas em microgravidade as células que estruturam os vasos sanguíneos mudam de forma, se juntam de formas diferentes e usam um conjunto de genes diferente do usual. Os viajantes espaciais sofrem ainda de problemas mentais. Conseguir uma boa noite de descanso em microgravidade pode ser difícil, por causa das luzes acesas, dos sons em uma nave e do sentimento assustador da ausência de peso. Em vários experimentos feitos em terra simulando viagens espaciais os astronautas que vivem em quartos fechados ocasionalmente sofrem de depressão e melancolia. Quando se consideram os tumultos que frequentemente ocorrem a bordo em longas viagens na aviação comercial, enviar um grupo de turistas espaciais numa viagem de sete meses a Marte, como pretende a organização Mars One, pode ser aposta certa em motim. Turistas espaciais com saúde mediana ou ruim se arriscam a enfrentar problemas médicos que preocupam seriamente especialistas da Nasa. A maioria dos passageiros que se animam a participar de voos espaciais comerciais é, quase sempre, de meia-idade, o que significa que muitos sofrem de pressão alta e doenças cardíacas, problemas comuns nessa faixa etária. A redistribuição de fluidos é particularmente perigosa para pessoas com doenças cardíacas. Como os fluidos se movem para o peito e a cabeça, uma alta pressão no crânio aumenta o risco do rompimento de vasos sanguíneos e pode também danificar o tecido cerebral. Da mesma forma, o aumento de pressão nos pulmões pode provocar um ataque de asma – uma súbita e aguda constrição das vias respiratórias. Mesmo o enjoo pode ser um perigo extra para pessoas com problemas cardiovasculares. O pesquisador Jones lembra que a desidratação, a respiração ofegante e o aumento da pressão sanguínea que acontecem com o uso excessivo dos sacos de vômito exaaurem o sistema cardiovascular e isso pode culminar num ataque cardíaco. Alguns cientistas começaram a estudar o coração em ratos meio suspensos no ar, o que, de alguma forma, reproduz a redistribuição dos fluidos que acontece em situações de microgravidade. Eles constataram que depois de um mês o músculo do coração muda, tornando-se mais largo e menos eficiente. Condições cardíacas semelhantes foram observadas em astronautas.

Além da microgravidade, há outro problema perigoso para os turistas espaciais imperceptíveis de imediato: a radiação. Os poderosos campos magnéticos que envolvem a Terra desviam a energia eletromagnética emanada por estrelas e buracos negros. Se isso não acontecesse, o planeta seria incinerado. Quando deixa para trás a magnetosfera da Terra um viajante está exposto a toda essa energia, que afeta o DNA e pode provocar mutações que levam uma célula saudável a se multiplicar de forma incontrolável. Astronautas com saúde de ferro podem permanecer centenas de dias no espaço sem aumentar o risco de um câncer. Mas se a empresa Mars One está mesmo falando sério quando anuncia a criação de colônias no Planeta Vermelho, vão ter de proteger seus passageiros da radiação durante a viagem – e também em Marte, onde não existe atmosfera [na verdade há uma atmosfera rarefeita]. E mais: partículas em movimento rápido e ondas eletromagnéticas podem afetar qualquer pessoa com predisposição genética para o câncer. Mostrar apenas quem é ou não vulnerável a uma doença no espaço não é o suficiente para garantir o bem-estar dos viajantes espaciais. Temos também de adaptar procedimentos médicos que realizamos na Terra. Dorit Donoviel, assessora-chefe de ciência do National Space Biomedical Research Institute e seus colaboradores estão pesquisando técnicas fáceis e não invasivas como alternativas para a prática médica no espaço. Tradicionalmente os médicos examinam uma mudança na pressão cerebral espetando uma agulha na coluna espinhal ou diretamente no cérebro – procedimento que não pode ser feito no espaço sem a presença de um médico. Em vez disso, Donoviel está tentando avaliar mudanças na pressão interna pelo registro de como as ondas sonoras viajam pela órbita ocular e canais do ouvido. E a luz infravermelha, absorvida e refratada de forma diferente por tecido saudável ou afetado, pode ser capaz de identificar sangramentos internos. Equipamentos portáteis baseados em luz infravermelha ou sinais de ultrassom serão muito mais úteis no espaço que as pesadas máquinas usadas para tomografia computadorizada ou de imagem por ressonância magnética. ASTRONAUTAS IMPROVISADOS

Ao mesmo tempo, um estudo publicado em 2012 no BMJ recomenda que os clínicos de atenção primária à saúde se preparem para avaliar pacientes que querem tentar um voo espacial. Condições como doença do coração, asma incontrolável ou pressão alta devem ser prontamente alertadas como uma situação de risco por um médico. Os pesquisadores estão também elaborando meios simples de tornar os turistas o mais saudáveis possível, antes que embarquem em uma nave espacial. Soluções simples como ter certeza de que essas pessoas estão bem nutridas e propriamente hidratadas nas semanas anteriores ao lançamento podem garantir um voo sem emergências médicas. A Virgin Galactic informa que vai oferecer aos seus clientes um treinamento de três dias, que inclui “testes físicos” e uma série de “exames médicos”, mas não diz qual será o critério para aprovar turistas, se é que isso vai mesmo ser feito. Por enquanto, o ônus é dos próprios turistas e seus médicos para se precaverem antes da viagem. Como um consolo para qualquer um que prefira ficar em terra, é bom lembrar: ainda há muito o que descobrir no próprio planeta. Eu soube, por exemplo, que a Islândia não fica no nosso mundo.

www.sciam.com.br 25

NEUROCIÊNCIA

O

N

O

S É C U L O

V

O

D O

C É R E B R O Big Science cria perspectiva para a compreensão de como o cérebro, o sistema biológico mais complexo da Natureza, dá origem a pensamentos e emoções

26 Scientific American Brasil | Abril 2014

ILUSTRAÇÃO POR BRYAN CHRISTIE

Por Rafael Yuste e George M. Church

www.sciam.com.br 27

Rafael Yuste é professor de ciências biológicas e neurociência na Columbia University e codiretor do Institute for Neural Circuitry da Kavli Foundation. Recentemente ele recebeu o NIH Director’s Pioneer Award. George M. Church é professor de genética na Harvard University e fundador do PersonalGenomes.org, uma fonte de acesso aberto para dados sobre genomas humanos, neuroimagens e caracteres comportamentais e cognitivos. Church integra o Conselho de Consultores de IY_[dj_ÒY7c[h_YWd.

A

PESAR DE UM SÉCULO DE PESQUISAS ININTERRUPTAS, CIENTISTAS DO CÉREBRO ainda desconhecem o funcionamento do órgão de um quilo e meio, em média, sede de toda a atividade humana consciente. Muitos tentaram lidar com esse problema examinando os sistemas nervosos de organismos mais simples. Na verdade, quase 30 anos se passaram desde que cientistas mapearam as conexões entre cada uma das 302 células nervosas do verme Caenorhabditis elegans. O diagrama das conexões do verme, no entanto, não permitiu compreender como essas conexões dão origem a comportamentos como alimentação e sexo. Faltavam informações relativas à atividade dos neurônios em comportamentos específicos. A dificuldade em estabelecer ligação entre a biologia e o comportamento em humanos é ainda maior. A mídia rotineiramente menciona exames que mostram atividade em locais específicos do cérebro quando nos sentimos rejeitados ou falamos um idioma estrangeiro. Essas notícias podem dar a impressão de que a tecnologia atual fornece percepções essenciais sobre o funcionamento do cérebro, mas essa é uma impressão enganosa. Um exemplo notável desse descompasso é um estudo recente, muito divulgado, identificando uma célula do cérebro em particular que disparou um impulso elétrico em resposta ao rosto da atriz Jennifer Aniston. Apesar da polêmica, a descoberta do “neurônio de Jennifer Aniston” parecia uma mensagem de alienígenas, um sinal de vida inteligente no Universo, mas sem qualquer indicação sobre o sentido da transmissão. Ainda somos completamente ignorantes em como a atividade elétrica pulsante desse neurônio influencia nossa capacidade de reconhecer o rosto de Aniston e depois relacioná-lo a um clipe de um programa de televisão. Para o cérebro reconhecer a estrela, provavelmente tem de ativar um conjunto enorme de neurônios, todos se comunicando por um código neural que ainda devemos decifrar. O neurônio de Jennifer Aniston também exemplifica a encruzilhada que a neurociência atingiu. Já temos técnicas para registrar a atividade de neurônios individuais em humanos vivos, mas para avançar de forma significativa a área precisa de novas tecnologias que permitirão a cientistas monitorar e também alterar a atividade

elétrica de milhares ou mesmo milhões de neurônios – técnicas capazes de decifrar o que o pioneiro neuroanatomista espanhol Santiago Ramón y Cajal chamou de “a selva impenetrável, onde muitos investigadores se perderam”. Esses métodos inovadores poderiam, em princípio, começar a preencher a lacuna entre o disparo de neurônios e a cognição: percepção, emoção, tomada de decisão e, por fim, a própria consciência. Decifrar os padrões exatos da atividade cerebral subjacente ao pensamento e ao comportamento também fornecerá percepções críticas sobre o que acontece quando circuitos neurais deixam de funcionar em distúrbios psiquiátricos e neurológicos – esquizofrenia, autismo, Alzheimer ou Parkinson. Apelos para um salto tecnológico no estudo do cérebro começam a ser ouvidos fora dos laboratórios. Na verdade, o governo Obama anunciou, no ano passado, que estava iniciando um projeto de grande escala: o Brain Research through Advancing Innovative Neurotechnologies Initiative, ou Iniciativa BRAIN, o empreendimento de big science com a maior visibilidade no segundo mandato do presidente. A Iniciativa BRAIN, com um nível de financiamento inicial de mais de US$ 100 milhões em 2014, visa o desenvolvimento de tecnologias para registrar sinais de células cerebrais em número muito maior e até de áreas completas do cérebro. O BRAIN complementa outros grandes projetos em neurociência fora dos Estados Unidos. O Human Brain Project [Projeto Cérebro Humano], financiado pela

EM SÍNTESE O cérebro – e a forma como ele produz pensamento consciente – continua um dos grandes mistérios da ciência. Para compreender

28 Scientific American Brasil | Abril 2014

esse processo, neurocientistas necessitam de novas ferramentas para analisar o funcionamento dos circuitos neurais.

Tecnologias que registrem ou controlem a atividade de circuitos cerebrais podem suprir essas necessidades. A administração

Obama tem em curso uma iniciativa de grande escala para promover o desenvolvimento dessas tecnologias.

União Europeia, é uma ação de US$ 1,6 bilhão, já com dez anos, para desenvolver uma simulação de todo o cérebro em computador. Projetos de pesquisa ambiciosos de neurociência também foram lançados na China, Japão e Israel. O consenso global que atualmente impulsiona o investimento na ciência do cérebro remete a outras iniciativas de ciência e tecnologia do pós-guerra centradas em prioridades nacionais: energia nuclear, armamento atômico, exploração espacial, computadores, energia alternativa e sequenciamento do genoma. O Século do Cérebro agora paira sobre nós. O PROBLEMA DA TELA DE TV

INVESTIGAR COMO CÉLULAS CEREBRAIS processam o conceito de Jennifer Aniston – ou algo comparável ao que nos deparamos por meio da experiência subjetiva ou percepções do mundo externo – é atualmente um obstáculo intransponível. Exige deslocar a medição de um neurônio para a compreensão de como um grupo dessas células pode se envolver em interações complexas que dão origem a um todo integral maior – que cientistas chamam de propriedade emergente. A temperatura de qualquer material ou o estado magnético de um metal, por exemplo, só surge a partir de interações de uma multidão de moléculas ou átomos. Considere os átomos de carbono: os mesmos átomos podem se ligar tanto para criar a dureza do diamante como a maciez do grafite, que se desgasta facilmente, formando palavras no papel. Dura ou macia, essas propriedades emergentes não dependem de átomos individuais, mas do conjunto de interações entre eles. O cérebro provavelmente também apresenta propriedades emergentes totalmente ininteligíveis a partir de inspeção de neurônios individuais, ou mesmo de uma pintura grosseira de baixa resolução da atividade de enormes grupos de neurônios. A percepção de uma flor ou a recuperação de uma memória de infância podem ser discernidas apenas observando-se a atividade dos circuitos cerebrais que transportam sinais elétricos ao longo de cadeias complexas de centenas ou milhares de neurônios. Embora neurocientistas estejam familiarizados com esses desafios há muito tempo, ainda não têm ferramentas para gravar a atividade de circuitos individuais que fundamentem a percepção ou a memória, ou que deem origem a comportamentos complexos e funções cognitivas. Uma tentativa de superar esse impasse começou a reunir um mapa das conexões anatômicas, as sinapses, entre neurônios – empreendimento conhecido como conectonomia. O Projeto Conectoma Humano, recém-lançado nos Estados Unidos, fornecerá um diagrama da fiação estrutural do cérebro. Mas, como no caso do verme, esse mapa é apenas um ponto de partida. Apenas ele não conseguirá documentar os sinais elétricos em constante variação que produzem processos cognitivos específicos. Para fazer esse registro necessitamos de técnicas totalmente novas de medição de atividade elétrica, superiores às tecnologias disponíveis – que permitem um quadro preciso da atividade de grupos relativamente pequenos de neurônios, ou imagens não nítidas de áreas cerebrais grandes, mas sem a resolução necessária para identificar circuitos cerebrais específicos acendendo e apagando. Registros em boa escala atualmente são feitos inserindo eletrodos finos como agulhas nos cérebros de animais de laborató-

rio para registrar o disparo de um neurônio isolado, o impulso elétrico acionado após a célula receber sinais químicos de outros neurônios. Quando um neurônio é estimulado adequadamente, a tensão elétrica através da membrana exterior da célula se inverte. Essa mudança de tensão induz canais de membrana a introduzir sódio ou outros íons carregados positivamente. A entrada, por sua vez, produz um “pico” elétrico que percorre o axônio – a projeção longa da célula – estimulando-o a enviar um sinal químico próprio para outros neurônios e assim continuar a propagar o sinal. Registrar apenas um neurônio é análogo a tentar seguir o enredo de um filme em alta definição enquanto observa apenas um pixel. Fica impossível ver o filme como um todo. Também é uma técnica invasiva que pode provocar danos ao tecido cerebral assim que os eletrodos penetrarem nele. No outro lado do espectro, métodos que registram a atividade coletiva de neurônios em todo o cérebro também são inadequados. No familiar eletroencefalograma (EEG), inventado por Hans Berger na década de 20, eletrodos são fixados no crânio e medem a atividade elétrica combinada de mais de 100 mil células nervosas logo

O que é preciso para perceber ø­D‹¸ßǸlxäxßlžä`xß³žl¸ DÇx³Dä¸UäxßþD³l¸DDîžþžlDlxlx `žß`øžî¸ä`xßxUßDžäÔøxîßD³äǸßîD­ 䞳Džäx§yîߞ`¸äD¸§¸³¸lDä`DlxžDä lx­ž§šDßxälx³xøߺ³ž¸äÍ abaixo – o EEG registra as oscilantes “ondas” de amplitude ascendente e descendente que ocorrem em poucos milésimos de segundos, embora não possa decidir se qualquer neurônio individual está ativo. A ressonância magnética funcional (RMf) – que produz as familiares manchas coloridas iluminando áreas ativas do cérebro – registra atividade em todo o cérebro de forma não invasiva, mas apenas lentamente e com baixa resolução espacial. Cada elemento de imagem, ou voxel (um pixel tridimensional), é um conjunto de cerca de 80 mil neurônios. Além disso, a RMf não localiza a atividade neuronal diretamente, mas apenas mudanças secundárias no fluxo sanguíneo no interior desses voxels. Para obter um quadro de padrões emergentes de atividade cerebral cientistas precisam de novos dispositivos sensoriais que consigam gravar a partir de conjuntos de milhares de neurônios. A nanotecnologia, com novos materiais quase sempre inferiores às dimensões de moléculas individuais, pode ajudar nas gravações em grande escala. Matrizes de protótipos foram construídas incorporando mais de 100 mil eletrodos em uma base de silício; esses equipamentos conseguiram registrar a atividade elétrica de dezenas de milhares de neurônios na retina. Maior refinamento dessa tecnologia permitirá o empilhamento dessas matrizes em estruturas tridimensionais, diminuindo os eletrodos para evitar danos aos tecidos e estendendo eixos para penetrarem profundamente no córtex cewww.sciam.com.br 29

rebral, a superfície mais externa do cérebro. Esses progressos possibilitariam a gravação de centenas de milhares de neurônios em humanos, discernindo as propriedades elétricas de cada célula. Eletrodos são apenas um modo de monitorar atividades neuronais. Técnicas além dos sensores elétricos abrem caminho nos laboratórios. Biólogos tomam emprestadas técnicas desenvolvidas por físicos, químicos e geneticistas e começam a visualizar neurônios vivos em animais acordados, vivenciando suas rotinas diárias. Um indício do que pode surgir ocorreu no ano passado, quando Misha Ahrens e seus colegas, no campus Janelia Farm do Howard Hughes Medical Institute, em Ashburn, Virgínia, usaram uma larva de peixe-zebra para imageamento microscópico do cérebro inteiro. O peixe-zebra é um dos organismos favoritos dos neurobiólogos porque é transparente em estado larval, permitindo a fácil inspeção do seu interior. No experimento, os neurônios do peixe-zebra foram geneticamente modificados para fluorescência quando íons de cálcio penetraram na célula após um disparo. Um novo tipo de microscópio iluminou o cérebro do animal, projetando uma lâmina de luz sobre todo o órgão enquanto uma câmera fazia fotos a cada segundo dos neurônios se iluminando. A técnica usada, denominada imageamento de cálcio, é pioneira e foi criada por um de nós (Yuste), possibilitando a gravação de 80% dos 100 mil neurônios do peixe-zebra. Mas, quando em repouso, muitas regiões do sistema nervoso da larva do peixe-zebra acendiam e apagavam em padrões desconhecidos. Desde que Berger apresentou o EEG, pesquisadores sabem que o sistema nervoso está, basicamente, sempre ativo. O experimento com o peixezebra traz esperança de que novas tecnologias de imagem possam ajudar no desafio maior da neurociência – a compreensão do disparo persistente e espontâneo de grandes grupos de neurônios. Esse experimento é apenas o começo, pois neurocientistas necessitam de melhores tecnologias para descobrir como a atividade cerebral dá origem ao comportamento. Novos tipos de microscópios precisam ser projetados para imagens simultâneas tridimensionais da atividade neuronal. Além disso, o imageamento de cálcio opera lento demais para rastrear o disparo rápido dos neurônios e é incapaz de medir os sinais inibitórios que contêm a atividade elétrica na célula. Neurofisiologistas trabalhando em parceria com geneticistas, físicos e químicos tentam melhorar técnicas ópticas que, em vez de mensurar o cálcio, registrem a atividade neuronal diretamente pela detecção de alterações na tensão elétrica da membrana. Corantes que alteram suas propriedades ópticas conforme a voltagem oscila – depositados sobre o neurônio ou integrados por meio da engenharia genética na membrana celular – podem melhorar o imageamento de cálcio. Esta técnica alternativa, conhecida como imageamento de voltagem, pode permitir que pesquisadores registrem a atividade elétrica de cada neurônio em um circuito neural completo. O imageamento de voltagem ainda está engatinhando. Químicos devem melhorar a capacidade dos corantes de mudar a cor ou outras características enquanto um neurônio dispara. Biólogos moleculares já estão construindo sensores de tensão geneticamente codificados; essas células leem uma sequência genética para produzir uma proteína fluorescente, enviada à membrana exterior das células. Lá, essas proteínas alteram a intensidade em que se tornam fluorescentes, em resposta a alterações na tensão elétrica de um neurônio. Como com os eletrodos, materiais não biológicos avançados originários da nanotecnologia podem ajudar. Em lugar de corantes orgânicos ou marcadores genéticos, um novo tipo de sensor de volta30 Scientific American Brasil | Abril 2014

gem pode ser feito de pontos quânticos – pequenas partículas semicondutoras que exibem efeitos da mecânica quântica e podem ser adaptados precisamente em suas propriedades ópticas, como a cor ou intensidade de luz emitida. Os nanodiamantes, outro novo material importado da óptica quântica, são altamente sensíveis a mudanças em campos elétricos que ocorrem enquanto a atividade elétrica de uma célula oscila. As nanopartículas também podem ser combinadas com corantes orgânicos convencionais, ou geneticamente modificados, produzindo moléculas híbridas em que uma nanopartícula pode servir como “antena” para amplificar sinais de baixa intensidade, produzidos por corantes fluorescentes, quando um neurônio é ativado. APROFUNDAMENTO

OUTRO DESAFIO TÉCNICO QUE SE IMPÕE para visualizar a atividade neuronal é a dificuldade de enviar luz e coletá-la de circuitos neurais profundos, abaixo da superfície do cérebro. Para resolver esse problema desenvolvedores de neurotecnologia começam a receber colaboração de pesquisadores de óptica computacional, engenharia de materiais e medicina, que também devem enxergar através de objetos sólidos de forma não invasiva: pele, crânio ou o interior de um chip de computador. Cientistas já sabiam há tempos que parte da luz que atinge um objeto sólido se dispersa e que os fótons dispersos podem, em princípio, revelar detalhes do objeto em que é refletida. A luz de uma lanterna na mão, por exemplo, a ilumina como uma luz difusa, mas sem dar indícios sobre a localização óssea ou da vasculação sob a pele, mas informações sobre o caminho da luz capturada através da mão não se perdem inteiramente. Ondas luminosas desordenadas dispersam, e depois interferem entre si. Esse padrão luminoso pode ser trabalhado como imagem com uma câmera, e novos métodos computacionais podem então reconstruir uma imagem do que está no interior de um corpo – técnica usada no ano passado por Rafael Piestun e seus colegas da University of Boulder, Colorado, para enxergar através de um material opaco. Essas e outras técnicas ópticas também podem ser combinadas, incluindo as usadas por astrônomos para corrigir distorções de imagem provocadas pela atmosfera na luz das estrelas. A óptica computacional pode ajudar a visualizar o brilho fluorescente que emana de corantes, iluminados quando os neurônios da subsuperfície disparam. Algumas dessas técnicas ópticas inovadoras já são utilizadas com sucesso para produzir imagem de interiores de animal ou cérebros humanos com parte do crânio removido, permitindo que cientistas visualizem mais que um milímetro no interior do córtex. Com maior refinamento, elas poderiam oferecer uma maneira de olhar através da espessura do crânio. Mas o imageamento óptico não penetrará o suficiente para detectar estruturas profundas no interior do cérebro, embora outra invenção recente possa ajudar a resolver esse problema. Em uma técnica chamada de microendoscopia, neurorradiologistas inserem um tubo estreito, mas flexível, na artéria femoral e o manobram para várias partes do corpo, incluindo o cérebro e permitindo que guias de luz microscópicas inseridas no tubo façam seu trabalho. Em 2010, uma equipe do Instituto Karolinska, em Estocolmo, demonstrou um extroducer [extrodutor] – dispositivo que permite que a artéria ou vaso por onde o endoscópio é passado seja perfurado com segurança, o que torna qualquer parte do cérebro, e não apenas a vasculatura, acessível à inspeção por várias tecnologias de imageamento ou de registros elétricos.

M E N SAG E M C E LU L A R

Ouvindo Milhões de Neurônios %xø߸`žx³îžäîDä³x`xääžîD­lx…¸ß­Dä­Džäx‰`žx³îxäx­x³¸äž³þDäžþDälx¸UäxßþDß`žß`øžî¸ä`xßxUßDžäjx­Ôøx䞳Džäx§yîߞ`¸äÇDääD­lxø­ ³xøߺ³ž¸D¸øî߸Í<EߞDäîx`³¸§¸žDäjD§ø­Däx­øä¸j€¸øîßDäDÇx³DäÇßxäx³îx䳸äÇ߸¥xî¸älxÇxäÔøžäDl¸ßxä€Ǹlx­Çxß­žîžßßDþDcT¸lx ­ž§šDßxäxDîy­xä­¸­ž§šÆxälx³xøߺ³ž¸äͧDääøUäîžîøžßT¸­yî¸l¸ä§x³î¸äxž­Çßx`žä¸äÔøxjÔøDäxäx­ÇßxjxĀžx­丳lDäx§yîߞ`Däž³þDäžþDäÍ

Imageamento de voltagem

ŸïD`¹mŸŠ`Dm¹àDmy%

Esta técnica implanta um corante em um neurônio para determinar se D`z¨ù¨DyåïEDïŸÿDÎ'åy´å¹àåyï¹à´DŒù¹àyå`y´ïyÕùD´m¹ù®`D®È¹ elétrico sobre a superfície da membrana celular muda sua carga elétrica, conforme transporta um sinal. Um detector (não mostrado) registra o evento e também pode monitorar a atividade de muitos outros neurônios, marcados com o mesmo corante.

7®DDU¹àmD‘y®àDmŸ`D¨®y´ïy´¹ÿDù®DŠïD`¹mŸŠ`Dm¹àD®¹¨y`ù¨DàyÿŸmy´ž ciaria uma única cadeia de DNA com uma sequência conhecida de letras ou nucleotídeos, no interior celular, próximo à superfície. Uma enzima, a DNA polimerase, então, acrescentaria novos nucleotídeos que se ligam para formar uma molécula de cadeia dupla (à esquerda)Î1ùD´m¹ù®´yùà»´Ÿ¹mŸåÈDàDjù®Ÿ´Œùā¹ my ¹´åmy`E¨`Ÿ¹DïàDÿzåmyù®`D´D¨my®y®UàD´Dày`z®žDUyà﹆DàŸD`¹®ÕùyD enzima adicionasse o nucleotídeo errado (à direita), erro que poderia ser detectado quando a cadeia de DNA for sequenciada posteriormente.

Sensor óptico acende quando um neurônio dispara

Canal de cálcio fechado

Canal de cálcio aberto DNA polimerase ®¹mŸŠ`DmD geneticamente

Interior da célula

Superfície da célula

Elétrons e fótons são os candidatos mais óbvios para gravar a atividade cerebral, ainda que não sejam os únicos. A tecnologia de DNA também pode desempenhar papel crítico em futuro mais distante para monitorar a atividade neuronal. Um de nós (Church) se inspirou no campo da biologia sintética, que manipula materiais biológicos como se fossem engrenagens de máquinas. Conforme a pesquisa avança, animais de laboratório podem ser geneticamente modificados para sintetizar uma “fita codificadora molecular”, molécula que muda de forma específica e detectável quando um neurônio é ativado. Em um cenário, a fita codificadora seria feita de uma enzima denominada DNA polimerase que se liga à outra e é uma sequência preestabelecida de nucleotídeos (“letras” que são os blocos de construção do DNA). Um influxo de íons de cálcio, gerado após o disparo do neurônio, faz com que a polimerase produza uma sequência diferente de letras – ou seja, provocando “erros” na posição esperada de nucleotídeos. A cadeia dupla resultante de nucleotídeos poderia ser sequenciada posteriormente de cada neurônio de um animal experimental. Uma técnica inovadora chamada sequenciação fluorescente in

ILUSTRAÇÃO POR EMILY COOPER

Membrana da célula

Nucleotídeos errados A DNA polimerase adiciona novos nucleotídeos que se ligam a uma cadeia de DNA já existente

situ produziria um registro de diferentes padrões de mudanças, os erros da fita codificadora inicial, que corresponde tanto à intensidade quanto ao sincronismo de cada um dos muitos neurônios em determinado volume de tecido. Em 2012 o laboratório de Church informou sobre a viabilidade dessa ideia usando uma fita codificadora de DNA alterada por íons de magnésio, manganês e cálcio. Por outro lado, a biologia sintética prevê a possibilidade de células artificiais agirem como sentinelas biológicos que patrulham o corpo humano. Uma célula geneticamente modificada poderia servir como eletrodo biológico, com diâmetro inferior ao de um fio de cabelo, para ser colocado junto a um neurônio para detectar seu disparo. Esse padrão de disparo poderia ser gravado por um circuito integrado de tamanho nanométrico no interior da célula sintética – “poeira eletrônica”, que poderia transmitir dados coletados por uma ligação sem fio a um computador próximo. Esses dispositivos nanométricos, mistura híbrida de peças eletrônicas e biológicas, seriam alimentados por um transmissor de ultrassom externo ou mesmo do interior celular, usando glicose, trifosfato de adenosina ou outra molécula. www.sciam.com.br 31

MANIPULANDO CIRCUITOS

Instalação de um Interruptor de Luz Neural §y­lx¸UäxßþDß`¸ßßx³îxäx§yîߞ`DäÔøx‹øx­Çx§¸ä`žß`øžî¸äj³xø߸`žx³îžäîDäÔøxßx­`DlDþxą­Džä§žDßxlx䧞Dß`žß`øžî¸ä ž³lžþžløDžäjÇDßDÔøxǸääD­DÇßx³lxßD`¸³î߸§Dß…¸ß­DäxäÇx`Ÿ‰`DälxDîžþžlDlx`xßxUßD§Í7­lžDxääDäîx`³¸§¸žDäßx`x³îxäjløDälDä ÔøDžääxUDäxžD­x­䞳Džä¹Çîž`¸ä (abaixo)jǸlx­`¸³î߸§DßDîDÔøxäxǞ§yîž`¸ä¸øîßx­¸ßxälx0Dߦž³ä¸³Í

¸­¸ø³`ž¸³DD'Çx³yîž`D Como o nome implica, a sinalização óptica e da engenharia genética se combinam para ativar um circuito cerebral em um animal vivo. Primeiro, um gene de uma proteína sensível à luz, uma opsina, é colocada em um vírus que, após a injeção num animal, envia o gene para o interior dos neurônios. O promotor de DNA no material 0๮¹ï¹àÊÿŸåD´yùà»´Ÿ¹åyåÈy` Š`¹åË

genético inserido assegura que apenas certos neurônios produzam a opsina, um `D´D¨Ÿ»´Ÿ`¹jyDŸ´åŸàD®´DååùDå®y®UàD´DååùÈyàŠ`ŸDŸåÎ7®埴D¨myù®DŠUàD ºÈïŸ`D´¹Ÿ´ïyàŸ¹àmyù®`àF´Ÿ¹my`D®ù´m¹´‘¹DUày¹`D´D¨jmyŸāD´m¹ ¹´å`Dàày‘Dž dos penetrarem no neurônio, desencadeando uma corrente pela célula. Canal abre em resposta a sinal óptico, permitindo que íons entrem e iniciem um impulso elétrico na célula

Membrana celular

Virus Canal de opsina fechado

Gene opsina Vírus é injetado em camundongo

Íon

Opsina é produzida por neurônios selecionados

Canal de opsina aberto

Sinal de luz

¸­¸D'Çî¸ÔøŸ­ž`Dø³`ž¸³D Uma técnica alternativa conhecida como optoquímica evita a necessidade de engenharia genética pesada. Primeiramente, um paciente engoliria uma pílula contendo uma molécula ativada pela luz – uma jaula – ligada a um neurotransmissor que regula a atividade de um neurônio. Após o conteúdo da

pílula atingir o cérebro, um pulso de luz de um endoscópio, ou enviado de uma fonte externa ao crânio, operaria o neurotransmissor para ligar e abrir um canal na membrana celular para permitir entrada de íons. Os íons, então, acionariam o disparo de neurônios, enviando um impulso elétrico que viaja para a célula.

$¹¨z`ù¨DDïŸÿDmDÈy¨D¨ùĆʦDù¨DË Neurotransmissor

Canal iônico fechado

Luz libera o neurotransmissor para se ligar a um canal iônico e desencadear um impulso elétrico

Íon

Sinal de luz Canal iônico aberto Neurônio

32 Scientific American Brasil | Abril 2014

Para entender o que ocorre na vasta rede de circuitos neurais do cérebro pesquisadores devem fazer mais que apenas fotos. Precisam ligar ou desligar grupos selecionados de neurônios para testar o que as células fazem. A optogenética, técnica amplamente adotada por neurocientistas nos últimos anos, envolve o uso de animais geneticamente modificados para que seus neurônios produzam proteínas sensíveis à luz, derivadas de bactérias ou algas. Quando expostas a um comprimento de onda luminoso em particular, passando por uma fibra óptica, essas proteínas fazem os neurônios ativarem ou desligarem. Cientistas aplicaram a técnica para ativar circuitos neurais envolvidos no prazer e em outras respostas de recompensa e nos movimentos prejudicados típicos do mal de Parkinson. Chegaram a usar a optogenética para “implantar” falsas memórias em ratos. A necessidade de engenharia genética significa que a optogenética pode exigir longos protocolos de aprovação antes de ser testada ou utilizada como terapia em humanos. Uma alternativa mais prática para algumas aplicações foi demonstrada pela inserção de neurotransmissores, substâncias que regulam a atividade dos neurônios, em uma substância sensível à luz chamada “jaula”. Exposta à luz, a jaula se rompe e as substâncias químicas que ela abriga escapam e se tornam ativas. Em 2012, Steven Rothman, da University of Minnesota, em colaboração com o laboratório de Yuste colocou jaulas de rutênio contendo GABA, um neurotransmissor que força a atividade neural a diminuir, no córtex cerebral exposto de ratos quimicamente induzidos a produzir convulsões de epilepsia. Um pulso de luz azul no cérebro liberava GABA e fazia as convulsões diminuírem. Abordagens “optoquímicas” semelhantes são usadas atualmente para investigar a função de circuitos neurais selecionados. Essas estratégias, com maior desenvolvimento, podem ser implementadas como terapia de algumas doenças neurológicas ou distúrbios mentais. ESTÁGIO BÁSICO

HÁ UM LONGO PERCURSO DA PESQUISA BÁSICA até as aplicações clínicas. Cada ideia nova para a medição e manipulação de atividade neural em grande escala terá de ser testada em drosófilas, vermes e roedores antes de passar para humanos. Um esforço intensivo pode permitir que pesquisadores registrem imagens e controlem opticamente grande parte dos 100 mil neurônios em um cérebro de drosófila, talvez em cinco anos. Instrumento para capturar e modular a atividade neural do cérebro de um camundongo desperto pode não ser possível por até dez anos. Algumas tecnologias, como eletrodos finos para corrigir avarias em circuitos neurais em pacientes deprimidos ou epilépticos poderiam ser desenvolvidas para a prática médica nos próximos anos, enquanto outras levarão décadas. A crescente sofisticação das neurotecnologia impõe aos cientistas melhores formas de gerenciar e compartilhar enormes compilações de dados. O imageamento das atividades de todos os neurônios no córtex do camundongo poderia gerar 300 terabytes de dados compactados em uma hora, mas isso não é impossível. Unidades de pesquisa sofisticadas, semelhantes aos observatórios astronômicos, centros de genoma e aceleradores de partículas, poderiam receber, integrar e distribuir esse tipo de dados digitais. Assim como o Projeto Genoma Humano gerou o campo da bioinformática para lidar com dados de sequenciamento, a neurociência computacional poderia decodificar o funcionamento do sistema nervoso inteiro. A capacidade de analisar petabytes de dados fará mais que ordenar enorme volume de novas informações. Poderá lançar base para

novas teorias sobre como a cacofonia de disparos nervosos se traduz em percepção, aprendizado e memória. A análise de megadados também pode ajudar a confirmar ou eliminar teorias que não puderam ser testadas antes. Uma teoria intrigante postula que os muitos neurônios envolvidos na atividade de um circuito desenvolvem sequências de disparo conhecidas como atratores e podem representar estados cerebrais emergentes – um pensamento, memória ou decisão. Em estudo recente, um camundongo deveria decidir atravessar uma parte ou outra de um labirinto virtual projetado em uma tela. Essa ação acendeu dezenas de neurônios que apresentaram mudanças dinâmicas na atividade semelhantes às de um atrator. Uma melhor compreensão dos circuitos neurais pode melhorar o diagnóstico de doenças do cérebro, do Alzheimer ao autismo, e permitir um entendimento mais profundo de suas causas. Em vez de diagnosticar e tratá-las com base em sintomas apenas, médicos poderiam procurar alterações específicas na atividade dos circuitos neurais específicos descobertos como a base de cada transtorno e administrar terapias para corrigir essas anomalias. Por extensão, o conhecimento sobre as raízes da doença provavelmente se traduziria em benefícios econômicos para a medicina e a biotecnologia. Como no projeto genoma, haverá questões éticas e jurídicas, principalmente se essa pesquisa levar a formas de discernir ou alterar estados mentais, que exigiriam salvaguardas cuidadosas para o consentimento do paciente, além da preservação da privacidade. Para que estudos do cérebro tenham sucesso, cientistas e apoiadores devem se concentrar no objetivo de imageamento e controle de circuitos neurais. A ideia para a Iniciativa BRAIN nasceu de uma publicação na revista Neuron, em junho de 2012. Nela sugerimos uma colaboração entre físicos, químicos, nanocientistas, biólogos moleculares e neurocientistas para desenvolver um “mapa da atividade cerebral” com o uso de novas tecnologias para medir e controlar a atividade elétrica de circuitos cerebrais completos. Queremos que o ambicioso projeto BRAIN mantenha nossa ênfase original. A finalidade da pesquisa sobre o cérebro é vasta e a Iniciativa BRAIN poderia facilmente se transformar em uma lista de desejos, tentando satisfazer diversas subáreas da neurociência, e se reduzir a um complemento aos projetos em andamento em laboratórios individuais e independentes. Se isso ocorrer o progresso será casual e os principais desafios técnicos nunca serão solucionados. Precisamos de cooperação acadêmica. A construção de instrumentos para obter a imagem de atividade em milhões de neurônios simultaneamente em todas as regiões cerebrais só pode ser alcançada com esforço contínuo de uma grande equipe interdisciplinar de pesquisadores. Assim a tecnologia poderia ser oferecida em larga escala, compartilhada pela comunidade neurocientífica. Defendemos o foco em tecnologia para registrar, controlar e decodificar os padrões de picos elétricos, a linguagem do cérebro. Sem essas novas ferramentas a neurociência não conseguirá detectar propriedades emergentes do cérebro por trás de séries virtualmente infinitas de comportamentos. Melhorar a capacidade de compreender e utilizar a linguagem do cérebro é o caminho mais promissor para uma grande teoria de como funciona a máquina mais complexa da Natureza. PA R A C O N H E C E R M A I S 5›y%UàDŸ´Ÿ´ŸïŸDïŸÿyÎThomas R. Insel et al. em Sciencejÿ¹¨ÎñŽĈjÈE‘åÎê~éžê~~j 10 de maio de 2013. The brain activity map project and the challenge of functional connectomics. A. Paul Alivasatos em Neuron, vol. 74, noêjÈE‘åµéĈžµéŽj÷Àmy¦ù´›¹my÷ĈÀ÷Î

www.sciam.com.br 33

MATÉRIA ESCURA aglutina-se em filamentos que se estendem pelo universo visível estruturando o Cosmos nas maiores escalas. Essa imagem da exposição espacial Universo Escuro do Museu Americano de História Natural foi criada por simulações num supercomputador do Instituto Kavli para Astrofísica de Partículas e Cosmologia da Stanford University

34 Scientific American Brasil | Abril 2014

Pequenas galáxias que orbitam a Via Láctea podem

A ST R O N O M I A

Galáxias Anãs e a Teia de Matéria Escura ter trilhado supervias de matéria escura que se estendem pelo Universo Por Noam I. Libeskind

www.sciam.com.br 35

Noam I. Libeskind é astrofísico e responsável pela criação de modelos computacionais do Universo no Instituto Leibniz de Astrofísica em Potsdam, Alemanha.

“Absurdo! Conversa fiada! Besteira!”

MATÉRIA AUSENTE

Desde a primeira sugestão de Zwicky, há cerca de 80 anos, sinais de matéria escura eclodiram por todo o Universo, praticamente em todas as galáxias observadas. Na Via Láctea, astrônomos inferiram sua existência a partir do movimento de estrelas da periferia galáctica. Da mesma forma que as galáxias no aglomerado de Coma, essas estrelas se movem rápido demais para serem refreadas apenas pela matéria visível. As cerca de 12 galáxias anãs da Via Láctea aparentemente contêm uma concentração ainda maior de matéria escura. A recorrência estabeleceu a crença na existência da matéria escura. Na verdade, a maioria dos cosmólogos acredita que a matéria escura compõe cerca de 80% de toda a matéria do Universo, excedendo o peso de átomos normais em cerca de cinco para um. Essa abundância implica que a matéria escura deve desempenhar papel crítico na evolução do Universo e uma maneira de investigar esse processo é por meio de modelos computacionais. A partir dos anos 70, pesquisadores na área da cosmologia computacional tentaram simular a história do Universo usando códigos computacionais. A técnica é direta: defina uma caixa imaginária num computador. Coloque partículas pontuais imaginárias (que representam caroços de matéria escura) numa malha quase perfeita dentro da caixa. Calcule a força gravitacional que todas as partículas da

EM SÍNTESE Teorias sobre formação de galáxias DŠàž ®D®ÕùyD<ŸD"E`ïyDmyÿyåyàà¹myDmD ȹàù®›D¨¹yå†zàŸ`¹myÈyÕùy´Då‘D¨EāŸDåž

36 Scientific American Brasil | Abril 2014

åDïz¨ŸïyåÎNo entanto buscas por esses satélites my`yÈ`Ÿ¹´DàD®j ¨yÿD´m¹ D¨‘ù´å D `¹¨¹`Dà y® āyÕùy ÈàŸ´` ÈŸ¹å UEåŸ`¹å mD

`¹å®¹¨¹‘ŸDÎ As galáxias-satélite Õùy ¹å Dåïà»´¹®¹åmyå`¹UàŸàD®ïy´my®DåyD¨Ÿž ´›Dà´ù®ȨD´¹ÕùyDïàDÿyååDD<ŸD"E`ïyDÎ

Novas simulaçõesày`¹àày®Dù®D‘àD´my ïyŸDmy®DïzàŸDyå`ùàDÈDàDyāȨŸ`DàDDùž å{´`ŸDmy‘D¨EāŸDåyåyùD¨Ÿ´›D®y´ï¹Î

PÁGINAS ANTERIORES: CORTESIA DO MUSEU AMERICANO DE HISTÓRIA NATURAL

vociferava Pavel Kroupa, astrofísico da Universidade de Bonn na Alemanha, enquanto eu estava no estrado do salão de conferências. Na época, eu era um simples recém-doutor em busca de uma oportunidade para o pós-doutorado. Eu estava em Bonn para apresentar uma palestra de 45 minutos sobre as pequenas galáxias que circundam a Via Láctea, objetos de meu estudo, e havia ajudado a desenvolver uma teoria que explica por que esses misteriosos objetos estão aparentemente localizados numa linha reta que se estende pelo céu – um alinhamento inesperado e extremamente intrigante. Kroupa, ao que tudo indica, não se deixava influenciar por meus argumentos. Muitas galáxias como a Via Láctea são circundadas por dúzias de pequenas galáxias-satélites que orbitam à sua volta. Essas galáxias são extremamente fracas – apenas a mais brilhante e próxima delas foi flagrada pairando pelos arredores da Via Láctea e da nossa vizinha mais próxima, a galáxia de Andrômeda. Mas essas galáxiassatélites anãs não se deslocam aleatoriamente. Todas elas se situam num plano estreito, visto de lado (ver quadro na pág. oposta). Esse alinhamento é surpreendente. Simulações por computador que modelam a evolução galáctica mostraram que qualquer direção do céu deveria conter aproximadamente o mesmo número de galáxias-satélites. Acredita-se, há muito tempo, que uma distribuição esférica como essa seria uma consequência natural da matéria escura, substância misteriosa que interage com a matéria comum apenas pela força da gravidade. Astrônomos acreditam que a matéria escura preenche o Universo e desempenha papel importante na formação e expansão galácticas. Mas o enigma do alinhamento de galáxias anãs foi tão inquietante que levou alguns astrônomos, incluindo Kroupa, a questionar a existência da matéria escura. “A matéria escura fracassou, uma vez que a previsão de que galáxias-satélites deveriam se distribuir esfericamente em torno da Via Láctea está obviamente em contradição direta com o que observamos”, comentou ele, interrompendo minha palestra. Eu estava apresentando um ponto de vista diferente, que tentava explicar o alinhamento peculiar de galáxias-satélites apontando para estruturas de matéria escura muito maiores que a Via Láctea.

Embora alguns céticos como Kroupa ainda não estejam convencidos, trabalhos recentes, incluindo minha pesquisa, mostram como enormes teias de matéria escura podem ser responsáveis pelo alinhamento único de galáxias-satélites no céu. A matéria escura, centro desse debate, foi inicialmente postulada numa tentativa de explicar outros aspectos enigmáticos das galáxias. Nos anos 30, o notável astrônomo Franz Zwicky, suíço de origem búlgara, se dispôs a determinar o peso do aglomerado de Coma, um imenso grupo com cerca de mil galáxias. Ele começou medindo a velocidade com que as galáxias de Coma se deslocam. Para sua surpresa, encontrou velocidades enormes – milhares de quilômetros por segundo – suficientemente velozes para despedaçar o aglomerado. Por que o aglomerado não se rompia? Zwicky concluiu que essa formação deveria ser preenchida com matéria adicional invisível, que manteria as galáxias juntas, graças à sua força gravitacional. Essa substância foi posteriormente denominada “matéria escura”.

caixa exercem sobre cada partícula e mova essas partículas de acordo com a força gravitacional líquida que cada uma sente (ou a que cada uma está submetida). Reproduza a interação desse processo em 13 bilhões de anos. As estratégias se tornaram significativamente mais complexas desde os anos 70, mas essa técnica básica ainda é usada atualmente. Há quatro décadas os códigos incluíam apenas algumas centenas de partículas. Atualmente o estado da arte da simulação computacional permite modelar com sucesso bilhões de partículas num volume com dimensões aproximadas do Universo observável. Simulações cósmicas por computador são uma forma de investigar galáxias individuais, mas criaram alguns dilemas capciosos. Modelos computacionais, por exemplo, concluíram que a matéria escura predominante no chamado halo que envolve a Via Láctea pode atrair gás e poeira formando caroços isolados. Esses caroços devem contrair-se sob a força da gravidade, e finalmente formar estrelas e galáxias anãs. No caso da Via Láctea, a prevalência de matéria escura implica que podemos esperar milhares de pequenas galáxias. Mas, quando olhamos para o céu noturno, observamos não mais que uma dúzia delas. A dificuldade para observá-las ficou evidente pela primeira vez nos anos 90, e desde então se tornou conhecida como o problema de galáxias-satélites ausentes. Nesse intervalo de tempo, astrônomos vislumbraram algumas soluções possíveis para esse dilema. Primeiro e mais importante é que talvez nem todos os satélites que aparecem nas simulações correspondem diretamente a galáxias reais. Caroços menores de matéria escura não contêm massa (nem atração gravitacional) suficiente para capturar gás e formar estrelas. Nessa linha de raciocínio as ga-

láxias-satélite observadas formam a ponta visível de um icebergues escuro: centenas, até milhares de pequenas galáxias escuras, desprovidas de estrelas, podem existir em nossas vizinhanças, mas não conseguimos observá-las. Segundo, mesmo que pequenos caroços de matéria escura formem estrelas, elas podem ser fracas [pouca luminosidade] demais para serem detectadas por telescópios. Nesse cenário, à medida que a tecnologia avança e os instrumentos tornam-se cada vez mais sensíveis, os astrônomos encontrarão mais galáxias-satélites. De fato, nos últimos sete anos, o número conhecido dessas formações orbitando a Via Láctea dobrou. Além disso, o disco da Via Láctea pode estar dificultando essa observação. Esse disco é basicamente um plano com alta densidade de estrelas tão brilhantes que, a olho nu, parece um fluido branco contínuo (daí o nome Via “Láctea”). Seria extremamente difícil observar uma galáxia-satélite posicionada atrás do disco, assim como é difícil ver a Lua durante o dia – a luz do disco galáctico simplesmente ofusca a luz tênue das galáxias-satélites. Todos esses argumentos aparentemente resolviam o problema das galáxias ausentes para a maioria dos astrofísicos e ainda resgatavam a ideia da matéria escura de um de seus mais sérios desafios observacionais. Mas o alinhamento peculiar dessas galáxias anãs continua a confundir os pesquisadores. Em vários artigos publicados no fim dos anos 70 e início da década de 80, Donald Lynden-Bell, astrofísico da University of Cambridge, observou que várias galáxias-satélites orbitando a Via Láctea pareciam se situar num único plano. Como explicar um arranjo tão estranho? Em 2005 Kroupa e seu grupo de Bonn conven-

Ú= 2 " >?0" %3i53 '<2?'3?$$52 3527 5723%5"' "2'70jÛ0'2$ 2 "3Î0 ="'=3!j0 <"!2'70 "$75 2 %j$$'%5"?%'5 3'52'? " 352'%'$ "3' 5?j<'"ÎŽñ‹jñèÀ%'<$ 2'÷ĈÀñë2 '30'2 %=""$57"0

G E O G R A F I A GA L ÁC T I CA

O Impossível Plano Galáctico

Galáxias satélites acima do plano

Simulações da Via Láctea predizem que dezenas de pequenas galáxiassatélites devem circundá-la em todas as direções. Mas, quando astrônomos observam o céu noturno, notam que as galáxias-satélites se distribuem num único plano – que se estende quase perpendicularmente ao plano formado pelos braços espirais da Galáxia. Estudos de Andrômeda, nossa vizinha mais próxima, revelam que suas galáxias-satélites também se distribuem num plano. Como essas galáxias se alinharam nesse arranjo peculiar? Simulações por computador sugerem que grandes estruturas de matéria escura desempenham um Via Láctea papel crucial (ver quadro na pág. seguinte).

Plano de melhor ajuste formado pelas galáxiassatélites da Via Láctea

Galáxias-satélites abaixo do plano

www.sciam.com.br 37

COMO FUNCIONA

Supervias Cósmicas de Matéria Escura Desde o Big Bang, há aproximadamente 14 bilhões de anos, a matéria escura que permeia nosso Universo aglutinou-se, formando o que os cosmólogos chamam de teia cósmica – estrutura žD³îxä`Dlx³¹äx‰§D­x³î¸äÍ$DîyߞDxä`øßDDîßDž gravitacionalmente gás e poeira das vizinhanças, formando, nos nós, onde a matéria escura se concentra, galáxias massivas como a

Via Láctea, aÍ%¸ä‰§D­x³î¸äj¸³lxDlx³äžlDlxlx­DîyߞDxä`øßD é menor, formam-se somente pequenas galáxias anãs b . Com o tempo, a forte atração gravitacional dos nós tende a atrair material l¸ä‰§D­x³î¸äjÇøĀD³l¸D§EĀžDäD³Tä³DlžßxcT¸lDäD§EĀžDä maiores c . De nossa perspectiva, no interior da Via Láctea, as galáxias anãs parecem se situar num plano perpendicular à Galáxia.

a

b

c

Via Láctea

ceram o mundo de que o alinhamento podia ser casual. Eles propuseram que galáxias anãs de matéria escura se distribuíam uniformemente em torno da Via Láctea, como previam as simulações por computador, e apenas uma em 100 era suficientemente grande para criar estrelas e galáxias visíveis. Baseando-se nessas hipóteses perfeitamente plausíveis, surgiu a pergunta: Com que frequência espera-se encontrar um sistema como a Via Láctea, onde as galáxias iluminadas estão todas alinhadas? A resposta provocou um tsunami na cosmologia: a probabilidade era menor que 1 em um milhão. Se a matéria escura era responsável pela formação de galáxiassatélites, argumentava Kroupa, essas galáxias nunca estariam todas nesse plano impossível. No artigo em que relatou seus resultados Kroupa propôs sua solução: a saída era que as anãs que orbitavam a Via Láctea não se formaram por aglutinação de matéria escura. Para ele, matéria escura não existia. 38 Scientific American Brasil | Abril 2014

Como bom teórico, Kroupa propôs uma alternativa. Sugeriu que essas anãs seriam remanescentes de uma galáxia progenitora, mais antiga, que há muito tempo precipitou-se na direção da Via Láctea. Exatamente como um asteroide que, ao se despedaçar, deixa um rastro de escombros à medida que atravessa a atmosfera da Terra, talvez os satélites da Via Láctea também tivessem suas origens em material retirado de uma progenitora maior. Segundo Kroupa, quando olhamos para o Universo observamos que uma série de galáxias em colisão exibe longas pontes de material conhecidas como braços de maré. Geralmente os braços de maré contêm pequenas galáxias anãs que se condensam a partir do fluxo de material. Sob condições adequadas, a natureza do desmembramento garante que o material retirado acabará num plano fino, exatamente como as galáxias-satélites da Via Láctea. A explicação de Kroupa era elegante, simples, mas acima de tudo, controversa. E imediatamente ele foi atacado. Primeiro, es-

'253 35 %'55"+ 2j735 <'?03j % 5'"?!"?0%j 2$ % ! " 5? % "73ž02'  5Î'2ë"7352 '0'22'%$""2Ê%32 'Ë

Galáxias anãs

trelas de galáxias-satélites da Via Láctea se deslocam a velocidades altas demais para se manterem agrupadas apenas pela ação gravitacional de matéria comum. Matéria escura deve estar contribuindo para mantê-las juntas, da mesma forma que mantém a coesão da Via Láctea. (Na verdade, observações sugerem que as anãs-satélites da Via Láctea estão entre as galáxias que exibem as maiores quantidades de matéria escura do Universo. Mas o cenário da galáxia anã de maré implica que essas galáxias não exibem matéria escura, deixando em aberto a questão sobre o quê as impede que se despedaçar.

muito semelhante ao que os astrônomos observavam. Percebemos que nossas simulações estavam começando a elucidar o mistério de como as anãs-satélites assumiram essa configuração estranha. “Por que não retrocedemos no tempo e reconstruímos as galáxias anãs para saber de onde elas se originam?” – propôs Frank. Chegamos ao resultado final; era hora de examinar os passos intermediários da simulação. Quando examinamos a simulação invertida, descobrimos que galáxias-satélites não se originavam na região imediatamente em torno da Via Láctea; elas tendiam a se juntar um pouco mais além, nos filamentos da teia cósmica. Filamentos são regiões do Cosmos mais densas que os vazios cósmicos; e por isso, atraiam e acumulavam poeira e gás das vizinhanças dando origem à formação de galáxias. Uma vez formadas, a força gravitacional deslocava as galáxias anãs em direção a regiões mais massivas das proximidades – no nosso caso, a Via Láctea. Como a Via Láctea situa-se em um nó de interseção de filamentos, as galáxias anãs se deslocam pelo filamento que lhes deu origem à medida que aceleram em nossa direção. Em outras palavras, filamentos funcionam como supervias cósmicas de matéria escura. Quando contemplamos o céu e observamos galáxias anãs num único plano, movendo-se na mesma direção, estamos observando basicamente o tráfego galáctico que está chegando.

As galáxias satélites observadas são apenas a ponta de um iceberg escuro: podem existir centenas, até milhares, de pequenas galáxias escuras em nossas vizinhanças, que simplesmente não podemos ver. Segundo, como ocorre em choques que destroem automóveis, nas colisões entre galáxias em forma de disco, os discos são destruídos. O resultado final de uma colisão galáctica quase sempre é uma bolha disforme de estrelas. A Via Láctea mostra uma estrutura nítida e um disco razoavelmente fino. Não há qualquer indicação de que tenha sofrido em passado recente qualquer tipo de fusão ou colisão. UMA TEIA ESCURA

Uma solução alternativa para o alinhamento incomum de galáxias anãs exige uma observação mais profunda do Cosmo. As simulações por computador, que começaram nos anos 70, não modelam apenas a evolução de galáxias individuais. Elas modelam volumes enormes do Universo. Quando exploramos essas simulações em grande escala observamos que as galáxias não estão aleatoriamente distribuídas. Ao contrário, elas tendem a se agrupar numa rede filamentar bem definida, conhecida como teia cósmica. Essa estrutura é claramente detectável quando observamos o céu em pesquisas astronômicas de larga escala. A teia cósmica é composta por lâminas magníficas contendo milhões de galáxias, que se estendem por centenas de milhões de anos-luz. Filamentos em forma de charuto conectam essas lâminas. Entre os filamentos estão vazios imensos, desprovidos de galáxias. Grandes galáxias como a Via Láctea tendem a ancorar a teia como nós, nas interseções de diversos filamentos (ver quadro na pág. oposta). Quando era aluno de pós-graduação na Universidade Durham, na Inglaterra, eu criava simulações por computador dessas regiões densas, e mostrei para meu orientador, Carlos Frenk, uma imagem de resultados recentes. O modelo com que trabalhava reconstituiu a Via Láctea e suas vizinhanças durante os últimos 12 bilhões de anos de história cósmica. Frenk esquadrinhou o gráfico por alguns instantes, sacudiu as folhas de papel e exclamou: “Larga tudo!” As galáxias-satélites que você está estudando estão todas localizadas no plano impossível de Kroupa!”. Nosso modelo não estava reproduzindo as simulações anteriores – um halo de galáxias-satélites uniformemente distribuído em torno da Via Láctea. Em vez disso, o computador mostrava a formação de um plano de galáxias-satélites

MAIS UM TESTE

Alguns cientistas como Kroupa ainda são céticos. Modelos computacionais parecem reproduzir as condições observadas na Via Láctea com precisão suficiente, mas a teoria geral também deveria ser capaz de descrever as vizinhanças de outras galáxias. A teoria está sendo testada mais uma vez. Em janeiro de 2013, ao mapear regiões em torno de Andrômeda, astrônomos encontraram uma lâmina ainda mais fina de satélites: um plano imenso, com um milhão de anos-luz de extensão e apenas 40 mil anos-luz de espessura – dimensões proporcionais a um laptop. A lâmina também parece estar girando exatamente da forma prevista pelo cenário de maré de Kroupa. Simulações por computador como a que executei, no entanto, não foram capazes de reproduzir o alinhamento das galáxias que observamos em torno de Andrômeda. De qualquer maneira, sérios problemas com a teoria de maré de Kroupa ainda persistem – ela também está em desacordo com as observações. A história tem mostrado que em impasses como esse soluções definitivas só surgirão com mais dados. Como Albert Einstein disse uma vez: “A Natureza não facilita as coisas para descobrirmos suas leis”.

PA R A C O N H E C E R M A I S Dwarf galaxy planes: the discovery of symmetric structures in the local group. Marcel S. Pawlowski, Pavel Kroupa e Helmut Jerjen em Monthly Notices of the Royal Astronomical Society, vol. 435, no 3, págs. 1928–1957, 1o de novembro de 2013. The preferred direction of infalling satellite galaxies in the local group. Noam I. Libeskind et al. em Monthly Notices of the Royal Astronomical Society, vol. 411, no 3, págs. 1525–1535; 1o de março de 2011. http://arxiv.org/abs/1010.1531. The distribution of satellite galaxies: the great pancake. Noam I. Libeskind et al. em Monthly Notices of the Royal Astronomical Society, vol. 363, no 1, págs. 146–152; 11 de outubro de 2005. http://arxiv.org/abs/astro-ph/0503400.

www.sciam.com.br 39

FASE

DOIS

MEDICINA

DOIS O

Uma década e meia após contratempos trágicos que levaram a reavaliações críticas, cientistas dizem que a terapia gênica está pronta para uso clínico Por Ricki Lewis

40 Scientific American Brasil | Abril 2014

Ilustração por Kotryna Zukauskaite

DA TERAPIA GÊNICA

Ricki Lewis ÷™«Í§D›”ÒÜDZ”r§ÜûZDZ«¡ f«æÜ«ÍDf«r¡†r§÷ܔZD»DæÜ«ÍDfrèñ͔«Ò ›”èÍ«Òd¡æ”Ü«ÒDÍܔ†«ÒfrÍrè”ÒÜDÒrf«›”èÍ«The Forever Fix: Gene Therapy and the Boy Who Saved It ·3Ü»$DÍܔ§ÊÒ0ÍrÒÒdäð®ä¸»

A

A

terapia gênica pode finalmente estar à altura de sua promessa inicial. Nos últimos seis anos o procedimento experimental para a inserção de genes saudáveis em locais do organismo onde são necessários restaurou a visão em cerca de 40 portadores de uma forma hereditária de cegueira. Médicos observam resultados sem precedentes entre os 120 ou mais pacientes com diversos tipos de câncer no sangue – e vários permanecem livres da malignidade três anos após o tratamento. Cientistas também usaram a terapia para permitir que alguns portadores de hemofilia, distúrbio hemorrágico, às vezes fatal, vivam mais tempo sem incidentes perigosos ou sem necessidade de altas doses de medicamentos coagulantes.

Os resultados positivos são ainda mais impressionantes considerando que o campo da terapia gênica está basicamente paralisado há 15 anos, após a morte prematura de Jesse Gelsinger, adolescente com um distúrbio digestivo raro. O sistema imune de Gelsinger reagiu ao tratamento gênico recebido, lançando um contra-ataque de ferocidade inesperada que o matou. Ao que parece, sucessos preliminares da terapia gênica na década de 90 alimentaram expectativas irracionais excessivamente altas entre médicos e pesquisadores – talvez combinadas com certa arrogância. Este e outros contratempos forçaram cientistas a repensar algumas abordagens, além de passarem a ser mais realistas quanto ao potencial da terapia gênica para tratamento de várias doenças. Pesquisadores contiveram suas esperanças e voltaram à pesquisa básica. Examinaram os efeitos colaterais potencialmente fatais, como os experimentados por Gelsinger, aprenderam a evi-

tá-los e ficaram mais atentos, explicando os riscos e benefícios aos pacientes e suas famílias. O momento decisivo, na visão de muitos observadores, surgiu há seis anos quando médicos trataram Corey Haas, então com oito anos, de uma doença degenerativa no olho que provocava a deterioração da visão. A terapia usada permitiu que a retina defeituosa do olho esquerdo de Haas produzisse uma proteína que seu organismo não processava. Após quatro dias, ele fez um passeio ao zoológico e descobriu, para seu deleite e espanto, que conseguia ver o sol e um balão de ar quente. Três anos mais tarde, ele foi submetido ao mesmo tratamento no olho direito. Agora Haas vê bem o suficiente para caçar peru com o avô. Embora a terapia gênica ainda não esteja disponível em hospitais e clínicas isso tende a mudar na próxima década. A Europa aprovou seu primeiro tratamento gênico em uma doença rara, mas

EM SÍNTESE Entusiasmo precoce sobre experiências de terapia gênica na década de 90 desencadeou expectativas irrealistas sobre o potencial da tecnologia em humanos.

42 Scientific American Brasil | Abril 2014

Após vários reveses trágicos cientistas passaram a mz`DmDåy‘ùŸ´ïyàyŠ´D´m¹D`¹®Èàyy´åT¹mDUŸ¹¨¹‘ŸD fundamental e das técnicas envolvidas. Agora novos

tratamentosj®DŸååy‘ùà¹åjyåïT¹ÈDàDy´ïàDày®ùå¹ clínico. A Europa aprovou sua primeira terapia gênica em 2012. Os Estados Unidos podem fazer isso em 2016.

extremamente dolorosa, a deficiência de lipoproteína lipase familiar, em 2012. No fim de 2013, os National Institutes of Health, nos Estados Unidos, retiraram alguns empecilhos regulatórios aumentando a rapidez do processo em casos considerados desnecessários. Observadores da indústria preveem que a primeira aprovação americana de um tratamento com gene comercial possa vir em 2016. A terapia gênica, após uma década perdida, finalmente está perfazendo seu caminho como tratamento médico revolucionário. CORAÇÃO PARTIDO

OS PRIMEIROS FRACASSOS DA TERAPIA GÊNICA destacaram como é difícil estabelecer um meio seguro e eficiente de transporte de genes para o tecido-alvo. Muitas vezes os sistemas mais seguros não foram eficazes e alguns dos sistemas mais eficazes acabaram por não ser muito seguros, desencadeando uma reação imune esmagadora, como no caso de Gelsinger e em outros, o desenvolvimento de leucemia. Para compreender o que levou a esses efeitos colaterais e descobrir como diminuir os riscos de novas ocorrências, cientistas se concentraram no sistema de transporte mais comum na terapia gênica: produzir um vírus para agir como uma espécie de pistola de injeção microscópica. Para começar, pesquisadores removem alguns genes do próprio vírus, abrindo espaço para os genes saudáveis que desejam inserir no paciente. (Este passo também tem a vantagem adicional de impedir que o vírus se replique assim que entra no organismo, aumentando a probabilidade de uma reação imune). Depois, os vírus personalizados são injetados no paciente, onde inserem os novos genes em vários locais nas células, dependendo do tipo de vírus a ser usado. Quando Gelsinger, se ofereceu como voluntário para um ensaio clínico o sistema de transporte selecionado consistia em adenovírus, que, em seu estado natural, poderia provocar infecções respiratórias leves das vias superiores nas pessoas. Cientistas da Pennsylvania University determinaram que a melhor chance de sucesso seria injetar o vírus no fígado, onde as células que normalmente produzem a enzima digestiva que faltava a Gelsinger se localizavam. Introduziram uma cópia operante do gene para essa enzima em adenovírus esvaziado de seu conteúdo. Depois injetaram um trilhão desses vírus – cada um com sua carga especial – diretamente no fígado de Gelsinger. Mas, no interior do organismo de Gelsinger, alguns vírus tomaram um desvio trágico. Entraram nas células hepáticas conforme o plano, mas também infectaram macrófagos, as enormes células errantes que servem como sentinelas do sistema imune e células dendríticas, que anunciam uma invasão. O sistema imune reagiu destruindo todas as células infectadas, um processo violento que, em última análise, devastou o corpo de Gelsinger de dentro para fora. A virulência da resposta imune tomou os pesquisadores de surpresa. Nenhum dos 17 voluntários que haviam sido submetidos a tratamento para a mesma doença apresentou esses efeitos colaterais graves. Cientistas sabiam que os adenovírus poderiam provocar uma resposta imune, mas, exceto por um estudo em que um vírus manipulado ligeiramente diferente provocou a morte de um

macaco, não perceberam como as reações poderiam ser tão explosivas. “Os humanos são muito mais heterogêneos que as colônias de animais”, compara James Wilson, da University of Pennsylvania, que desenvolveu o sistema de transporte viral usado no ensaio clínico do qual Gelsinger participou. “O que vimos nesse ensaio foi que uma pessoa entre 18 teve resposta exagerada contra o hospedeiro.” Em retrospectiva, parecia que teria sido mais sensato injetar menos – bilhões em vez de um trilhão – de vírus portadores do gene em seu corpo. Os pesquisadores também foram criticados por não informar Gelsinger e sua família sobre a morte do macaco para que eles pudessem tomar suas próprias decisões sobre se aquilo era um acontecimento não relacionado. A morte de Gelsinger não foi a única tragédia na terapia gênica. Logo após essa ocorrência, o tratamento de outra doença – a imunodeficiência combinada grave X1 (SCID-X1, na sigla em inglês) – desencadeou cinco casos de leucemia, incluindo uma morte, em 20 crianças. Mais uma vez houve deficiência no sistema de trans-

O caminho de décadas para o sucesso da terapia gênica está longe de terminar, mas avanços recentes aproximaram mais a abordagem experimental de um tratamento convencional para algumas doenças. porte do gene. Nesse caso, no entanto, a pistola de injeção microscópica em questão foi um retrovírus, um tipo de vírus que insere material genético diretamente no DNA de uma célula. O posicionamento exato dos genes terapêuticos é um pouco aleatório, porém, e os retrovírus, por vezes, inseriram a seu material num oncogene – um gene que pode provocar câncer sob determinadas circunstâncias. REPENSANDO A TECNOLOGIA

COM A PROPENSÃO DO ADENOVÍRUS DE PROVOCAR REAÇÕES IMUNES LETAIS e de o retrovírus desencadear câncer, cientistas começaram a prestar mais atenção em outros vírus em busca de melhores resultados. Logo se concentraram em dois participantes mais amplamente adequados. O primeiro sistema novo de transporte, o vírus adenoassociado (AAV), não adoece as pessoas (embora a maioria de nós seja infectada por ele em um momento ou outro). Por ser tão comum, é pouco provável que provoque reações imunes extremas. Esse vírus tem outra característica que também deve ajudar a minimizar os efeitos colaterais: há diversas variedades, ou serotipos, que favorecem tipos específicos de células ou tecidos. O AAV2, por exemplo, funciona bem no olho, enquanto o AAV8 atua no fígado e o AAV9 se www.sciam.com.br 43

CONCEITOS E DESAFIOS

Como corrigir um gene defeituoso A terapia gênica tenta desfazer os danos provocados por genes truncados ou defeituosos. A abordagem mais comum (abaixo) introduz uma cópia de um gene operante em um vírus a , que foi esvaziado da maior parte de seu conteúdo original. Esse vírus híbrido, com sua carga terapêutica, é então injetado no organismo, onde se liga a receptores b em células-alvo. Dentro da célula, a cópia corrigida do gene instrui a célula a começar a produzir a proteína c , o que era incapaz de fazer. Efeitos colaterais indesejáveis podem ocorrer se os genes forem inseridos acidentalmente no genoma do receptor de um modo que provoca câncer, ou se o próprio sistema imune do paciente tentar defesa excessiva do organismo contra o que lhe parece uma invasão (não exibido).

Duas opções de transporte Além de injetar vírus diretamente em pacientes, cientistas podem remover células do corpo, inserir os vírus portadores do gene terapêutico nas células (abaixo à direita) e reinjetar as células alteradas. Como a informação genética corrigida é incorporada no DNA das células, a correção será passada ÈDàDDå`z¨ù¨D垊¨›Då geradas.

Receptor

Tratamento do gene ocorre fora do corpo

Pacote viral Injeção direta no organismo

Parte defeituosa do genoma (preto) Célula do paciente

a

Pacote viral com gene terapêutico

Gene terapêutico

b

Parte defeituosa do Núcleo DNA do paciente celular

Célula do paciente

c

DNA do paciente Proteínas terapêuticas

Cientistas minimizam as chances de câncer ou de um ataque perigoso ao sistema imune selecionando cuidadosamente o tipo de vírus usado e limitando seu número ou restringindo os tecidos tratados.

Genes virais com o gene terapêutico incorporado

infiltra no tecido cardíaco ou cerebral. Cientistas podem escolher o melhor AAV para uma parte específica do corpo, diminuindo o número de vírus individuais que devem ser injetados, minimizando assim a probabilidade de uma resposta imune desproporcional ou outra reação indesejável. Além disso, o AAV deposita seu material genético fora dos cromossomos, por isso não provoca câncer acidentalmente por interferir com oncogenes. O vírus adenoassociado foi usado pela primeira vez em um ensaio clínico em 1996, na fibrose cística. Desde então, 11 serotipos foram identificados e suas partes foram misturadas e combinadas para manipular centenas de ferramentas de entrega aparentemente seguras e seletivas. Estudos atuais avaliam a terapia gênica com o uso de AAV para várias doenças do cérebro, inclusive mal de 44 Scientific American Brasil | Abril 2014

Parkinson e de Alzheimer e para a hemofilia, distrofia muscular, insuficiência cardíaca e cegueira. O segundo e um pouco mais surpreendente vetor de gene novo é uma versão esvaziada do HIV – o vírus que provoca a Aids. Após observá-lo além da sua reputação negativa, suas vantagens para a terapia gênica emergiram. Como membro do gênero Lentivirus de retrovírus ele escapa do sistema imune e – essencial para um retrovírus – normalmente não perturba oncogenes. Depois que os genes que tornam o HIV letal são retirados, a embalagem viral que permanece “exibe grande capacidade”, avalia Stuart Naylor, ex-diretor científico da Oxford Biomedica, na Inglaterra, que busca “medicamentos à base de genes” para doenças dos olhos. Ao contrário do AAV, menor, “ele é ótimo para a instalação

ILUSTRAÇÃO POR TAMI TOLPA

Melhorando a Segurança

de genes múltiplos ou grandes e robustos”, considera ele. “Não há qualquer toxicidade e nenhuma reação imune adversa.” Lentivírus esvaziados de seu conteúdo estão sendo usados em diversos ensaios clínicos, incluindo tratamentos para a doença adrenoleucodistrofia – caracterizada no filme Óleo de Lorenzo, de 1992. Até o momento, alguns meninos que receberam esse tratamento tornaram-se saudáveis o suficiente para voltar à escola. Embora ensaios clínicos que usem o AAV e o HIV estejam aumentando, cientistas também redirecionaram ou modificaram os sistemas de transporte viral mais antigos para que possam ser utilizados em circunstâncias limitadas. Os retrovírus não-HIV, por exemplo, agora são editados geneticamente para se desativarem antes que possam provocar a leucemia. Até o adenovírus, que provocou a morte de Gelsinger, ainda está em ensaios clínicos como um vetor de terapia gênica. Pesquisadores restringem seu uso a partes do organismo onde seja improvável que provoquem resposta imune. Uma aplicação promissora é tratar a “boca seca”, em pacientes submetidos à radioterapia para câncer de cabeça e pescoço, que prejudica as glândulas salivares, localizadas logo abaixo da superfície do interior da bochecha. Os NIH gerenciam um pequeno ensaio clínico que envolve a inserção de um gene que cria canais de água para as glândulas. Como as glândulas são pequenas e contidas e o delineamento experimental requer mil vezes menos vírus que os utilizados em Gelsinger, as chances de uma reação imune exagerada são reduzidas. Além disso, os vírus que não atingiram suas células-alvo devem acabar na saliva de um paciente, engolida ou cuspida, com pouca chance de irritar o sistema imune. Desde 2006, 6 dos 11 doentes tratados mostraram produção significativa de mais saliva. Bruce Baum, dentista e bioquímico que liderou a pesquisa antes de se aposentar, classificou os resultados de “cautelosamente encorajadores”. NOVOS ALVOS

INCENTIVADOS POR ESSES SUCESSOS, cientistas médicos foram além de tratar doenças hereditárias tentando reverter o dano genético que ocorre naturalmente no decorrer da vida. Cientistas da University of Pennsylvania, por exemplo, usam a terapia gênica para combater um câncer comum na infância conhecido como leucemia linfoblástica aguda (LLA). Embora a maioria das crianças com LLA responda à quimioterapia padrão, isso não ocorre com cerca de 20% delas. Cientistas estão se voltando para a terapia gênica para turbinar as células do sistema imune dessas crianças para localizar e destruir as células cancerosas recalcitrantes. A abordagem experimental é particularmente complexa e se baseia na denominada tecnologia de receptor de antígeno quimérico (CAR, na sigla em inglês). Como a Quimera da mitologia grega, composta de diferentes animais, um receptor de antígeno quimérico é formado por duas moléculas do sistema imune, normalmente não encontradas juntas. Algumas células imunes, conhecidas como células T, são então equipadas com esses receptores de antígenos quiméricos que permitem às células buscar proteínas encontradas em maior número em uma célula de leucemia. A célula T totalmente armada e implantada destrói a célula cancerosa. Os primeiros sujeitos do teste, que responderam favoravelmente, eram adultos com leucemia crônica. A tentativa seguinte, com uma criança, superou as expectativas dos pesquisadores. Emily Whitehead tinha cinco anos, em maio de 2010, ao ser diagnosticada com leucemia. Duas rodadas de quimioterapia não funcionaram. Na primavera de 2012, “ela recebeu um ciclo de qui-

mioterapia [o terceiro] que teria matado um adulto e ainda apresentava lesões nos rins, fígado e baço”, segundo Bruce Levine, um dos médicos de Whitehead. A menina estava a dias da morte. Os médicos tomaram uma amostra de sangue de Whitehead e isolaram algumas células T. Depois injetaram a amostra com lentivírus equipados com genes apropriados. Após um começo difícil, que felizmente respondeu ao tratamento, Whitehead melhorou rapidamente. Três semanas após o tratamento, um quarto das células T de sua medula óssea suportou a correção genética. As células T começaram a superar as células cancerosas, que logo desapareceram. “Em abril, ela estava careca”, relembra Levine. “Em agosto, ela foi para seu primeiro dia de aula na segunda série.” Embora as células modificadas de Whitehead possam não durar para sempre – e nesse caso os médicos podem repetir o tratamento – esta linda garota de cabelos castanhos revoltos está livre de câncer há cerca de dois anos e não está sozinha. Ao final de 2013, diversos grupos de cientistas relataram ter usado a técnica CAR em mais de 120 pacientes, para o tipo de leucemia de Whitehead e outros três tipos de câncer de sangue. Cinco adultos e 19 de 22 crianças alcançaram remissão, ou seja, estão livres de câncer atualmente. USO CLÍNICO

COM SISTEMAS DE TRANSPORTE VIRAIS MAIS SEGUROS À MÃO, especialistas da terapia gênica agora lidam com o maior desafio que qualquer medicamento novo enfrenta: aprovação da Food and Drug Administration nos Estados Unidos. Essa etapa requer a fase III de ensaios clínicos, projetada para avaliar a eficácia em um grupo maior de pacientes voluntários e, normalmente, leva de um a cinco anos (o tempo varia muito). A partir do final de 2013, por volta de 5% dos cerca de dois mil ensaios clínicos para a terapia gênica chegaram à fase III. Um dos mais adiantados se refere à amaurose congênita de Leber – doença que estava roubando a visão de Haas. Até o momento, várias dezenas de pacientes tiveram genes corretivos inseridos nos dois olhos e agora conseguem enxergar o mundo. A China foi o primeiro país a aprovar uma terapia gênica em 2004, para o câncer de cabeça e pescoço. Em 2012, a Europa aprovou uma terapia à base de um medicamento denominado Glybera para tratar a deficiência de lipoproteína lipase familiar. Cópias operantes do gene mutante envolto em AAV são injetadas nos músculos da perna. A empresa neerlandesa UniQure está no início de conversações com a FDA sobre a aprovação nos Estados Unidos. Um obstáculo potencial: o preço de uma única dose curativa é de US$ 1,6 milhão, mas esse custo pode cair quando pesquisadores desenvolverem procedimentos mais eficientes. Como ocorre com muitas tecnologias médicas, o caminho de décadas para o sucesso da terapia gênica é tortuoso e está longe de estar completo, mas enquanto essa estratégia acumular mais histórias de sucesso, como as de Corey Haas e de Emily Whitehead, ela se impulsiona cada vez mais para se tornar um tratamento médico convencional de algumas doenças e uma nova opção promissora para outras. PA R A C O N H E C E R M A I S Gene therapy of inherited retinopathies: a long and successful road from viral vectors to patients. Pasqualina Colella e Alberto Auricchio em Human Gene Therapy, vol. 8, no 23, págs. 796-807, agosto de 2012. www.ncbi.nlm.nih.gov/pubmed/22734691 National Institutes of Health’s gene therapy site: http://ghr.nlm.nih.gov/handbook/therapy

www.sciam.com.br 45

FOTOGRAFIA POR TRAVIS RATHBONE

G EO LO G I A

AS

O

R A

S A

A CH

T N IG

MAIS

S

DA TERRA

Uma equipe de cientistas acredita que rochas antigas descobertas no norte do Canadá sejam uma janela para a infância do planeta e para a origem da vida. Outra equipe alega que elas não têm nada de especial. Por Carl Zimmer EM SÍNTESE Rochas recentemente recuperadas da fronteira nordeste da baía de Hudson, no Canadá, podem ser as mais velhas já encontradas, mas cientistas estão debatendo se elas têm 3,8 ou 4,4 bilhões de anos. A datação

mais antiga coloca essas rochas próximas ao período da formação da Terra. Resolver esse debate depende da melhoria dos métodos de datação de átomos em pequenas amostras de rochas formadas na Terra pri-

mordial. Se as rochas tiverem 4,4 bilhões de anos, podem fornecer claros indícios de como a Terra tomou forma, quando os oceanos se compuseram e quanto tempo, depois disso, a vida começou.

www.sciam.com.br 47

O cinturão de pedras verdes, ou nefrita, de Nuvvuagittuq não parece um campo de batalha.

Carl Zimmer é colunista no The New York Times e autor de 13 livros, incluindo Evolution: making sense of life. Seu último artigo para a IY_[dj_ÒY7c[h_YWdfoi sobre o colapso das redes de alimentação.

de que dispõem vêm de pequenos pedaços de minerais sugerindo, por exemplo, que os oceanos se formaram antes da Lua. Eles estão na mesma situação dos biógrafos dos antigos filósofos gregos, tentando extrair o máximo de significado de remanescentes de pergaminhos e relatos de segunda mão. Se O’Neil estiver certo e as rochas de Nuvvuagittuq tiverem mesmo 4,4 bilhões de anos, elas não serão pedaços de pergaminho, mas livros inteiros. Milhares de acres de minerais estão esperando para ser estudados, talvez guardando as respostas de grandes mistérios. A tectônica de placas começou bem cedo na história ou a Terra amadureceu por centenas de milhões de anos antes de os continentes e de a crosta oceânica começarem a se mover? Qual era a química dos oceanos e da atmosfera daquele tempo? Quanto tempo após a formação da Terra a vida se manifestou? Se Mojzsis estiver correto, o capítulo mais antigo da história da Terra permanecerá indefinido. Mas se O’Neil tiver razão, as rochas de Nuvvuagittuq estão entre os mais preciosos tesouros da geologia.

Ele se encontra em profundo e pacífico isolamento na fronteira nordeste da baía de Hudson no Canadá, a mais de 30 km de Inukjuak, o assentamento humano mais próximo. Da margem da praia, o terreno aberto cresce em colinas, algumas cobertas com liquens, outras desnudadas pelos glaciares da Era do Gelo. As rochas expostas são belíssimas em sua complexidade distendida e dobrada. Algumas são cinza e negras, transpassadas por veios claros. Outras, rosadas, salpicadas com granadas. Na maior parte do ano, os únicos visitantes aqui são renas e mosquitos. Mas esse tranquilo local é, na verdade, um campo de batalha – mas de um ponto de vista científico. Por quase uma década, equipes rivais de geólogos têm viajado a Inukjuak, onde carregam canoas com equipamentos de camping e de laboratório e viajam ao longo da costa da baía até o cinturão. O objetivo: provar o quanto aquelas rochas são antigas. Uma das equipes, liderada pelo geólogo Stephen J. Mojzsis, da University of Colorado, está certa de que a idade é de 3,8 bilhões de anos. Isso é bem antigo, mas não é um recorde. Jonathan O’Neil, que lidera a equipe rival, da University of Ottawa, alega que as rochas de Nuvvuagittuq se formaram há 4,4 bilhões de anos. Isso faria dessas rochas, de longe, as mais antigas já encontradas. E não apenas isso. Rochas tão antigas assim nos diriam como a superfície do planeta se formou em sua infância violenta e quanto tempo depois surgiu a vida – capítulo essencial na biografia da Terra, que até agora esteve fora de alcance. Os primeiros 500 milhões de anos da história da Terra – dos 4,568 bilhões de anos de sua formação até 4,0 bilhões de anos atrás – foram uma época em que a chuva caía para formar oceanos e as primeiras terras secas despontaram na superfície do mar para formar os continentes. Foi um tempo em que cometas e asteroides se chocavam constantemente com a Terra, e em que um planetoide do porte de Marte também se chocaria com o planeta para formar a Lua a partir dos destroços lançados no espaço. Os geólogos, no entanto, têm poucas pistas do tempo exato desses eventos, e as poucas 48 Scientific American Brasil | Abril 2014

PRESO EM ROCHA

DA MESMA FORMA que as rochas que formam a maior parte da crosta terrestre, o material em Nuvvuagittuq geralmente surge de duas formas. Em alguns casos, finas partículas assentadas no fundo dos oceanos, onde foram gradualmente pressionadas em camadas de rocha sedimentar. Em outros casos, sob a forma magma derretido jorrado do manto da Terra, resfriando-se e cristalizando-se em rochas ígneas conforme emergiam. Apenas uma pequena fração da crosta antiga, em lugares como Nuvvuagittuq, permaneceu intacta. Algumas rochas foram lentamente erodidas pela chuva e vento e novamente levadas para o oceano, para um novo processo de sedimentação. Muitas outras foram carregadas de volta para as entranhas da Terra pelas placas tectônicas que mergulharam no manto quente, onde derreteram perdendo sua identidade original, misturando-se ao magma e ressurgindo como rocha nova. Rochas também eram destruídas por asteroides gigantes que se chocavam com a Terra e derretiam grandes porções da crosta. Há 4,4 bilhões de anos aproximadamente uma colisão – chamada o Grande Impacto – atirou grande quantidade de material em órbita, o que gerou a Lua. “O Grande Impacto provavelmente provocou um caos na Terra”, avalia Richard W. Carlson, do Carnegie Institution for Science. “Você não iria querer estar lá. Talvez preferisse assistir esse show em Vênus.” Como grande quantidade de rocha antiga foi destruída de uma ou outra forma, não é surpresa que as amostras sejam raras. É exatamente por isso que os achados de Nuvvuagittuq são tão celebrados – e tão contestados. Poucos outros lugares do mundo forneceram amostras com 3,8 bilhões de anos. A mais antiga veio da tundra dos Territórios do Noroeste, um dos três territórios do Canadá, datando de 3,92 bilhões de anos. A raridade das rochas antigas fez com que os geólogos procurassem outras pistas sobre como o planeta se mostrou em seus primei-

ros milhões de anos. Algumas dessas pistas vieram de minúsculos cristais chamados zircões. Esses minerais rugosos, à base de zircônio, algumas vezes se formam no magma, enquanto essa massa se resfria. Quando, posteriormente, as rochas resultantes são erodidas, alguns dos zircões podem permanecer intactos, mesmo quando se assentam novamente no solo do oceano e sejam incorporados nas rochas sedimentares mais novas. As ligações químicas que constroem os zircões podem aprisionar elementos radioativos como o urânio. O decaimento desses átomos age como um relógio que geólogos usam para medir a idade dos zircões. Os cristais também aprisionam outros compostos capazes de fornecer algumas pistas de como era a Terra quando se formou. “Zircões são excelentes porque eles são cápsulas do tempo”, avalia Mojzsis. No interior da Austrália, geólogos encontraram rochas sedimentares salpicadas com zircões muito antigos. Alguns (mas não as rochas ao redor) datam de 4,4 bilhões de anos, fazendo deles os mais velhos resquícios da história geológica já encontrados. Cientistas têm obtido informações incríveis dessas minúsculas gemas. Sua estrutura sugere que as rochas em que eles se formaram originalmente tenham se solidificado cerca de 6 km abaixo da superfície. Mojzsis e seus colegas também encontraram impressões digitais químicas de água em alguns dos zircões australianos. A informação que os cientistas podem extrair dos zircões sedimentares é melhor que nada, evidentemente, mas muito menos que poderiam obter das rochas originais em que crescem os zircões. Rochas contêm muitos outros minerais que, em conjunto, podem revelar muito mais sobre como era a Terra em seus primórdios. E é isso que nos traz a Nuvvuagittuq, argumenta Larry Heaman, da University of Alberta. PURA SORTE

NO FIM DA DÉCADA DE 90, o governo de Quebec lançou uma grande expedição geológica para elaborar os primeiros mapas detalhados da

região nordeste da província. A região tem uma geologia de camadas, com antigos caroços da crosta continental envolvidos por camadas rochosas mais jovens. Muito da rocha tem cerca de 2,8 bilhões de anos, mas Pierre Nadeau, então doutorando na Simon Fraser University, Colúmbia Britânica, trouxe amostras que datavam de 3,8 bilhões de anos. Por pura sorte, ele havia sido enviado ao cinturão de nefrita de Nuvvuagittuq. “Encontrar essas rochas foi como ter uma joia jogada no colo”, disse Ross Stevenson, colaborador de Nadeau, à BBC em 2002, após os resultados. Outros geólogos começaram a longa jornada a Nuvvuagittuq. Entre esses peregrinos, O’Neil, que estava para receber seu título de Ph.D. na McGill University. Ele estava impressionado pela similaridade química entre as rochas de Nuvvuagittuq e as formações de 3,8 bilhões de anos da Groenlândia. Talvez elas pertencessem à mesma massa antiga de terra. Para testar a química, O’Neil se juntou a Carlson, da Carnegie Institution, especialista em medição de precisão de rochas antigas. O único método objetivo para determinar se uma rocha específica de Nuvvuagittuq é antiga ou não é datá-la. Para isso, cientistas contam os níveis dos isótopos radioativos aprisionados nesse material. Os isótopos radioativos são variações dos átomos que integraram a nuvem de poeira da qual nasceu o Sistema Solar. Eles foram incorporados aos planetas e meteoritos no processo de solidificação e, quando as rochas na Terra se cristalizaram, acabaram aprisionados. Com o tempo, no entanto, eles decaem. Medindo os níveis restantes de isótopos, conhecemos a idade do material analisado. No laboratório da Carnegie Institution, O’Neil e Carlson calcularam a concentração dos diferentes isótopos nas rochas em exame. Foi quando perceberam algo realmente estranho nas amostras de Nuvvuagittuq. Entre os isótopos estava um conhecido como neodímio 142 (142Nd), que se forma do decaimento do samário 146 (146Sm). Não há mais 146Sm natural na Terra, pois sua meia-vida é curta, de cerca de 68 milhões de anos. “Foi-se há muito”, lamenta Carlson. “Samário 146 esteve presente quando a Terra se formou, www.sciam.com.br 49

FOTOGRAFIAS POR TRAVIS RATHBONE (ESQUERDA) E JAMIE KRIPKE (DIREITA)

ROCHAS DA DISCÓRDIA: Jonathan O’Neil (esquerda) insiste que suas rochas são um registro de 4,4 bilhões de anos. Stephen J. Mojzsis diz que eles têm 3,8 bilhões.

ALTA

a ce rne

h roc

d

ida

a fo

nh

Razão na época da formação da rocha BAIXA

Amostra 1

Razão entre samário 147 e neodímio 144

rocha: quanto mais íngreme a inclinação, maior o decaimento e mais velha a amostra. 0xäÔøžäDl¸ßxäøäDßD­þEߞ¸älxääxä­yî¸dos para datar as rochas do cinturão de nefrita de Nuvvuagittuq, no Canadá. Há sempre uma margem de erro, evidentemente, de modo que x§xäîD­Uy­DþD§žDßD­¸äßxäø§îDl¸älxø­ ­yî¸l¸­Džä`¸­Ç§xĀ¸Ôøx`¸­ÇDßDl¸žä

ANTIGAS OU AS MAIS ANTIGAS?

O’NEIL E SEUS COLABORADORES anunciaram seus resultados primeiro, em uma conferência de geologia em Vancouver. Mojzsis ainda se lembra do choque que sentiu: “Meu queixo caiu. Olhei em volta e as pessoas estavam atordoadas. Eu pensei: ‘Isso é muito peculiar’”. Mojzsis tinha uma razão particular para a surpresa. Ele estava entre os poucos geólogos que haviam viajado a Nuvvuagittuq para dar sequência às pesquisas de Nadeau. Ele e seus colaboradores identificaram um veio de rocha ígnea que tinha atravessado a crosta depois que ela se formou. Esse veio continha zircões. De volta ao Colorado, dataram os zircões em 3,75 bilhões de anos – resultado que batia muito bem com as estimativas originais de Nadeau, de 3,8 bilhões de anos. Agora, ali estava O’Neil, cara a cara com Mojzsis e o resto da comunidade científica, alegando que as rochas de Nuvvuagittuq eram meio bilhão de anos mais antigas.

Amostra 2

Amostra 3 ALTA

ßx§¹ž¸äiDßDąT¸lxøßF³ž¸öð}x`šø­U¸öćéx DßDąT¸x³îßxøßF³ž¸öðŠx`šø­U¸öćèÍ Ç߸ǹäžî¸j¸…D­¸ä¸­yî¸l¸lxÙlDîDcT¸ ǸßßDlž¸`DßU¸³¸Új…ßxÔøx³îx­x³îxøäDl¸Ǹß arqueólogos, funcionaria em princípio, mas ǸßÔøx¸`DßU¸³¸¿lx`Džßx§DîžþD­x³îxßEǞl¸j ä¹ǸlxlDîDßD­¸äîßDäDîy`xß`Dlxéć­ž§ anos. – Os Editores

Bernard Bourdon, colaborador de Mojzsis, da Escola Normal Superior de Lyon, na França, pediu que O’Neil lhe fornecesse algumas amostras para testá-las novamente. As medidas de neodímio estavam corretas. Mojzsis ainda argumenta: “Não faz sentido”. Assim, em 2011, Mojzsis e seus estudantes retornaram a Nuvvuagittuq para estudar mais o local. Eles mapearam o terreno e as camadas de rocha ao redor das amostras que O’Neil havia datado. Nas rochas que O’Neil alegou terem 4,4 bilhões de anos, a equipe encontrou bandas verdes brilhantes de quartzito. Mojzsis decidiu que essa seria uma maneira de testar se as rochas de Nuvvuagittuq eram mesmo as mais velhas do planeta. Geólogos já observaram arranjos similares em formações muito mais jovens. Elas ocorrem quando vulcões submersos espalham lava derretida sobre o solo oceânico. Algumas vezes os vulcões adormecem e os sedimentos do solo se assentam sobre as rochas ígneas. Então os vulcões acordam novamente e enterram a rocha sedimentar sob nova camada de rocha ígnea. Se esse for o caso em Nuvvuagittuq, então o quartzito teria vindo de sedimentos de uma antiga massa de terra durante uma dessas pausas vulcânicas. E se esses quartzitos tivessem zircões, esses zircões teriam de ser mais velhos que a rocha vulcânica ao redor, porque eles teriam uma história muito mais antiga. “Estávamos rastejando sobre muitos afloramentos naqueles dias”, conta Mojzsis. Depois de vários dias de caça eles encontraram dois trechos de quartzitos com zircões e um deles produziu milhares dos pequenos minerais. Quando levaram as amostras de volta para o Colorado, Mojzsis descobriu que eles tinham 3,8 bilhões de anos. Isso era exatamente o que eles não esperavam encontrar em rochas de 4,4 bilhões de anos. O grupo de Mojzsis abordou essa questão também de outros pontos de vista científicos. Eles usaram outro referencial para datar

FONTE: JONATHAN O’NEIL

ção

li da

lina

nc Ai

porque foi injetado pela supernova que deu início ao Sistema Solar. Mas então ele decaiu totalmente ao longo de 500 milhões de anos.” Carlson e seus colegas descobriram que rochas diferentes de Nuvvuagittuq tinham diferentes proporções de 142Nd e outros isótopos de neodímio. Essa variação só poderia existir se as rochas tivessem se formado numa época em que ainda existia samário 146 na Terra. O’Neil, Carlson e seus colaboradores compararam as proporções para estimar há quanto tempo as rochas se formaram. O resultado foi o que nenhum deles previra: 4,28 bilhões de anos. Para grande surpresa, eles haviam descoberto as rochas mais antigas da Terra. “Definitivamente, não era isso que esperávamos encontrar”, relata O’Neil. Ele e equipe relataram as descobertas em 2008. Desde então têm analisado outras amostras e agora as estimativas são de que as rochas de Nuvvuagittuq tenham 4,4 bilhões de anos.

50 Scientific American Brasil | Abril 2014

a ed

o Temp

Medir os níveis de átomos em uma rocha pode revelar sua idade. Quando as primeiras rochas enrijeceram, aprisionaram variações, ou isótopos, de átomos radioativos em sua estrutura. Ao longo de milhões de anos os isótopos radioativos lentamente foram decaindo a uma taxa constante, única para cada elemento, como um relógio, em outros isótopos. O samário 147 (o “pai”), por xĀx­Ç§¸jlx`Džx­³x¸lŸ­ž¸¿ðɸى§š¸ÚÊÍ' número de átomos pai gradualmente decresce x³ÔøD³î¸¸³ù­x߸lxE¸ä‰§š¸äDø­x³îDÍ Alguns átomos estáveis relacionados aos E¸ä‰§š¸äîD­Uy­‰`D­DÇߞ䞸³Dl¸ä`¸­¸ ocorre com o neodímio 144. Átomos estáveis ³T¸lx`Dx­jlx­¸l¸ÔøxäøDDUø³lF³`žD permanece a mesma ao longo do tempo. Fazenl¸ø­ßE‰`¸lDßDąT¸x³îßxE¸äÇDžx E¸äxäîEþxžäxDßDąT¸x³îßxE¸ä‰§š¸äx átomos estáveis, para os diferentes minerais na ߸`šDj¸Uîy­äxD§ž³šDþžäîD³¸ßE‰`¸D`ž­DjK direita. A inclinação da linha fornece a idade da

a

BAIXA

Como Datar uma Rocha

Razão entre neodímio 143 e neodímio 144

D I S C R I M I NAÇÃO D E I DA D E S

as rochas como, por exemplo, o decaimento do lutécio em háfnio. Mais uma vez, a idade era 3,8 bilhões de anos. Todas essas evidências levaram Mojzsis a uma nova narrativa sobre Nuvvuagittuq. Segundo ele, por volta de 4,4 bilhões de anos, rocha derretida aflorou na superfície da Terra e se solidificou. Conforme ela cristalizava, capturava um pouco do samário 146 que ainda restava na jovem Terra. A crosta antiga então submergiu novamente no manto e o material se aqueceu a ponto de não ser mais uma rocha, mas nem tudo se misturou ao manto. Um pouco desse material permaneceu como um aglomerado distinto com seu próprio nível peculiar de neodímio. Finalmente, 600 milhões de anos depois, a atividade vulcânica empurrou o material de volta à superfície, criando a rocha que incorporou parte daquele aglomerado antigo juntamente com sua assinatura de 4,4 bilhões de anos. “Aquele material fundido pode ter memória de sua existência prévia”, acredita Mojzsis. Como resultado, a rocha de apenas 3,8 bilhões de anos pode aparentar 4,4 bilhões. O MISTÉRIO DO ZIRCÃO EXPLICADO

MOJZSIS E SEUS COLABORADORES vêm apresentando esses resultados em conferências de geologia, às vezes na mesma sessão em que O’Neil exibe resultados opostos – que as rochas se formaram há 4,4 bilhões de anos e simplesmente permaneceram na crosta terrestre desde então. A equipe de O’Neil voltou a Nuvvuagittuq, aumentando sua coleção de rochas antigas de 10 para 50. Nenhum dos novos dados abalou a estimativa original da idade do sítio. O’Neil também rejeita a evidência que Mojzsis e seus colegas usam para argumentar que Nuvvuagittuq tem apenas 3,8 bilhões de anos. “Estamos em intenso desacordo sobre a geologia da região”, enfatiza O’Neil. Considere-se a camada de quartzito onde Mojzsis encontrou os zircões. Em formações tão antigas quanto as do caso de Nuvvuagittuq, não é tão simples identificar que tipos de rochas integram uma formação, porque ela se deformou muito ao longo de bilhões de anos. O’Neil não acredita que a faixa de quartzito seja realmente quartzito. Em vez disso, argumenta, é um veio de magma empurrado para dentro das rochas antigas há 3,8 bilhões de anos. Desse modo, a idade dos zircões não tem relação com a idade das rochas ao redor. “Não há nada bizarro ou incomum”, diz O’Neil sobre suas próprias rochas. “Elas são apenas muito velhas.” Heaman, ele mesmo especialista em rochas antigas, pensa que O’Neil e seus colaboradores têm um bom argumento. “Acredito que a evidência deles é forte”, diz. “Eles fizeram um trabalho cuidadoso.” Mas Heaman também pensa que alguma incerteza permanecerá até que os cientistas encontrem uma nova maneira de datar as rochas. É possível que alguns minerais estejam à espreita nas contestadas rochas de Nuvvuagittuq que contêm urânio e chumbo. Essa combinação é a maneira mais confiável de contar o tempo passado, uma vez que os cientistas têm vasta experiência com ela. “Se alguém encontrar o material certo e obtiver uma idade muito antiga, então a comunidade científica estaria mais aberta à ideia de que há alguma crosta muito antiga exposta”, considera Heaman. QUANDO A VIDA SE FORMOU

SE AS ROCHAS DE NUVVUAGITTUQ têm mesmo 4,4 bilhões de anos, O’Neil acredita que elas teriam o potencial para abrir uma enorme janela para a Terra jovem, porque teriam se formado pouco depois do Grande Impacto. Os zircões australianos também estavam se formando àquela época, quilômetros no interior do manto. Mas O’Neil argumenta que as rochas de Nuvvuagittuq se formaram na superfície. “A geoquímica dessas

rochas realmente se parece com um solo oceânico”, diz ele. Se isso for verdade, confirmaria que a Terra teve um oceano pouco tempo depois do Grande Impacto. O’Neil também pensa que a química das rochas é muito similar às rochas do solo oceânico que se formaram mais recentemente. Isso sugeriria que quando os oceanos da Terra apareceram, não eram tão diferentes de hoje. O’Neil acredita que as rochas mostram sinais de tectonismo, sugerindo que esse processo começou muito cedo na história do planeta. Há ainda um prospecto muito mais excitante se as rochas de Nuvvuagittuq tiverem mesmo se formado em solo oceânico há 4,4 bilhões de anos: elas iluminariam a origem da vida. Até agora, a trilha dos fósseis chega friamente a 3,5 bilhões de anos. Em rochas mais jovens que isso, cientistas encontram bactérias preservadas. Em rochas mais velhas, não encontram coisa alguma. Mas fósseis não são as únicas características que a vida deixa para trás. Conforme as bactérias se alimentam de carbono, podem alterar o balanço de isótopos desse elemento químico no ambiente, e esse desequilíbrio pode estar preservado em rochas que se formaram à época. Alguns pesquisadores alegam que as rochas de 3,8 bilhões de anos da Groenlândia têm marcas desse desequilíbrio, uma assinatura da vida. Ainda assim, não há evidências de vida nos primeiros 700 milhões de anos da Terra. Assim, cientistas não podem dizer se a vida começou rapidamente no planeta ou demorou centenas de milhões de anos. Eles ainda devem descobrir onde a vida começou no planeta. Alguns pesquisadores sugerem que moléculas biológicas emergiram em desertos ou piscinas de maré. Outros defendem que as fontes hidrotermais dos oceanos foram os berçários originais. Se as rochas de Nuvvuagittuq se formaram em solo oceânico há 4,4 bilhões de anos, elas são o material perfeito para estudar essas questões. O’Neil espera colaborar com outros pesquisadores para constatar se as rochas poderiam ter se formado em fontes hidrotermais. “Não podemos ignorar essas rochas. É o lugar ideal onde a vida pode ter se formado”, diz. Encontrar as mais antigas características da vida é uma obsessão para Mojzsis, mas ele não as procurará nas rochas de Nuvvuagittuq. Mojzsis vê um grande benefício surgir do desacordo dele com O’Neil e outros pesquisadores. Conforme eles discutem, aperfeiçoam métodos para datar rochas em geral. Gerações futuras de geólogos que se aventurarem em regiões remotas do mundo e trouxerem amostras enigmáticas serão capazes de usar esses métodos e, finalmente, estudar os primórdios da Terra. E nesse ponto, O’Neil e Mojzsis concordam. “Provavelmente, todos esses pequenos encraves de rochas antigas estão por toda parte”, prevê O’Neil. “Acontece que eles passam despercebidos.” PA R A C O N H E C E R M A I S D¨†DUŸ¨¨Ÿ¹´ĂyDà幆àyĀ¹à§Ÿ´‘¹†›DmyD´®DŠ``àùåïï¹Èà¹mù`yï›y%ùÿÿùD‘ŸïïùÕ eoarchean felsic crust. Jonathan O’Neil et al. em Earth and Planetary Science Letters, vol. 379, páginas 13 a 25, 2013. 2ymù`ymjàyùåymD´mày`Ă`¨ymimyïàŸïD¨Ɵà`¹´åmyŠ´yD®DāŸ®ù®D‘y†¹àï›yy¹Dà`›yD´Ê`DÎñé‹Ĉñé~Ĉ$DË%ùÿÿùD‘ŸïïùÕåùÈàD`àùåïD¨Uy¨ïj1ùyUy`Ê D´DmDËÎ Nicole L. Cates et al. em Earth and Planetary Science Letters, vol. 362, páginas 283 a 293, 2013. The story of Earth. Robert Hazen. Viking, 2012. D E N OSSOS A RQU I VOS A origem violenta dos continentes Sarah Simpson, março de 2010. A Terra esfriou mais cedo? John W. Valley, dezembro de 2005.

www.sciam.com.br 51

T EC N O LO G I A DA I N FO R M A Ç Ã O

O autor desejava criar um software que navegasse no jargão médico. Acabou descobrindo plágio generalizado e centenas de milhões de dólares em possíveis fraudes

EM 1994 EU ME REINVENTEI. Como físico e engenheiro da General Atomics fazia parte de um grupo interno de reflexão encarregado de responder perguntas difíceis de qualquer parte da empresa. Nesses anos, trabalhei em projetos tão diversos como fusão a frio e drones Predator. Mas, no início da década de 90, frequentemente colaborava com biólogos e geneticistas. Eles me diziam que novas tecnologias precisavam para fazer suas pesquisas e eu tentava desenvolvê-las. Por volta dessa época ouvi falar de uma nova iniciativa, o Projeto Genoma Humano. O objetivo era decifrar a sequência dos cerca de três bilhões de bases de DNA, ou letras de código, em cromossomos humanos. Fiquei fascinado. Por acaso li um artigo nesta revista observando que algumas das tecnologias necessárias ainda precisariam ser desenvolvidas. Físicos e engenheiros precisavam concretizar essas criações e, antes que percebesse, eu me vi professor do Southwestern Medical Center da University of Texas, onde meu parceiro científico, um geneticista, e eu construímos um dos primeiros centros de pesquisa do Projeto Genoma Humano. Lá tudo era diferente. Meus colegas falavam uma linguagem diferente – a medicina. Eu falava física. Na física, as equações básicas governam quase tudo. Na medicina não há equações universais – apenas muitas observações, alguma compreensão por partes e muitos jargões. Eu participava de seminários e anotava enormes

listas de palavras que nunca tinha ouvido e depois passava horas procurando-as no dicionário. Para ler um artigo científico precisava de um dicionário médico. Frustrado com a minha incapacidade de entender qualquer parte de texto em sequência, decidi desenvolver um software para me ajudar. Queria um mecanismo de busca que consideraria um trecho de texto e retornaria referências para leitura posterior, resumos e trabalhos que rapidamente me levariam ao tema em questão. Era um problema difícil. Os mecanismos de busca na internet estavam apenas começando. Eram bons para encontrar o melhor restaurante de falafel [bolinhos fritos de grão-de-bico ou fava moídos] da cidade, mas não conseguiam digerir um parágrafo com conceitos múltiplos inter-relacionados e me apontar leituras afins. Comecei a estudar análise de texto com alguns estudantes e pós-doutorandos e, juntos, desenvolvemos um software denominado eTBLAST (electronic Text Basic Local Alignment Search Tool, em inglês), inspirado na BLAST, ferramenta de software usada para pesquisar bancos de dados de DNA e sequência de proteínas. Uma busca típica na BLAST costumava ser uma série de 100 a 400 letras de DNA e devolveria sequências mais longas, que incluíssem esses códigos. A busca na eTBLAST seria um parágrafo ou página – basicamente com 100 palavras ou mais. Projetar o protocolo de busca foi mais difícil que projetar o software para procurar uma www.sciam.com.br 53

FOTOS DE ADAM VOORHES

Por Harold “Skip” Garner

DÉJÀ VU

QUANDO ME PROPUS A EXPLORAR essa nova pergunta a pesquisa sobre plágio em biomedicina era anônima. Na investigação mais recente que encontrei pesquisadores admitiram plagiar 1,4% do tempo, mas a precisão desse número dependia da honestidade dos entrevistados. Com a eTBLAST, poderíamos verificar se diziam a verdade. Assim que tivemos auxílio suficiente dos estudantes e um computador bastante poderoso selecionamos resumos aleatórios da Medline e depois usamos como consultas na eTBLAST. O computador comparava o texto da busca com todo o conteúdo da Medline, buscando semelhanças e depois produzindo uma lista de ocorrências. Cada ocorrência vinha com uma pontuação de similaridade. A consulta estava sempre no topo da lista – 100% de semelhança. A segunda ocorrência costumava ter uma pontuação de similaridade de dígitos entre um algarismo e 30%. Ocasionalmente, porém, verificou-se que a segunda e, às vezes, a terceira ocorrência chegava a marcas próximas a 100%. Depois de analisar milhares de buscas,

Harold “Skip” Garner é professor de ciências biológicas, ciências da computação e medicina na Virginia Tech e um empreendedor em série. Fundou a HelioText, uma empresa de análise de texto, e faz parte do conselho de assessores da IY_[dj_ÒY7c[h_YWd.

começamos a ver que cerca de 5% tiveram pontuação suspeita de alta similaridade. Analisamos esses resumos e os lemos para garantir que o software encontrava coisas que um ser humano consideraria semelhantes. Depois prosseguimos comparando o texto integral dos documentos que exibiam resumos suspeitos similares. Logo começamos a encontrar exemplos flagrantes de plágio – não apenas frases recicladas, mas resumos inteiros por baixo do pano. Foi decepcionante, até mesmo surpreendente. Claro que sabíamos que pesquisas diziam que 1,4% dos pesquisadores admitiam plágio, mas é uma coisa muito diferente ver exemplos de trabalhos plagiados lado a lado. Para os alunos, em particular, o processo foi emocionante. Sentiam-se como combatentes do crime e, em certo sentido, eram mesmo. O passo seguinte foi ampliar a computação e a análise. Para sermos minuciosos, queríamos fazer a busca de similaridade em cada ocorrência de tamanho suficiente na Medline – na época, cerca de nove milhões de ocorrências, cada uma contendo uma média de 300 palavras, multiplicadas por quase nove milhões de comparações. A tarefa levou meses e consumiu uma quantidade considerável do poder computacional de nosso laboratório. Conforme os resultados surgiram, analisamos e colocamos todos os resultados muito semelhantes em um banco de dados que chamamos de Déjà Vu. O Déjà Vu começou a se encher com pares de resumos da Medline muito semelhantes – cerca de 80 mil pares, semelhantes em pelo menos 56%. A maioria desses pares era muito semelhante por razões perfeitamente aceitáveis: eram atualizações de publicações antigas ou resumos de reuniões, por exemplo, mas outros pareciam suspeitos. Apresentamos um texto à Nature contendo informações sobre a frequência de plágios e a publicação duplicada (às vezes chamada de autoplágio), detalhes sobre o conteúdo do banco de dados do Déjà Vu e alguns exemplos. (Scientific American faz parte do Nature Publishing Group.) Os editores aceitaram, mas como nos referimos a alguns resumos como plagiados os advogados recusaram nosso texto. Tinham um motivo excelente: as únicas pessoas que poderiam determinar um plágio eram editores e conselhos de revisão ética. Poderíamos apresentar apenas fatos – a quantidade de sobreposição de texto ou semelhança entre duas peças aleatórias de literatura científica. Por fim, com a aprovação dos advogados, foi o que fizemos. Quando o relatório saiu na Nature, o mundo desabou. Os editores da revista ficaram chateados, pois isso lhes trouxe trabalho adicional. Para proteger os direitos de autores, os editores dos artigos originais tiveram de insistir para que os trabalhos plagiados fossem recolhidos. O segundo editor, é claro, sentiu-se constrangido. Cientistas ficaram zangados, pois nossos resultados pareciam expor uma falha na revisão por pares, mas a contragosto ad-

EM SÍNTESE Por meio da prospecção da literatura médica com o software de análise de texto o autor encontrou evidências de plágio e pos-

54 Scientific American Brasil | Abril 2014

síveis fraudes generalizadas. Atualmente, argumenta ele, a proliferação de revistas cien`Då mùÿŸm¹åDå †D`Ÿ¨Ÿï¹ù D ÈùU¨Ÿ`DcT¹ my

ïàDUD¨›¹å ȨD‘ŸDm¹åÎ A análise de texto é uma ferramenta útil para a detecção de ȨE‘Ÿ¹j®DåïD¨ÿyĆyåïy¦D´D›¹àDmy`¹´åŸmy-

àDàù®´¹ÿ¹®¹my¨¹myÈùU¨Ÿ`DcT¹`Ÿy´ï Šca, possivelmente um único corpus eletrônico ao estilo da Wikipedia.

PÁGINAS ANTERIORES: ROBIN FINLAY (COMPOSIÇÃO DE PÁGINAS)

sequência de letras, pois o mecanismo de busca não poderia ser meramente literal. Ele também tinha de reconhecer sinônimos, siglas e ideias relacionadas expressas com palavras diferentes e deveria considerar a ordem das palavras. Em resposta a uma busca que consistia em um trecho de texto, a eTBLAST devolveria uma lista ordenada das “ocorrências” do banco de dados de referência, juntamente com uma proporção de similaridade entre a busca e cada texto encontrado. O banco de dados óbvio a pesquisar era a Medline (disponível na PubMed em pubmed.org), o repositório de toda pesquisa biológica relevante para a medicina mantido pela Biblioteca Nacional de Medicina dos National Institutes of Health. Ele contém o título e o resumo de milhões de trabalhos de pesquisa de milhares de revistas especializadas revisadas por pares. A Medline tinha um mecanismo de busca baseado em palavra-chave, portanto, uma consulta – por exemplo, “genes de câncer de mama” – devolveria inúmeras ocorrências, muitas vezes com links para artigos completos. Mas como pesquisador biomédico recém-convertido eu nem sabia como começar muitas das minhas pesquisas. As primeiras versões da eTBLAST levaram horas para comparar um parágrafo de algumas centenas de palavras na Medline, mas o software funcionou. Usando a eTBLAST eu poderia examinar artigos científicos, dominando seu significado parágrafo a parágrafo. Poderia examinar uma proposta de tese de um estudante de pósgraduação e rapidamente chegar à literatura pertinente. Meus parceiros de pesquisa e eu até falamos com o Google sobre a comercialização de nosso software, mas fomos informados de que ele não se encaixava no perfil de negócios da empresa. Então, os acontecimentos tomaram um rumo inesperado. Algumas vezes encontrei texto de propostas estudantis idêntico ao de outros estudos não mencionados. Esses alunos receberam treinamento corretivo sobre formação ética. Recebi uma pergunta para pesquisa que mudaria a minha carreira: quanto da literatura biomédica profissional foi plagiado?

mitiram que era um tema importante e um problema sério. Cientistas e médicos tomam decisões críticas com base no que leem na literatura. Qual o significado disso se essas decisões foram baseadas em estudos contaminados? Em última análise, determinamos que 0,1% das publicações profissionais foram plagiadas descaradamente de trabalho alheio. (Investigamos apenas textos que eram quase idênticos entre si, deve haver muitos mais casos em que pequenos fragmentos de trabalhos são plagiados, mas como nosso software procurou apenas resumos, ele não detectaria essas coisas.) Cerca de 1% era autoplágio; obra de um autor que aparece, muitas vezes, quase na íntegra em até cinco revistas. Se essas percentagens parecem pequenas, lembre-se que cerca de 600 mil novos artigos biomédicos são publicados a cada ano. Em pouco tempo percebemos que o processo de publicação começou a mudar. Editores de revistas começaram a usar a eTBLAST para verificar propostas de publicação. Eu também mudei. Evoluí novamente, acrescentando “pesquisador de ética” na descrição de meu trabalho. POLICIAL DA ÉTICA

O PRIMEIRO GRANDE ESTUDO sobre plágio estava apenas começando. Compreender as causas do plágio e seus efeitos sobre a ciência exigiria muito mais trabalho. Quando um texto repetido é aceitável? Quando e por que cientistas plagiam? Que outros tipos de comportamento antiético a análise de texto poderia descobrir? Então, refinamos nosso software, expandimos nossos bancos de dados e assumimos novos estudos. Alguns dos nossos trabalhos posteriores revelaram nuances inesperadas no debate sobre o plágio. Descobrimos que, em alguns casos, a semelhança textual não só é aceitável, mas preferível. Na parte de métodos de um trabalho de pesquisa, por exemplo, em que a consideração mais importante é a reprodutibilidade dos resultados, o fraseado comum serve ao propósito relevante de mostrar claramente que exatamente o mesmo protocolo foi utilizado. Encontramos ainda alguns lapsos éticos verdadeiramente chocantes. Em um estudo publicado na revista Science, obtivemos os exemplos mais flagrantes de plágio que poderíamos encontrar – pares de estudos em que o texto B era, em média, 86% idêntico ao A – e os analisamos em detalhe. Enviamos aos autores e editores envolvidos nesses estudos um e-mail com cópias com anotações nos documentos, juntamente com pesquisas confidenciais. Eles estavam cientes da semelhança? Haveria explicações? 90% das pessoas contatadas responderam. Alguns autores divulgaram violações éticas impressionantes. Alguns admitiram que copiaram estudos enquanto revisavam – e os criticaram negativamente para bloquear sua publicação. Alguns colocaram a culpa pelo lapso em estudantes de medicina fictícios. Um autor disse haver plagiado um estudo como brincadeira. Só que essa pessoa era o vice-presidente da comissão nacional de ética do seu país. Sem surpresa, a maioria dos trabalhos contaminados naquele grupo foi desde então recolhida. Essas não foram as últimas violações éticas que encontraríamos. No início de 2012 começamos a buscar casos de dupla obtenção de subsídios, isto é, receber dinheiro de várias agências governamentais para executar o mesmo trabalho. Baixamos resumos de aproximadamente 860 mil bolsas de agências governamentais e privadas, inclusive as do National Institutes of Health, a National Science Foundation, o Departamento de Defesa, o Departamento de Energia e Susan G. Komen for the Cure e as submetemos ao tra-

tamento eTBLAST. O estudo exigiu 800 mil vezes 800 mil (cerca de 1012) comparações e poder de supercomputador. Depois de analisar os 1.600 resumos mais semelhantes com subsídios descobrimos que cerca de 170 pares tinham objetivos, metas ou hipóteses praticamente idênticos. Concluímos várias coisas: que a dupla obtenção de bolsas vinha ocorrendo de forma consistente por um longo período, envolvendo as mais prestigiadas universidades americanas, e que a perda resultante para a pesquisa biomédica chegava a US$ 200 milhões por ano. O FUTURO DA PUBLICAÇÃO CIENTÍFICA

UMA PEQUENA PORCENTAGEM de pessoas sempre quebra as normas da sociedade e cientistas não são exceção. Em tempos de desespero, com o declínio de subsídios e a concorrência cada vez mais acirrada por posições acadêmicas, alguns cientistas tendem a se comportar mal. Na verdade, uma recente explosão de revistas duvidosas e inescrupulosas transformou a publicação científica em um show de faroeste. Nunca foi tão fácil encontrar um local para publicar seu material, mesmo que ele seja obviamente plagiado. A análise de texto oferece uma boa ferramenta para policiar o mau comportamento, embora possa fazer muito mais que expor o plágio. Poderia facilitar formas inteiramente novas de compartilhamento de pesquisa. Uma ideia instigante é a adoção de um modelo de Wikipedia: criar um corpus eletrônico dinâmico de trabalho sobre um assunto que cientistas continuamente editariam e melhorariam. Cada “publicação” nova consistiria em uma contribuição para o crescente corpo único de conhecimento; essas partes com métodos redundantes se tornariam desnecessárias. O modelo Wikipedia seria um passo em direção a um banco de dados central de todas as publicações científicas em todas as disciplinas. Autores e editores poderiam usar a prospecção de textos para verificar novidades em pesquisas recentes e desenvolver métricas confiáveis para o impacto de uma ideia ou descoberta. O ideal é que, em vez de medir o impacto de um trabalho pelo número de citações recebidas, teríamos de medir sua influência em nosso conhecimento científico geral e até mesmo na sociedade. Na Virginia Tech, para onde fui há quatro anos, lutamos para manter a eTBLAST em operação, mas o software ainda tem milhares de usuários. Minha esposa e sócia no negócio, Kim Menier, e eu, enquanto isso, estamos otimistas com a análise de texto. Trabalhamos para aplicar o tipo de busca de semelhança de um parágrafo que descobriu tantos casos de plágio para outros fins também, inclusive a gestão de bolsas de estudo, a pesquisa de mercado e a auditoria de patentes. Temos o próximo Google em nossas mãos? Quem sabe? Falo por experiência própria ao dizer que a análise de texto pode ser verdadeiramente reveladora. Ela já me provou que cientistas podem ser tão falhos quanto qualquer um de nós.

PA R A C O N H E C E R M A I S Research funding: same work, twice the money? Harold R. Garner et al. em Nature, vol. 493, págs. 599-601, 31 de janeiro de 2012. Systematic characterizations of text similarity in full text biomedical publications. Zhaohui Sun et al. em PLOS ONE, vol. 5, no 9, artigo no. e12704, 15 de setembro de 2010. Responding to possible plagiarism. Tara C. Long et al. em Science, vol. 323, págs. 1293-1294, 6 de março de 2009. A tale of two citations. Mounir Errami e Harold Garner em Nature, vol. 451, págs. 397-399, 24 de janeiro de 2008.

www.sciam.com.br 55

ECO LO G I A

O Renascimento Genético da Castanheira Americana

COM MAIS DE 20 METROS DE ALTURA e 1,8 m de diâmetro, uma das maiores castanheiras americanas sobreviventes cresce no Oregon (à esquerda). À direita, uma folha dessa espécie.

Um fungo exótico quase exterminou as florestas de castanheiras antes tão vastas na América do Norte. A engenharia genética pode ressuscitá-las Por William Powell

William Powell é codiretor do Programa de Pesquisa e Restauração da Castanheira Americana na State University of New York College of Environmental Science and Forestry. Ele é um recente ganhador do Prêmio de Biotecnólogo Florestal do Ano, concedido pela Forest Biotechnology Partnership do Institute of Forest Biotechnology, a única organização dedicada à ÒæÒÜr§ÜDO”›”fDfrfDO”«ÜrZ§«›«†”D«ÍrÒÜD›r¡rÒZD›D†›«OD›»

E

Antes do início do século 20, a castanheira americana (Castanea dentata) compunha cerca de 25% das árvores de madeira de lei em sua área de proliferação nas florestas decíduas do leste americano e de uma pequena região no Canadá. Florestas decíduas são aquelas compostas principalmente por árvores que perdem suas folhas no outono. Atualmente restam apenas uns poucos exemplares de castanheiras adultas, plenamente desenvolvidas, juntamente com milhões de tocos de raízes. De vez em quando esses “tocos vivos” conseguem soltar alguns brotos que chegam a sobreviver por dez anos ou mais; mas as árvores raramente vivem tempo suficiente para produzir sementes, porque o fungo quase sempre as faz regredir de novo. Em seu apogeu, a castanheira americana era uma espécie importantíssima, indispensável à saúde de um grande número de organismos em seu ecossistema. Muitas aves, insetos e pequenos mamíferos diferentes nidificavam em seus galhos e se escondiam em sua casca. Ursos, veados, perus, gralhas-azuis, esquilos e outros animais consumiam as grandes e nutritivas castanhas. Depois da perda de tantas castanheiras maduras as populações de animais selvagens diminuíram e ficaram menos diversificadas. Os carvalhos que desde então substituíram as castanheiras não conseguem sustentar tantos animais; seus frutos têm apenas metade do valor nutritivo das castanhas. Além disso, as castanheiras produziam quantidades maiores de nozes que os carvalhos, em parte porque floresciam depois de geadas que poderiam destruir os delicados botões. A castanheira americana também tinha grande valor econômico. Seus frutos podem ser utilizados como alimento ou para a produção de combustível etanol. Como a árvore cresce rapidamente, tem madeira robusta, de textura uniforme, e é muito resistente ao

apodrecimento, ela fornece madeira de excelente qualidade. De fato, se as castanheiras ainda fossem abundantes, a maioria dos deques provavelmente seria feita com sua madeira em vez de com madeira tratada a pressão, que muitas vezes contém metais pesados e outros conservantes perigosos para o ambiente e a saúde humana quando penetram no solo e em alimentos. Finalmente, a castanheira americana sempre foi uma árvore especialmente amada, imortalizada em poesias, canções, ruas, e nomes de escolas, hotéis e parques distribuídos pelo país. Não devemos ficar de braços cruzados enquanto a castanheira americana se torna apenas uma memória distante para a maioria das pessoas. O ponto culminante de décadas de pesquisas sugere que a ciência pode restaurar a árvore e todos os recursos que ela oferecia aos humanos e à vida selvagem. Após um século de esforços frustrados para combater o cancro-da-castanheira, duas abordagens agora estão tendo algum sucesso. Uma estratégia tenta criar castanheiras americanas resistentes à doença fúngica com uma antiga técnica da horticultura: a hibridização. Ao cruzarem castanheiras americanas com congêneres chinesas, menores, mas resistentes a fungos, pesquisadores estão “retrocruzando” os híbridos resultantes com outras castanheiras americanas para americanizar as árvores o máximo possível, na esperança de preservar todos os genes responsáveis pela resistência fúngica. Mas, além de ser bastante impreciso, o cultivo por retrocruzamento requer muitas gerações e milhares de árvores para produzir exemplares adequados. Por essas razões, meus colaboradores e eu estamos nos concentrando em uma segunda abordagem, que se baseia em alterar o DNA da castanheira de modo muito mais preciso que a criação

EM SÍNTESE Em seu apogeu, antes do início do século 20, a castanheira D®yàŸ`D´DŒ¹àyå`ŸD´D匹àyåïDå¹àŸy´ïDŸåmD ®zàŸ`Dm¹ Norte, proporcionando abrigo e alimento para muitas outras criaturas. Mas, em apenas 50 anos, um fungo estrangeiro introduzido por humanos erradicou mais de três bi-

58 Scientific American Brasil | Abril 2014

lhões de árvores. Para restaurar a castanheira americana alguns cientistas a hibridizaram com sua prima chinesa mais resiliente. Uma abordagem mais precisa e bem-sucedida insere genes de trigo de outras plantas em castanheiras americanas para produzir árvores resistentes a fungos. Se

pesquisadores receberem aprovação federal para plantar essas árvores transgênicas na Natureza, o que poderia acontecer nos próximos cinco anos, a castanheira americana será DÈàŸ®yŸàDȨD´ïD‘y´yïŸ`D®y´ïy®¹mŸŠ`DmDÈDàDàyåïDùàDà uma espécie ameaçada em sua área nativa de proliferação.

PÁGINAS ANTERIORES: GARY BRAASH GETTY IMAGES (ÁRVORE); JOEL SARTORE (FOLHA)

M 1876 SAMUEL B. PARSONS RECEBEU UM CARREGAMENTO DE SEMENTES DE CASTANHEIRAS do Japão e decidiu cultivar e vender as árvores para pomares especializados. Sem que soubesse, sua carga provavelmente abrigava um passageiro clandestino que provocou um dos maiores desastres ecológicos a atingir o leste da América do Norte. As árvores provavelmente abrigavam esporos de um fungo patogênico, o Cryphonectria parasitica, contra o qual as castanheiras asiáticas, mas não suas primas americanas, haviam desenvolvido resistência. O C. parasitica efetivamente mata uma árvore suscetível por estrangulamento ao formar “cancros” — áreas afundadas de tecido vegetal morto — em sua casca. Essas “feridas” circundam o tronco e bloqueiam o fluxo de água e nutrientes entre raízes e folhas. Em apenas 50 anos esse único fungo matou mais de três bilhões de castanheiras americanas.

tradicional e que tem o potencial de produzir maior quantidade de árvores resistentes ao fungo mais rapidamente. Ao emprestarmos genes de trigo e da castanheira chinesa, entre outras plantas, e inseri-los no genoma da castanheira americana, criamos centenas de árvores transgênicas e algumas delas se defendem tão bem, ou melhor que as primas asiáticas, contra o C. parasitica. Se o Departamento da Agricultura (USDA), a Agência de Proteção Ambiental (EPA), e a Food and Drug Administration (FDA) americanas aprovarem nossas árvores, o que pode acontecer em cinco anos, elas serão os primeiros organismos transgênicos utilizados para devolver uma espécie ao seu ambiente nativo. Comparada a outras iniciativas para resgatar espécies ameaçadas ou extintas, com engenharia genética e biotecnologias relacionadas, como as propostas restaurações do pombo-passageiro, do tilacino [conhecido como lobo-da-tasmânia ou tigre-da-tasmânia] e do mamute, a mobilização para ressuscitar a castanheira americana enfrenta muito menos obstáculos e oferece benefícios muito mais claros. Ao contrário de mamutes e pombos clonados, árvores não precisam de mães de aluguel, cuidados dos pais ou socialização. E, como um organismo massivo que é lar para muitos outros, a castanheira americana pode melhorar a saúde da floresta mais que qualquer animal.

GARY BRAASH

SEMENTES DA SALVAÇÃO

Como muitos adultos americanos da atualidade, tudo o que eu sabia sobre castanhas enquanto crescia era o que aprendi de certa canção natalina. Mas em 1983, quando me tornei estudante de graduação e trabalhava com o patologista vegetal Neal van Alfen, então na Utah State University, desenvolvi profundo apreço pela magnífica castanheira e sensibilidade por sua morte pelas mãos, ou melhor, pelos dedos fungais de um patógeno exótico. Em 1989, quando já havia me transferido para a State University of New York College of Environmental Science and Forestry, Stan Wirsig da American Chestnut Foundation abordou meu colega Charles Maynard e a mim com uma proposta. Ele queria complementar o programa de hibridização de castanheiras da fundação, ativo até hoje, com um novo projeto de restauração focado em engenharia genética que, à época, era uma tecnologia de ponta e prometia uma maneira mais rápida e precisa para criar castanheiras americanas resistentes. Uma de minhas tarefas era encontrar um gene capaz de assegurar às árvores resistência ao C. parasitica, enquanto Maynard e Scott Merkle, da University of Georgia, desenvolviam as técnicas que nos permitiriam introduzir esse gene em embriões de castanheiras — minúsculos aglomerados de células que se multiplicavam rapidamente e acabariam se transformando em árvores adultas. Se tudo corresse conforme planejado, as jovens árvores se transformariam em adultas resistentes, capazes de combater o fungo. À época, ninguém havia tentado criar geneticamente uma árvore para combater um fungo virulento, mas tínhamos algumas pistas sobre como começar. Ao longo dos anos pesquisadores haviam descoberto alguns detalhes importantes sobre como o C. parasitica danifica castanheiras. O patógeno desenvolve treliças plumosas de tecido fúngico, chamadas “leques miceliais”, com produção de ácido oxálico, que corrói a casca da árvore para abrir espaço para a invasão fúngica. À medida que o fungo penetra na árvore, um chamado “cancro” cinge o tronco como um cinto. De início nos concentramos em encontrar um meio de enfraquecer os leques. Sabíamos que os sistemas imunes de muitas plantas e animais contêm pequenas cadeias de aminoácidos conhecidos como peptídeos antimicrobianos (AMPs), que podem interromper

O FISIÓLOGO DE PLANTAS Gary J. Griffin do Virginia Tech utiliza uma lente manual para examinar um cancro inchado em uma castanheira infectada por um fungo nocivo.

o funcionamento de células fúngicas. Usando genes de AMP na rãalbina (ou rã-de-unhas-africana) como modelo, reunimos genes a partir do zero para produzir peptídeos AMP que podiam combater o C. parasitica. Esperávamos que, se pudéssemos projetar as castanheiras para que elas produzissem até pequenas quantidades desses peptídeos, elas “afrouxariam” os leques micélicos tornandoos benignos. Mas, como esses peptídeos são moléculas notoriamente instáveis, precisávamos de um plano de contingência. Mais ou menos à mesma época uma estudante de graduação, Kim Cameron, passou em meu escritório e deixou um livro sumarizando muitos dos estudos apresentados no recente encontro anual da Sociedade Americana de Biólogos de Plantas (ASPB). Quando li sobre um estudo realizado por Ousama Zaghmout e Randy Allen, ambos então na Texas Tech University, tive uma intuição. O estudo descrevia um gene de trigo para uma enzima chamada oxalato oxidase (OxO), que decompõe ácido oxálico, a mesma substância cáustica produzida pelo fungo do cancro-da-castanheira. Melhor ainda, os pesquisadores haviam descoberto um meio de introduzir esse gene em outras plantas. Eles o colocaram o gene em Agrobacterium, microrganismo capaz de injetar DNA no centro de comando de células vegetais, e expuseram plantas a clones desse microrganismo. As plantas transgênicas resultantes se tornaram resistentes a um fungo secretor de ácido, conhecido como Sclerotinia sclerotorium. Talvez pudéssemos fazer algo semelhante com a castanheira. Àquela altura não podíamos testar nenhuma das abordagens em castanheiras, porque ainda estávamos tentando descobrir como cultivar a melindrosa planta no laboratório. Portanto, decidimos obter uma prova de conceito em uma árvore diferente — o álamo [ou choupo] híbrido, que era bem estudado e frequentemente usado em experimentos. Haiying Liang, então uma estudante de graduação da College of Environmental Science and Forestry, introwww.sciam.com.br 59

M A I S U M A Á RVO R E T O M B A

ULMUS AMERICANA

Em todo o país, o olmo americano já abrigou muitas ruas urbanas sob verdadeiras catedrais verdes. Além de bela, a árvore era resistente e tolerava o compactado solo salgado e as secas periódicas características da vida na cidade. Mas, como a castanheira americana, essa espécie nativa foi vitimada por um fungo virulento da Ásia. Embora o olmo americano não esteja extinto, atualmente é raro em paisagens urbanas. '¸§­¸D­xߞ`D³¸äø`ø­UžøDø­…ø³¸`¸³šx`žl¸`¸­¸ßD‰¸äx¸øÙl¸x³cDl¸¸§­¸š¸§D³lzäÚ ÉÊlžääx­ž³Dl¸ǸßÙUxä¸ø߸älD`Dä`DÚÍ7­Dþxą³DEßþ¸ßxj¸…ø³¸`ßxä`xDîßDþyälxîøU¸älxĀž§x­Dj `D³DžäÇDßDDlžäîߞUøžcT¸lxEøDxäDžä­ž³xßDžäÍ Eßþ¸ßxîx³îD`¸³îx߸…ø³¸DîßEälxÇDßxlxälxîx`žl¸äj entupindo assim, inadvertidamente, suas próprias passagens, privando-se de sustento. Através de décadas lx`ßøąD­x³î¸ääx§xîžþ¸äj³¸x³îD³î¸jÇxäÔøžäDl¸ßxäÇ߸løąžßD­öðþDߞxlDlxälx¸§­¸äD­xߞ`D³¸ä tolerantes à DED, como os olmos New Harmony, Valley Forge e Liberty. Lamentavelmente, a DED não é o único problema neste caso. Olmos americanos também são D§îD­x³îxþø§³xßEþxžäDø­Dl¸x³cD`¸³šx`žlD`¸­¸elm yellows (uma espécie de amarelão das folhas), lžääx­ž³DlDǸß`žDßߞ³šDäD­xߞ`D³DäǸßîDl¸ßDälxUD`îyߞDä‰î¸Ç§Dä­Eîž`DäÍääxä­ž`߸ߐD³žä­¸ä lxäî߸x­DäßDŸąxäx¸äîøU¸ä‹¸x­Eîž`¸äjÔøxîßD³äǸßîD­Dcù`DßxäÍxž³Ÿ`ž¸jø­¸§­¸ž³…x`îDl¸äx ž³`§ž³DxlxǸžäD`DUD­¸ßßx³l¸Í%xääx`Dä¸jDx³x³šDߞDx³yîž`DǸlxäxßùÍ­þxąlxÇ߸løąžß ¸§­¸äD­xߞ`D³¸ä`DÇDąxälxßxäžäîžßîD³î¸K`¸­¸Kelm yellows através de muitas décadas de `ø§îžþ¸j`žx³îžäîDäîD§þxą`¸³äžD­`ߞDßž­ø³žlDlxx³yîž`Dx­DÇx³DäD§ø­DäxßDcÆxäjDǧž`D³l¸¸ ÔøxDÇßx³lx­¸ä`¸­¸äîßDUD§š¸ä`¸­D`DäîD³šxžßDD­xߞ`D³DÍx…Dî¸jD§ø³äl¸äx³xälx`DäîD³šxž ßDä`šž³xäDäDîøD§­x³îxä¸Už³þxäDcT¸ÇDßDäD§þDßD`DäîD³šxžßDD­xߞ`D³DîD§þxąD¥ølx­Dlx…x³lx߸ ¸§­¸D­xߞ`D³¸`¸³îßD¸ÙD­Dßx§T¸ÚÍ §§žä¸³'D¦xäjxäîølD³îxlxßDløDcT¸³D3îDîx7³žþxßäžîā¸…%xÿ ?¸ß¦ ¸§§xx¸…³þžß¸³­x³îD§3`žx³`xD³l¸ßxäîßājDîøD§­x³îxxĀǧ¸ßDxääDǸääžUž§žlDlxÍ=Í0Í

duziria o gene OXO e nosso gene AMP. Quando as árvores tivessem idade suficiente nós as infectaríamos com Septoria musiva, fungo que produz boa quantidade de ácido oxálico e pode provocar manchas foliares e cancros em choupos híbridos. A maioria das plantas permaneceu relativamente saudável. Havíamos criado uma árvore resistente a fungo através da engenharia genética. Agora precisávamos fazer o mesmo com a árvore e o fungo devidos. Enquanto Liang conduzia experimentos com álamos, Linda McGuigan, outra estudante de graduação da faculdade, se dedicou a descobrir como cultivar castanheiras a partir de embriões no laboratório. Algumas plantas, como cenouras e petúnias, são muito fáceis de cultivar em laboratório. Abastecidas com quantidades suficientes de água, nutrientes e certos hormônios elas desenvolvem novos brotos e raízes a partir de um pequeno fragmento de folha, por exemplo. A castanheira americana não era uma dessas plantas cooperativas. Baseando-se em trabalhos de estudantes anteriores, McGuigan passou dois anos e meio aprendendo como introduzir com sucesso o gene de trigo em embriões de castanheiras usando Agrobacterium para, em seguida, cultivar os embriões até a fase adulta jovem no laboratório. Normalmente, o conjunto de células de rápida divisão que forma o embrião de uma castanheira cresce dentro da casca protetora de uma semente de castanha que caiu no chão e projeta raízes através da semente, forçando-as a penetrar no solo, enquanto empurra brotos verdes na direção da luz solar. McGuigan aprendeu a controlar a iluminação, umidade e temperatura para imitar o que aconteceria normalmente dentro de uma semente de castanha e aperfeiçoou o fornecimento de vários coquetéis hormonais em diferentes estágios do desenvolvimento inicial da árvore em miniatura para induzir o crescimento de raízes e brotos. Em 2006 plantamos as primeiras castanheiras americanas transgênicas em campos experimentais isolados da floresta. Leva 60 Scientific American Brasil | Abril 2014

pelo menos de dois a três anos para que as árvores atinjam um tamanho em que podemos confrontá-las com o fungo do cancro-dacastanheira. Tínhamos ligado o gene OXO a um chamado “promotor”, uma espécie de interruptor genético que controla a frequência com que uma célula lê as instruções em um gene, para limitar a produção de OxO a certos tecidos. Esperávamos que os baixos níveis resultantes da enzima fossem suficientes para enfrentar o fungo sem provocar efeitos colaterais indesejados. Infelizmente, estávamos enganados. Essa primeira linhagem de árvores não conseguiu resistir ao fungo; elas morreram um pouco mais lentamente que o normal, mas acabaram sucumbindo. Em 2012 havíamos desenvolvido um novo promotor para o gene OXO e criamos uma nova linhagem de árvores que produzia uma quantidade muito maior da enzima degradadora do ácido. Sucesso. Essas árvores escaparam da doença quase tão bem como a castanheira chinesa, que havia desenvolvido resistência por si. Agora desenvolvemos um meio de medir a resistência à doença testando as folhas de castanheiras de poucos meses de idade e não precisamos mais esperar três anos para ver se nossos experimentos estão funcionando. Nesse teste, fazemos pequenas incisões em folhas, as infectamos com o fungo e esperamos até que um círculo de tecido em decomposição se espalhe a partir desse ferimento. Quanto menor a área necrosada, mais resistente a árvore. Algumas de nossas árvores mais recentes, que produzem OxO em todos os seus tecidos e foram plantadas no campo em 2013, parecem ser ainda mais resistentes que a castanheira chinesa. Precisamos confirmar isso à medida que as árvores ficam mais velhas, mas parece que o gene que tomamos emprestado do trigo superou nossas expectativas. Pessoas muitas vezes nos perguntam por que simplesmente não procuramos os genes que tornam a castanheira chinesa resistente e os usamos em vez do gene de trigo. Quando iniciamos nossa

WILLIAM HARLOW GETTY IMAGES

O Que Aconteceu com o Olmo Americano?

pesquisa, ninguém ainda havia estudado o genoma da castanheira chinesa minuciosamente. Além disso, teria levado tempo e recursos demais para localizar os numerosos genes diferentes responsáveis por uma característica complexa como a resistência ao cancro fúngico. Cada um desses genes só contribuiria com uma pequena parcela da capacidade da árvore de combater o fungo, e qualquer um deles provavelmente teria sido, isoladamente, ineficaz. Até o momento, porém, cientistas identificaram 27 genes que podem estar envolvidos na resistência da castanheira chinesa ao cancro fúngico. Esses são os frutos de um recente esforço de colaboração sob a ação da Iniciativa de Saúde Florestal (Forest Health Initiative) entre muitos pesquisadores da College of Environmental Science and Forestry, da University of Georgia; Clemson University; Pennsylvania State University; do Serviço Florestal dos Estados Unidos; da North Carolina State University; da Estação Experimental Agrícola de Connecticut e da American Chestnut Foundation. Até agora, dois desses genes parecem dotar as árvores de um nível intermediário de resistência. Os testes prosseguem com os outros genes candidatos. Joseph Nairn da University of Georgia também nos deu cópias de dois outros genes para testarmos: um para uma enzima de uva, que ajuda a produzir resveratrol, polifenol tóxico para fungos, e um gene de pimenta codificador de um AMP que inibe diretamente o crescimento de células fúngicas. Futuramente esperamos fortalecer castanheiras americanas com muitos genes diferentes que conferem resistência de maneiras distintas. Então, mesmo que o fungo desenvolva novas armas contra uma das defesas geneticamente desenvolvidas, as árvores não serão mais impotentes. SITUAÇÃO ARRISCADA

Mais de mil castanheiras transgênicas crescem atualmente em diversos campos experimentais, a maioria localizada no estado de Nova York. O obstáculo seguinte para a restauração da castanheira americana envolve o processo regulatório federal. Antes de podermos plantar árvores na floresta, o FDA, USDA e a EPA vão querer garantir que castanheiras geneticamente modificadas não são significativamente diferentes de árvores típicas de algum modo inesperado. Ao contrário de árvores hibridizadas, geneticamente bem diferentes de castanheiras americanas, porque contêm grandes fragmentos de DNA da castanheira chinesa, nossas árvores transgênicas têm apenas alguns genes novos. Testes preliminares mostram que as raízes de castanheiras típicas e árvores geneticamente modificadas formam os mesmos tipos de relações simbióticas com fungos benéficos e que comunidades similares de plantas menores crescem tanto sob as copas de árvores modificadas como de não modificadas. Além disso, as mesmas espécies de insetos visitam os dois tipos de castanheiras e suas nozes têm a mesma composição nutricional. Uma vez que os testes estejam concluídos, solicitaremos ao USDA, à EPA e ao FDA o mesmo status não regulamentado que esses órgãos dão a culturas geneticamente modificadas. É aqui que a castanheira americana introduzirá um novo dilema no costumeiro processo regulatório. Não estamos cultivando um organismo geneticamente modificado em terras agrícolas para lucro, mas produzindo árvores para restauração sem ganho monetário. Como pesquisadores que trabalham em arroz dourado enriquecido com um precursor da vitamina A, somos motivados pelo bem público e pela saúde da floresta. A EPA geralmente concede a empresas de sementes licenças para vender variedades transgênicas, mas em nosso caso, não temos ninguém para ser detentor da licença e não temos nada para vender. Não está claro que tipo de aprovação alternativa

a agência ambiental nos daria, mas estamos determinados a estabelecer um precedente. Um último obstáculo é a aceitação pública. É encorajador que muitas pessoas que normalmente se opõem à modificação genética estejam abrindo uma exceção para a castanheira americana. De acordo com o raciocínio de algumas pessoas, como os humanos provocaram a morte das castanheiras, também são eles que devem corrigir o problema. Outras estão aceitando as árvores transgênicas porque não estamos buscando lucro nem patenteando as árvores. Muitas pessoas também estão felizes em saber que os riscos ambientais da restauração da castanheira americana são desprezíveis. As chances de o pólen das castanheiras transgênicas espalharem genes introduzidos para outras espécies de plantas são muito reduzidas. O pólen de uma espécie de árvore só pode fertilizar a mesma espécie ou outra intimamente relacionada. A castanheira americana não tem espécies estreitamente aparentadas na parte setentrional de sua área de crescimento natural. Nas regiões meridionais de sua área de expansão, as castanheiras-anãs (chinquapins, em inglês), arbustivas, ocasionalmente se cruzam com castanheiras americanas; mas também são infectadas pelo cancro-da-castanheira e se beneficiariam de alguma resistência genética. O ideal seria que uma parte do pólen transgênico espalhasse resistência para pelo menos uma fração dos tocos de castanheiras americanas restantes que conseguem florescer, resgatando o máximo possível de sua diversidade genética total. Se os remanescentes se beneficiarem, poderiam gerar uma população de árvores resistentes ao cancro fúngico que, ao longo dos séculos, teriam como restaurar essa espécie imponente e fundamental à sua antiga glória nas florestas do leste. O cancro-da-castanheira não é o único inimigo da biodiversidade que a engenharia genética pode erradicar. Estamos perdendo a batalha contra muitas outras pragas exóticas, como o inseto da espécie Adelges tsugae (hemlock wooly adelgid, ou HWA), que suga a seiva das chamadas árvores cicuta, e a broca-cinza-esmeralda, um besouro verde metálico cujas larvas cavam túneis sob a casca de freixos; além de patógenos responsáveis pela chamada morte repentina do carvalho (SOD, na sigla em inglês) e a praga dos mil cancros das nogueiras (TCD). Agora, mais que nunca, precisamos da engenharia genética em nossa caixa de ferramentas para manter florestas diversificadas e saudáveis. Restaurar completamente a castanheira americana ao seu status anterior como uma rainha da floresta é um empreendimento que levará séculos. Assim que as castanheiras transgênicas passarem pela aprovação regulatória e pública, um bom lugar para começar a restauração é em áreas de recuperação. Com a ajuda da Iniciativa de Saúde Florestal e da Duke Energy, parcelas experimentais estão sendo plantadas atualmente em locais de recuperação de minas. Um antigo provérbio chinês diz: “Uma geração planta uma árvore, a próxima goza de sua sombra”. No caso da castanheira americana somos essa primeira geração. PA R A C O N H E C E R M A I S Transgenic American elm shows reduced dutch elm disease symptoms and normal mycorrhizal colonization. Andrew E. Newhouse et al. em Plant Cell Reports, vol. 27, nº 7, págs. 977–987; julho de 2007. Restoration of threatened species: a noble cause for transgenic trees. S. A. Merkle et al. em Tree Genetics & Genomes, vol. 3, nº 2, págs. 111–118; abril de 2007. Chestnut trees return. Stephen D. Solomon; Inspirations, IY_[dj_ÒY7c[h_YWd;Whj^)$&, março de 2009. Designing Trees. %D¹®Ÿ"ùUŸ`§è3`Ÿy´ïŸŠ` ®yàŸ`D´Î`¹®jÀo de abril de 2002.

www.sciam.com.br 61

PSICOLOGIA

Bons Raciocínios

Bloqueiam Outros Melhores Enquanto refletimos sobre um problema, a tendência do

Ilustração por Danny Schwartz

cérebro de se ater a ideias familiares pode literalmente inibir soluções mais promissoras Por Merim Bilalić e Peter McLeod

www.sciam.com.br 63

E m

Merim Bilali´c é professor de ciência cognitiva na Universidade de Klagenfurt, na Áustria, e pesquisador sênior associado da Universidade de Tübingen, na Alemanha. Sua pesquisa sobre o efeito Einstellung ganhou o Prêmio da Sociedade Psicológica Britânica por Contribuições Excepcionais de Pesquisa Médica para a Psicologia em 2008.

Luchins apresentou aos seus voluntários vários outros problemas que podiam ser resolvidos essencialmente com os mesmos três passos. Eles realizaram as tarefas rapidamente. Mas quando o psicólogo apresentou um problema com solução mais simples e rápida, os voluntários não conseguiram “enxergar” a solução. Dessa vez, Luchins pediu aos participantes que distribuíssem 20 unidades de água utilizando recipientes com capacidades de 23, 49 e três unidades de líquido. A solução é óbvia, certo? Basta encher o primeiro jarro e esvaziá-lo no terceiro: 23 - 3 = 20. Mas muitas pessoas no experimento insistiram em resolver o problema mais fácil do jeito antigo, esvaziando o segundo recipiente no primeiro e depois duas vezes no terceiro: 49 - 23 - 3 - 3 = 20. Quando Luchins lhes deu um problema com uma solução de dois passos, mas impossível de ser resolvido com o método de três etapas ao qual os voluntários haviam se acostumado, eles desistiram dizendo que era impossível. O experimento dos jarros de água é um dos exemplos mais famosos do efeito Einstellung [fixação funcional]: a persistente tendência do cérebro humano de se ater a uma solução familiar para resolver um problema — aquela que primeiro vem à mente — e ignorar alternativas. Frequentemente esse tipo de raciocínio é uma heurística útil. Assim que você encontra um método bem-sucedido para, por exemplo, descascar alho, não há motivo para tentar uma série de técnicas diferentes toda vez que precise de um dente de

alho novo. O problema com esse atalho cognitivo é que, às vezes, ele inibe as pessoas para soluções mais eficientes ou apropriadas. Com base no trabalho inicial de Luchins, psicólogos replicaram o efeito Einstellung em muitos estudos laboratoriais diferentes que envolveram tanto novatos como especialistas que exerciam uma gama de habilidades mentais. Mas, como e por que exatamente o efeito ocorria, nunca ficou claro. Recentemente, ao registrarmos os movimentos oculares de enxadristas altamente qualificados, desvendamos o mistério. Ocorre que pessoas sob a influência desse atalho cognitivo ficam literalmente cegas para certos detalhes que poderiam lhes oferecer solução mais eficaz. Novas pesquisas também sugerem que muitas propensões cognitivas diferentes descobertas por psicólogos, como as que ocorrem em uma sala de tribunal e no hospital, por exemplo, são, de fato, variações do efeito Einstellung. Desde, no mínimo, o início dos anos 90, psicólogos têm estudado o efeito Einstellung ao recrutarem enxadristas de vários níveis de habilidade, de amadores a grandes mestres. Nesses experimentos pesquisadores apresentaram aos jogadores disposições específicas de peças de xadrez em tabuleiros virtuais e lhes pediram que chegassem ao xeque-mate com o menor número possível de lances. Os nossos estudos, por exemplo, confrontaram enxadristas peritos com cenários em que eles poderiam realizar um xeque-mate usando uma sequência bem conhecida, chamada “mate sufocado”

Peter McLeod é um membro emérito do Queen’s College da University of Oxford. É presidente da Fundação 'ê{«ÍfµDÍD%ræÍ«Z”ù§Z”D5rþ͔ZDr§Ür›”†ù§Z”D ÍܔZ”D›»

UM EXPERIMENTO CLÁSSICO DE 1942 O PSICÓLOGO AMERICANO ABRAHAM LUCHINS pediu a voluntários que fizessem alguns exercícios básicos de matemática ao visualizarem mentalmente jarros de água. Dados três recipientes vazios, por exemplo, cada um com uma capacidade diferente, de 21, 127 e três unidades de água, os participantes deveriam calcular como transferir líquido entre as vasilhas para distribuir precisamente 100 unidades. Eles podiam encher e esvaziar cada jarro quantas vezes quisessem, mas tinham de encher os recipientes até seus limites. A solução era primeiro encher o segundo jarro até seu limite de 127 unidades, depois esvaziá-lo no primeiro para remover 21 unidades, deixando 106, e finalmente encher o terceiro recipiente duas vezes para subtrair seis unidades e obter um resto de 100.

EM SÍNTESE O efeito Einstellung é a tendência do cérebro de se ater à solução mais familiar para um problema e teimosamente ignorar alternativas. Psicólogos conhe-

64 Scientific American Brasil | Abril 2014

cem esse fenômeno mental desde a década de 40, mas só agora têm uma compreensão sólida de como isso ocorre. Em recentes experimentos de monitora-

mento ocular, ideias familiares cegaram enxadristas para áreas de um tabuleiro de xadrez que lhes teriam fornecido pistas para soluções melhores.

[ou “mate de Philidor”]. Nessa manobra de cinco lances a rainha é sacrificada para atrair uma das peças do adversário para uma casa a fim de bloquear a rota de fuga do rei. Os jogadores também tinham a opção de colocar o rei em xeque-mate em apenas três lances, com uma sequência muito menos familiar. Como nos estudos dos jarros de água de Luchins, a maioria dos jogadores não conseguiu encontrar a solução mais eficiente. Durante alguns desses estudos, perguntamos aos jogadores o que se passava em suas mentes. Eles disseram que haviam encontrado a solução do mate sufocado e insistiram que estavam procurando um caminho mais curto, sem sucesso. Mas os relatos verbais não ofereceram nenhuma explicação sobre por que eles não conseguiam encontrar a solução mais rápida. Em 2007 decidimos tentar algo um pouco mais objetivo: monitorar movimentos oculares com uma câmera infravermelha. Saber para que parte do tabuleiro as pessoas olhavam e por quanto tempo elas olhavam para áreas diferentes nos revelaria, inequivocamente, que aspectos do problema elas estavam notando ou ignorando. Nesse experimento seguimos o olhar de cinco enxadristas experientes enquanto eles examinavam um tabuleiro que podia ser resolvido tanto com a manobra mate sufocado, mais longo, como com a sequência mais curta, de três lances. Após uma média de 37 segundos todos os jogadores insistiram que o mate sufocado era a maneira mais rápida possível para encurralar o rei. Mas quando apresentamos um tabuleiro que só podia ser resolvido com a sequência de três lances eles encontraram a solução sem qualquer problema. E quando dissemos aos jogadores que esse mesmo xeque-mate rápido tinha sido possível no tabuleiro anterior, eles ficaram chocados. “Não, isso é impossível”, exclamou um jogador. “É um problema diferente; tem de ser. Eu teria notado uma solução tão simples.” Claramente, a mera possibilidade da sequência para um mate sufocado estava mascarando teimosamente soluções alternativas. De fato, o efeito Einstellung foi potente o suficiente para rebaixar experientes mestres de xadrez temporariamente ao nível de jogadores muito mais fracos. A câmera infravermelha revelou que, mesmo quando os jogadores afirmavam estar procurando uma solução mais rápida, e de fato acreditavam estar fazendo isso, na realidade não desviavam o olhar das casas que já haviam identificado como parte da sequência de lances para o mate sufocado. Comparativamente, quando apresentados ao tabuleiro de uma solução, os jogadores inicialmente olharam para as casas e peças importantes para o mate sufocado e, uma vez que percebiam que isso não funcionaria, dirigiram sua atenção para outras casas e logo descobriam a solução mais curta. BASE PARA A PROPENSÃO

Em outubro de 2013, Heather Sheridan, da University of Southampton, na Inglaterra, e Eyal M. Reingold, da University of Toronto, Canadá, publicaram estudos que corroboram e complementam nossos experimentos de monitoramento ocular. Eles apresentaram 17 enxadristas novatos e 17 experientes a duas situações diferentes. Em um cenário, uma manobra familiar de xeque-mate, como o mate sufocado, era vantajoso, mas perdia para uma solução menos óbvia. Na segunda situação, a sequência mais conhecida seria um erro claro. Como em nossos experimentos, uma vez que amadores e mestres enxadristas olhavam para a manobra familiar e útil, seus olhos raramente se desviaram para casas que lhes indicariam o caminho para a melhor solução. Mas quando a sequência bem conhecida era obviamente um erro, todos os peritos, e a maioria dos novatos, detectaram a alternativa.

O efeito Einstellung não é, de forma alguma, limitado a experimentos controlados em laboratório e nem mesmo a jogos mentalmente desafiadores, como o xadrez. Em vez disso, é a base de muitas propensões cognitivas. O filósofo, cientista e ensaísta inglês Francis Bacon foi especialmente eloquente sobre uma das formas mais comuns de propensões cognitivas em seu livro Novum Organum, de 1620: “A compreensão humana, uma vez que tenha adotado uma opinião... busca todas as outras coisas para apoiar e concordar com ela. E apesar de haver um número e peso maiores de instâncias a serem encontradas no outro lado, essas ele ou negligencia ou despreza; ou ainda, por alguma razão, as deixa de lado e rejeita... Homens... lembram de realização, mas onde falham, embora isso aconteça muito mais frequentemente, negligenciam e ignoram os fatos. No entanto, com uma sutileza muito maior, essa traquinagem se insinua na filosofia e nas ciências, em que a primeira conclusão dá o tom e coloca em conformidade consigo mesma tudo o que vem depois”. Na década de 60 o psicólogo inglês Peter Wason deu um nome a essa propensão em particular: “viés de confirmação”. Em experimentos controlados ele demonstrou que, mesmo quando pessoas tentam testar teorias de forma objetiva, tendem a buscar evidências que confirmam suas ideias e ignorar as que os contradigam. Em The Mismeasure of Man [A falsa medida do homem, Ed. Martins Fontes, 1999], por exemplo, Stephen Jay Gould, da Harvard University, reanalisou dados citados por pesquisadores que tentavam estimar a inteligência relativa de grupos raciais, classes sociais e sexos diferentes ao medir o volume de seus crânios, ou pesar seus cérebros, pressupondo que a inteligência se correlacionava com o tamanho do cérebro. Gould revelou distorções massivas de dados. Ao descobrir que, em média, cérebros franceses eram menores que alemães, o neurologista francês Paul Broca descartou as discrepâncias com base na diferença de tamanho corporal médio entre os cidadãos das duas nações. Afinal, ele não podia aceitar que os franceses eram menos inteligentes que os alemães. Mas, quando descobriu que os cérebros de mulheres eram menores que os de homens, não aplicou a mesma correção para o tamanho corporal, porque não teve qualquer desconforto com a ideia de que elas eram menos inteligentes. Surpreendentemente, Gould concluiu que Broca e outros como ele não eram tão repreensíveis como poderíamos pensar. “Na maioria dos casos discutidos nesse livro podemos estar bastante certos de que as propensões ... eram inconscientemente influentes e que cientistas acreditavam estar seguindo uma verdade imaculada”, escreveu Gould. Em outras palavras, assim como observamos em nossos experimentos de xadrez, ideias confortavelmente familiares cegaram Broca e seus contemporâneos para os erros em seus raciocínios. E aqui está o verdadeiro perigo do efeito Einstellung. Podemos acreditar que estamos pensando de modo liberal, com a mente aberta, completamente inconscientes de que nosso cérebro está desviando seletivamente a atenção de certos aspectos do nosso ambiente que poderiam inspirar novos pensamentos ou formas de raciocínio. Quaisquer dados que não se encaixem na solução ou teoria que já adotamos são ignorados ou descartados. A natureza sub-reptícia do viés de confirmação tem consequências infelizes na vida cotidiana, como foi documentado em estudos sobre tomadas de decisão entre médicos e jurados. Em uma revisão de erros médicos, o médico Jerome Groopman observou que, na maioria dos casos de diagnóstico equivocado, “os médicos não erraram devido à sua ignorância de fatos clínicos, mas porque caíram em armadilhas cognitivas”. Quando médicos herdam um paciente de um colega, por exemplo, o diagnóstico do primeiro clínico pode www.sciam.com.br 65

D E S C O B E R TA S

Muito Além Do Que Os Olhos Veem

B

C

D

E

F

G

Lance 3

H

8

Lance 1

Lance 2

Lance 3

Jogador B

Problema de Duas Soluções A

Lance 2

Jogador A

O jogo intelectualmente exigente de xadrez provou ser um meio excelente para psicólogos estudarem o efeito Einstellung — a tendência do cérebro de se ater a soluções que já conhece em vez de procurar outras potencialmente superiores. Experimentos mostram que essa propensão cognitiva literalmente muda a forma como até enxadristas experientes veem o tabuleiro à sua frente.

Lance 1

7 6 5 4 3

1

Problema de Uma Solução A

B

C

D

E

F

G

H

Jogador B

Jogador A

2

8 7 6 5 4 3 2 1

66 Scientific American Brasil | Abril 2014

Mestres de Xadrez Falham em Ver o Caminho Mais Rápido Para a Vitória Em uma bem conhecida jogada de cinco lances sequenciais chamada “mate sufocado” (acima, amarelo), o jogador A começa ao mover sua rainha de E2 para E6, forçando o rei do jogador B a recuar para um canto. Em seguida, o jogador A ameaça repetidamente tomar o rei do jogador B com um cavalo, forçando B a se esquivar. Em um ato de sacrifício deliberado o jogador A move sua rainha para a casa adjacente ao rei de B, permitindo que ele tome a rainha com uma torre. Para encerrar a partida, o jogador A move seu cavalo para a casa F7, encurralando o rei de B sem chance de escapar. Em experimentos recentes psicólogos apresentaram a mestres enxadristas o tabuleiro de duas soluções mostrado acima, que podia ser ganho usando o mate sufocado ou uma solução muito mais rápida em três lances (meio, verde). Os jogadores foram orientados a chegar ao xeque-mate o mais rapidamente possível, mas assim que reconheceram o mate sufocado como uma possibilidade DÈDày´ïy®y´ïyåyï¹à´DàD®Ÿ´`DÈDĆyåmy´¹ïDàDyåïàDïz‘ŸD®DŸåyŠ`Ÿy´ïyÎ1ùD´m¹`¹´†à¹´ïDm¹å`¹® um tabuleiro quase idêntico, em que a posição de um bispo havia mudado (abaixo, azul), eliminando o ®Dïyåù†¹`Dm¹`¹®¹ù®D¹ÈcT¹j¹å¦¹‘Dm¹àyåŸmy´ïŸŠ`DàD®D幨ùcT¹®DŸåàEȟmDÎ

Lance 4

Lance 5

Explicação: Visão em Túnel Dispositivos de monitoramento ocular revelaram que, assim que enxadristas Ÿmy´ïŸŠ`DàD®¹®Dïyåù†¹`Dm¹`¹®¹ù®D幨ùcT¹jÈDååDàD®®ùŸï¹®DŸåïy®È¹ olhando para as casas relevantes para essa manobra familiar (laranja), que para `DåDåÈyày´ïyåKåyÕù{´`ŸD®DŸåyŠ`Ÿy´ïymyïà{å¨D´`yå (magenta), apesar de insistirem que estavam procurando outras alternativas. Inversamente, quando o mate sufocado era inviável, o olhar dos jogadores se deslocava para regiões do tabuleiro cruciais para a estratégia mais rápida.

Problema de Duas Soluções

Porcentagem de Tempo Gasto Olhando para Casas-Chave

Período de Solução do Problema s iário dos ndo med gun egu 10 s iniciais Inter 5 se DŸå Š´ 40

20 10 0

Período de Solução do Problema s iário dos ndo egu iais termed segun s 0 1 inic In 5 ´DŸå Š 40

Porcentagem de Tempo Gasto Olhando para Casas-Chave

Problema de Uma Solução

30

30 20 10 0

cegar o segundo para detalhes da saúde do paciente que poderiam mudar o diagnóstico. É mais fácil aceitar a conclusão — a “solução” — que já está à sua frente que repensar toda a situação. Da mesma maneira, ao examinarem radiografias de tórax radiologistas muitas vezes se fixam na primeira anormalidade que encontram e deixam de notar outros sinais, como um inchaço que poderia indicar câncer. Se esses detalhes secundários são apresentados isolados, no entanto, eles os veem imediatamente. Estudos relacionados revelaram que jurados começam a decidir se alguém é inocente ou culpado muito antes da apresentação de todas as evidências. Suas impressões iniciais do réu, por outro lado, mudam o modo como eles avaliam evidências posteriores e até suas lembranças de provas que viram antes. Da mesma forma, se um entrevistador considerar um candidato fisicamente atraente, ele ou ela perceberá automaticamente a inteligência e personalidade daquela pessoa em uma luz mais positiva e vice-versa. Essas propensões, ou vieses, também são alimentados pelo efeito Einstellung. É mais fácil tomar uma decisão sobre alguém se mantivermos uma visão consistente daquela pessoa, em vez de analisar e classificar evidências contraditórias. Podemos aprender a resistir ao efeito Einstellung? Talvez. Em nossos experimentos de xadrez e nos experimentos posteriores realizados por Sheridan e Reingold, alguns enxadristas excepcionalmente qualificados, como grandes mestres, de fato identificaram a melhor solução, menos óbvia, mesmo quando uma sequência mais lenta, porém mais familiar de lances, era possível. Isso sugere que quanto mais experiência alguém tem em seu campo, seja xadrez, ciência ou medicina, mais imune ela é à propensão cognitiva. Mas ninguém é completamente imune; até os grandes mestres falharam quando deixamos a situação complicada. Lembrar ativamente de que você é suscetível ao efeito Einstellung é outro modo de combater essa situação. Ao considerar, por exemplo, as evidências da contribuição relativa dos gases de efeito estufa produzidos pelo homem e dos que ocorrem naturalmente, produzindo as mudanças da temperatura global, lembre-se de que se já acredita saber a resposta, você não julgará a evidência com objetividade. Em vez disso, notará evidências que apoiam a opinião que já formou, avaliará as provas como sendo mais fortes que de fato são, e as considerará mais memoráveis que as evidências que não endossam a sua opinião. Precisamos tentar e aprender a aceitar nossos erros se quisermos sinceramente aprimorar nossas ideias. O naturalista inglês Charles Darwin desenvolveu uma técnica simples e eficiente para fazer isso. “Durante muitos anos segui uma regra de ouro de, sempre que eu me deparasse com um fato, uma nova observação ou um pensamento contestado por meus resultados gerais, fazer um memorando e imediatamente”, escreveu ele. “Porque esses fatos e pensamentos eram muito mais propensos a escapar da memória que os favoráveis.” PA R A C O N H E C E R M A I S The mechanism and boundary conditions of the Einstellungy‡y``›yååiyÿŸmy´`y †à¹®yĂy®¹ÿy®y´ïåÎ Heather Sheridan e Eyal M. Reingold em PLOS ONE, vol. 8, nº 10, artigo nº e75796, 4 de outubro de 2013. www.plosone.org/article/ info%3Adoi%2F10.1371%2Fjournal.pone.0075796 5›yå`Ÿy´`y¹†‘y´ŸùåÎyD´!yŸï›3Ÿ®¹´ï¹´; IY_[dj_ÒY7c[h_YWdC_dZ, novembro/ dezembro de 2012. =›Ă‘¹¹mù‘›ïåU¨¹`§Uyïïy๴yåiï›y®y`›D´Ÿå®¹†ï›yÈyട`Ÿ¹ùåEinstellung ÊåyïËy‡y`ï. Merim Bilalic, Peter McLeod e Fernand Gobet em Cognition, vol. 108, nº 3, págs. 652–661, setembro de 2008. Mentes brilhantes, Philip E. Ross, 3`Ÿy´ïŸŠ` ®yàŸ`D´ àD埨, Ed. 52, setembro de 2006.

www.sciam.com.br 67

C

ALOR

NTENSO

e ESTIAGEM

EVIDENCIAM EFEITOS DE

MUDANÇA CLIMÁTICA Aquecimento global com alterações no clima, que pode chegar a extremos de frio e calor, fornecem pistas intrigantes de mudança que até recentemente parecia pura ficção Por Rubens Junqueira Villela e Franco Nadal Junqueira Villela

EM SÍNTESE Uma série de eventos meteorológicos extremos, no

àD埨y´¹yāïyàŸ¹àj®Dà`¹ù¹Š´D¨my÷ĈÀñyŸ´ `Ÿ¹my ÷ĈÀŽÎ®÷êmŸDå`¹´åy`ùïŸÿ¹åjDïy®ÈyàDïùàD®EāŸ®D mŸEàŸDy®3T¹0Dù¨¹yåïyÿyDïz®DŸåmyŽĈ D`Ÿ®DmD ´¹à®D¨yD†D¨ïDmy`›ùÿD`¹®È๮yïyù¹DUDåïy`Ÿ®y´ï¹myE‘ùDmD`ŸmDmyÎ Ainda não há uma metodologia `Ÿy´ï Š`D DÈà¹ÿDmD Õùy ÈyடïD DïàŸUùŸà ù®

yȟåºmŸ¹®yïy¹à¹¨º‘Ÿ`¹yāïày®¹K®ùmD´cD`¨Ÿ®EïŸ`D ‘¨¹UD¨j mDmD D ®ù¨ïŸÈ¨Ÿ`ŸmDmy my †Dï¹àyå y´ÿ¹¨ÿŸm¹åÎ ååDmyŠ`Ÿ{´`ŸD‘yàDŸ´`yàïyĆDyDù®y´ïDDD´åŸymDmyÕùD´ï¹Kå`¹´åyÕù{´`ŸDåmDåD¨ïyàDcÇyåm¹`¨Ÿ®D ÈDàDDÿŸmDm¹ȨD´yïDÎ ¹®UDåy´DyāÈyàŸ{´`ŸDmyêĈ D´¹åmyD´E¨ŸåyyÈàyÿŸåT¹m¹ïy®È¹j2ùUy´å<Ÿ¨¨y¨Dj ù®m¹åDùï¹àyåmyåïyDà¹jȹåïù¨DÕùyÚDD﮹å†yàD

ïyààyåïày´T¹z®DŸåD®yå®DyyåïE®ùmD´m¹ÈDàD ȟ¹àÛjm¹ȹ´ï¹myÿŸåïDmDDïŸÿŸmDmy›ù®D´DÎA interpretaçãomy¨yzÕùy¹åDïùDŸåyāïày®¹å`¨Ÿ®EïŸ`¹ååT¹ yÿŸm{´`ŸD mD ®ùmD´cD y å¹®D®žåy Kå yÿŸm{´`ŸDå `Ÿy´ï Š`Dåå¹Uày¹ÈDÈy¨È๑àyååŸÿ¹mDåy®ŸååÇyåmy ‘Dåyåmyy†yŸï¹yåïù†Då¹Uày¹UD¨D´c¹y´yà‘zïŸ`¹ymŸ´F®Ÿ`¹mDD﮹å†yàDȨD´yïEàŸDÎ

O

Rubens Junqueira Villela, professor aposentado do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da USP, participou de 12 expedições antárticas, brasileiras e americanas, e foi o primeiro brasileiro a chegar ao polo sul, em 17 de novembro de 1961. Estagiou na Nasa e foi meteorologista sênior do The Weather Channel Latin America em Atlanta. É consultor de meteorologia para obras de engenharia costeira. Franco Nadal Junqueira Villela, meteorologista do 7o Distrito do Instituto Nacional de Meteorologia em São Paulo, estagiou no National Weather Service em Washington, e participou de quatro missões à Antártida como responsável pela programação dos sistemas automáticos de aquisição de dados e transmissão via satélite do observatório autônomo brasileiro, Criosfera-1, instalado sobre o Planalto Polar.

‰³D§lxöć¿ðe as primeiras seis semanas de 2014 foram marcados por uma série de eventos meteorológicos extremos que, por intensidade e abrangência, assumem dimensão histórica, ainda que não sejam inéditas e, na realidade, venham se repetindo com certa frequência ao longo das duas últimas décadas.

Do conteúdo do noticiário nacional e internacional referente a esses fenômenos planetários é evidente a preocupação em explicar a possível ligação desses eventos com uma mudança climática, atribuída pela maioria dos cientistas a um processo de aquecimento global. Mas, ao mesmo tempo, ao menos parte desses pesquisadores reluta em atribuir determinados eventos diretamente à mudança global, contribuindo assim para aumentar o grau de incerteza – e de temor – do público face às consequências do fenômeno para o futuro do planeta e seus habitantes. Como meteorologista veterano, pretendo, neste artigo, expor uma interpretação baseada em longa, variada e peculiar carreira profissional; esperamos contribuir também para uma reflexão sobre a dificuldade do público em entender e assimilar os fatos relativos ao clima. Comparada à época em que iniciei minha prática de meteorologia nos Estados Unidos, em 1953, a atmosfera terrestre já não é mais a mesma, e está mudando para um perfil mais preocupante. Um método científico para comprovar esse ponto de vista é a estatística climatológica e da representação das anomalias, os desvios em relação aos valores ou configurações normais em mapas. No meu caso a comprovação da mudança, ou a sensação de que isso de fato está ocorrendo, vem, também, de um padrão mental, formado por minha própria memória. Afinal, o cérebro, a base da memória, é o mais sofisticado dos computadores disponíveis. E meu aparato mental neste caso tem como base de dados mais de meio século de trabalho de coleta de dados por radiotelegrafia e análise de cartas sinóticas para fins de previsão do tempo. Por esse método, iniciado muito antes de a internet existir, eu recebia em código Morse a mensagem de observação sinótica, transformada em grupos de cinco dígitos cada uma, segundo os códigos da Organização Meteorológica Mundial (OMM). A seguir, ou simultaneamente, conforme habilidade desenvolvida, eu plotava, elemento por elemento (vento, temperatura, pressão, nuvens etc.), ponto por ponto no mapa ou carta sinótica, de superfície e de altitude. Fácil perceber a intimidade que estabeleci com os dados originais e o nível de detalhe em que tomei conhecimento com a atmosfera real, coisa, agora, mais fora de alcance para quem trabalha com computadores e dados já elaborados. Contato mais íntimo ainda com a atmosfera estabeleci só mesmo depois que aprendi a voar de planador, e quando com três companheiros enfrentamos um tem70 Scientific American Brasil | Abril 2014

poral ciclônico no estreito de Drake que virou o nosso pequeno veleiro, em 11 de fevereiro de 1991. Nos últimos anos, a prática sinótica mostra visível alteração nos padrões clássicos, tornando difícil a aplicação de modelos conceituais da meteorologia brasileira, e mesmo sul-americana. A propósito, o termo sinótico vem do grego synoptikos para se referir a uma visão geral de determinada região. Em meteorologia, essa expressão refere-se a cartas elaboradas para observação de fenômenos com significativa variação espaço-temporal, caso em que estão incluídos ciclones e anticiclones, sistemas frontais, deslocamentos de massas de ar, jetstream e sistemas de baixa e alta pressão entre outros fenômenos. No passado recente, as frentes frias − vanguardas das massas de ar polar deslocando-se na direção dos trópicos − realmente seguiam um padrão cíclico regular. Entre 1969 e 1979, escrevi para o jornal Correio Agro-pecuário um resumo mensal do tempo no Brasil e então podíamos convenientemente dividir os períodos naturais de evolução em fases pré-frontal (aquecimento, vento noroeste), frontal (vento rondando para sudoeste, sul e sudeste, precipitações), e pós-frontal (vento sudeste a leste, domínio da alta pressão polar fundindo-se com a “alta” subtropical no Atlântico). Por esses processos havia intervalos definidos com domínio de massas de ar características, aproximando-se das clássicas, originalmente criadas pela Escola Norueguesa em 1918. Hoje se tornam frequentes situações menos estáticas e mais perturbadas e variáveis, com crescente ocorrência de fenômenos atípicos e violentos do tipo tornado, por exemplo, entre outros sinais que apontam para a mudança climática associada ao aquecimento global. Mas também há longos períodos de aparente estagnação, sem nenhuma frente atuando no Brasil, mostrando um estranho e surpreendente vazio nas cartas sinóticas − situação que não deve ser confundida com os conhecidos “bloqueios” por alta pressão e que podem durar de uma a duas semanas. No início de minha atuação em meteorologia achei difícil acreditar na existência de frentes na atmosfera: como poderia um meio gasoso admitir uma descontinuidade tão abrupta entre uma massa fria e uma quente? Uma primeira observação, conjugando a leitura do barômetro de mercúrio do laboratório de física da University of Maryland, ao acompanhamento da variação de vento, temperatura e nuvens, convenceu-me da realidade da teoria ensinada nos livros.

Vista em corte vertical, a frente fria tem a estrutura em forma de rampa inclinada, com o ar frio intrometendo-se em forma de cunha sob o ar quente. Ao ser elevada pela frente fria, essa camada de ar quente resfria-se e forma nuvens. A estrutura em rampa inclinada só é possível devido à ação da rotação da Terra (efeito Coriolis), caso contrário o ar frio simplesmente se acomodaria horizontalmente, sob o ar quente. Como o efeito Coriolis se reduz a zero no equador, as frentes frias na Amazônia ficam rasas e pouco inclinadas, produzindo apenas nuvens estratificadas a baixa altura do solo. O entendimento dos mecanismos básicos que atuam na formação de frentes atmosféricas é fundamental para o conhecimento do clima da Terra. Outro mecanismo básico para compreensão do clima da Terra é o papel dos ventos em níveis mais elevados da atmosfera esse é o movimento ondulado. A diferença de temperatura entre equador e polos e a rotação da Terra fazem com que eles circulem prevalentemente de oeste para leste, e ao mesmo tempo, aumentem com a altitude, até um máximo de velocidade na chamada corrente de jato acima dos 10 km.

Imagens StockPhoto

INFLUÊNCIA DO EFEITO CORIOLIS

A ATUAÇÃO DO EFEITO CORIOLIS cria movimentos verticais ascendentes na dianteira dos cavados e movimentos descendentes nas cristas dessas ondas. O movimento descendente chamado subsidência − afundamento lento medido em centímetros por segundo − traz o ar muito seco das grandes altitudes próximo da superfície e provoca dissipação das nuvens, pela compressão e consequente aquecimento que o ar sofre ao descer aos níveis mais próximos do solo. Dependendo do comportamento das ondas em altitude, uma crista pode dar origem a uma zona de alta pressão que permanece dias praticamente estacionada numa mesma posição, formando o chamado bloqueio, que tem como um efeito importante impedir o avanço de frentes frias originárias dos polos. Em parte, foi esse mecanismo − alterado por outros processos não bem conhecidos − que gerou a grande onda de calor e seca no Brasil em janeiro e fevereiro passados. Alta pressão numa região pode ser criada por ar frio (denso ou pesado) junto à superfície, por ar quente sobre o solo que se expande a altitudes médias e altas, ou por processo dinâmico que acumula ar (como nas cristas das ondas de altitude). A zona de alta pressão subtropical do Atlântico Sul, por exemplo, é criada em grande parte pelo ar que sobe no equador, e ao se encaminhar para o polo, se resfria e desce (por subsidência) na latitude 300 S. Em parte, a alta do Atlântico é também alimentada pelas massas polares que chegam do polo. Assim, é fácil perceber o desequilíbrio geral que uma mudança nessas circulações básicas pode gerar na engrenagem global dos movimentos atmosféricos. Pode-se usar com vantagem o exemplo do Reino Unido e dos Estados Unidos como uma interessante base de análise da percepção humana quanto a mudanças climáticas. E isso tanto por parte de especialistas como da população em geral. A Inglaterra, que acumula mais de 200 anos de séries climatológicas, enfrenta neste inverno “uma crise natural sem paralelo”, se-

gundo autoridades da defesa, provocada por enchentes e sucessivas tempestades de vento de mais de 160 km/h. O Meteorological Office (MO) põe a culpa no comportamento da corrente de jato, fluindo de oeste para leste e mais ao sul, sem apresentar as costumeiras oscilações (ondas) para o norte e para o sul, responsáveis pelo tempo variável característico do país. Esse comportamento seria um reflexo do derretimento do Ártico que diminuiu o contraste de temperatura entre o Ártico e o Atlântico. A nota do MO diz que evidências crescentes mostram que as taxas diárias das chuvas estão se tornando mais intensas, em valores compatíveis “com os que são esperados a partir dos processos fundamentais da física de um mundo em aquecimento”. Mas o MO adverte que são necessárias mais pesquisas dessas taxas, enquanto a “atribuição dessas mudanças ao aquecimento global antropogênico requer modelos climáticos de suficiente resolução para captar tempestades e precipitações a elas associadas”. Esse é necessário para a adoção de medidas mais eficazes contra as enchentes fluviais e costeiras; tem havido críticas de que obras para acelerar o escoamento nas planícies pioram a situação. Nos Estados Unidos, no mesmo instante em que o presidente Barack Obama pronunciava o discurso anual de prestação de contas no congresso – quando defendeu que “a mudança climática é um fato” − a neve caía na capital, o termômetro baixava a -110C, e milhares de motoristas se viam apanhados numa armadilha de gelo nas ruas de Atlanta. Congressistas incrédulos balançavam a cabeça: se o mundo está se aquecendo, por que tanto frio? Foi preciso convocar o conselheiro de ciência e tecnologia de Obama para responder aos comentários desse tipo: “Se você estiver ouvindo que ondas de frio são uma prova contra o aquecimento global, não acredite”, disse John Holden, em 8 de janeiro passado. E justificou: “Clima é um padrão de tempo no espaço geográfico e no decorrer das estações. Evidências crescentes sugerem que o tipo de frio extremo experimentado nos Estados Unidos é um padrão que podemos esperar com frequência crescente, à medida que o aquecimento global continua”. Enquanto isso, no Alasca o calor incomodava e “enganava” a vegetação, e a Califórnia se encaminhava para o terceiro ano de seca e calor inusitados. Na edição de 11 de fevereiro do The New York Times o redator de ciência Justin Gillis comentou a propósito da manifestação de congressistas e outras pessoas: “Ela diz mais sobre como os humanos percebem o mundo que sobre clima. Tempo e clima não são a mesma coisa, mas tendemos a pensar que o que acontece agora está acontecendo por toda parte”. Gillis mostra que, desde 1985, a duração do frio na região nordeste americana tem diminuído, e que talvez esse fato esteja na raiz do pânico atual quanto ao frio. Há 20 ou 30 anos não fazia tanto frio, e agora qualquer onda ártica parece extraordinária. A “angústia do frio” (“cold Angst”) pode estar influenciando como as pessoas veem a questão maior; pesquisas indicam que pessoas colocadas em sala quente acreditam mais no aquecimento global e o contrário em ambiente frio, mostrando uma ruptura do raciocínio lógico. www.sciam.com.br 71

Na véspera do Natal do ano passado, o navio russo Akademik Shokalskyi, transportando uma expedição australiana, ficou preso no gelo próximo à costa do setor “francês” da Antártida − em torno do meridiano 1450 leste. Seu pedido de ajuda movimentou navios da França, Austrália, China, e Estados Unidos, no último caso o Polar Star, o maior quebra-gelo americano na atualidade. Em 2 de janeiro, um helicóptero do quebra-gelo chinês Xue Long (“Dragão da Neve”) conseguiu retirar 52 passageiros do barco russo e levá-los para o navio australiano Aurora Australis, que também viera em socorro do navio apresado pelo gelo. Mas, a seguir, tanto o navios chinês como o australiano também foram aprisionados ao longo de alguns dias na banquisa, a capa espessa de gelo que cobre o mar em determinadas situações do continente antártico. O episódio do apresamento dos barcos polares rendeu manchetes na imprensa mundial e uma saraivada de críticas aos organizadores da expedição e seu grupo científico, principalmente nos jor-

nais da Austrália e páginas da internet. Comentários falavam em “fracasso” da expedição, porque um objetivo subjacente à viagem seria “demonstrar” o aquecimento global e o gelo que apresou o navio provaria justamente o contrário. Como no caso dos congressistas em Washington, a nevasca no Capitólio ou o gelo que apresou o Akademik Shokalskyi, não há relação com um “resfriamento” do planeta. A retenção do navio russo ocorreu em gelo costeiro, consolidado em muitos anos − e exatamente por isso muito duro e espesso − desagregado e movido por uma grande tempestade ciclônica. O quadro foi muito semelhante ao que foi vivido pelo autor deste artigo, em fevereiro de 1961 na então inexplorada Costa de Eights (longitude 920 W), a bordo do grande quebra-gelo Glacier, da marinha americana, na companhia de outro quebra-gelo menor, o Staten Island (ver Scientific American Brasil, janeiro de 2003). Uma tempestade ciclônica de 60 horas de duração com ventos de 180 km/h e ondas que se propagaram sob o mar congelado partiu o

BALANÇO HÍDRICO Janeiro 2014

xäþž¸lx5x­ÇxßDîøßD$EĀž­D€$ylžD$x³äD§

Fevereiro 2014

Fevereiro 2014

'%5i%35575'% '%" $5'2'"' %$5

Janeiro 2014

xäþž¸lx šøþD `ø­ø§DlD$x³äD§

72 Scientific American Brasil | Abril 2014

gelo costeiro multianual (fast ice); e todos os gelos combinados cercaram os navios. Ficamos ao todo 20 dias presos e à deriva, safando-nos em 4 de março de 1961. Em termos de percepção, é inacreditável a falta de sensibilidade que campeia atualmente, até mesmo nos meios científicos relacionados à mudança climática; e numa escala mais ampla, com a realidade do efeito estufa e suas consequências. Quantos anos mais colecionando estatísticas climatológicas e notícias de eventos trágicos e catastróficos serão necessários para que “especialistas” percebam o óbvio? Certamente as pessoas que trabalham próximas à Natureza e sentem na pele os efeitos do ambiente alterado já perceberam essas mudanças. Um sobrinho, que desistiu de lidar com a soja e voltou ao cultivo do café, em Cristais Paulista, em meio à recente estiagem e extraordinária onda de calor em plena estação chuvosa, contou-me perplexo e de forma trágico-poética: “Parece um inverno transplantado para o pleno verão, está seco como em julho, a poeira levanta, o calor é inacreditável e não acaba. Pela manhã não se molha no orvalho andando nos campos; o céu está vazio de nuvens, e quando elas se formam, se dissipam em seguida”. É certo que algumas das alterações são sutis e por isso mais insidiosas, dificultando uma detecção inequívoca; além disso superpostas às variações naturais “normais” ou que sempre existiram − talvez seja este um dos aspectos mais problemáticos, de como a mudança global confunde os humanos, cientistas incluídos. Neste ponto, certamente faz sentido recorrer a um poeta como Cruz e Souza para dizer que: “Não tenho orgulho do que sei, mas do que sinto”. ANOMALIAS DE UM VERÃO HISTÓRICO

O VERÃO É UMA EFEMÉRIDE ASTRONÔMICA, mas de um ponto de vista climatológico é comumente definido como os meses de dezembro, janeiro e fevereiro, justamente o trimestre mais chuvoso no Sudeste e Centro-Oeste do país. Especialmente nessas regiões, o verão 2013/2014 está sendo marcado por anomalias − desvios dos valores médios climatológicos − bastante significativas tanto de precipitação como de temperatura. Em dezembro é frequente a formação da Zona de Convergência do Atlântico Sul – (ZCAS) − extensa e persistente banda de nebulosidade e chuva promovida pela convergência de ventos úmidos em baixos níveis com apoio de divergência em níveis superiores − que ajuda a direcionar a umidade amazônica aos estados do Sudeste. Em dezembro passado, um bloqueio atmosférico que contava com forte anomalia positiva de pressão atmosférica − pressão mais alta − a se estender em níveis médios a altos do sudeste do Pacífico até o estado de São Paulo promoveu uma onda de calor na Bacia do Prata e no sul do país e manteve as temperaturas em São Paulo acima da média, com chuva abaixo do normal, além de contribuir para deixar a ZCAS praticamente estacionária, atuando intensamente sobre o Espírito Santo e o leste de Minas Gerais. Nessas regiões, promoveu anomalias de chuva muito acima do normal. As fortes chuvas provocaram dezenas de mortes associadas a deslizamentos de terra, enxurradas e inundações. Em Capelinha, Minas Gerais, o Instituto Nacional de Meteorologia (INMET) registrou incríveis 930 mm mensais, quando em geral na região chove cerca de 250 mm − cada mm de chuva equivale a 1 l/m². Em contrapartida foi o terceiro dezembro menos chuvoso da série na capital paulista, iniciada em 1943, com apenas 84,6 mm acumulados. Janeiro e a primeira metade de fevereiro não foram menos anômalos. À medida que a ZCAS se dissipou, depois do Natal, uma

nova anomalia de aumento da pressão começou a ganhar força. A Alta Subtropical do Atlântico Sul passou a se intensificar, a se expandir e projetar uma crista sobre o Sudeste e Sul do Brasil chegando tão longe quanto o leste do Mato Grosso do Sul no nível de 500 hPa. Essa configuração aliada a um padrão de bloqueio inibiu a entrada de frentes frias no Sudeste e ainda defletiu o canal de ventos úmidos da Amazônia, para oeste, gerando máximos de precipitação no Acre, Peru e Bolívia e que posteriormente chegou à região Sul, após passar sobre o Paraguai e norte da Argentina. Em metade das estações climatológicas convencionais do INMET em São Paulo a temperatura média das máximas para janeiro de 2014 foi recorde de anomalia positiva. Na cidade de São Paulo, o mês fechou com média das máximas de 31,9°C, anomalia de mais de 4°C, o maior valor em pelo menos 71 anos. Em Franca, norte do estado, além de temperaturas recordes, o mês foi muito seco. Choveu apenas 131,9 mm, cerca de 40% da média histórica, o menor valor em 38 anos. Um mapa de anomalia de chuva − déficit em relação à normalidade − mostra também por que os reservatórios paulistas estão em níveis críticos, já que os principais rios que compõem o Sistema Cantareira de abastecimento nascem no sul de Minas Gerais, onde o déficit em janeiro superou os 200 mm e no mês anterior havia superado os 120 mm. Em 15 de fevereiro o bloqueio atmosférico finalmente foi vencido, à medida que a primeira frente fria realmente sistematizada atingiu um estado da região Sudeste. Em São Paulo, capital, chegou ao fim uma sequência, sem precedentes, de 26 dias consecutivos com temperaturas acima de 30°C. Fevereiro de 2104 também entra para a história já que das 10 temperaturas máximas diárias para o mês, 9 foram registradas este ano. As consequências da alta pressão anômala ainda não terminaram e podem ter desdobramentos surpreendentes como, por exemplo, um pequeno ciclone subtropical que se desenvolveu ao largo da costa do Sudeste e, em 19 de fevereiro, estava previsto para se deslocar de forma retrógrada, acompanhando a água mais quente que o normal em consequência da subsidência da alta pressão − compressão do ar e insolação. Ele não deve chegar ao litoral ou afetar o continente, mas algumas características de suas manifestações remontam ao Catarina, que evoluiu para ciclone tropical, em 2004. Apesar do calor recorde das últimas semanas é preciso considerar que no último inverno uma onda de frio histórica fez voltar a nevar até nas montanhas da Grande Florianópolis, evento que não se manifestava há 29 anos. Outra possibilidade é que uma forte frente fria surja em médio prazo, já que a região da Península Antártica tem registrado recordes de temperaturas baixas neste verão, aumentando drasticamente o contraste de massas de ar entre os dois continentes.

PA R A C O N H E C E R M A I S A new estimate of the average Earth surface land temperature spanning 1753 to 2011. Robert Rohde et al., Geoinformatics & Geostatistics: An Overview 2013, 2012. http:// www.scitechnol.com/2327-4581-1-101.pdf Tempo e clima no Brasil. Iracema Fonseca de Albuquerque Cavalcanti, Nelson Jesus Ferreira, Maria Gertrudes Alvarez Justi da Silva, Maria Assunção da Silva Dias (organiĆDm¹àyåËÎ'Š`Ÿ´Dmy5yāï¹åj3T¹0Dù¨¹j÷ĈĈµÎ Mudanças climáticas globais e seus efeitos sobre a biodiversidade. José A Marengo, Ministério do Meio Ambiente, Secretaria de Biodiversidade e Florestas, Brasília, 2006. A física por trás das mudanças climáticas. William Collins, Robert Colman, James DĂĀ¹¹mj$Dà2Î$D´´Ÿ´‘y0›Ÿ¨ŸÈ$¹ïyjIY_[dj_ÒY7c[h_YWd8hWi_b, setembro 2007.

www.sciam.com.br 73

gato

Um novo

74 Scientific American Brasil | Abril 2014

de

Priscila Todero de Almeida, física, atualmente é aluna de doutorado no Laboratório de Propriedades Ópticas do Instituto de Física Gleb Wataghin na Unicamp. Realiza pesquisas multidisciplinares de magnetismo e óptica. É fã dos gatos (prefere sua gata Babi ao de Schrödinger) e da comida italiana. Román López Ruiz, químico, atualmente trabalha como post-doc no Laboratório de Materiais e Baixas Temperaturas do Instituto de Física Gleb Wataghin. Seu trabalho está baseado na síntese e estudo das propriedades magnéticas de materiais na escala mesoscópica como magnetos ¡«›rZæ›DÍrÒd§D§«µDÍÜûZæ›DÒ«æ§D§««Ò»

Schrödinger Molécula que abriu caminho para computador quântico pode ser simulada com princípios mais elementares, como demonstra um trabalho desenvolvido na Unicamp Por Priscila Todero de Almeida e Román López Ruiz

www.sciam.com.br 75

O

MN12 É O MAIS IMPORTANTE DOS MAGNETOS MOLECULARES DO CAMPO DE PESQUISA chamado de magnetismo molecular. Mas, de onde vem sua importância e por que há centenas de artigos científicos sobre ele? Apesar de estudado há décadas, o Mn12 é desconhecido para o grande público. Neste artigo, apresentaremos essa molécula que abriu caminho para a construção do computador quântico. Veremos como se pode simular esse sistema com as mesmas características levando em conta os princípios mais elementares, num trabalho feito na Universidade Estadual de Campinas por jovens pesquisadores.

Qualquer uso de um computador – como para escrever este artigo – por exemplo, se reduz no interior da máquina a operações matemáticas com zeros e uns. Isso é conhecido como código binário. Assim, um bit é um objeto com dois estados (0 ou 1) bem diferenciados, intercambiáveis e estáveis durante um tempo suficiente para fazer as operações. Considere um ímã. Se orientarmos o polo norte para cima, nesse estado, poderemos ter o valor “0”. Mas, se girarmos o polo norte para baixo, também poderemos ter o valor “1”. Assim, seria possível construir um bit magnético, e um ensemble deles poderia ser um aglomerado de bits, ou seja, uma memória. O passo seguinte seria diminuir esse bit para que o dispositivo eletrônico fosse menor. Vamos pensar em um ímã conhecido (como o de geladeira) e quebrá-lo até chegar ao átomo, ou à molécula constituinte. O que se conhece como aproximação “top-down”. É um caminho difícil, mas há outro melhor: a química, ou aproximação “bottom-up”. Em 1980 foi sintetizada uma molécula composta por 12 átomos de manganês no interior de um cristal de acetato que se comporta como um ímã: o Mn12. Em 1993, foi demonstrado que o Mn12 poderia ser um bit. A molécula se comporta como um ímã pequeno com a capacidade de se orientar para uma direção (1) e à contrária (0) de modo estável e, ao mesmo tempo, intercambiável para a outra facilmente. Essa característica é devida à anisotropia que produz um sistema biestável. Para entender a anisotropia podemos pensar em um carro. Suponha que queremos movê-lo. Obviamente, o que fazemos é empurrá-lo horizontalmente. Para a frente ou para trás é fácil fazer esse deslocamento. Mas no sentido perpendicular às rodas é difícil. O carro não responde da mesma maneira, pelo fato de ter rodas, se empregamos a força numa direção ou outra. A esse fenômeno, na física, se chama de anisotropia. Em contraposição, uma bola é isótropa, pois desloca-se igualmente, independentemente da direção

em que é orientada. O Mn12 tem anisotropia porque está dentro de um cristal e isso “coloca as rodas” numa determinada direção, que chamaremos de eixo fácil. Dessa maneira a molécula ímã, dentro do cristal, orientará seu norte magnético em um sentido (1) ou no sentido contrário (0) no eixo fácil, sendo difícil que se oriente em outras direções, como aquela perpendicular ao eixo. Em energia, significa que os estados (1) e (0) são mínimos e o estado perpendicular a eles um máximo. Assim, se colocarmos o ímã apontando perpendicularmente ao eixo fácil, igual a uma bolinha, ele cairá de um lado ou de outro da barreira, nos “poços” estáveis, apontando de um lado (0) ou outro (1) da “barreira” de energia. É por isso que o sistema é biestável, pois quando colocamos o ímã apontando para 1 ou 0 ele permanecerá lá, a menos que o empurremos para o outro poço, com energia maior que a barreira. Nesse sentido, empurrar significa aplicar um campo magnético numa direção oposta. Concluímos, assim, que temos um sistema com dois estados estáveis durante algum tempo e fácil de ser modificado. Portanto, trata-se de um bit do tamanho de uma molécula. Até aqui vimos a possibilidade de ter um bit em uma molécula. Mas, lamentavelmente, isso acontece apenas na temperatura do hélio líquido, a aproximadamente 270 graus abaixo de zero, devido ao fenômeno do superparamagnetismo a que vamos nos referir. Na aproximação top-down, o ímã reduzirá seu volume e a barreira de energia devida à anisotropia. Chegará um momento em que a temperatura agirá como um ente desestabilizador desse sistema fazendo com que o bit salte a barreira de energia. O bit, ou a memória, só poderá ser recuperado com uma queda da temperatura. No Mn12, seu pequeno tamanho e anisotropia fazem com que, para se recuperar a bit, deva-se alcançar uma temperatura chamada de bloqueio, muito baixa, bem próxima do zero absoluto (-273,150C). Mas, como se comportam as propriedades do Mn12, antes e depois

EM SÍNTESE O Mn12 é o mais importante magneto molecular, a molécula que abriu caminho para a construção do computador quântico. Mas, de onde vem sua importância? Apesar de estudado há décadas, o Mn12 é desconhecido para o grande

76 Scientific American Brasil | Abril 2014

público. Em 1993, foi demonstrado que o Mn12 poderia ser um bit. A molécula se comporta como um ímã pequeno com a capacidade de se orientar para uma direção (1) e à contrária (0) de modo estável e, ao mesmo tempo, inter-

cambiável para a outra facilmente. O Mn12 apresenta um ciclo de histerese [tendência de um material ou sistema de conservar suas propriedades na ausência do estímulo que as produziu].

da temperatura de bloqueio? Precisamos de uma medida capaz de dar a informação sobre como o cristal de Mn12 responde ao campo magnético: a magnetização, M. No caso de um ímã, m, sua magnetização se soma ao campo, ou seja, se alinha com ele como uma bússola com o campo terrestre. Assim, supondo que não temos temperatura – o que significa que estamos abaixo da temperatura de bloqueio – quando aplicamos um campo magnético na direção 0 ou 1, estamos forçando todas as moléculas de Mn12 do cristal a cair nesse poço. Quando retiramos o campo, as moléculas ficam retidas nele. Como a magnetização se somava ao campo magnético, ela terá um valor positivo. Diz-se, então, que o material está magnetizado com esse valor de M positivo ou de remanência, Mr. Quando temos um ímã tão pequeno quanto o do Mn12, na temperatura ambiente – acima da temperatura de bloqueio – o bit pode saltar livremente a barreira, de modo que, como a energia térmica é caótica, metade das moléculas de Mn12 ficam em um poço e a outra metade no outro. Nessa situação quando somamos a magnetização vemos que o valor resultante é zero, e consequentemente, Mr = 0 e o Mn12 deixa de se comportar como um ímã, pois não está magnetizado. UMA VANTAGEM QUÂNTICA

A HISTERESE ACONTECE QUANDO REPRESENTAMOS magnetização M versus o campo magnético “H” abaixo da temperatura de bloqueio. Voltemos ao exemplo de ausência de temperatura. Ao aplicar-se um campo positivo M alcança um valor positivo limitado pelo número total de moléculas. Isso significa que a magnetização para de crescer e alcança um valor de saturação, Ms. Ao retirar o campo, M retorna ao seu valor de remanência, Mr. Aplicando campo na direção negativa, as moléculas são empurradas ao outro poço e, analogamente ao caso de campo positivo, M satura exatamente no valor -Ms. Em um valor dado de campo, metade dos ímãs está em um poço e a outra metade no outro, com magnetização nula, ou seja, M=0. Esse valor de campo se chama de coercitivo, HC. Em seguida, retira-se o campo e M vai ao valor de remanência -Mr. Mas, aplicando novamente um campo positivo, fechamos o ciclo. O Mn12 apresenta um ciclo de histerese particular, com degraus para determinados campos. Em 1995 foi descoberta a origem dessa “estranha forma”, que nada mais é que uma manifestação de uma natureza quântica. Assim, não estamos estudando apenas um bit convencional: trata-se de um fascinante bit quântico, o ingrediente fundamental para uma possível memória quântica. Vamos observar, com mais detalhes, essa particularidade remontando-nos ao caráter mais íntimo do magnetismo. Vimos que a molécula de Mn12 comporta-se como um pequeno ímã. Mas, qual é a origem desse comportamento? A resposta é o spin do elétron. Um elétron é caracterizado por suas propriedades intrínsecas, ou seja, uma determinada carga, massa, e outra propriedade normalmente esquecida, o spin. No caso da molécula de Mn12 a soma dos spins de todos os elétrons tem um valor total de S=10. O spin é, ao fim das contas, o responsável pelo valor da magnetização (se fosse S=0, não teríamos o caráter magnético) e a origem da quantização, ou seja, a discretização das energias da barreira de energia. De fato, só são possíveis energias que correspondem a valores inteiros (vamos denominá-los de M) da projeção do spin S sobre o eixo fácil. Não é difícil ver que M tem 21 possibilidades de energia (-10, -9, -8, ..., 0, ..., 8, 9, 10). A energia é mínima nos poços quando m=10 ou m=-10. Em m=0 temos um máximo de energia e estamos no topo da barreira. Pode-se observar que os níveis com o mesmo valor absoluto de M têm a mesma energia (-10 e +10, -9 e +9, -8 e +8 ....). Eles são chamados de estados degenerados

Não se trata de um bit convencional, mas de um fascinante bit quântico. de energia. Já os níveis de energia mais baixa (-10 e +10) são os estados fundamentais, e os superiores, excitados. O spin, quando passa para o lado oposto de determinada posição deve saltar pelos estados excitados, negativos, se está de um lado da barreira, ou positivos, se está do outro, até atingir o topo, onde tem a possibilidade de cair. Se ele passa do outro lado, produz-se a inversão de spin, e consequentemente, a inversão da magnetização. Mas como o spin é um ente quântico, o que ocorre é que há outro ingrediente nesse sistema: que o spin pode se inverter sem necessidade de chegar ao topo da barreira, por efeito túnel. Essa possibilidade é o que faz, do bit, um bit quântico. O EFEITO TÚNEL

O EFEITO TÚNEL É A EXPLICAÇÃO DO ESTRANHO comportamento histerético do Mn12. Para que o spin possa tunelar, ou seja, atravessar a barreira de energia é necessário que os estados estejam “sintonizados” na mesma energia. Quando isso ocorre o spin tem “um atalho”: não tem de subir até o topo da barreira para inverter. Basta subir até um nível em que seja possível “tunelar” do outro lado. Isso faz que a barreira de energia seja menor e, em consequência, temos um processo de inversão mais rápido. Esse processo de inversão é chamado de termicamente ativado, diferente do efeito túnel puro, que se dá pelos estados fundamentais. Agora vamos nos referir aos degraus do ciclo de histerese. Para isso temos de reconsiderar a necessidade de sintonização dos níveis. No primeiro momento temos uma barreira simétrica sem campo aplicado. Há sintonização e o túnel pode ocorrer. Entretanto, quando aplicamos um pequeno campo, tornamos a barreira assimétrica, favorecendo os níveis de um lado dela e baixando a energia na mesma quantidade, o que desfavorece os níveis do lado oposto, quebrando a sintonização pelo chamado efeito Zeeman. Nesse momento, o “atalho” do túnel não é possível e o spin, para inverter, só tem a via “normal” acima da barreira. Se vamos aumentando o campo, para um determinado valor, os níveis de um lado e do outro se cruzarão entre eles, agora para M diferentes, em uma situação de sintonização nova, na qual o túnel volta a ser possível. Essa circunstância de sintonização ocorre, no caso do Mn12, a cada faixa de campo magnético de 4.500 Oe [Oersted, unidade de intensidade do campo magnético]. Assim, os degraus se manifestam no campo zero e em todos os campos múltiplos desse valor. Nesses valores discretos de campo a inversão do spin é mais rápida − pelo fato de que o caminho que o spin deve percorrer é mais curto − fazendo com que M varie mais rapidamente, até o valor final que se quer atribuir ao campo. O bit quântico é uma consequência do efeito túnel. Se voltarmos ao caso da barreira simétrica e subirmos ao nível M = 3 observaremos não mais um estado simples. Ele estará misturado com o nível M = -3 em um estado estranho em que o spin não está mais em uma orientação (1) ou a contrária (0), mas como um “estado superposiwww.sciam.com.br 77

ção”, uma mistura de 1 e 0. Como são dois estados, a quântica impõe duas combinações, que são o estado (1+0) e (1-0) que se conhecem como combinações simétrica e antissimétrica respectivamente. Em resumo, quando o spin atinge essa energia ele se comporta como um ímã, apontado para o norte e o sul ao mesmo tempo. Essa propriedade, negativa para a computação convencional, é a base da computação quântica. UM NOVO GATO DE SCHRÖDINGER

APOSTAMOS NOSSAS FICHAS QUE EM ALGUM MOMENTO o leitor já ouviu falar do famoso gato. Esse felino nada mais é que um experimento mental proposto pelo físico austríaco Erwin Schrödinger (18871961). Nele, o gato pode estar no estado “vivo e morto” ao mesmo tempo. Neste sentido, o Mn12 é um gato de Schrödinger magnético em que o ímã pode estar orientado numa direção e em outra simultaneamente. Mas, por que no experimento de Schrödinger nunca vemos essa superposição? A resposta é dada pelo tempo de decoerência, imposto por uma lei fundamental da física quântica, o princípio da incerteza. Há muitas maneiras de interpretar esse fenômeno, base da teoria quântica. O princípio foi formulado pelo físico alemão Werner Heisenberg (1901-1976), em um primeiro momento, para a impossibilidade de fixar simultaneamente a posição e o momento linear (massa por velocidade) de forma simultânea. Em nosso caso, influi sobre a energia e o tempo. Quando atingimos esse nível, em que a energia já não é mais dos dois estados, mas de estados “emaranhados”, aplica-se essa incerteza sobre a energia desse processo, chamado de deslocamento de efeito túnel, , de maneira que esses estados não são estáveis no tempo, e de algum modo deve-se escolher, como o gato, um estado normal, vivo ou morto, 1 ou 0, de um lado da barreira ou do outro. Esse tempo, chamado de decoerência, está determinado pela interação do entorno, da ordem de 10-11s. O significado é que o bit apenas se comporta como quântico durante um tempo menor que uma milionésima parte de um milissegundo, e claro, qualquer operação de computação ou algoritmo com esse bit deve se dar em um tempo menor, pois simplesmente se converterá em um bit “normal”. A exposição anterior dá uma ideia da complexidade da física do Mn12, um dos primeiros magnetos moleculares estudados. O fato de se poder observar em um experimento comum, como um ciclo de histerese, uma evidência do comportamento quântico do sistema, foi revolucionária à época, e provou a predição teórica dos anos 80 da possibilidade de observar o efeito túnel macroscópico proposto pelo físico americano e Prêmio Nobel Anthony Leggett e o professor Amir Ordacgi Caldeira, do Instituto de Física Gleb Wataghin, na Universidade Estadual de Campinas (Unicamp). Uma vez conhecido o comportamento do sistema é interessante simulá-lo para observar como certas modificações afetam seu comportamento. É interessante definir, por exemplo, que parâmetro é melhor considerar para que o bit quântico seja mais estável e durável para futuras aplicações de computação quântica, com maior tempo de decoerência. Normalmente, todas as simulações que envolvem sistemas quânticos estão baseadas na resolução de uma função hamiltoniana. Essa função é um operador da mecânica quântica que se associa à energia do sistema. Como nosso sistema evolui para uma configuração de mínima energia, utilizamos a função hamiltoniana para calcular as energias de todas as configurações e encontrar qual é a energia mínima. Mas esse cálculo computacionalmente é muito lento, por isso propomos um novo modelo que não utiliza esse método. 78 Scientific American Brasil | Abril 2014

Os cálculos, neste caso, são complexos, demorados e requerem uma ferramenta computacional potente. Apostamos em uma estratégia simples, sem resolução de hamiltoniana nem cálculos demorados, como Einstein quando definiu um cristal como um sistema de molas. Nossa simulação move o campo em passos, não continuamente. Cada passo de campo “move” 10.000 dessas moléculas, ou spins, pelos 21 estados de M que estão na barreira de energia. No princípio, coloca-se um campo forte, de maneira que todos os spins estarão, por exemplo, no poço positivo no estado m=10, na saturação. A partir daí, a cada movimento calculamos a “probabilidade vertical” de povoar um estado superior. Usamos o método de Monte Carlo, ou seja, uma vez calculada essa probabilidade, o spin sobe se um número aleatório extraído independentemente é maior que essa probabilidade. Se algum spin chega ao topo da barreira (m=0) ele cai do outro lado com a consequente variação da magnetização, caso contrário ficará em qualquer um dos estados anteriores ao topo. DEPENDÊNCIA TÉRMICA

A PROBABILIDADE A QUE ACABAMOS de nos referir é dada pela distribuição de Boltzmann e depende fundamentalmente da temperatura. Uma vez povoados os estados M em função da temperatura, podemos calcular para cada um desses spins a “probabilidade lateral” ou probabilidade de passar ao estado vizinho do outro lado da barreira por efeito túnel. Para isso se utiliza a teoria de Landau-Zenner e também o método de Monte Carlo. Essa probabilidade depende, sobretudo, de , ou da combinação dos M de um lado ao outro da barreira, e obviamente, apenas se pode dar em uma estreita faixa próxima dos campos, nos quais os níveis “sintonizam”. Se isso não ocorre, não há sintonização de níveis e a probabilidade de tunelar é zero. Uma vez feitos os movimentos acima (térmico) e lateral (quântico) o modelo de simulação tira os spins ao estado fundamental de um lado ou de outro da barreira e calcula a magnetização resultante simplesmente balanceando o número de spins de um lado e do outro. Esse processo é feito para cada passo de campo, calculando a magnetização e reproduzindo o ciclo de histerese. As conclusões são que um modelo simples como esse, que não inclui nenhuma hamiltoniana e é capaz de fornecer um resultado em poucos minutos usando um computador, reproduz qualitativamente o ciclo de histerese do Mn12 com temperatura de bloqueio da mesma ordem e com um ciclo de histerese que depende da temperatura. Além disso, está concordando com o mecanismo de inversão real, o efeito túnel termicamente ativado. Ainda que simples, o sucesso está em introduzir apenas os dois ingredientes essenciais do movimento dos spins em um sistema com probabilidade de efeito túnel: a ativação térmica e o passo por tunelamento. Um claro exemplo da beleza do simples no complexo mundo quântico.

PA R A C O N H E C E R M A I S Descobrimento da estrutura do cristal de Mn12 T. Lis, Acta Crystallogr., Sect. B: Struct. Crystallogr. Cryst. Chem. 36, 2042 1980. Biestabilidade do Mn12 R. Sessoli, D. Gatteschi, A. Caneschi e M.A. Novak, Nature (London) 365 (1993) 141 Explicação do comportamento magnético mediante efeito túnel J. M. Hernández, X. X. Zhang, F. Luis, J. Bartolomé, J. Tejada e R. Ziolo, Europhys. Lett. 35, 301 1996 Estudo do tunelamento da magnetização em magnetos moleculares de Mn12 Tese de mestrado da estudante Priscila Todero de Almeida IFGW- Unicamp "Ÿ´§i›ïïÈiëëĀyUUŸ†ÎŸŠÎù´Ÿ`D®ÈÎUàëïyåyåëDÈàyåy´ïD`D¹ÎțÈ֊¨y´D®y‚ÀêĈ‹

Iniciativa de um grupo de jovens da UFPR cria publicação para estimular leitura de artigos científicos e mudar postura passiva, distante do potencial criativo da ciência

ILUSTRAÇÃO POR IMAGEZZO/GETTY IMAGES

Por Adonai Sant’Anna

Adonai S. Sant’Anna, professor associado do Departamento de $DÜr¡ñܔZDfD7§”èrÍҔfDfrrfrÍD›f«0DÍD§ñ·702¸»«æÜ«Ír¡›«Ò«D pela Universidade de São Paulo (USP), foi Post-Doctoral Fellow na Stanford University. Autor de dezenas de artigos em veículos especializados de física, ¡DÜr¡ñܔZDr›«Ò«DµæO›”ZDf«Ò§« ÍDҔ›r§«rêÜr͔«Í»

Á UM ANO PUBLIQUEI EM SCIENTIFIC AMERICAN BRASIL (EDIÇÃO DE FEVEREIRO DE 2013) um artigo sobre a realidade das universidades públicas brasileiras, enfatizando a falta de sintonia do ensino superior público com a atual produção científica e tecnológica promovida nos países desenvolvidos. Levando em conta a incipiente produção acadêmica da maioria das instituições privadas de ensino superior fica claro que o papel da universidade deve ser profundamente revisto no Brasil.

Recebi, ao todo, cerca de uma centena de mensagens e e-mails com comentários das mais diversas regiões do país e mesmo do exterior. E, a julgar pelo conteúdo dessas mensagens, mais pessoas têm percebido que mudanças profundas, de fato, devem ser feitas. Neste texto, destaco uma promissora iniciativa que nasceu de um grupo de jovens de Curitiba, Paraná. Escrevo com o propósito de difundir a ideia de que iniciativas semelhantes devem ser apoiadas por diferentes segmentos sociais: de cidadãos a empresas e governos. Em maio de 2013 André Sionek, jovem estudante de física da Universidade Federal do Paraná (UFPR), retornou dos Estados Unidos após estudar, durante um ano, na University of Pennsylvania. Ele fez isso graças ao programa do governo federal Ciência sem Fronteiras. Ao contrário de muitos jovens que usam esse programa para fins de turismo internacional, pago pelos cofres públicos, Sionek de fato viveu a vida acadêmica em uma instituição de ensino superior que é referência mundial. Assim, percebeu diferenças profundas e preocupantes entre o ensino superior nos Estados Unidos e o que é praticado no Brasil. PADRÕES DISTINTOS

FAÇO, A SEGUIR, UMA BREVE LISTA de algumas das diferenças observadas por Sionek. Entre elas, as ementas de disciplinas lecionadas na University of Pennsylvania (Upenn) são parecidas com as de disciplinas equivalentes em universidades brasileiras, como a UFPR. A diferença é que a carga horária média dos alunos de lá é consideravelmente inferior à praticada aqui. Mas, mesmo assim, a formação dos alunos americanos é superior à de brasileiros. E isso porque, ao contrário da prática comum daqui, alunos de uma instituição como a Upenn estudam diariamente e não apenas em época de avaliação. Além disso, existe efetiva participação deles em sala de aula. Para citar apenas um exemplo: comumente, livros apenas mencionados por um professor são lidos por alunos em seguida. Além disso, nos estados unidos, alunos procuram as melhores universidades com o propósito de aprender e se prepararem para a competitiva realidade do mercado de trabalho. No Brasil, jovens

ainda procuram universidades com o objetivo, quase sempre, de obter um diploma. As áreas de conhecimento nas universidades brasileiras são indesejavelmente segmentadas – com isso falta interação entre profissionais e estudantes de diferentes especialidades. Isso porque alunos brasileiros ingressam em cursos, que, frequentemente, estão isolados do conjunto de suas respectivas universidades. Nos Estados Unidos, alunos ingressam em universidades, não em cursos. Assim, têm a oportunidade de trocar ideias com pessoas de diferentes formações. Está suficientemente estabelecido que a interdisciplinaridade é fundamental para o desenvolvimento científico e tecnológico de ponta, mas isso ainda não alterou a postura de universidades aqui. Retornar ao Brasil foi uma experiência difícil para Sionek, onde o ambiente acadêmico é, em geral, desestimulante. Como ele cursou uma disputada disciplina em empreendedorismo na Upenn, empregou as ferramentas lá utilizadas e criou a Polyteck, em parceria com um ex-colega de laboratório, Fábio Rahal. Trata-se de uma revista de ciência e tecnologia publicada mensalmente desde setembro de 2013. A tiragem mensal da Polyteck é de 10 mil exemplares, distribuídos gratuitamente para estudantes, professores e outros interessados. Os artigos são, em geral, adaptações de textos originalmente publicados em periódicos de prestígio, mas pouco conhecidos por jovens estudantes brasileiros, como Nature (Scientific American é do mesmo grupo da Nature), Cell, Science e Proceedings of the National Academy of Sciences of the United States of America. Além disso, Polyteck prioriza a publicação de artigos sobre desenvolvimentos científicos e tecnológicos interdisciplinares, com o objetivo de estimular a postura universal que toda universidade deve ter. Outra característica importante da Polyteck é a publicação de textos em inglês, novamente para estimular a leitura na língua usada na comunidade científica mundial e pouco conhecida nas universidades brasileiras, tanto por estudantes quanto professores. Com o tempo foram criados um blog e uma página Facebook da revista. Foi neste momento que entrou o terceiro membro da

EM SÍNTESE Em maio do ano passado André Sionek, estudante de física da Universidade Federal do Paraná (UFPR), retornou dos Estados Unidos após um ano de permanência na University of

80 Scientific American Brasil | Abril 2014

Pennsylvania, instituição de referência mundial, e se deu conta das diferenças entre o ensino superior lá e aqui. Uma disciplina na área de empreendedorismo fez com que ele

criasse, no Paraná, uma publicação, a Polyteck, em parceria com um ex-colega de laboratório. Trata-se de uma revista de ciência e tecnologia publicada desde setembro passado.

EQUIPE REDUZIDA PRODUZ A POLYTECK: idéia inicial de editar a revista foi vista, inicialmente, com ceticismo por parte da comunidade

equipe Polyteck, a física Raisa Requi Jakubiak, agora diretora de redação da publicação. A direção da Polyteck tem realizado levantamentos para apurar o potencial de receptividade da revista. Questionários têm sido respondidos por alunos de várias instituições de ensino superior federais, estaduais e privadas, de diferentes estados. Em um dos questionários (respondido por 126 estudantes universitários) 67,5% dos consultados avaliam que as universidades não colocam o estudante em contato com os problemas enfrentados atualmente na indústria e pesquisa. E 64,3% lamentam que as universidades não colocam seus alunos em contato com a fronteira da ciência e tecnologia. Além disso, o questionário revelou a falta de conhecimentos sobre empreendedorismo. Esses dados, entre outros obtidos, serviram para nortear o perfil editorial da Polyteck. Apesar de a distribuição da Polyteck ser feita de maneira quase artesanal (conheci André Sionek em um dos campi da UFPR, distribuindo a revista entre transeuntes), a qualidade do periódico é impecável: de diagramação e impressão aos conteúdos dos artigos.

FOTOGRAFIA POR LAIS MARCELINO

CONECTADOS AO MERCADO

INICIALMENTE, A SIMPLES IDEIA DE CRIAR a Polyteck foi recebida com considerável ceticismo. Um professor da UFPR chegou a prever, referindo-se a Sionek: “Sua iniciativa é muito nobre e acredito que um material desses pode realmente provocar algum tipo de transformação nas universidades. Mas não no Brasil. Uma revista nesses moldes não vai pegar por aqui. O universitário não quer ler, alguns não sabem sequer interpretar um texto”. Apesar de certa resistência, André Sionek vendeu seu carro e Fábio Rahal investiu suas próprias economias para, juntos, darem início ao projeto. Eles também tiveram a orientação do professor Emerson Camargo, diretor da Agência de Inovação da UFPR. A

expectativa, agora, é, a partir de algum momento, pagar as pesadas despesas de edição, impressão e distribuição com anúncios publicitários. Isso porque a direção da Polyteck detectou que existem empresas interessadas em divulgar seus produtos e serviços em universidades, mas que enfrentam dificuldades para encontrar um veículo adequado de comunicação. A Polyteck parece ser uma boa solução. Além disso, recentemente um professor relatou a Sionek que usará a Polyteck para ensinar seus alunos a escrever relatórios. Com esses resultados iniciais, é possível perceber um clima de entusiasmo entre os diretores da revista. Nas palavras de Sionek, “nosso maior objetivo é fornecer ferramentas para transformar o aluno brasileiro, atualmente passivo e sem iniciativa, em um estudante de ponta, proativo e aberto às demandas da sociedade e da indústria para resolver problemas complexos”. Ele acrescenta que “também queremos servir como um elo de conexão entre as diversas áreas do conhecimento e entre a indústria e a academia”. Sionek relata que “o estudante brasileiro ainda não descobriu o potencial que tem para reinventar o mundo. Sabemos que a tecnologia e a ciência são as áreas com maior potencial para transformações positivas na sociedade. Por isso, estamos aqui para incentivar o universitário a ampliar seus conhecimentos através da leitura e também para lembrá-lo de que é perfeitamente possível mudar o mundo”.

PA R A C O N H E C E R M A I S Klaus de Geus: Mentes criativas, projetos inovadores (Musa, 2010). Adonai Sant’Anna. Ciência e educação (de qualidade) são a base da esperança. IY_[dj_ÒY 7c[h_YWd8hWi_b, fevereiro de 2013. Site da Polyteck: www.pltk.com.br

www.sciam.com.br 81

CIÊNCIA EM GRÁFICO

POR JOHN MATSON

Tempero Contaminado Especiarias importadas estão repletas de impurezas Alguns condimentos contêm ingredientes que não se encontram em nenhuma receita. A Food and Drug Administration (FDA), agência americana que controla os alimentos e medicamentos, descobriu recentemente que a probabilidade de que temperos que entram no país tenham patógenos como Salmonella [bactéria que provoca infecção intestinal com evolução que pode ser grave] ou quantidades inaceitáveis de resíduos é quase duas vezes superior à da média dos outros alimentos regulados pelo órgão. Cerca de 12% dos condimentos importados, que resCerca de 12% dos temperos importados superam limites máximos admissíveis:

Contagem de mofo

pondem pela maior parte do abastecimento desses produtos no mercado americano superam os limites estabelecidos para os “níveis máximos de falhas naturais ou inevitáveis”, como partes de corpos de insetos ou pelos de animais. Em quantidades suficientemente pequenas, alega a FDA, esses defeitos “não representam risco inerente à saúde”. Esses limites podem parecer frouxos – um potinho de 57 gramas de páprica deve conter cerca de 170 fragmentos de insetos ou 25 pelos de roedores para que seja considerado adulterado. Insetos (fragmentos por 100 gramas)

Pelos de roedores (pelos por 100 gramas)

Excrementos de mamíferos (miligramas por libra-peso 453 gramas)

Tempero importado por peso, 2010 Em milhões de libras-peso

227,8

(inclui pimenta seca e páprica) Semente de mostarda

Páprica 44 3

155,4

97,4

3%

Semente de gergelim

81,6

5%

Cássia e canela

54,3

5%

1

1% *

Inteira Moída

Raiz de gengibre

4

950 3%

Inteira Moída

Semente de cominho

300

169,3 1%

Pimenta (branca e preta)

Pimenta moída 24

3

5%

5

5%

1

800

22

22,7

3

Semente de coentro

10,6

3

Semente de papoula

10,2

3 3

20%

Semente de erva-doce

8,6

Semente de alcaravia

6,2

Sálvia

5,0

Semente de anis

4,7

3

Semente de aipo

4,7

3

Noz-moscada

3,9

Moída 2,000

10%

Inteira

90

10%

Moída 1,000 5% Pimenta-da-jamaica

10

Inteira

2,8 Moída

Macis

Ou 20%* 3

0,7

3%

300

10 3%

3

*Porcentual se refere à proporção de amostras de um produto considerado infestado ou contaminado

82 Scientific American Brasil | Abril 2014

Gráfico por Section Design

FONTES: “DEFECT LEVELS HANDBOOK.” U.S. FOOD AND DRUG ADMINISTRATION (FDA) http://1.usa.gov/18mGxP5 (valoreslimites); DRAFT RISK PROFILE: PATHOGENS AND FILTH IN SPICES. U.S. FOOD AND DRUG ADMINISTRATION (FDA), 2013 (dados de importação)

Pimentas cápsico

200 20%*

Related Documents


More Documents from "fabiophilo"