Friday, September 18, 2009

Emaranhamento colorido

18/9/2009

Por Fábio de Castro

Agência FAPESP – Um grupo de cientistas brasileiros conseguiu, pela primeira vez, gerar um emaranhamento quântico de três feixes de luz de cores diferentes. O feito deverá ajudar a compreender as características do emaranhamento, considerado pelos cientistas como base para futuras tecnologias como computação quântica, criptografia quântica e teletransporte quântico.

Fenômeno intrínseco da mecânica quântica, o emaranhamento permite que duas ou mais partículas compartilhem suas propriedades mesmo sem qualquer ligação física entre elas.

De acordo com os autores do estudo, publicado nesta quinta-feira (17/9) no site Science Express, da revista Science, a possibilidade de alternar o emaranhamento entre as diferentes frequências de luz poderá ser útil para protocolos avançados de informação quântica.

O grupo, que reúne pesquisadores da Universidade de São Paulo (USP) e brasileiros do Instituto Max Planck e da Universidade de Relangen-Nuremberg, na Alemanha, teve apoio da FAPESP na modalidade Auxílio à Pesquisa – Regular. Os cientistas também fazem parte do Instituto Nacional de Ciência e Tecnologia de Informação Quântica (INCT-IQ).

A descoberta fez parte da tese de doutorado de Alessandro de Sousa Villar e pela qual ganhou o Prêmio Capes de Teses 2008 na categoria Física, além do prêmio Professor José Leite Lopes, outorgado pela Sociedade Brasileira de Física. Villar, que teve apoio da FAPESP na modalidade Bolsa de Doutorado, é pesquisador do Instituto Max Planck e da Universidade de Erlangen-Nuremberg, ambos na Alemanha.

De acordo com o autor principal do estudo, Paulo Nussenzveig, do Instituto de Física da USP, a possibilidade de gerar o emaranhamento de três feixes de luz diferentes havia sido prevista pela mesma equipe há três anos, mas ainda não havia sido demonstrada experimentalmente. Dos três feixes, apenas um estava na porção visível do espectro e dois no infravermelho.

"Em 2005, medimos pela primeira vez o emaranhamento em dois feixes, comprovando uma previsão teórica feita por outros grupos em 1988. A partir daí, percebemos que a informação presente no sistema era mais complexa do que imaginávamos e, em 2006, escrevemos um artigo teórico prevendo o emaranhamento de três feixes, que conseguimos demonstrar agora", disse Nussenzveig à Agência FAPESP.

O cientista explica que, para realizar o estudo, o grupo utilizou um experimento conhecido como oscilador paramétrico óptico (OPO), que consiste em um cristal especial disposto entre dois espelhos, sobre o qual é bombeada uma fonte de luz.

"O que esse cristal tem de especial é sua resposta à luz, que é não-linear. Com isso, podemos introduzir no sistema uma luz verde e ter como resultado uma luz infravermelha, por exemplo", explicou. Segundo ele, os OPO com onda contínua, empregados no estudo, são utilizados desde a década de 1980.

Enfrentando diversas dificuldades e surpresas, ao lidar com fenômenos até então desconhecidos, os cientistas conseguiram "domar" o sistema para observar o emaranhamento de três feixes com comprimentos de onda diferentes. Durante o experimento, descobriram ainda um efeito importante: a chamada morte súbita do emaranhamento também ocorria no caso estudado.

Segundo Nussenzveig, um estudo coordenado por Luiz Davidovich, da Universidade Federal do Rio de Janeiro (UFRJ), publicado na Science em 2007, mostrou que o emaranhamento quântico podia desaparecer repentinamente, "dissolvendo" o elo quântico entre as partículas – o que poderia comprometer a aplicação do fenômeno no futuro desenvolvimento de computadores quânticos.

O efeito, batizado como morte súbita do emaranhamento, já havia sido previsto anteriormente por físicos teóricos e foi observado pela primeira vez pelo grupo da UFRJ em sistemas discretos – isto é, sistemas que têm um conjunto finito de resultados possíveis.

"Para sistemas macroscópicos de variáveis contínuas existem relativamente poucos trabalhos e previsões teóricas. E não existia absolutamente nenhum trabalho experimental. Observamos pela primeira vez algo que não havia sido previsto: a morte súbita em variáveis contínuas. Isso significa que trata-se de um efeito global coletivo", disse.

Coração da física quântica

De acordo com outro autor do estudo, Marcelo Martinelli, também professor do Instituto de Física da USP, o emaranhamento quântico é a propriedade que distingue as situações quânticas das situações nas quais os eventos obedecem às leis da física clássica.

"Essa propriedade é verificada por meio de correlações que são diferentes das que ocorrem no mundo da física clássica. Quando jogamos uma moeda no chão, na física clássica, se temos a coroa voltada para cima, temos a cara voltada para baixo. No mundo quântico, esse resultado tem diferentes graus de liberdade e ângulos de correlação", explicou.

Segundo Martinelli, o emaranhamento já havia sido muitas vezes verificado em sistemas discretos, ou entre dois ou mais sistemas no domínio de variáveis continuas. Mas, quando havia três ou mais sub-sistemas, o emaranhamento gerado era sempre de feixes de luz da mesma cor.

"Isso é interessante, porque abre caminho para que possamos, a partir de um sistema que interage com uma certa frequência do espectro eletromagnético, transferir suas propriedades quânticas para outro sistema – seria o chamado teletransporte quântico", disse o cientista, que coordena o projeto de Auxílio Regular "Teletransporte de informação quântica entre diferentes cores", apoiado pela FAPESP.

De acordo com Martinelli, seria possível fazer isso utilizando feixes de emaranhamento como veículo para transformar a informação. "Mas, se só pudermos lidar com variáveis da mesma cor, a informação quântica do primeiro só passaria para um segundo e um terceiro sistema se todos eles atuarem na mesma freqüência. O nosso modelo permitiria fazer a transferência de informação quântica entre diferentes faixas do espectro eletromagnético", explicou.

Ao observar pela primeira vez a morte súbita de emaranhamento em um sistema de variáveis contínuas, o grupo conseguiu novas informações sobre a natureza do fenômeno.

Martinelli explica que todo sistema que interage com a natureza apresenta perdas, gradualmente. Uma chaleira em contato com o ambiente esfria continuamente até atingir o equilíbrio térmico com a temperatura externa. Mas esse processo se dá de forma exponencial e só estaria completo em um período de tempo infinito. Na prática, a chaleira sempre estará um pouco mais quente que o ambiente.

"No entanto, no caso do emaranhamento, a sua interação com o ambiente nem sempre segue esse decaimento exponencial. Eventualmente ele desaparece em um tempo finito – o que caracteriza a chamada morte súbita. Vimos que isso também ocorre para variáveis contínuas e, ajustando os parâmetros de operação do nosso OPO, conseguimos controlar essa morte súbita", disse.

Segundo ele, essa descoberta é importante para que um dia se faça transporte de informação quântica. "Se enviarmos essa informação por fibra óptica, por exemplo, não podemos perder o emaranhamento no sistema mediante perdas na propagação. Se a informação quântica passar a ter um papel central na tecnologia da informação, a compreensão da dinâmica da morte súbita e do emaranhamento serão ainda mais fundamentais", disse.

Além de Villar, Nussenzveig e Martinelli, participaram do estudo Antônio Sales Oliveira Coelho e Felippe Alexandre Silva Barbosa, ambos estudantes de pós-graduação do Instituto de Física da USP, e Katiúscia Cassemiro, do Instituto Max Planck, na Alemanha.

O artigo Three-Color Entanglement, de Paulo Nussenzveig e outros, pode ser lido por assinantes da Science em www.scienceexpress.org.

Thursday, September 03, 2009

Flagrante galáctico

Divulgação Científica

3/9/2009

Agência FAPESP – Um flagrante de proporções cósmicas acaba de ser capturado por um grupo internacional de astrônomos. As imagens mostram a ligação entre as galáxias de Andrômeda e do Triângulo.

Como qualquer caso entre estrelas do cinema, havia suspeitas da relação, mas nenhuma prova até o momento. Em artigo publicado na edição desta quinta-feira (3/9) da revista Nature, os cientistas apresentam as provas da ligação e descrevem como galáxias maiores crescem ainda mais ao incorporar estrelas de galáxias vizinhas e menores.

Esse modelo de evolução galáctica, conhecido como hierárquico, estima que galáxias de grandes dimensões, como Andrômeda – que inclusive pode ser vista a olho nu do hemisfério Norte –, estariam envoltas por "sobras" de galáxias menores.

Pela primeira vez, astrônomos têm imagens que confirmam o modelo hierárquico. A descoberta, que incluiu pesquisadores da Austrália, França, Alemanha e do Reino Unido, foi coordenada por Alan McConnachie, do Instituto de Astrofísica Herzberg, do Canadá, e do Conselho Nacional de Pesquisa do país.

"A galáxia de Andrômeda é nossa vizinha gigante, localizada a mais de 2,5 milhões de anos-luz da Via Láctea. Nosso estudo incluiu uma área com diâmetro de quase 1 milhão de anos-luz, centrada em torno de Andrômeda. Trata-se da mais extensa e mais profunda imagem já feita de uma galáxia", disse Geraint Lewis, da Universidade de Sydney, na Austrália, outro autor do estudo.

"Nós mapeamos os extremos inexplorados de Andrômeda pela primeira vez e encontramos estrelas e estruturas de grande porte que são remanescentes de galáxias menores e que foram incorporadas por Andrômeda como parte de seu contínuo crescimento", explicou.

A maior surpresa, para o grupo, foi descobrir que Andrômeda estava interagindo com sua vizinha, a galáxia do Triângulo, que é visível do hemisfério Norte com o uso de um pequeno telescópio. "Milhões de estrelas da galáxia do Triângulo já foram 'puxadas' por Andrômeda como resultado dessa relação", disse Lewis.

Como paparazzi que estão sempre de plantão na casa de estrelas do cinema e da televisão, o grupo pretende continuar a observar o resultado da interação entre as galáxias, estimando que possa resultar em uma união muito mais sólida. "As duas poderão se unir inteiramente", disse Lewis.

O estudo também indica que galáxias são muito maiores do que se estimava, com sua influência gravitacional se estendendo muito além das estrelas mais próximas ao seu centro.

"Como Andrômeda é considerada uma galáxia típica, foi surpreendente ver como ela é vasta. Encontramos estrelas a distâncias de até 100 vezes o raio do disco central da galáxia", contou Lewis. Os astrônomos usaram para o estudo o telescópio Canadense-Francês-Havaiano, localizado no monte Mauna Kea, no Havaí.

O artigo The remnants of galaxy formation from a panoramic survey of the region around M31, de Alan McConnachie e outros, pode ser lido por assinantes da Nature em www.nature.com.

Wednesday, September 02, 2009

Molécula contra diabetes e obesidade

Divulgação Científica

2/9/2009

Agência FAPESP – Mais de 180 milhões de pessoas em todo o mundo têm diabetes tipo 2, a forma mais comum da doença. E o total continua crescendo em um nível alarmante, o que tem levado centros de pesquisa em diversos países a tentar encontrar alternativas de combate ao problema, que tem entre seus principais fatores de risco a obesidade.

Um grupo internacional de pesquisadores acaba de apresentar um potencial candidato: a proteína TGR5. Os cientistas descobriram que sua ativação é capaz de reduzir o ganho de peso e de tratar o diabetes. O estudo foi publicado nesta quarta-feira (2/9) na revista Cell Metabolism.

Um trabalho anterior do mesmo grupo demonstrou que ácidos biliares (produzidos no fígado e que quebram as gorduras), por meio da ativação da TGR5 em tecidos musculares e adiposos marrom, foram capazes de aumentar o gasto de energia e de prevenir, ou até mesmo de reverter, obesidade induzida em camundongos.

No novo estudo, o grupo coordenado pelos professores Kristina Schoonjans e Johan Auwerx, da Escola Politécnica Federal de Lausanne, na Suíça, examinou o papel da TGR5 no intestino, onde essa proteína é expressada em células especializadas na produção de hormônios.

Os pesquisadores observaram que essas células, chamadas de células enteroendócrinas TGR5, controlam a secreção do hormônio GLP-1, que tem papel crítico no controle da função pancreática e na regulação dos níveis de açúcar no sangue.

Kristina e Auwerx trabalharam em conjunto com Roberto Pellicciari, da Universidade de Perugia, na Itália, que desenvolveu um ativador para a TGR5, chamado de INT-777, em colaboração com a empresa Intercept Pharmaceuticals, dos Estados Unidos.

O grupo demonstrou que – em testes condições laboratoriais em camundongos – a TGR5 pode efetivamente tratar o diabetes e reduzir a massa corporal. Os autores também mostraram que esses efeitos estavam relacionados ao aumento tanto da secreção da GLP-1 como do gasto energético.

Segundo os pesquisadores, os resultados apontam para uma nova abordagem no tratamento do diabetes tipo 2 e da obesidade. A alternativa proposta é baseada no aumento da secreção de GLP-1 por meio da administração do ativador da TGR5.

O artigo de Kristina Schoonjans e outros pode ser lido por assinantes da Cell Metabolism em www.cell.com/cell-metabolism.
 


Tuesday, September 01, 2009

After the Transistor, a Leap Into the Microcosm

Published: August 31, 2009

YORKTOWN HEIGHTS, N.Y. — Gaze into the electron microscope display in Frances Ross's laboratory here and it is possible to persuade yourself that Dr. Ross, a 21st-century materials scientist, is actually a farmer in some Lilliputian silicon world.

Chris Ramirez for The New York Times

CAPTAIN MINIATURE Frances Ross, a scientist at I.B.M. Research in Yorktown Heights, N.Y., operating an electron microscope, which allows her to study nanowires, about one one-thousandth the width of a human hair, as they grow.

Dr. Ross, an I.B.M. researcher, is growing a crop of mushroom-shaped silicon nanowires that may one day become a basic building block for a new kind of electronics. Nanowires are just one example, although one of the most promising, of a transformation now taking place in the material sciences as researchers push to create the next generation of switching devices smaller, faster and more powerful than today's transistors.

The reason that many computer scientists are pursuing this goal is that the shrinking of the transistor has approached fundamental physical limits. Increasingly, transistor manufacturers grapple with subatomic effects, like the tendency for electrons to "leak" across material boundaries. The leaking electrons make it more difficult to know when a transistor is in an on or off state, the information that makes electronic computing possible. They have also led to excess heat, the bane of the fastest computer chips.

The transistor is not just another element of the electronic world. It is the invention that made the computer revolution possible. In essence it is an on-off switch controlled by the flow of electricity. For the purposes of computing, when the switch is on it represents a one. When it is off it represents a zero. These zeros and ones are the most basic language of computers.

For more than half a century, transistors have gotten smaller and cheaper, following something called Moore's Law, which states that circuit density doubles roughly every two years. This was predicted by the computer scientist Douglas Engelbart in 1959, and then described by Gordon Moore, the co-founder of Intel, in a now-legendary 1965 article in Electronics, the source of Moore's Law.

Today's transistors are used by the billions to form microprocessors and memory chips. Often called planar transistors, they are built on the surface (or plane) of a silicon wafer by using a manufacturing process that precisely deposits and then etches away different insulating, conducting and semiconducting materials with such precision that the industry is now approaching the ability to place individual molecules.

A typical high-end Intel microprocessor is today based on roughly one billion transistors or more, each capable of switching on and off about 300 billion times a second and packed densely enough that two million transistors would fit comfortably in the period at the end of this sentence.

In fact, this year, the chip industry is preparing to begin the transition from a generation of microprocessor chips based on a minimum feature size of 45 nanometers (a human hair is roughly 80,000 nanometers in width) to one of 32 nanometers — the next step down into the microcosm. But the end of this particular staircase may be near.

"Fundamentally the planar transistor is running out of steam," said John E. Kelly III, I.B.M.'s senior vice president and director of research.

"We're at an inflection point, you better believe it, and most of the world is in denial about it," said Mark Horowitz, a Stanford University electrical engineer who spoke last week at a chip design conference in Palo Alto, Calif. "The physics constraints are getting more and more serious."

Many computer scientists have been warning for years that this time would come, that Moore's Law would cease to be valid because of increasing technical difficulties and the expense of overcoming them. Last week at Stanford University, during a panel on the future of scaling (of which the shrinking of transistors is one example), several panelists said the end was near.

"We're done scaling. We've been playing tricks since 90 nanometers," said Brad McCredie, an I.B.M. fellow and one of the company's leading chip designers, in a reference to the increasingly arcane techniques the industry has been using to make circuits smaller.

For example, for the past three technology generations Intel has used a material known as "strained silicon" in which a layer of silicon atoms are stretched beyond their normal atomic distance by depositing them on top of another material like silicon germanium. This results in lower energy consumption and faster switching speeds.

Other researchers and business executives believe the shrinking of the transistor can continue, at least for a while, that the current industry standard Mosfet (for Metal-Oxide-Silicon Field-Effect-Transistor) can be effectively harnessed for several more technology generations.

Technology executives at the Intel Corporation, the world's largest chipmaker, say they believe that by coupling more advanced photolithographic techniques with new kinds of materials and by changing the design of the transistor, it will be possible to continue to scale down to sizes as small as five nanometers — effectively taking the industry forward until the end of the next decade.

"Silicon will probably continue longer than we expect," said Michael C. Mayberry, an Intel vice president and the director of the company's component research program.

Both Intel and I.B.M. are publicly committed to a new class of transistors known as FinFETs that may be used as early as the 22-nanometer technology generation beginning in 2011 or 2012. Named for a portion of the switch that resembles a fish fin, these transistors have the dual advantage of offering greater density because they are tipped vertically out of the plane of the silicon wafer, as well as better insulating properties, making it easier to control the switching from a 1 to a 0 state.

But sooner or later, new materials and new manufacturing processes will be necessary to keep making computer technology ever cheaper. In the long term, new switches might be based on magnetic, quantum or even nanomechanical switching principles. One possibility would be to use changes in the spin of an individual electron to represent a 1 or a 0.

"If you look out into the future, there is a branching tree and there are many possible paths we might take," Dr. Mayberry said.

In Dr. Ross's laboratory at I.B.M., researchers are concentrating on more near-term technology. They are exploring the idea of constructing FinFET switches in a radical new process that breaks away from photo etching. It is a kind of nanofarming. Dr. Ross sprinkles gold particles as small as 10 nanometers in diameter on a substrate and then suffuses them in a silicon gas at a temperature of about 1,100 degrees Fahrenheit. This causes the particles to become "supersaturated" with silicon from the gas, which will then precipitate into a solid, forming a wire that grows vertically.

I.B.M. is pressing aggressively to develop this technology, which could be available commercially by 2012, she said. At the same time she acknowledged that significant challenges remain in perfecting nanowire technology. The mushroom-shaped wires in her laboratory now look a little bit like bonsai trees. To offer the kind of switching performances chipmakers require, the researchers must learn to make them so that their surfaces are perfectly regular. Moreover, techniques must be developed to make them behave like semiconductors.

I.B.M. is also exploring higher-risk ideas like "DNA origami," a process developed by Paul W. K. Rothemund, a computer scientist at the California Institute of Technology.

The technique involves creating arbitrary two- and three-dimensional shapes by controlling the folding of a long single strand of viral DNA with multiple smaller "staple" strands. It is possible to form everything from nanometer-scale triangles and squares to more elaborate shapes like smiley faces and a rough map of North America. That could one day lead to an application in which such DNA shapes could be used to create a scaffolding just as wooden molds are now used to create concrete structures. The DNA shapes, for example, could be used to more precisely locate the gold nanoparticles that would then be used to grow nanowires. The DNA would be used only to align the circuits and would be destroyed by the high temperatures used by the chip-making processes.

At Intel there is great interest in building FinFET switches but also in finding ways to integrate promising III-V materials on top of silicon as well as exploring materials like graphene and carbon nanotubes, from which the company has now made prototype switches as small as 1.5 nanometers in diameter, according to Dr. Mayberry. The new materials have properties like increased electron mobility that might make transistors that are smaller and faster than those that can be made with silicon.

"At that very small dimension you have the problem of how do you make the connection into the tube in the first place," he said. "It's not just how well does this nanotube itself work, but how do you integrate it into a system."

Given all the challenges that each new chip-making technology faces, as well as the industry's sharp decline in investment, it is tempting to suggest that the smaller, faster, cheaper trend may indeed be on the brink of slowing if not halting.

Then again, as Dr. Mayberry suggests, the industry has a way of surprising its skeptics.

A One-Way Ticket to Mars

Op-Ed Contributor

Published: August 31, 2009

Tempe, Ariz.

NOW that the hype surrounding the 40th anniversary of the Moon landings has come and gone, we are faced with the grim reality that if we want to send humans back to the Moon the investment is likely to run in excess of $150 billion. The cost to get to Mars could easily be two to four times that, if it is possible at all.

This is the issue being wrestled with by a NASA panel, convened this year and led by Norman Augustine, a former chief executive of Lockheed Martin, that will in the coming weeks present President Obama with options for the near-term future of human spaceflight. It is quickly becoming clear that going to the Moon or Mars in the next decade or two will be impossible without a much bigger budget than has so far been allocated. Is it worth it?

The most challenging impediment to human travel to Mars does not seem to involve the complicated launching, propulsion, guidance or landing technologies but something far more mundane: the radiation emanating from the Sun's cosmic rays. The shielding necessary to ensure the astronauts do not get a lethal dose of solar radiation on a round trip to Mars may very well make the spacecraft so heavy that the amount of fuel needed becomes prohibitive.

There is, however, a way to surmount this problem while reducing the cost and technical requirements, but it demands that we ask this vexing question: Why are we so interested in bringing the Mars astronauts home again?

While the idea of sending astronauts aloft never to return is jarring upon first hearing, the rationale for one-way trips into space has both historical and practical roots. Colonists and pilgrims seldom set off for the New World with the expectation of a return trip, usually because the places they were leaving were pretty intolerable anyway. Give us a century or two and we may turn the whole planet into a place from which many people might be happy to depart.

Moreover, one of the reasons that is sometimes given for sending humans into space is that we need to move beyond Earth if we are to improve our species' chances of survival should something terrible happen back home. This requires people to leave, and stay away.

There are more immediate and pragmatic reasons to consider one-way human space exploration missions.

First, money. Much of the cost of a voyage to Mars will be spent on coming home again. If the fuel for the return is carried on the ship, this greatly increases the mass of the ship, which in turn requires even more fuel.

The president of the Mars Society, Robert Zubrin, has offered one possible solution: two ships, sent separately. The first would be sent unmanned and, once there, combine onboard hydrogen with carbon dioxide from the Martian atmosphere to generate the fuel for the return trip; the second would take the astronauts there, and then be left behind. But once arrival is decoupled from return, one should ask whether the return trip is really necessary.

Surely if the point of sending astronauts is to be able to carry out scientific experiments that robots cannot do (something I am highly skeptical of and one of the reasons I don't believe we should use science to attempt to justify human space exploration), then the longer they spend on the planet the more experiments they can do.

Moreover, if the radiation problems cannot be adequately resolved then the longevity of astronauts signing up for a Mars round trip would be severely compromised in any case. As cruel as it may sound, the astronauts would probably best use their remaining time living and working on Mars rather than dying at home.

If it sounds unrealistic to suggest that astronauts would be willing to leave home never to return alive, then consider the results of several informal surveys I and several colleagues have conducted recently. One of my peers in Arizona recently accompanied a group of scientists and engineers from the Jet Propulsion Laboratory on a geological field trip. During the day, he asked how many would be willing to go on a one-way mission into space. Every member of the group raised his hand. The lure of space travel remains intoxicating for a generation brought up on "Star Trek" and "Star Wars."

We might want to restrict the voyage to older astronauts, whose longevity is limited in any case. Here again, I have found a significant fraction of scientists older than 65 who would be willing to live out their remaining years on the red planet or elsewhere. With older scientists, there would be additional health complications, to be sure, but the necessary medical personnel and equipment would still probably be cheaper than designing a return mission.

Delivering food and supplies to these new pioneers — along with the tools to grow and build whatever they need, for however long they live on the red planet — is likewise more reasonable and may be less expensive than designing a ticket home. Certainly, as in the Zubrin proposal, unmanned spacecraft could provide the crucial supply lines.

The largest stumbling block to a consideration of one-way missions is probably political. NASA and Congress are unlikely to do something that could be perceived as signing the death warrants of astronauts.

Nevertheless, human space travel is so expensive and so dangerous that we are going to need novel, even extreme solutions if we really want to expand the range of human civilization beyond our own planet. To boldly go where no one has gone before does not require coming home again.

Lawrence M. Krauss, the director of the Origins Initiative at Arizona State University, is the author of "The Physics of 'Star Trek.'"