Pop up my Cbox

domingo, 22 de junho de 2014

O Ciclo de vida de uma Estrela



Tudo começa quando uma nebulosa planetária entra em colapso. Seus fragmentos de poeira e gás vão se espiralando em direção ao centro, se aquecendo. No centro encontramos a substância mais quente do universo, o plasma ionizado. Isso é tudo muito rápido! Em poucas centenas de milhões de anos, a protoestrela é formada.
De acordo com a massa acumulada pela estrela ela pode se tornar uma anã ou uma gigante.

Estrelas de até oito vezes o tamanho do nosso sol tem uma vida mais longa. O nosso sol queima como estrela amarela, transformando hidrogênio em hélio por 10 bilhões de anos (e está na metade do ciclo). Estrelas menores são menos quentes e queimam por mais tempo. Quando o "combustível" acaba, ela se transforma em uma Gigante Vermelha, através de contração e expansão. A Gigante Vermelha dura cerca de 2 ou 3 bilhões de anos, até que as camadas superiores da estrela caem sobre o núcleo, aquecendo-o rapidamente e gerando quase uma explosão (supernova). O que sobra é uma anã branca, uma estrela de carbono sob pressão - um diamante, que esfria lentamente, até que após alguns trilhões de anos, se torna um carvão frio, solto no espaço. Esse é o destino do nosso sol...

Caso a estrela tenha uma massa maior, após a supernova, ela vira uma estrela de nêutrons ou um pulsar. Essa estrela pode ter a massa do nosso sol, mas um diâmetro de apenas 30 km. Mas caso a estrela tenha muuuuito mais massa, durante a supernova, suas camadas continuam "caindo" sobre seu núcleo, compactando-se em um corpo tão denso que a gravidade superficial não deixa nem mesmo a luz escapar: um buraco negro.

Rede Brasileira de Astrobiologia é Lançada



Agência FAPESP – A comunidade científica de astrobiologia no Brasil ganhou uma rede virtual para integrar pesquisadores de diferentes estados e instituições dessa nova área multidisciplinar do conhecimento, dedicada a estudar a origem, evolução, distribuição e futuro da vida na Terra e, eventualmente, fora dela.

A Rede Brasileira de Astrobiologia (RBA) foi lançada no fim de maio por pesquisadores do Núcleo de Pesquisa em Astrobiologia da Universidade de São Paulo (NAP-Astrobio/USP).

Voltada a pesquisadores, professores, estudantes de graduação e de pós-graduação que atuem em pesquisa, ensino ou divulgação da astrobiologia no Brasil ou no exterior, a rede tem entre seus objetivos organizar e aumentar a integração da comunidade científica da área no país.

“A astrobiologia é uma área muito ampla – resultado da interface entre astronomia, biologia, química, geologia e ciências atmosféricas, entre outras disciplinas –, na qual atuam pesquisadores de diversas regiões do Brasil, mas ainda de forma dispersa”, disse Fabio Rodrigues, do NAP-Astrobio e um dos idealizadores do projeto, à Agência FAPESP.

“A meta da RBA é promover a integração entre esses pesquisadores a fim de facilitar a divulgação de ações, como eventos e oportunidades de cooperação em pesquisa. Dessa forma, será possível aumentar o impacto dos estudos feitos no país”, disse.

De acordo com Rodrigues, uma das dificuldades para identificar os pesquisadores atuantes em astrobiologia é que muitos deles estudam temas relacionados a esse campo do conhecimento, mas sem usar a nomenclatura.

Há, por exemplo, pesquisadores que estudam a formação e detecção de moléculas prebióticas (existentes antes do surgimento da vida) em planetas e no meio interestelar mas que não mencionam a astrobiologia nas palavras-chave de seus artigos científicos ou na descrição de linhas de pesquisa em seus currículos disponibilizados na internet.

“Como as pesquisas de interesse em astrobiologia são muito amplas e os pesquisadores utilizam palavras-chave de suas áreas específicas, é muito difícil encontrar quem faz pesquisa em astrobiologia no Brasil em bases como a plataforma Lattes, por exemplo”, avaliou Rodrigues.

A fim de facilitar o processo de identificação e mapeamento da comunidade científica brasileira de astrobiologia, uma das propostas da RBA é servir como banco de dados no qual pesquisadores se cadastram por meio de formulário eletrônico com itens como descrição de artigos e projetos de pesquisa recentes.

O cadastro será analisado pelos organizadores da rede e, se admitido, o pesquisador terá um perfil no sistema, que poderá ser acessado pelos demais usuários cadastrados.

“A ideia é que os pesquisadores de astrobiologia entrem no site da rede para estabelecer contatos com colegas e que essa interação resulte em colaborações em pesquisa e outras iniciativas conjuntas, como promoção de eventos, lançamento de cursos e identificação de novas linhas de pesquisa”, disse Rodrigues.

Segundo ele, o plano é que a rede seja um meio para identificar as principais demandas dos pesquisadores da área e, caso seja observado interesse, o primeiro passo na criação de um órgão formal da comunidade de pesquisa na área no Brasil, como uma Sociedade Brasileira de Astrobiologia.

Cooperação Internacional

Para criar a RBA, foi formado um comitê científico composto por cientistas de diversas partes do mundo, muitos com experiência em organizar sociedades e redes de astrobiologia em seus respectivos países. Entre eles estão Lynn Rothschild, pesquisadora da Nasa, a agência espacial norte-americana; Neil Banerjee, presidente da Rede de Astrobiologia do Canadá; Antigona Segura, da Sociedade Mexicana de Astrobiologia; e Worlf Geppert, da Rede Nórdica de Astrobiologia.

O comitê científico terá a missão de avaliar os rumos da RBA e o cumprimento de seus objetivos. “Esses pesquisadores vão nos ajudar a olhar para a RBA e a pensar sobre temas de pesquisa em astrobiologia que devem ser estimulados no Brasil, levando-se em conta as prioridades do país”, disse Rodrigues.

Algumas linhas de pesquisa exploradas por pesquisadores em diversos países são: astroquímica; química prebiótica e origem da vida; formação planetária e exoplanetas; Terra ancestral e primeiros fósseis; ciclos geológicos, atmosféricos e hidrológicos terrestres e em outros planetas; evolução; exploração espacial; e entendimento da vida em ambientes extremos da Terra.

Em dezembro de 2011, pesquisadores do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP promoveram a São Paulo Advanced School of Astrobiology – Making Connections (Spasa 2011), no âmbito da Escola São Paulo de Ciência Avançada (ESPCA) – modalidade de apoio da FAPESP. O evento reuniu 160 pesquisadores, docentes e estudantes do Brasil e do exterior.

Alguns dos resultados indiretos da Escola foi a publicação, em outubro de 2012, de uma edição especialdo International Journal of Astrobiology dedicada a artigos baseados nas conferências proferidas no evento.

Os cantatos feitos no encontro possibilitaram que, agora, o NAP-Astrobio também se tornasse membro associado do Nasa Astrobiology Institute. Além do Instituto de Astrobiologia da Nasa, o NAP-Astrobio também é membro internacional da European Astrobiology Networks Association.

“Isso tudo nos dá a possibilidade de expandir e tornar a RBA também membro internacional de redes de astrobiologia de outros países”, disse Rodrigues.

Cosmologia, O Perto e o Longe



Os astrônomos mediram o parâmetro de Hubble, a velocidade com que o Universo se expande, com as observações que são locais (redshifts de objetos próximos) e globais (radiação cósmica de fundo). Durante muito tempo, elas têm sabido que estes dois grupos de medidas diferentes, uma discrepância que não foi completamente explicada e o que foi, de fato, recentemente confirmado para ser de cerca de 9 %por observações do satélite Planck. Em uma análise teórica publicada na revista Physical Review Letters, Valerio Marra da Universidade de Heidelberg, na Alemanha, e colegas, pode ser responsável por parte desse déficit aparente, mas as diferenças restantes, se confirmada, pode apontar para física além do modelo padrão da cosmologia.

Os cálculos do grupo Heidelberg mostram que parte da discrepância entre a expansão local e global pode ser resultado de uma variação cósmica do Hubble, parâmetro com a noção de que diferentes pedaços do Universo comportam-se em diferentes campos gravitacionais e assim o nosso parâmetro de Hubble local pode diferir do valor médio global. Desde os anos 1990, os cosmólogos têm lançado em torno da idéia de um local “Hubble Bubble”, com menos matéria nele do que em comparação com a média global. Marra considera diferentes cenários e conclui que a variância cósmica poderia, no máximo, explicar cerca de um quarto da discrepância entre os valores Hubble global e local para uma bolha que é esperada em cosmologia padrão. Toda a discrepância pode ser explicada somente dessa forma, se a bolha foi um tipo que deve ocorrer muito raramente no universo. Portanto, alguma coisa deve estar acontecendo além de bolhas de tamanho padrão, talvez até uma nova física, que fuja da naturalidade tais como a presença de heterogeneidades não previstas pela cosmologia padrão ou uma forma exótica de energia escura.

Atualização no ALMA para sondar buracos negros supermassivos



Cientistas realizaram na semana passada uma grande atualização para o Atacama Large Millimeter/submillimeter Array (ALMA) através da instalação de um relógio atômico ultrapreciso na matriz do ALMA Operations Site, lar da supercomputação do observatório . Esta atualização irá, eventualmente, permitir que o ALMA sincronize com uma rede mundial de instalações de radioastronomia conhecidos coletivamente como o Event Horizon Telescope (EHT).

Uma vez montado, o EHT -com ALMA com o maior e mais sensível posicionamento – formará um telescópio do tamanho da Terra com o poder de ampliação necessário para ver os detalhes na borda do buraco negro supermassivo no centro da Via Láctea.
Antes que o ALMA possa emprestar suas capacidades incomparáveis ​​para essa e observações científicas semelhantes, no entanto , ele deve primeiro se transformar em um tipo diferente de instrumento conhecido como uma matriz faseada. Esta nova versão do ALMA permitirá que suas 66 antenas funcionem como uma única antena de rádio de 85 metros de diâmetro. É este poder unificado juntamente com cronometragem ultraprecisa que permitirá a ligação do ALMA com outros observatórios .

Um marco importante neste caminho foi alcançado recentemente, quando a equipe de cientistas realizou o que poderia ser considerado um “transplante de coração” no telescópio pela instalação de um relógio atômico feito sob medida alimentado por maser de hidrogênio. Este novo relógio utiliza um processo semelhante a um laser para amplificar um único tom puro, ciclos que são contados para produzir um “tique-taque” de alta precisão.

A referência de tempo original da ALMA , um relógio com base no gás rubídio, será aposentado e usado como sobressalente após a radiação estar completamente integrada com a eletrônica do ALMA.

Shep Doeleman , o investigador principal do ALMA Phasing Project e diretor assistente do Massachusetts Institute of Technology’s Haystack Observatory, participou durante a instalação do maser via link de vídeo remoto. “Uma vez que a introdução progressiva seja completada, o ALMA irá utilizar o tique-taque ultrapreciso deste novo relógio atômico para se juntar ao Event Horizon Telescope apropriadamente chamado como o local participante mais sensível , aumentando a sensibilidade por um fator de 10″, disse ele .

Expandindo as Fronteiras da Astronomia

Buracos negros supermassivos se escondem no centro de todas as galáxias e contêm milhões ou até bilhões de vezes a massa do nosso sol. Estes gigantes curvadores de espaço são tão grandes que nada, nem mesmo a luz, pode escapar de sua influência gravitacional. Entender como um buraco negro devora matéria, lançam jatos de partículas e energia, e distorce o espaço e o tempo estão levando desafios na astronomia e na física.

O buraco negro no centro da Via Láctea é um gigante com 4.000.000 massas solares localizado a cerca de 26.000 anos-luz da Terra na direção da constelação de Sagitário. Ele está oculto dos telescópios ópticos por nuvens densas de gás e poeira, e é por isso que os observatórios como ALMA, que operam nos prazos mais longos comprimentos de onda milimétricas e submilimétricas, são essenciais para estudar suas propriedades.

Buracos negros supermassivos podem ser relativamente tranquilos ou eles podem incendiar-se e dirigir jatos incrivelmente poderosos de partículas subatômicas no profundo espaço intergalático; quasares observados no Universo primordial são um exemplo extremo. O combustível para estes jatos vem de material em queda, que se torna superaquecido, numa espiral interna. Os astrônomos esperam capturar o buraco negro central da nossa galáxia no processo de alimentação ativo para entender melhor como os buracos negros afetam a evolução do nosso Universo e como elas moldam o desenvolvimento de estrelas e galáxias.

O ALMA Phasing ficará pronto a tempo de observar um acontecimento cósmico altamente antecipado, a colisão de uma gigantesca nuvem de poeira e gás conhecido como G2 com o buraco negro supermassivo central de nossa galáxia. Especula-se que essa colisão pode despertar esse gigante adormecido, a gerando energia extrema e possivelmente alimentando um jato de partículas subatômicas, uma característica altamente incomum em galáxias espirais maduras, como a Via Láctea. A colisão está prevista para começar em 2014 e provavelmente vai continuar por mais de um ano.

Alta resolução de imagem do horizonte de eventos também pode melhorar a nossa compreensão de como o Universo altamente ordenado, como descrito por Einstein, se entrosa com a bagunça caótica do cosmo da mecânica quântica – dois sistemas para descrever o mundo físico que são lamentavelmente incompatíveis com a menor das escalas.

O ALMA Phasing também será um instrumento autônomo extraordinariamente sensível para a detecção de pulsares perto do buraco negro central da nossa galáxia. Outra pesquisa independente terá como alvo moléculas no espaço para determinar se as constantes fundamentais da natureza mudaram ou não com o tempo cósmico.

Ciência sombria

O poder dos buracos negros de dobrar a luz também apresenta uma oportunidade única para observar o chamado “sombra” de um buraco negro. A luz perto do horizonte de eventos de um buraco negro não viaja em linha reta, em vez disso assume trajetórias hiperbólicas estranhas e pode até mesmo atingir uma órbita estável. Alguma desta luz, que começa sua jornada viajando fora de alcance dos observadores na Terra, pode ficar torcida ao redor, deformando de tal forma que é preciso um giro de 180 graus. Isso permitiria aos cientistas estudar o outro lado de um buraco negro e realmente ver sua sombra no espaço. Uma vez que o tamanho e a forma desta sombra dependem da massa e spin do buraco negro, essas observações podem nos dizer muito sobre como o espaço e o tempo são deformado neste ambiente extremo.

Os cálculos indicam uma resolução de 50 micro-segundos de arco (aproximadamente 2.000 vezes mais fina do que o Telescópio Espacial Hubble) é necessária para a imagem do efeito de sombra. Isso é equivalente a ler um calendário em um quarto na distância de Nova York a Los Angeles. Esta imagem de alta resolução surpreendente está ao alcance do ALMA com o Event Horizon Telescope.

Cronograma de Desenvolvimento e Financiamento

O planejamento inicial para o Phased ALMA Array começou em 2008, impulsionado pelo objetivo de captar imagem de um buraco negro e outras ciências anteriormente inatingíveis . Os requisitos necessários para o Phased ALMA Array foram compartilhados desde o início com a equipe de projeto ALMA para que o plano de implementação não afetasse a construção ou operação do ALMA .

O Phased ALMA Array é financiado principalmente pela U.S. National Science Foundation. O financiamento adicional é fornecido por meio de contribuições norte-americanas para o ALMA Development Fund and international e partilha internacional de custos por meio do Academia Sinica Institute of Astronomy and Astrophysics, Max Planck Institute for Radio Astronomy, Universidad de Concepcion, Japan Society for the Promotion of Science, e o Toray Science Foundation. O financiamento inicial foi fornecido em 2011. O projeto passou por revisão de projeto preliminar e foi aprovada pelo ALMA Board em 2012. O projeto passou por uma revisão crítica em 2013.

O objetivo atual é testar o primeiro sinal combinado do ALMA Phasing e outro telescópio, em 2014, e se submeter a um comissionamento completo e estar pronto para observações em 2015.

Engenharia e Tecnologia

O ALMA foi projetado para funcionar como um interferômetro – um telescópio composto de muitos elementos individuais. Cada par de antenas cria uma única linha de base. O ALMA pode produzir até 1.291 linhas de base, alguns com até 16 quilômetros de extensão.

O Phased ALMA Array, no entanto, funciona de forma diferente . Os sinais provenientes de todas as antenas são simplesmente adicionados em conjunto. Para fazer isso, eletrônicos especializados e equipamentos de informática estão sendo construídos no Laboratório de Desenvolvimento Central do National Radio Astronomy Observatory, em Charlottesville, Virginia. Estas novas placas de circuito serão instaladas no correlator do ALMA, o supercomputador que alimenta o telescópio e combina os sinais das antenas.

O sinal o Phased ALMA Array, então, será codificado por um relógio atômico dedicado – o novo maser de hidrogênio -, recolhido e analisado pelo Observatório Haystack do MIT – o que permitirá que os dados sejam enviados para um centro de processamento central, onde será combinado com sinais de forma idêntica e cronometrados dos telescópios .

O Observatório Astronômico Nacional do Japão ( NAOJ ) construiu as ligações de fibra óptica para transportar o sinal no local do ALMA . Os gravadores de alta velocidade que irão capturar a torrente de dados que fluem do ALMA Phasing foram desenhados pelo MIT Haystack Observatory . O software para executar o novo sistema de phasing está sendo desenvolvido por várias instituições envolvidas no projeto.

Event Horizon Telescope

O Event Horizon Telescope (EHT) deriva seu poder de ampliação extrema de se conectar à pratos de rádio espaçados em todo o mundo em um telescópio virtual do tamanho da Terra. Esta técnica, chamada Very Long Baseline Interferometry (VLBI) , é o mesmo processo que permite que telescópios como o Very Long Baseline Array do NRAO (VLBA) alcancem tal poder de resolução incrível. A diferença entre as instalações existentes e o VLBI EHT é o âmbito geográfico puro do projeto EHT, sua extensão para os comprimentos de ondas mais curtas de observação, e além da área de coleta sem precedentes ativado pelo ALMA Phasing.

“Ao unir as antenas mais avançadas de detecção de ondas de rádio milimétrica e submilimétrica de todo o mundo , o EHT cria um novo instrumento fundamental com o maior poder de ampliação já alcançado “, disse Doeleman . “Ancorado pelo ALMA , o EHT irá abrir uma nova janela para pesquisar buracos negros e pôr em evidência um dos únicos lugares no universo onde as teorias de Einstein são quebradas : no horizonte de eventos “.

Mancada do Big Bang estoura a bolha do multiverso



Campanha publicitária prematura sobre ondas gravitacionais destaca buracos nos modelos de origens e evolução do Universo, argumenta Paul Steinhardt.

Quando uma equipe de cosmólogos anunciou numa conferência de imprensa em março, que haviam detectado ondas gravitacionais geradas nos primeiros instantes após o Big Bang, a origem do Universo trouxe mais uma vez grandes novidades. A descoberta relatada criou uma sensação mundial na comunidade científica, na mídia e no público em geral.

De acordo com a equipe do telescópio BICEP2 no Pólo Sul, a detecção está no nível sigma 5-7, por isso há menos de uma chance em dois milhões de ser uma ocorrência aleatória. Os resultados foram saudados como prova da teoria inflacionária do Big Bang e sua descendência, o multiverso. Prêmios Nobel foram previstos e dezenas de modelos teóricos gerados. O anúncio também influenciou as decisões sobre compromissos acadêmicos e as rejeições de papéis e subvenções. Ele ainda teve um papel no planejamento governamental de projetos de grande escala.

A equipe identificou no BICEP2 (modo B) um padrão sinuoso nos seus mapas de polarização da radiação cósmica de fundo, concluindo que se tratava de uma detecção de ondas gravitacionais primordiais. Agora, falhas graves na análise foram reveladas que transformam a detecção certa em nenhuma detecção. A busca de ondas gravitacionais deve começar novamente. O problema é que outros efeitos, incluindo espalhamento de luz da poeira e da radiação síncrotron gerada por elétrons movendo-se em torno de campos magnéticos galácticos dentro de nossa própria galáxia, também pode produzir essas reviravoltas.

O instrumento BICEP2 detecta radiação em apenas uma frequência, por isso não é possível distinguir a contribuição cósmica de outras fontes. Para isso, a equipe BICEP2 usam medições de poeira galáctica coletados pelos satélites Wilkinson Microwave Anisotropy Probe e Planck, cada uma delas operando em uma faixa de outras frequências. Quando a equipe BICEP2 fez sua análise, o mapa de poeira do Planck ainda não tinha sido publicado, então a equipe extraiu dados de um mapa preliminar que havia sido apresentado há vários meses. Agora, uma nova análise cuidadosa feita por cientistas da Universidade de Princeton e do Instituto de Estudos Avançados, também em Princeton, concluiu que o padrão modo B do BICEP2 poderia ser o resultado, na maior parte ou totalmente, dos efeitos de primeiro plano sem qualquer contribuição de ondas gravitacionais. Outros modelos de poeira considerados pela equipe BICEP2 não alteram esta conclusão negativa, a equipe de Princeton mostrou (R. Flauger, JC Hill e DN Spergel, pré-impressão em http://arxiv.org/abs/1405.7351; 2014).

A reversão súbita deve fazer a comunidade científica contemplar as implicações para o futuro da experimentação cosmológica e teórica. Não está impedida a busca de ondas gravitacionais. Pelo menos oito experimentos, incluindo BICEP3, o Keck Array e Planck, já estão visando o mesmo objetivo.

Desta vez, as equipes podem ter certeza de que o mundo vai prestar atenção. Desta vez, a aceitação vai exigir medidas de mais de uma gama de frequências discriminatórias entre os efeitos de primeiro plano, bem como testes para descartar outras fontes de confusão. E desta vez, os anúncios devem ser feitos após a apresentação de revistas e habilitação por árbitros especializados. Se houver uma conferência de imprensa, espero que a comunidade científica e os meios de comunicação exijam que seja acompanhada por um conjunto completo de documentos, incluindo detalhes da análise sistemática e dados suficientes que permitam a verificação objetiva.

O incidente BICEP2 também revelou uma verdade sobre a teoria inflacionária. A visão comum é que ela é uma teoria altamente preditiva. Se fosse esse o caso e a detecção de ondas gravitacionais foi prova da inflação, seria de pensar que a não detecção significa que a teoria falha. Essa é a natureza da ciência normal. No entanto, alguns defensores da inflação que celebravam o anúncio BICEP2 já insistem em que a teoria é igualmente válida se forem ou não detectadas ondas gravitacionais. Como isso é possível?

A resposta dada pelos proponentes é alarmante: o paradigma inflacionário é tão flexível que é imune a testes experimentais e observacionais. Em primeiro lugar, a inflação é impulsionada por um campo escalar hipotético, inflatón, o qual possui propriedades que podem ser ajustadas para produzir de forma eficaz qualquer resultado. Em segundo lugar, a inflação não termina com um universo com propriedades uniformes, mas quase inevitavelmente leva a um multiverso com um número infinito de bolhas, em que as propriedades cósmicas e físicas variam de bolha para bolha. A parte do multiverso que observamos corresponde a uma parte de apenas uma bolha. A varredura em todas as bolhas possíveis no multiverso, tudo o que pode acontecer fisicamente acontece um número infinito de vezes. Nenhum experimento pode descartar uma teoria que permite a todos os resultados possíveis. Assim, o paradigma da inflação é infalsificável.

Isso pode parecer confuso, dadas as centenas de trabalhos teóricos sobre as previsões deste ou daquele modelo inflacionário. O que esses papers geralmente falham é em reconhecer que eles ignoram o multiverso e que, mesmo com esta escolha injustificada, existe uma gama de outros modelos que produzem todos os tipos de diversos resultados cosmológicos. Levando isso em conta, é claro que o paradigma inflacionário é fundamentalmente não testável, e, portanto, cientificamente sem sentido.

Cosmologia é uma ciência extraordinária em um momento extraordinário. Avanços, incluindo a busca de ondas gravitacionais, vão continuar a serem feitos e será emocionante ver o que será descoberto nos próximos anos. Com esses resultados futuros em mãos, o desafio para os teóricos será identificar um paradigma científico verdadeiramente explicativo e preditivo descrevendo a origem, a evolução e o futuro do Universo.

Lasers acendem “supernovas” em laboratório



Feixes de laser iluminam uma pequena haste de carvão e lançam um choque assimétrico dentro de uma câmara cheia de gás argônio. O choque e o fluxo turbulento são capturados pela técnica de imagem Schlieren (tons de azul-preto). A densidade de elétrons previsto por simulações de computador (tons de azul-vermelho) é sobreposta. (Cortesia: Universidade de Oxford/Universidade de Chicago).
Artigo traduzido de Physics World.

Uma das instalações do laser mais poderoso do mundo tem sido usada para criar versões minúsculas de explosões de supernovas em laboratório. O objetivo da pesquisa, que tem sido feita por uma equipe internacional de físicos, é obter perspectivas sobre um dos eventos mais energéticos e imprevisíveis no universo. Os pesquisadores também tem a esperança de que seus experimentos possam levar a uma melhor compreensão do papel desempenhado pela turbulência cósmica na criação de poderosos campos magnéticos visto em alguns remanescentes atípicos de supernova, como a Cassiopeia A.

Supernovas são explosões estelares massivas que são provocadas quando o combustível dentro de uma estrela reacende ou seu núcleo entra em colapso sob forças gravitacionais extremas. A explosão expele a maioria do material da estrela, que por sua vez envia uma onda de choque que atravessa longas distâncias no espaço interestelar. A onda de choque se liga a maioria dos materiais ejetados de estrelas e poeira em seu caminho, criando o que é conhecido como um remanescente de supernova (SNR). Enquanto a maioria dos SNRs têm características tipo conchas regulares, alguns, como Cassiopeia A, têm formas inexplicáveis ​​e irregulares. O SNR Cassiopeia A está a cerca de 11.000 anos-luz da Terra e sua primeira luz alcançou nosso planeta há 300 anos. Imagens ópticas da explosão revelam características irregulares “intrincadas”, enquanto raios-X e observações de rádio mostram a presença de campos magnéticos 100 vezes mais forte do que aqueles no meio interestelar circundante.



Choque atado

São essas esquisitices de Cassiopeia A que chamaram a atenção do físico de plasma Gianluca Gregori da Universidade de Oxford e sua equipe internacional de pesquisadores. Gregori contou a physicsworld.com que o conceito inicial para o estudo veio de conversas com os astrônomos sobre os problemas em compreender a formação de campos magnéticos no universo. “Durante uma pausa para o café, começamos a perceber que talvez devêssemos tentar realizar um experimento de laboratório para ver se encontramos o que achamos que está acontecendo”, eu disse.

Embora a origem do grande campo magnético no interior do Cassiopeia A é ainda desconhecida, uma possibilidade é que a onda de choque pudesse ter passado por uma região do espaço preenchida por agrupamentos densos ou nuvens de gás. “Em Cassiopeia A, a provável explicação propôs que o formato irregular é causado pelo choque da supernova sendo perturbada e fragmentada por densas nuvens que rodeiam a estrela”, diz Gregori.

Para testar essa ideia Gregori e seus colegas decidiram recriar um bang ligeiramente menor, elaborando um método baseado em laboratório para investigar essa turbulência. “Isso pode soar surpreendente que um experimento de laboratório que se encaixa dentro de uma sala média pode ser usado para estudar objetos astrofísicos que têm de anos-luz de diâmetro”, diz Gregori. Os pesquisadores usaram as instalações do laser Vulcan do Rutherford Appleton Laboratory. “Nossa equipe começou concentrando três feixes de laser em um alvo de haste de carbono, não muito mais espesso do que um fio de cabelo, em uma câmara cheia de gás de baixa densidade”, diz Jena Meinecke, uma estudante de pós-graduação da Universidade de Oxford que liderou o experimento. Quando a haste é aquecida a uma temperatura de poucos milhões de graus Kelvin, ela explode. Isso cria uma onda de choque assimétrica que se expande para fora, através do gás argônio, assim como uma supernova real no espaço.

Fluxos turbulentos

Nos experimentos, os aglomerados densos de gás ou nuvens que estariam cercando uma estrela explodindo foi simulado colocando uma grade de plástico a 1cm do alvo. Isso perturba a frente de choque e resulta em fluxo turbulento. O choque e o fluxo turbulento são capturados 300 bilionésimos de segundo após o tiro de laser, usando uma técnica especial de imagem.

Gregori menciona que a equipe teve sorte que seu experimento meticulosamente planejado funcionou perfeitamente no tempo disponível na instalação do Vulcan. “Às vezes, mesmo quando você se prepara por meses, você encontra problemas. Desta vez, todos os diagnósticos e a equipe foram fantásticas”, ele exala, ressaltando que o acesso ao laser é bastante competitivo.

Os pesquisadores descobriram que, como a onda de choque se moveu através da grade, a turbulência e as características irregulares começaram a aparecer. “Nós descobrimos que o campo magnético é maior com a grade do que sem ela”, diz Gregori, explicando que o resultado “é consistente com ambas as observações e modelos numéricos de uma onda de choque que passa através de ‘agrupamento’ médio”. Como os campos magnéticos mais altos implicam uma geração mais eficiente de rádio e fótons de raios-X, os resultados da equipe põem em questão a noção atualmente aceita de que explosões de supernovas expandem uniformemente em material interestelar.

Gregori que aponta a pesquisa tem um impacto sobre mais do que apenas SNRs, porque a ampliação do campo magnético via turbulência se aplica a muitos sistemas astrofísicos. “Sabemos que há campos magnéticos, mas não sabemos como eles chegaram lá em primeiro lugar. O mecanismo padrão invocado normalmente é que pequenas “sementes” de campo foram produzida logo após o Big Bang e então esses campos foram amplificados pela turbulência”.

Novas pesquisas sobre buracos negros apontam para a gravidade como um fluido



A sabedoria aceita entre os pesquisadores gravitacionais tem sido de que o espaço-tempo não pode se tornar turbulento. Uma nova pesquisa da Perimeter Faculty, no entanto, mostra que a sabedoria aceita pode estar errada. A gravidade, pensa-se, pode se comportar como um fluido. Um dos comportamentos característicos dos fluidos é a turbulência – isto é, sob certas condições, eles não se movem suavemente, mas são turbulentos e em redemoinhos.

O membro da Perimeter Faculty Luis Lehner, explica por que pode fazer sentido tratar a gravidade como um fluido. “Há uma conjectura em física – a conjectura holográfica – que diz que a gravidade pode ser descrita como uma teoria de campo”, diz ele. “E nós também sabemos que em altas energias, teorias de campo podem ser descritas com as ferramentas matemáticas que usamos para descrever líquidos. Portanto, é uma dança de duas etapas: a gravidade é igual a teoria de campo, e teoria de campo é igual a de fluidos, assim a gravidade é igual a campos fluidos. Isso se chama dualidade gravidade/fluidos “.

A dualidade de gravidade/fluidos não é um trabalho novo – tem sido desenvolvido ao longo dos últimos seis anos. Mas escondido no coração disso está uma tensão. Se a gravidade pode ser tratada como um fluido, então o que dizer da turbulência?

“Por muitos anos, o folclore entre os físicos é que a gravidade não podia ser turbulenta”, observa Lehner. A crença era de que a gravidade seria descrita por um conjunto de equações que são suficientemente diferentes de equações dinâmicas de fluidos, de modo que não haveria turbulência sob quaisquer circunstâncias.

Lehner destaca o paradoxo emergente: “Ou havia um problema com a dualidade e a gravidade realmente não poderia ser totalmente capturada por uma descrição de fluidos, ou houve um fenômeno novo na gravidade e a gravidade turbulenta realmente poderia existir.” Uma equipe de pesquisadores – Lehner, Huan Yang (Perimeter Faculty e do Instituto de Computação Quântica) e Aaron Zimmerman (Instituto Canadense para a Astrofísica Teórica) – se propôs a descobrir qual.

Eles tiveram dicas sobre que direção seguir. Simulações anteriores na Perimeter, e um trabalho independente fora do MIT, tinha sugerido que poderia haver turbulência em torno do caso não realista de buracos negros confinados no espaço Anti-de Sitter. “Pode haver turbulência se você limitar a gravidade em uma caixa, essencialmente”, diz Lehner. “A questão mais profunda é se isso pode acontecer em uma situação real”.

A equipe decidiu estudar buracos negros de giro rápido, porque a descrição da fluido-dinâmica de tais buracos sugere que o espaço-tempo ao seu redor é menos viscoso do que o espaço-tempo em torno de outros tipos de buracos negros. A baixa viscosidade aumenta a chance de turbulência – pense na forma como a água é mais “maleável” que o melaço.

A equipe também decidiu estudar perturbações não-lineares dos buracos negros. Sistemas gravitacionais são raramente analisados neste nível de detalhes, pois as equações são diabolicamente complexas. Mas, sabendo que a turbulência é fundamentalmente não-linear, a equipe decidiu fazer uma análise de perturbação não-linear, exatamente o que foram chamados para fazer.

Eles ficaram surpresos quando a análise mostrou que o espaço-tempo se tornou turbulento.

“Fiquei muito surpreso”, disse Yang, que vem estudando a relatividade geral – teoria da gravidade de Einstein – desde o seu doutoramento. “Eu nunca acreditei em comportamento turbulento na relatividade geral, e por boas razões. Ninguém nunca tinha visto em simulações numéricas, mesmo de coisas dramáticas como buracos negros binários”.

“Ao longo dos últimos anos, passamos de uma séria dúvida sobre se a gravidade nunca poderia ser turbulenta, a muito alta confiança de que ela pode”, diz Lehner.

Como é que este comportamento se escondeu até agora? “Ele estava escondido porque a análise necessária para vê-lo estava nas ordens não-lineares”, diz Yang. “As pessoas não têm motivação suficiente para fazer um estudo não-linear. Mas, desta vez, nós sabíamos o que estávamos procurando. Isso nos deu a motivação para fazer um estudo mais aprofundado. Tivemos um alvo e o atingimos”.

Este é um trabalho teórico, mas que pode não ficar assim. A próxima geração de detectores a começarem a operar podem em breve ser capazes de detectar ondas gravitacionais – ondulações no “fluido” gravitacional que resultam de grandes eventos como a colisão de dois buracos negros. Se a gravitação pode ser turbulenta, então essas ondulações podem ser um pouco diferentes do que os modelos anteriores sugerem. Saber essas diferenças pode fazer com que as ondas gravitacionais sejam mais fáceis de detectar. E, é claro, na verdade detectar essas diferenças seria uma evidência direta da turbulência gravitacional.

“Há potenciais consequências observacionais desta descoberta”, diz Lehner. “LIGO, LISA ou algum futuro experimento de ondas gravitacionais pode ser capaz de detectá-los”.

Mas uma das consequências mais interessantes desta pesquisa não diz respeito à gravidade, mas a comum turbulência Terra-bound. De furacões ao creme misturado no café, do impossível voo da abelha aos vórtices que cortam fora da extremidade das asas de avião, a turbulência é tudo o que nos rodeia. No entanto, nós não a entendemos completamente. É considerado um dos maiores problemas não resolvidos da física clássica.

Esta pesquisa reforça a ideia de que a gravidade pode ser tratada como um fluido – o que também significa que os líquidos podem ser tratados gravitacionalmente.

“Nós temos estado empacados por mais de 500 anos em alcançar um entendimento completo sobre a turbulência”, diz Lehner. “Esta correspondência gravidade/fluido nos diz que há uma maneira de usar ferramentas gravitacionais e intuição gravitacional para termos um novo olhar sobre a turbulência. Podemos continuar empacados como estamos em nossa abordagem padrão, ou podemos acabar derramando uma luz completamente nova, que vai ajudar o campo a seguir em frente. É muito emocionante”.

Poderia o entrelaçamento quântico explicar como a seta do tempo flui?



Coisas que sabemos com certeza num mundo e incertezas

Nós nascemos quando um espermatozoide fertiliza um óvulo. Crescemos no ventre de nossa mãe. Nós abrimos nossos olhos pela primeira vez. Nós vemos cor, ouvimos música, criamos memórias, aprendemos a importância do amor e da perda e, eventualmente, nós morremos (esperamos que depois de uma vida muito longa). Isso é tão certo quando o nascer do Sol no leste e seu poente no oeste, assim como as montanhas vagarosamente se elevam e se desfazem e as estações vêm e vão. Porém, nós não sabemos por que as coisas não acontecem na ordem reversa. Imagine isso: em um Universo que segue as leis da física em relação ao tempo, seu corpo (ou pelo menos as células que compõe o seu corpo), iria se decompor no solo antes de você sair do ventre da sua mãe.

Eu sei, eu sei. Alguns de vocês devem estar pensando “Como isso faz sentido?” Bem, aqui vai algo assombroso para você. Nós não sabemos por que não acontece desse jeito em princípio. Veja: o próprio tempo é um completo mistério (a maior parte). Temos alguma certeza que ele exista (embora muito cosmologistas pensem que o tempo pode ser uma adição desnecessária para o continuum espaço-tempo). Sabemos também que muitos de seus aspectos aparentemente contradizem suas próprias leis da física.

Nossos problemas podem ser encontrados por todo o caminho de volta ao início de tudo – quando um pequeno, mas infinitamente denso, ponto em um mar de nada ricocheteou antes de “explodir” o conjunto do espaço-tempo (entre várias outras coisas) para a existência. A palavra espaço-tempo é muito importante, note isso. Isso alude ao fato que o espaço e o tempo não são meras entidades separadas, mas entrelaçadas. Elas se reúnem para compor as quatro dimensões conhecidas (três espaciais e uma temporal).

O grande problema com o tempo e o centro do big bang gira em torno de algo encontrado na segunda lei da termodinâmica, chamado entropia. “Entropia”, simplesmente, mede a quantidade de ordem e desordem de um sistema física (o próprio Universo pode ser considerado um sistema aberto – seu nível de entropia pode ser alterado). A melhor forma de visualizar isso é imaginar um ovo. O próprio ovo é um sistema. Quando inteiro, o ovo é um sistema altamente ordenado, mas quando você o quebra e mistura suas entranhas, o ovo evolui de um sistema de baixa entropia para um sistema de alta entropia. Durante todo o processo de mexer o ovo, a informação é perdida.

Referente a voltar ao nascimento do Universo. Perto do big bang, o equivalente ao Universo era originalmente uma densa, quase perfeitamente homogênea nuvem de gás (quase a entropia máxima). A medida que o tempo pressionou, a formação uniforme de gás começou a ser atraída pela gravidade, formando o material se encontrasse, aglutinasse e colapsasse para formar estrelas e (mais tarde) galáxias. Isso leva a uma diminuição do nível de entropia.

Introduzindo o entrelaçamento quântico

Não muito tempo atrás, físicos anunciaram que um novo conhecimento na antiga teoria quântica poderia finalmente nos dar algumas respostas muito necessárias, uma delas é muito mais simplista do que qualquer das suas antecessoras. Eles sugerem que a percepção da seta do tempo é resultado do entrelaçamento quântico. Mais conhecido como “ação fantasmagórica a distância”. Einstein deu esse nome porque seus efeitos são inexplicáveis. Não importa a distância que separa duas partículas entrelaçadas, ambas parecem saber exatamente o que acontece com seu parceiro, incluindo seus estado quântico (isso claramente viola o princípio da relatividade geral, que diz que nada – nem mesmo sinais ou informação – pode ser capaz de exceder o limite da viagem na velocidade da luz, ainda que isso seja exatamente o que eles parecem ser capazes de fazer).

Como isso interage com a seta do tempo? Bem, de acordo com o físico quântico Tony Short: se nós pegamos, diz; uma xícara de café quente, ela pode equilibrar (“equilibrar”, neste contexto, refere-se a uma xícara de líquido quente atingindo distribuição de energia máxima dentro de um intervalo de tempo viável) numa sala porque o entrelaçamento quântico permite que o estado da xícara de café corresponda ao estado da sala, com ambas se tornando conectadas microscopicamente. Esse mesmo princípio é responsável pela dispersão de energia em vez de recolher.

Uma ilustração que mostra os princípios desta teoria. Como uma xícara de café quente se equilibra com o ar ambiente em uma sala, partículas de café (observados em branco) e partículas de ar (foto em marrom) interagem, antes de se tornarem misturas de estados marrom e branco. Eventualmente, as partículas de café e de ar se correlacionam, assim, o café atinge um estado de equilíbrio térmico. (Crédito: Lidia del Rio via Wired)
Uma ilustração que mostra os princípios desta teoria. Como uma xícara de café quente se equilibra com o ar ambiente em uma sala, partículas de café (observados em branco) e partículas de ar (foto em marrom) interagem, antes de se tornarem misturas de estados marrom e branco. Eventualmente, as partículas de café e de ar se correlacionam, assim, o café atinge um estado de equilíbrio térmico. (Crédito: Lidia del Rio via Wired)

A ideia foi desenvolvida há muitos anos, mas não teve destaque até 2009. Desde então, muitas diferentes equipes têm publicado trabalhos que construíram sobre o fundamento geral da teoria. Agora, não um, mas dois diferentes grupos de pesquisa tem publicado trabalhos que indicam claramente que seus trabalhos mostram que o período de tempo dos objetos em equilíbrio é diretamente proporcional ao seu tamanho.

Por Nocolas Brunner – um dos pesquisadores, que vem da Universidade de Genebra – o mecanismo que permite uma xícara de café (ou inversamente, uma xícara com água congelada) atingir o equilíbrio é “muito intuitivo… mas quando se trata de explicar por que isso acontece, essa é a primeira vez que isso deriva de bases sólidas, considerando uma teoria microscópica”.

O que eles postulam essencialmente muda o entrelaçamento de um fenômeno que lida exclusivamente com o mundo quântico, para um que seja abrangente. Isso poderia indicar também que o próprio Universo é uma grande bola de incerteza. Porque, por natureza, partículas subatômicas são abastecidas por incertezas. Talvez os dois princípios mais instrumentais que mostram isso são a dualidade partícula/onda – onde os fótons tem propriedades de ambas as partículas e ondas – e o princípio da incerteza, que diz que ambos o momentum e a posição da partícula não podem ser conhecidas ao mesmo tempo; somente uma ou outra pode ser conhecida com precisão.

Acima de tudo, temos o Teorema de Bell. Ele tem variações de princípios que são fundamentais no entendimento da mecânica quântica – tanto que muitos tem ido mais longe, o chamando de descoberta mais importante de todos os tempos na história da ciência – mas ele essencialmente nos diz que em vez de ter propriedades distintas, descritíveis, as próprias partículas não são nada mais do que as probabilidades atribuídas a elas.

Informação como blocos construtores

As conclusões subjacentes são surpreendentes, isto é, por causa da validação que emprestaria para o campo da teoria da informação quântica, que basicamente trata as informações como blocos de construção chave em seu próprio direito. Ele diz que quando as partículas interagem com seu ambiente. Elas deixam informação chave sobre elas (e sobre seu estado quântico) nele (parecido com respingos de sangue ou DNA numa cena de crime).

“A perda de informação local causa o estado do café estagnado mesmo que o estado puro da sala inteira continue evoluindo. Com exceção de raras flutuações aleatórias” diz Short, “seus estados param de mudar com o tempo”.

O princípio acima explica porque o café esfria, ao invés de aquecer espontaneamente. Isso, no entanto, deixa espaço para a incerteza que estávamos falando antes. Em teoria, é possível que como o estado puro da sala evolua dentro de um intervalo finito de tempo, as partículas no café e na sala poderiam “desmisturar” que poderia resultar no líquido tendo seu próprio estado puro.

A probabilidade disso nunca acontecer é tão diminuta que seria preciso sobreviver no Universo por uma margem enorme de tempo (mesmo assim você pede nunca vê-lo pelo resto da eternidade). Isso dá a falsa impressão de que a seta do tempo é firme, quando isso pode não ser o caso (em uma área similar, outra pesquisa revelou que o entrelaçamento quântico pode chegar ao passado).

“O entrelaçamento essencialmente abre muito espaço para você” Popescu disse. “É como você estar num parque e estar de um lado do portão, longe o equilíbrio. Então você atravessa o portão, e você tem esse lugar enorme e se perde nele. E você nunca mais volta ao portão”.

Conclusão

“Entrelaçamento”, como Lloyd coloca, “é em certo sentido a essência da mecânica quântica”. Pode até ser a força vital do Universo se Lloyd estiver correto, e ele realmente tem um papel fundamental na mudança das coisas (como tempo e entropia). Alguns tem postulado que o entrelaçamento pode até desempenhar um papel mantendo as cadeias de DNA unidas. Outros sugerem que seus efeitos podem dar origem ao próprio tecido do espaço-tempo.

Uma coisa é indiscutível porém, esse conceito tem evoluído de baboseira total para o que parece ser o mais viável o tempo todo, principalmente graças a evolução da teoria da informação quântica (sim, aquela que nos deu a computação quântica, rede quântica e criptologia quântica). Ele essencialmente trata a informação como blocos de construção isso nos mostra que dado tempo suficiente, as partículas entrelaçadas param de exibir informações sobre seu estado de forma individual, mas isso não é exatamente perdido no sentido tradicional. “Seria como se as partículas perdessem gradualmente sua autonomia individual e se tornassem peões do estado coletivo”.

Finalmente, uma vez que as partículas e a sala atingem um estado de equilíbrio e estão completamente correlacionadas, seus estados param de mudar de forma significativa. Essa aparente perda de informação – juntamente com o aumento do número de correlações quânticas – em suma, dirigem a seta do tempo (pelo menos nesse cenário). Entretanto, isso não soluciona o problema. “Não tem nada nesses trabalhos que diga o porquê você começou nesse portão”, Popescu diz, usando a analogia do parque. “Em outras palavras, eles não explicam por que o estado inicial do Universo estava longe do equilíbrio”.

Ainda, de um ponto de vista filosófico:

“Nossa capacidade de lembrar do passado mas não do futuro, outra manifestação historicamente confusa da seta do tempo, pode também ser entendida como um acúmulo de correlações entre as partículas interagindo. Quando você lê uma mensagem num pedaço de papel, seu cérebro se torna correlacionado com ele através dos fótons que atingem seus olhos. Somente a partir desse momento você se torna capaz de lembrar o que a mensagem dizia”.

Lloyd coloca de outra forma: “O presente pode ser definido pelo processo de se tornar correlacionado com nosso ambiente”. “Nós podemos discutir o fato que uma hora atrás, nosso cérebro estava em um estado que estava correlacionado com algumas coisas.”, ele continua, “Mas nossa percepção é que o tempo está fluindo – essa é uma questão completamente diferente. Muito provavelmente, vamos precisar de uma nova revolução na física que vai nos dizer sobre isso”.

O que são neutrinos?



Neutrinos são um tipo de partícula elementar – ou seja, eles são partículas subatômicas que não dão qualquer indicação de serem feitos de pedaços menores. Eles são semelhantes aos elétrons, exceto que os elétrons têm carga elétrica -1 (nas unidades que os físicos de partículas usam; em unidades do SI é -1.6×10-19 coulombs), enquanto que os neutrinos não têm carga elétrica. Neutrinos são também muito menos massivos que os elétrons – não mais de 4 milionésimos da massa do elétron (e o próprio elétron tem uma massa de apenas 1/1837 da massa de um átomo de hidrogênio).

No Modelo Padrão da física de partículas, a matéria é composta por dois tipos de partículas elementares: hádrons, que sentem a força forte que mantém os prótons juntos no núcleo, e quarks juntos no próton, e léptons, que não sentem a força forte. Neutrinos, como elétrons, são léptons. Eles são indicados pelo símbolo ν, que é a letra grega “nu” ou n (não é um V, embora possa ser difícil discernir em algumas fontes!).

Neutrinos não devem ser confundidos com nêutrons, um constituinte do núcleo atômico, ou com neutralinos, partículas hipotéticas que podem explicar o teor de matéria escura do Universo.

Como os neutrinos foram descobertos?

A existência de neutrinos foi suspeitada pela primeira vez como resultado das propriedades de um tipo de decaimento radioativo chamado decaimento beta, em que um elétron – ou sua antipartícula, um pósitron – é emitido. Verificou-se que o elétron não leva embora toda a energia que havia sido perdida pelo núcleo decadente. Em 1930, Wolfgang Pauli, um físico teórico austríaco, sugeriu que a energia faltante deveria ser explicada por uma partícula neutra não detectável também produzida no decaimento. Alguns anos mais tarde, o físico teórico ítalo-americano Enrico Fermi chamou um neutrino de partícula de Pauli, e o nome pegou.

Neutrinos interagem apenas muito fracamente com a matéria, e são, portanto, muito difíceis de detectar – na verdade, Pauli temia que nunca pudessem ser detectáveis. No entanto, o advento dos reatores nucleares após a Segunda Guerra Mundial forneceu uma fonte muito intensa de neutrinos para os físicos, e, em 1955, Fred Reines e Clyde Cowan conseguiram detectar neutrinos através do chamado decaimento beta inverso, onde um próton captura um antineutrino (em vez de emitir um neutrino): ν + p → n + e+. Reines e Cowan detectaram o pósitron quando ele se aniquilou com um elétron, e o nêutron quando foi capturado por um núcleo atômico. Este sinal duplo lhes permitiu dizer com certeza que eles estavam realmente vendo neutrinos e não os raios cósmicos ou alguma outra radiação de fundo.

Assim, 25 anos se passaram entre o primeiro palpite de que neutrinos deveriam existir e a primeira detecção experimental inequívoca. Essa é uma medida de quão difícil a física experimental realmente é!

De onde os neutrinos vêm?

Neutrinos são provavelmente a segunda partícula mais comum no Universo, depois dos fótons (dependendo exatamente o que é a matéria escura, eles podem ser os terceiros mais comuns, depois de fótons e partículas de matéria escura). Eles foram produzidos em grande número no período imediatamente após o Big Bang: cosmólogos calculam que deve haver mais de 300 neutrinos por centímetro cúbico em todos os lugares em todo o Universo vindos desta fonte (um centímetro cúbico é aproximadamente do tamanho de um cubo de açúcar). Estrelas também produzem um grande número de neutrinos: o Sol produz mais de 60 bilhões por centímetro quadrado por segundo a uma distância da Terra. Outros fenômenos astrofísicos, tais como supernovas (explosão de estrelas) e os raios cósmicos, também produzem neutrinos.

Na Terra, os neutrinos são produzidos naturalmente por alguns isótopos radioativos, como o carbono-14 (usado na datação por carbono de artefatos arqueológicos) e potássio-40, e também por raios cósmicos notáveis na atmosfera da Terra. Eles também podem ser produzidos artificialmente por reatores nucleares e por aceleradores de partículas. Os processos artificiais são muito semelhantes aos naturais: neutrinos de reatores chegam do decaimento beta radioativo, e os neutrinos do acelerador vêm exatamente do mesmo processo que os neutrinos de raios cósmicos, apenas em um ambiente mais controlado.

Felizmente, porque os neutrinos têm uma interação tão fraca, eles são completamente inofensivos: apesar de centenas de bilhões de neutrinos solares estarem passando através de você nesse exato momento (isso acontece até mesmo durante a noite – eles atravessam a Terra também, sem problemas), as chances de que um deles irá interagir com um átomo em seu corpo são realmente muito pequenas. Convencer um neutrino a interagir faz com que ganhar na loteria pareça ser uma aposta muito segura!

Como podemos detectar neutrinos?

Para que você detecte algo, tem que interagir com o detector. Você pode ver porque os fótons de luz são absorvidos pelas células bastonetes e cones da retina; o vidro é transparente porque os fótons de luz não são absorvidos pelo vidro (o Homem Invisível dos filmes seria cego: suas retinas são transparentes, então elas não absorvem fótons). Neutrinos interagem somente de forma muito fraca, por isso são muito difíceis de detectar: para estar razoavelmente seguro de ter uma interação típica do neutrino solar você teria que atravessa-lo numa parede de chumbo de pelo menos 1 ano-luz de espessura.

Felizmente as interações são aleatórias: você pode precisar de um ano-luz ou mais de chumbo para parar todos os seus neutrinos solares, mas alguns deles vão interagir nos primeiros centímetros (da mesma forma, é possível que você ganhe no primeiro bilhete de loteria que você compre em toda sua vida – apenas não é muito provável). Portanto, se você tem um detector grande o suficiente e um feixe de neutrinos suficientemente intenso, um número suficiente deles irá interagir para fazer a experiência valer a pena, apesar de que 99,99999999% deles vai passar em linha reta.

Neutrinos interagem de duas maneiras:

-eles podem simplesmente lançar para fora tudo o que eles atingirem (elétron ou núcleo atômico) – o neutrino continua a ser um neutrino, mas ele transfere força e energia para o objeto atingido;

-eles podem se converter em um lépton carregado (um elétron, múon ou tau, ou suas antipartículas, dependendo do tipo de neutrino). Isso exige que não só energia e momento, mas também a carga elétrica, sejam transferidos, uma vez que o neutrino é eletricamente neutro, mas o lépton em que ele se converte não é.

No primeiro caso, podemos detectar o objeto atingido, geralmente porque agora ele está se movendo, ocasionalmente, porque ele se quebrou. No segundo caso, normalmente detectamos o lépton carregado, mas às vezes detectamos a mudança na carga do objeto atingido. Há muitas maneiras de detectar uma partícula carregada em movimento: podemos rastreá-la, uma vez que ela ioniza o material através do qual atravessa, ou podemos detectar a luz que ela emite, se ela está viajando a uma velocidade > c / n, onde c é a velocidade da luz no vácuo, e n é o índice de refração do material (transparente), através do qual se move. Esta luz foi chamada de radiação de Cherenkov, após Pavel Cherenkov.

Aqui estão alguns exemplos de cada tipo de detecção:

Detecção de recuo do objeto atingido

Isto é usado para detectar neutrinos solares: um elétron é atingido pelo neutrino, recua e é detectado por sua radiação Cherenkov.
Exemplo: Super-Kamiokande.

Detecção por desmembramento do objeto atingido

Isso foi usado pelo experimento SNO. O objeto de colisão era um núcleo de deutério, o isótopo pesado e raro de hidrogênio, o qual contém um nêutron além do próton habitual. O núcleo de deutério se divide em seus prótons e nêutrons constituintes, e o nêutron é observado quando é capturado por um núcleo atômico (a energia que ele perde, uma vez que se liga ao núcleo, é emitida como um fóton de alta energia ou raios gama, que é então detectada).

Detecção da produção de lépton carregado

O lépton carregado detectado é normalmente um elétron, um múon, ou suas antipartículas: o tau é muito mais difícil de produzir, em primeiro lugar, porque é mais massivo, e muito mais difícil de detectar porque ele tem um tempo de vida muito curto. Um exemplo de uma experiência que acompanha a partícula carregada por sua ionização é o MINOS ou o T2K near detector ND280; um exemplo de um detector que detecta a partícula carregada perto da sua radiação de Cherenkov é o IceCube ou o T2K far detector Super-Kamiokande.

Detecção de mudança de carga no objeto atingido

Este tipo de experimento é capaz de detectar neutrinos com energia extremamente baixa. A ideia é que o neutrino interage com um núcleo atômico, e a alteração na carga altera o átomo em um átomo radioativo de um elemento diferente. Você, então, extrai quimicamente o elemento diferente, e conta o número de átomos que você fez, observando seus decaimentos radioativos. O método tem desvantagens severas – você não sabe de que direção o neutrino veio, que energia tinha, ou exatamente quando a interação ocorreu -, mas é a única maneira de detectar neutrinos com energias inferiores a 1 MeV (1.6×10-13J). Um exemplo desta técnica é o primeiro detector de todos os tempos para detectar neutrinos vindos do sol: o experimento Homestake criado por Ray Davis, onde o cloro-37 é convertido em argônio-37 radioativo.

Quantos tipos de neutrinos existem?

No Modelo Padrão da física de partículas, existem três tipos de lépton carregados: o elétron, o múon e o tau. Uma experiência feita em 1962 por Lederman, Schwartz e Steinberger mostrou que o neutrino produzido em associação com o múon não poderia se converter em um elétron, e medições de precisão da produção do bóson Z confirmou que havia três neutrinos de luz para combinar os três léptons carregados. Todos os léptons carregados têm antipartículas de carga oposta, e a incapacidade dos neutrinos de reatores (que deveriam ser de antineutrinos do tipo elétron) em converterem cloro para argônio – o que neutrinos solares, que são neutrinos do tipo elétron, podem fazer – sugere que os neutrinos e antineutrinos são diferentes, tanto que deveria haver seis tipos distintos de neutrinos.

O modelo atual da física do neutrino, no entanto, sugere que a diferença entre neutrinos e antineutrinos pode ser uma ilusão: eles podem interagir de forma diferente porque giram em direções opostas, não porque eles são fundamentalmente distintos. Isso reduziria o número novamente para três.

Por outro lado, alguns resultados experimentais atualmente inexplicáveis podem indicar a presença de neutrinos estéreis, que interagem apenas através da gravidade (uma força extremamente fraca na escala das partículas subatômicas) e, portanto, não podem ser diretamente observados por qualquer experimento. O júri ainda está aberto, mas é possível que um ou dois tipos de neutrinos estéreis pode vir a ser necessários para explicar os resultados experimentais, elevando o número total para quatro ou cinco. Neutrinos estéreis realmente seriam as partículas indetectáveis que preocupavam Pauli, embora seja possível que as medições cosmológicas, como as flutuações de temperatura na radiação cósmica de fundo, possam fornecer evidências indiretas.

O que é o Problema Do Neutrino Solar?

Quando Ray Davis começou a detecção de neutrinos solares com seu experimento Homestake, um tanque de fluido de limpeza (C2Cl4) em que neutrinos podiam converter átomos ocasionais de cloro em argônio, viu apenas 1/3 do número que ele esperava. O número esperado era baseado no Modelo Solar Padrão (SSM) calculado por John Bahcall e colegas de trabalho; o SSM descreve todas as outras características do Sol que conhecemos, inclusive as importantes, como a quantidade de energia que emite, então não havia nenhuma razão óbvia por que ele obteve um número de neutrinos tão errado – especialmente sendo os neutrinos um subproduto essencial de reações de geração de energia do Sol.

Enquanto era apenas um único experimento que observava os neutrinos solares, a possibilidade era que o problema poderia ser com o experimento: talvez o método de extração e contagem de átomos de argônio de Davis era muito menos eficiente do que ele acreditava. No entanto, nos anos 1980 e 1990 outras experiências, chamadas Kamiokande (antecessor do Super-Kamiokande), GALLEX/GNO e SAGE, também viram menos neutrinos solares do que o esperado. Estas experiências utilizaram técnicas diferentes e foram sensíveis a neutrinos de diferentes energias, tornando insustentável a ideia de que era tudo culpa de experimentos incompetentes. Este, então, era o Problema do Neutrino Solar: por que todas essas experiências veem menos neutrinos do que o esperado?

O Problema do Neutrino Solar não é mais um problema. Todos os experimentos acima podiam ver apenas neutrinos tipo elétron. O experimento SNO, que utilizou água pesada, D2O, em vez de água comum, podia ver outros tipos de neutrino também. Em 2002, o SNO produziu um trabalho mostrando que o número total de neutrinos de todos os tipos era consistente com a SSM: era exatamente isso, embora todos tenham sido produzidos como neutrinos do tipo elétron, no momento em que chegaram à Terra alguns deles tinham se transformado em algum outro tipo (o SNO não poderia dizer se o “outro tipo” era do tipo múon, do tipo tau ou uma mistura). Portanto, o Problema do Neutrino Solar está agora resolvido, e a resolução são as oscilações dos neutrinos.

Neutrinos têm massa?

Pauli pensava inicialmente que os neutrinos poderiam ter uma massa pequena, mas as experiências posteriores falharam em encontrar uma, e na década de 1960 foi geralmente assumido que os neutrinos tinham exatamente massa zero. A formulação original do Modelo Padrão da física de partículas assume explicitamente que os neutrinos não têm massa. No entanto, a resolução do Problema do Neutrino Solar – a transformação do neutrino do tipo em neutrinos de algum outro tipo – só funciona se neutrinos possuírem massa diferente de zero: neutrinos sem massa não podem mudar de identidade desta forma. Portanto, por causa dos neutrinos solares e um efeito similar chamado de anomalia de neutrino atmosférico – um déficit de neutrinos do tipo múon produzido pelos raios cósmicos na atmosfera da Terra – nós sabemos que os neutrinos devem ter massa. No entanto, não sabemos realmente quais são as suas massas.

Oscilações de neutrinos são apenas sensíveis às diferenças nas massas dos neutrinos (mais especificamente, as diferenças nos quadrados das massas). Eles não podem nos dizer a massa absoluta de qualquer tipo de neutrino. Para fazer isso, temos de olhar para decaimento beta radioativo, em que um átomo instável decai e emite um elétron e um antineutrino (ou um pósitron e um neutrino, dependendo do isótopo). O elétron e o neutrino compartilham a energia liberada pelo decaimento. Se o neutrino tem uma massa pequena, Einstein nos diz que a energia mínima possível que ele pode ter é a sua massa-energia, E = mνc2. Se ele tem massa zero, poderia em muitas raras ocasiões não levar nenhuma energia. Portanto, se olharmos para a distribuição de energias de elétrons muito próximos ao valor máximo, devemos ver uma ligeira mudança na forma esperada se o neutrino tiver massa.

Esta experiência normalmente é feita usando o isótopo pesado de hidrogênio instável conhecido como trítio, que tem dois nêutrons em adição ao seu próton. O trítio decai para o hélio-3 com uma meia-vida de 12,3 anos, e a diferença na massa entre o hélio-3 e trítio é bastante pequena, o que faz com que a pequena distorção provocada por um neutrino de massa diferente de zero seja ligeiramente mais fácil de ver. Ainda é um experimento muito difícil, e o melhor que temos sido capazes de fazer até agora é provar que o neutrino emitido no decaimento beta não pode ter uma massa maior que 2 eV (4 milionésimos de a massa do elétron). Um novo experimento de decaimento beta do trítio em construção na Alemanha, KATRIN, espera reduzir este número por um fator de 10.

Se o neutrino é de fato idêntico a sua antipartícula, como a maioria dos teóricos acredita, uma maior sensibilidade pode ser conseguida usando um tipo muito raro de decaimento radioativo conhecido como decaimento beta duplo. Neste processo, como o próprio nome sugere, o isótopo emite não só um elétron, mas dois, decaindo não para o seu vizinho mais próximo na Tabela Periódica, mas para o seu vizinho seguinte. Este é um processo extraordinariamente improvável, e as meias-vidas de isótopos que se decompõem desta forma são cerca de um bilhão de vezes maior do que a idade do Universo: para todos os efeitos do cotidiano eles são completamente estáveis, e é preciso uma experiência muito sensível para vê-los decaírem (funciona da mesma forma que a detecção de neutrinos: embora, em média, os átomos vivam por um bilhão de vezes a idade do universo, há uma pequena chance de que um decairá amanhã: se você tiver um detector grande o suficiente, e monitorá-lo com cuidado o suficiente, você vai ver alguns decaimentos).

O isótopo pode emitir dois antineutrinos junto com os dois elétrons – isso é um processo de decaimento perfeitamente normal e permitido (mesmo sendo extremamente raro), e tem sido medido. No entanto, se o neutrino e o antineutrino são realmente diferentes aspectos de uma mesma partícula, o neutrino produzido em associação com um elétron pode ser absorvido, uma vez em um milhão, na produção de outro (ele tem que ser um antineutrino na emissão e um neutrino na absorção, porque isso só funciona se as duas partículas realmente não forem diferentes). Este é o decaimento beta duplo sem neutrinos, e a taxa (minúscula) em que ocorre depende da massa do neutrino. Observar esses decaimentos permite aos pesquisadores medir neutrinos com massas de 0,1 eV ou menos – cerca de um fator de 20 abaixo do limite atual. Até o momento, não há nenhuma detecção convincente (um grupo afirma ter visto um sinal correspondente a um neutrino com uma massa de cerca de 0,4 eV, mas isso geralmente não é aceito pela comunidade – o que não significa necessariamente que ele está errado, isso significa apenas que a evidência não é convincente o suficiente), mas uma meia-dúzia de novos experimentos estão atualmente em construção ou em recolha de dados, de modo que essa situação pode mudar em poucos anos.

O que são as oscilações do neutrino?

Sabemos que existem três tipos de neutrinos, um para cada um dos três léptons carregados. No entanto, só medimos o tipo, ou sabor, de um neutrino, quando o vemos interagir, seja em associação com um lépton carregado, por exemplo, 14C → 14N + e– + νe, ou se convertendo em um lépton carregado, por exemplo, νμ + n → p + μ–. Quando estão apenas viajando juntos sem fazer nada, não temos evidência direta de seu tipo. Temos, no entanto, em princípio, conhecimento de como sua massa é: uma partícula livre obedece a relação E2 = p2c2 + m2c4 de Einstein, e, portanto, tem uma massa bem definida. Há neutrinos com três massas diferentes, assim como há neutrinos com três sabores diferentes.

Oscilações de neutrinos acontecem se a divisão dos neutrinos em diferentes sabores não se alinha com a sua divisão de massas. Na mecânica quântica, isso é perfeitamente possível: considere o infame gato de Schrödinger, que está 50% vivo e 50% morto até que você abra a caixa. Nós produzimos os neutrinos em algum estado de sabor definido (que é uma mistura de estados de massa), mas como eles viajam da produção para detecção, os três estados da massa ficam desalinhados, então, quando os detectamos eles já não estão perfeitamente alinhados no estado de sabor original.

Óculos de sol polarizados oferecem uma analogia para isso. A luz é uma onda transversal: as ondas elétricas e magnéticas sacodem em ângulo reto com a direção do movimento, como as ondas na água ou as ondas numa corda. Na luz normal, as ondas estão em todos os tipos de ângulos aleatórios, mas você pode descrever isso como uma soma de duas componentes, horizontal e vertical (assim como você pode descrever qualquer quadrado em um tabuleiro de xadrez por dois números, linha e coluna). É por isso que óculos polarizados cortam o brilho tão bem: a luz solar direta é quase uma mistura 50:50 dos dois estados de polarização, mas a luz refletida de uma superfície horizontal é mais polarizada horizontalmente. Portanto, se seus óculos de sol pegar luz polarizada verticalmente, eles vão cortar a intensidade da luz solar pela metade, mas a intensidade de luz refletida é cortada por muito mais do que a metade.

Se você pegar dois pares de óculos polarizados, e alinhá-los a 90 ° um do outro, você está cortando as duas polarizações. Como toda a luz pode ser decomposta em componentes horizontal e vertical, você corta toda a luz: as duas lentes cruzadas devem ser praticamente pretas.

Agora pegue um terceiro par de óculos de sol, e os insira entre os outros dois com um ângulo de 45 ° ou menos. Você verá que, surpreendentemente, a área onde todas as três lentes se cruzam é muito mais transparente do que era quando havia apenas duas lentes lá! Colocar algo que bloqueia metade da luz, de repente, deixa mais luz atravessar – o que aconteceu?

A resposta é que a luz polarizada verticalmente pode ser descrita como uma mistura 50:50 de duas polarizações de 45° dispostas em forma de X. Por outro lado, luz polarizada a 45° é uma mistura 50:50 de polarizações horizontais e verticais. Portanto, seus óculos inclinados pegam a luz polarizada verticalmente a partir do primeiro par de óculos de sol e escolhe apenas a polarização de 45° (e não a polarização de 135°). Mas isso agora é uma mistura de horizontal e vertical – assim o terceiro par de óculos pode escolher um componente horizontal que não estava lá na polarização vertical pura após o primeiro par de óculos. A intensidade é cortada um pouco, é claro – se você observar, você vai ver que estamos reduzidos a um oitavo do nível de luz original – mas é muito mais do que zero.

Na oscilação dos neutrinos, a distância entre a produção e a detecção atua um pouco como o terceiro polarizador: dividindo os neutrinos de acordo com a massa e não com o sabor, regenera um estado de mistura de sabores num estado de sabor puro produzido na interação original. A analogia não é perfeita: a força dos efeitos varia com a distância num formato sinusoidal (imagine girar o terceiro polarizador gradualmente a 360°), e você pode obter a conversão de mais de 50% entre os sabores. Mas apresenta a ideia geral.

Como as oscilações dos neutrinos são medidas?

Experimentos de desaparecimento

Você começa com um fluxo conhecido de neutrinos, e conta quantos você observa a uma certa distância da fonte. O sinal de oscilação é a redução do número observado em relação ao que seria de esperar. O Problema do Neutrino Solar é uma experiência de desaparecimento.

Experimentos de aparição

Você começa com um feixe puro de neutrinos de algum tipo X, e você tenta detectar neutrinos de tipo Y. O sinal de oscilação é a detecção bem sucedida do tipo Y. O T2K é um experimento de aparição.

Ambos os experimentos podem produzir resultados enganosos em algumas circunstâncias. Experimentos de desaparecimento podem dar um falso positivo se o fluxo de neutrinos é menor do que você acredita, ou se a eficiência do seu detector não é tão boa quanto você pensa que seja. Experimentos de aparição podem ser enganados se o feixe não for realmente 100% do tipo X, mas que já contenha uma pequena quantidade do tipo Y, ou se a experiência não tem exatamente 100% de precisão em distinguir X de Y. Por isso, é bom ter um detector próximo, perto de sua fonte, e um detector distante, perto da distância escolhida. O detector próximo ao feixe faz uma medição antes que os neutrinos tenham a oportunidade de sair da etapa, então ele diz como o fluxo original está e quantos neutrinos do tipo Y existem em seu suposto feixe do tipo X. Você, então, compara os resultados dos detectores próximos e distantes para extrair a mudança no fluxo ou o excesso de tipo Y, que é o sinal de oscilação. Você também precisa entender o seu detector extremamente bem, a fim de minimizar a chance de que as ineficiências ou erros de identificação estejam afetando o seu sinal.

O que é violação de CP?

Nós já sabemos que existem três tipos de neutrinos: o elétron, o múon e o tau. A partir dos experimentos de oscilações de neutrinos sabemos agora que existem três estados de massa dos netrinos, que – com incaracterística falta de capricho, para os físicos – nós simplesmente chamamos de 1, 2 e 3. De acordo com as regras básicas da mecânica quântica, cada estado de sabor pode ser considerado como uma mistura de todos os três estados de massa, e vice-versa. Portanto, em princípio, três tipos independentes de oscilação, ou mistura, entre os estados de massa são possíveis: 1 com 2, 2 com 3, e 3 com 1 (como mencionado antes, alguns físicos pensam que também possa haver um quarto sabor “estéril”de neutrinos, que não pode participar de oscilações – mas ele não entra nesta discussão). Cada variedade de oscilação tem duas quantidades associadas: a diferença de massa entre os dois estados envolvidos e o que chamado de ângulo de mistura θ (theta). Este último é apenas uma maneira conveniente de garantir que todas as probabilidades da mecânica quântica sejam adicionadas até 100% corretamente. Este requisito de “unitariedade” é automaticamente satisfeito se aproveitarmos a regra de trigonometria, sin2 θ + cos2 θ = 1 para qualquer ângulo θ. Não existe um “ângulo” físico envolvido em oscilações de neutrinos: θ é apenas um parâmetro que nos permite descrever a quantidade de mistura, garantindo que a unitariedade seja preservada. Se sin2 θ ou cos2 θ ~ 0, um estado de massa domina, se sin2 θ ~ cos2 θ, os dois estados de massa são quase igualmente representados na soma (“mistura máxima”).

Sabemos que os ângulos de mistura θ12 e θ23 são grandes, isto é, a mistura é quase máxima para esses pares de estados de massa. No entanto, até recentemente, as melhores medições do ângulo de mistura θ13 eram consistentes com zero – apenas um limite acima no seu valor pode ser determinado. O primeiro objetivo principal do T2K é determinar se θ13 na verdade não seja zero. A conseqüência fundamental de ter todos os três ângulos diferentes de zero é que isso permite violação CP no sistema de neutrinos, por meio de uma quantidade conhecida como δ (delta). Então o que é violação CP, e por que é importante?

Os símbolos C e P representam cada um uma operação matemática para ser levada a cabo na descrição de um processo físico. C, conjugação de carga, é a substituição de todas as partículas na interação por suas antipartículas: o nome refere-se ao fato de que na maioria dos casos o sinal mais evidente desta substituição é a reversão da carga – por exemplo, antielétrons (pósitrons) tem carga positiva, e antiprótons têm carga negativa (neutrinos são neutros, mas neutrinos e antineutrinos se distinguem pela sua configuração helicoidal, isto é, a direção da sua rotação). P, paridade, descreve espelhos de reflexão: as coordenadas (x, y, z) de todas as partículas na interação são invertidos para (-x, -y, -z), e as direções dos movimentos são invertidas também. Na teoria quântica, C e P, separadamente, são representado por um operador matemático que realiza essas trocas.

C (ou P) dizem serem conservados se as interações depois das aplicações de C (ou P) parecerem fisicamente válidas e corretas. Em nosso mundo, nós não temos que trocar partículas e antipartículas na maioria das vezes, mas a conservação de paridade parece ser um fato da natureza: se eu lhe mostrar um filme de um jogo de futebol, um jogo de sinuca, ou um concurso de arco e flecha, desde que haja slogans publicitários visíveis, você não seria capaz de dizer se o filme foi invertido da esquerda para a direita – o comportamento das bolas ou setas parece perfeitamente natural. E até a década de 1950 foi, de fato, assumido que a conservação da paridade seria uma lei da natureza. No entanto, foi então apontado por Chen Ning Yan e Tsung-Dao Lee que a paridade não pode ser conservada em interações fracas, que não são tão visíveis na vida cotidiana. Esta sugestão foi testada em 1956 por uma equipe liderada por Chien-Shiung Wu, e descobriu-se correta – a paridade não é conservada nas interações fracas. Na verdade, é maximamente violada: a interação fraca é sensível para partículas canhotas e antipartículas destras, e não para os seus primos com a paridade invertida, partículas destras e antipartículas canhotas (lateralidade em partículas refere-se à direção de rotação: “destra” significa que o sentido de rotação está alinhado com a direção do movimento, como na figura).

Configuração helicoidal. Partículas como o neutrino tem uma propriedade chamada spin, que é uma versão da mecânica quântica do que entendemos normalmente por giro ou rotação. O spin de uma partícula como um neutrino ou um elétron pode ser destro, como a imagem acima, ou canhoto, como na imagem abaixo. A interação fraca seleciona partículas canhotas e antipartículas destras. Observe que um observador que estivesse se movendo mais rápido do que a partícula iria vê-la.

Configuração helicoidal. Partículas como o neutrino tem uma propriedade chamada spin, que é uma versão da mecânica quântica do que entendemos normalmente por giro ou rotação. O spin de uma partícula como um neutrino ou um elétron pode ser destro, como a imagem acima, ou canhoto, como na imagem abaixo. A interação fraca seleciona partículas canhotas e antipartículas destras. Observe que um observador que estivesse se movendo mais rápido do que a partícula iria vê-la.
As mesmas interações fracas que violam P também violam C: antipartículas não se comportam da mesma maneira que as partículas (se nós somente mudarmos a identidade da partícula, um neutrino canhoto se tornaria um antineutrino canhoto, o que não se sentiria a interação fraca e por isso não iria se comportar como um “verdadeiro” antineutrino destro). No entanto, a combinação CP (mudança de partícula para antipartículas, e coordenadas de reflexão espelhadas) funciona muito melhor, e por um tempo se acreditou que a conservação CP fosse uma verdadeira lei da natureza.

No entanto, em 1964, James Cronin e Val Fitch mostraram que em algumas circunstâncias, a interação fraca também pode violar a simetria CP combinados. Este é um efeito muito mais fraco do que a violação de C e P separadamente: ela ocorre apenas em determinadas interações (Cronin e Fitch estavam olhando para kaons neutros, o efeito já foi observado em mésons B também), e inclusive lá somente no nível de 1%.

Violação CP é extremamente importante porque representa uma verdadeira diferença entre partículas e antipartículas. Um dos mistérios não resolvidos da cosmologia é que o nosso Universo parece ser feito einteiro de matéria, e não de uma mistura 50:50 de matéria e antimatéria, embora quando criamos partículas em laboratório elas sempre venham em pares partícula-antipartícula. As interações que violam CP são uma das três condições essenciais para a gerar um Universo só com matéria que foram propostas em 1967 por Andrei Sakharov (as outras duas são violações de conservação de número bariônico, que é obviamente necessário para gerar um entrelaçamento de números bariônicos diferentes de zero a partir do estado de simetria original, B = 0, e a partida de um equilíbrio térmico, que é necessária para garantir que na fabricação de bárions os processos voltados para o andamento não sejam balanceados pelos processos inversos, de destruição de bárions.

Do ponto de vista de um físico de neutrinos, a coisa mais interessante sobre violação CP em kaons e B-mésons é que parece ocorrer em um nível baixo demais para dar a quantidade de assimetria que observamos em nosso Universo com somente matéria. É por isso que a observação dos ângulos de mistura diferentes de zero, e, portanto, a possibilidade de violação CP em neutrinos, é tão importante: só ela pode ser a chave para um dos grandes mistérios não resolvidos do cosmos.

O que é δ?

O símbolo δ é usado na matemática das oscilações de neutrinos para descrever a parte da oscilação que é violada no CP: ele provoca uma alteração do sinal entre neutrinos e antineutrinos, e, por conseguinte, faz com que eles se comportem de maneira diferente nas oscilações. A violação CP observável exige a existência de três tipos distintos de oscilação, com três ângulos de mistura distintos e diferentes de zero. É por isso que a observação de um valor diferente de zero para o terceiro ângulo de mistura θ13 é uma descoberta tão importante.