1ª “FOTOGRAFRIA” DE UM BURACO-NEGRO, O QUE REALMENTE FOI FEITO

Por Hindemburg Melão Jr

 

Hoje foi publicado o tão esperado resultado da “primeira fotografia real” de um buraco-negro. Ainda não encontrei o paper sobre isso no arxiv.org, mas encontrei vários outros artigos envolvendo alguns dos mesmos co-autores desse trabalho que foi publicado hoje, sendo que os primeiros datam de 2009. Em todos os artigos sérios, o termo utilizado é “simulação” em vez de “fotografia”. Nada mais justo, já que a imagem realmente fotografada pelos observatórios foi algo como a imagem a seguir: 

 

Enquanto a simulação construída a partir das informações deduzidas pelo conjunto de dados coletados por vários observatórios, e ajustados para maximizar a aderência ao modelo teórico do que se acredita que deveria ser a imagem de um buraco-negro, é o que acabou sendo divulgado como “fotografia” e tem aspecto completamente diferente: 

 

Mais adiante, explicarei como usaram imagens com franjas de interferência de ondas (Fig.1) para criar a simulação (Fig. 2) divulgada como se fosse uma fotografia. 
  
A imagem abaixo, por exemplo, é uma simulação de 2009, do mesmo suposto buraco-negro situado no centro da galáxia M87: 

 

O resultado é muito semelhante à simulação publicada hoje (10/4/2019), também do objeto compacto situado na M87, com a diferença que a imagem abaixo está em cores artificiais e foi utilizada uma amostra maior de dados experimentais para calcular os parâmetros que alimentaram o modelo teórico para produzir a imagem divulgada na mídia. 

 

Também há uma simulação em cores artificiais feita em 2017, com alguns dos mesmos autores do trabalho publicado hoje, com a diferença que em 2017 os autores usaram o termo “simulação”, e agora decidiram que o termo “fotografia” poderia ter maior impacto na mídia: 

 

Alguns links de referência: 
 
http://inspirehep.net/record/1514996/plots 
https://astroengine.com/tag/black-hole/ 
https://www.eso.org/public/teles-instr/technology/interferometry/ 

 
Se não é uma fotografia de buraco-negro, o que de fato foi feito e como foi feito? 
 
Todas essas imagens foram construídas a partir de dados coletados por meio de métodos interferométricos. Uma fotografia que utiliza métodos interferométricos produz uma imagem como a apresentada na Fig.1. A interferometria começou a ser largamente utilizada no século XIX e continua sendo muito útil quando se deseja medir algo muito menor do que a resolução dos instrumentos possibilita medir. Se for utilizada para medir a localidade de vários pontos, pode-se posteriormente adotar uma função suave que tenha máxima aderência a essa nuvem de pontos, e produzir uma imagem em 2D ou 3D determinada por essa função, usando os pontos medidos experimentalmente para definir os valores dos parâmetros dessa função. Basicamente é isso que foi feito. 
 
Além disso, o método não é novo. Em 1868, Armand Hyppolyte Louis Fizeau, um dos pioneiros na medição da velocidade da luz, descreveu como seria possível medir o diâmetro aparente de uma estrela usando métodos interferométricos. Naquela época não havia câmeras fotográficas hipersensíveis, nem telescópios com óptica adaptativa, por isso era necessário formular técnicas mais engenhosas para se conseguir medir algo muito menor do que a resolução dos instrumentos permitia. Fizeau utilizou esse método para determinar a velocidade da luz. O famoso experimento de Michelson e Morley também utilizou técnicas interferométricas, e este continua sendo um “truque” muito útil quando é necessário medir algo muito menor do que os instrumentos disponíveis são capazes de medir. 
 
Construtores artesanais de espelhos primários para telescópios refletores utilizam técnicas interferométricas para medir o erro óptico nas superfícies desses espelhos. Com equipamentos tão simples quanto espelhos dielétricos planos e canetas laser, conseguem fazer medidas com acurácia de poucas centenas de átomos (poucos Angstrons) e, assim, determinar quanto a superfície curva de seus espelhos difere de uma superfície perfeita que tivesse exatamente a forma desejada. Em seguida, podem polir essas superfícies nas regiões que apresentam maiores irregularidades topológicas, suavizando-as até alcançar o padrão de qualidade desejado. 
 
O “telescópio” de ondas gravitacionais LIGO também recorre à interferometria para obter os dados necessários. É recomendável ler meu artigo sobre isso para compreender melhor esse processo: https://www.saturnov.org/ondas 
 
Nesse caso específico do suposto buraco-negro situado no centro da galáxia M87, o que exatamente foi feito? 
 
Conforme comentado no artigo anterior, o tamanho aparente do horizonte de eventos de um buraco-negro é muito pequeno para que possa ser observado ou fotografado. No caso de Sagittarius A, fica a 26.000 anos luz e tem diâmetro 25.000.000 km. No caso do que fica no centro de M87, fica a 54.000.000 de anos luz e tem diâmetro de 40.000.000.000 km, ou seja, está cerca de 2.000 vezes mais distante, mas é cerca de 1.500 vezes maior, portanto seu tamanho aparente é aproximadamente o mesmo. Se fosse utilizado o telescópio espacial Hubble para tentar fotografá-lo, o diâmetro aparente do horizonte de eventos teria cerca de 1 bilionésimo de 1 pixel (0,000000001 pixel). 
 
Para compreender melhor o que foi feito nesse caso, vamos analisar um exemplo de modelagem de órbita de sistema binário: como se determina a órbita de uma estrela que faça parte de um sistema duplo ou múltiplo? 
 
Em primeiro lugar, é necessário coletar dados, isto é, observar a posição das estrelas que constituem o sistema, uma em relação à outra, durante período suficientemente longo, de modo que se possa reunir vários pontos que representem as posições nas quais cada uma das estrelas se encontravam em cada data e horário. Gauss, no século XIX, mostrou como seria possível calcular os parâmetros orbitais de um objeto com base em apenas 3 observações. Isso seria possível, em teoria, se os valores medidos para as posições fossem exatos, mas como nunca são exatos, o resultado acaba sendo fortemente dependente do número de observações. Quanto maior o número de observações, menor será a incerteza no resultado. A imagem abaixo mostra o caso da órbita de Sírius B em relação a Sírius A: 

 

Cada ponto indica a posição na qual foi registrada (fotografada ou observada) a estrela em determinada data e horário. Cada um desses registros tem determinada margem de erro. Quando se considera uma nuvem de pontos com centenas de registros, os erros em excesso acabam aproximadamente se compensando com os erros em falta, e assim se consegue traçar sua órbita com razoável precisão, assumindo que seja conhecida, a priori, uma equação que descreva a forma exata da órbita, mas que não se sabe os valores dos parâmetros dessa equação. Nesse caso, assume-se a hipótese de que a órbita precisa ter a forma de uma elipse. Assim, tudo que se precisa fazer é tentar encontrar quais os valores para os parâmetros de uma elipse que a façam se ajustar melhor à nuvem de pontos experimentais. 
 
É muito importante enfatizar que se não fosse conhecida a forma a priori (elíptica) da órbita, isto é, se não houvesse um bom modelo teórico a ser assumido como referência para ajudar a posicionar os pontos experimentais, não seria possível encontrar o resultado apresentado acima. Quando os antigos gregos tentaram determinar a forma das órbitas dos planetas, por exemplo, eles não sabiam qual era a forma das órbitas. Inicialmente, assumiram que deveriam ser circulares. Depois perceberam que os dados experimentais não se ajustavam bem a esse modelo, então introduziram uma série de ajustes ao modelo original, deslocando o centro (equante, excêntrico) e introduzindo novos círculos menores “encaixados” nos círculos maiores (epiciclos), para fazer com que os dados experimentais se ajustassem ao modelo. Copérnico ainda mantinha quase toda a estrutura original do modelo tradicional de Ptolomeu, apenas colocando o Sol no centro e a Terra em órbita do Sol. Kepler foi o primeiro a perceber que uma elipse poderia representar de forma muito mais acurada e mais simples os dados experimentais e Newton forneceu uma Teoria Geral da Gravitação para descrever não apenas as propriedades das órbitas dos planetas conhecidos, como também de vários outros objetos que foram descobertos muito depois de sua morte. 
 
Atualmente, após medir com altíssima precisão e acurácia os períodos orbitais e as distâncias heliocêntricas de milhares de objetos do Sistema Solar, temos dados abundantes que corroboram a hipótese de que uma elipse é uma excelente aproximação para representar a forma das órbitas de objetos massivos em torno do baricentro do sistema. Por isso é bastante razoável supor que no caso de Sírius B a trajetória de sua órbita deve ser muito bem representada por uma elipse, e se houver pontos experimentais destoantes, provavelmente isso se deve a erros na medida e outros fatores. Assim, pode-se confiar bastante em que o modelo baseado na hipótese de uma órbita elíptica ajudará na modelagem para encontrar um resultado fidedigno. 
 
Mas vamos supor que não soubéssemos que as órbitas precisam ter a forma elíptica, vamos supor que fosse o primeiro caso experimental em que estivéssemos observando um objeto girando em torno de outro (na verdade, ambos girando em torno do baricentro do sistema). Não haveria um modelo a priori para ser utilizado como referência que nos fornecesse pistas sobre qual deve ser a forma correta da órbita, e o caminho mais adequado deveria ser baseado no que os dados experimentais nos mostram. Se fosse utilizada uma rede neural ou algum método não-paramétrico para determinar a trajetória de Sirus B em relação a Sirius A, provavelmente a curva gerada não seria uma elipse, porque os pontos no canto inferior direito do gráfico indicam uma forte assimetria na curva, e o formato da trajetória que fosse genuinamente deduzida com base exclusivamente nos pontos observados seria bem diferente de uma elipse. 
 
Quando se considera a Teoria da Gravitação (que leva à inferir à primeira Lei de Kepler), sabe-se que não é possível que órbitas de sistemas binários tenham formatos muito diferentes de uma elipse. Partindo da hipótese a priori de que a forma da órbita é elíptica, os dados experimentais são utilizados para calcular quais devem ser os parâmetros dessa elipse de modo a maximizar a qualidade do ajuste dos pontos empíricos à curva teórica, chegando-se ao resultado acima. 
 
No caso de Sirius B, os dados experimentais são suficientemente abundantes para mostrar que no apoastro da órbita se tem uma aderência muito boa à curva teoria, e a hipótese sobre a forma elíptica é bastante adequada, mas se só estivessem disponíveis os dados do periastro, o resultado seria desastroso, pois a distribuição dos pontos nas imediações do periastro nunca conduziria a uma modelagem semelhante à da imagem acima. 
 
O período orbital de Sirius B é cerca de 50 anos, por isso se o cálculo da órbita tivesse sido baseado nos primeiros 5 anos de observação, e Sirius B estivesse próxima ao periastro, os parâmetros orbitais calculados para ela seriam completamente diferentes e gravemente incorretos. Mesmo que se soubesse que a forma da órbita precisa ser aproximadamente elíptica, ainda assim os dados experimentais nas proximidades da região do periastro estão muito dispersos e inacurados. 
 
Agora vamos considerar o caso do suposto buraco-negro no centro de M87. Existe um modelo teórico que nos diz como deveriam ser algumas propriedades de um buraco-negro com determinada massa, porém não há casos experimentais que suportem o modelo, diferentemente do caso de Sírius B, porque já se conhece com muita acurácia e precisão as órbitas de 8 planetas, centenas de cometas, milhares de asteroides, centenas de satélites, e as formas dessas órbitas são muito bem representadas por elipses com precessões pericêntricas e nodais. Como os efeitos gravitacionais que determinam a forma das órbitas conhecidas é o mesmo que determina a órbita de Sírius B, acaba sendo uma hipótese bem fundamentada usar uma elipse como modelo a priori. Mas no caso do objeto situado no centro de M87, não se conhece nenhum caso anterior que possa suportar a hipótese de que o modelo teórico é confiável. Ainda que a Teoria da Relatividade, a Gravitação, a Termodinâmica, etc. tenham sido amplamente corroboradas em condições menos extremas, não se pode assegurar que continuem sendo adequadas para descrever o que ocorre nas imediações de um buraco-negro. 

 

[Update 1] O que o exemplo da órbita de Sírius B nos mostra é que se a incerteza nas medidas for grande, sobretudo quando se desconhece o erro verdadeiro nas medidas e se estima o erro com base na dispersão das medidas, há um risco muito grande de que o resultado seja muito destoante da realidade. Se a órbita de Sírius B tivesse sido calculada com base em poucos anos de observação, tomando por base as medidas feitas durante sua passagem próxima ao apoastro, os resultados teriam sido muito diferentes do que atualmente se supõe que seja uma boa representação para sua órbita. Um exemplo bem mais interessante é da evolução na determinação da massa e do diâmetro de Plutão. 
 
Quando Plutão foi descoberto, em 1930, as primeiras estimativas para seu diâmetro foram cerca de 13.100 km de diâmetro e massa igual à da Terra. Na verdade, a massa de Plutão já havia sido estimada muito antes de ele ter sido fotograficamente descoberto, desde 1848, quando Babinet estimou que as perturbações gravitacionais observadas na órbita de Netuno deveriam ser causadas por um objeto com cerca de 12 vezes a massa da Terra. Os cálculos foram repetidos por Lowell em 1915, considerando conjuntamente as perturbações observadas nas órbitas de Netuno e Urano, e chegou a cerca de 6,6 vezes a massa da Terra. Pouco antes de Clayde Tombaugh descobrir Plutão, William Pickering estimou que a massa do “planeta-x” deveria ser cerca de 0,75 da massa da Terra. Mesmo depois de sua descoberta fotográfica e vários estudos nas décadas seguintes, ainda predominavam as estimativas perto de 0,8 a 1,0 da massa da Terra. Em 1968, pela primeira vez foi encontrado um resultado menor que 0,5 da massa da Terra, por um estudo conjunto de Duncombe, Klepczynski e Seidelmann, que chegaram ao valor de 0,18 da massa da Terra. 
 
Como na época não se sabia da existência de numerosos objetos transnetunianos, os métodos baseados nas perturbações causadas nas órbitas de Netuno e Urano estavam gravemente contaminados. Em 1976, pouco antes da descoberta de Caronte, Cruikshank, Pilcher e Morrison utilizaram um método baseado no albedo, totalmente diferente dos métodos anteriores, baseados nas perturbações gravitacionais observadas em Urano e Netuno, e chegou ao valor de 0,004 massa da Terra. Essa nova ordem de grandeza foi corroborada com a descoberta de Caronte, que trivializou o cálculo da massa de Plutão, situando corretamente em cerca de 0,0025 da massa da Terra. O valor aceito atualmente é 0,00218 da massa da Terra. E diâmetro que havia sido originalmente estimado em 13.100 km atualmente é estimado em 2.377 km. 
 
A evolução na determinação da massa de Plutão é um exemplo clássico da magnitude dos erros quando se faz as primeiras medições em algo recém descoberto, assumindo hipóteses a priori baseadas em modelos que se supõe que sejam apropriados. Poderia citar vários outros exemplos, como as primeiras tentativas de determinar a idade do Universo, e se chegou a cerca de 1,6 bilhões de anos, enquanto a idade da Terra era estimada em 2,2 bilhões de anos. O erro foi corrigido quando se descobriu que havia (pelo menos) dois tipos de cefeídas. 
 
Por isso é necessária muita cautela nas conclusões tiradas com base nesses resultados preliminares, que gera uma imagem fortemente influenciada por um modelo teórico e com pequeno peso atribuído os dados experimentais, aliás, com dados experimentais muito incertos. 

 
 
Claro que é melhor usar algum modelo teórico como referência do que tatear no escuro com um pequeno conjunto de dados experimentais inacurados. Mas é necessário que se tenha em mente as limitações dos resultados obtidos por esse caminho. 
 
Também gostaria de fazer uma analogia com a imagem da órbita de Sírius B. Não faz nenhum sentido dizer que a imagem acima é uma “fotografia” da órbita de Sírius B. Uma fotografia de Sírus B é assim (abaixo): 
 

 

Com base em várias centenas de fotografias de Sírius B, em diferentes posições, assumindo a premissa de que a forma da órbita é elíptica, pode-se combinar a teoria com os dados experimentais e traçar uma figura que deve ser uma boa representação da órbita de Sírius B. Foram usadas várias fotografias para calcular as propriedades da órbita, mas não há como fotografar a própria órbita de Sírius B. 
 
No caso da recente simulação gráfica das bordas internas do disco de acresção do objeto massivo situado em M87, a situação é semelhante. Não é uma fotografia do horizonte de eventos, nem de um buraco-negro, nem de um disco de acresção. Nem sequer é um mosaico de fotografias. Foi utilizado um método engenhoso, criado há muito tempo, bastante utilizado desde o século XIX, adaptado para uso astronômico em 1946, e que possibilitou determinar aproximadamente onde se situam alguns pontos das bordas internas do disco de acresção em torno de um objeto massivo que se supõe que seja um buraco-negro. A série de imagens abaixo ajuda a compreender melhor o que foi feito:

 

A primeira figura de cada série é uma representação hipotética a priori, uma imagem artificial produzida em computador que nos diz como o modelo teórico vigente sugere que deveria ser um buraco-negro. 
 
A segunda figura de cada série aplica um processamento de imagem chamado “convolução”. Em alguns softwares de Astrofotografia utilizados para processamento de imagens planetárias (AstraImage, CCDSharp etc.) há o recurso de “deconvolution”, cujo efeito é o oposto deste. 
 
A terceira figura de cada série é uma representação visual do conjunto de dados experimentais obtidos por vários observatórios. 
 
A quarta figura é o resultado do processamento utilizando um algoritmo que combina o modelo teórico com os dados experimentais, e produz uma imagem que força os dados experimentais a se ajustarem ao modelo teórico, ao mesmo tempo em que utiliza os dados experimentais para definir os valores de alguns parâmetros do modelo. 
  
O que tudo isso significa? 
 
Para começar, a imagem divulgada como “primeira fotografia de um buraco-negro” não é uma fotografia. É uma representação visual de um vasto conjunto de dados coletados por vários observatórios. Em alguns artigos, fala-se em usar vários observatórios em diferentes partes do mundo para simular como seria um observatório do tamanho da Terra. Não é nada disso. Trata-se simplesmente de interferometria, que necessita de uma medida simultânea em dois pontos diferentes. Se for repetida em vários pontos, consegue-se reduzir a incerteza. 
 
Quando ocorrem os trânsitos de Vênus em frente ao disco solar, observatórios de várias partes do mundo fotografam esse evento para depois comparar as imagens, já que para observadores situados em diferentes pontos do planeta, o alinhamento Sol-Vênus-observador é ligeiramente diferente. Conhecendo as distâncias entre os observatórios e medindo o efeito que tal distância produz sobre a imagem, consegue-se calcular a distância da Terra ao Sol. 
 
Esse método é conhecido como paralaxe e é utilizado desde os antigos gregos. Hiparco e Aristarco calcularam a distância da Terra à Lua usando variações desse método, mas nos casos de Hiparco e Aristarco, como não havia a possibilidade de observar a Lua simultaneamente em diferentes pontos da superfície da Terra (pontos suficientemente afastados para que houvesse uma diferença sensível), pensaram em soluções estratégicas interessantes e encontraram resultados bastante semelhantes aos valores modernos. 
 
Os trânsitos de Vênus de 1761 e 1769 foram observados por astrônomos em várias parte do mundo e os resultados foram utilizados para calcular a distância da Terra ao Sol. Novamente nos trânsitos de 1874 e 1882, e chegaram a resultados muito semelhantes aos atuais. Quando ocorreram os trânsitos de 2004 e 2012, já estavam sendo utilizados métodos mais acurados, com uso de laser, e não houve tanto interesse científico, mas houve um pouco de interesse didático e lúdico. 
 
No caso dos trânsitos de Vênus, o fato de vários telescópios, em diferentes partes do mundo, terem sido usados num projeto conjunto, não significa que se produziu um efeito equivalente ao uso de um telescópio com o tamanho da Terra. Na verdade, um telescópio com o tamanho do planeta não teria resolvido o problema. O princípio no qual se baseia o método é que as observações precisam ser feitas de pontos afastados, com diferentes eixos ópticos, em vez de usar uma objetiva maior e ter somente 1 eixo óptico. O mesmo se pode dizer em relação à imagem publicada hoje. O fato de terem sido utilizados vários telescópios em diferentes partes do mundo é porque o método interferométrico envolve a sobreposição de ondas com pequenos atrasos. Conhecendo a velocidade de propagação das ondas e a distância entre duas cristas consecutivas, pode-se calcular a magnitude de uma minúscula diferença de comprimento com base nas franjas formadas pela sobreposição das ondas. Se fosse usado um telescópio do tamanho da Terra, e se a superfície do tal instrumento não se deformasse sob ação da gravidade, ainda assim não teria sido útil para o caso em questão. 
 
O que esses observatórios realmente fotografaram foi algo aproximadamente assim: 

 

Com base nas distâncias entre os observatórios e o nível de sobreposição das franjas observadas, pode-se inferir propriedades das fontes que emitiram essas ondas, isto é, do disco de acresção. Como o comprimento de onda utilizado foi perto de 1,3 mm (ondas de rádio), o experimento não foi sensível aos jatos de emissão nos polos do suposto buraco-negro, cuja distribuição espectral predominante está na faixa de raios-x e raios-gama. 
 
Portanto, essa não é uma fotografia de um buraco-negro, nem de um horizonte de eventos, nem de um disco de acresção em torno de um buraco-negro. Trata-se da utilização de várias fotografias de interferências de ondas em diferentes observatórios para estimar os parâmetros do modelo hipotético adotado para descrever como se acredita que devem ser as imagens de um buraco-negro. Após alimentar o modelo teórico com esses parâmetros e aplicar alguns processamentos de imagens, chega-se ao resultado que foi anunciado como “primeira fotografia real de um buraco-negro”. 
 
Além de não ser uma fotografia, também não é a primeira vez que se faz isso. Já se utiliza esse método para simular as propriedades de buracos-negros pelo menos desde 2009. Também não é um método inovador. A interferometria é amplamente utilizada desde o século XIX. Enfim, tudo se resume a mais um truque publicitário, para criar suspense e chamar a atenção da mídia. 
 
Embora não seja inovador e não seja o que dizem as reportagens, é mais um passo interessante no sentido de obter dados que ajudem a ter uma ideia sobre a forma aproximada dos limites internos dos discos de acresção que se formam em torno de objetos muito densos e massivos. 
 
Com repetições sucessivas de experimentos similares e o acúmulo de dados sobre os parâmetros do objeto situado no centro de M87, é provável que em poucas décadas tenhamos uma simulação bem mais fidedigna, menos dependente do modelo a priori e mais estreitamente baseada nos dados empíricos. 
 
Contudo, é improvável que nas próximas décadas ou séculos se atinja o grau tecnológico necessário para obter uma verdadeira fotografia de um buraco-negro ou do contorno da ergosfera de um buraco-negro, pelos motivos que já foram expostos no artigo anterior. 

[Update 2]: em vários grupos estão sendo postadas representações em escala da órbita de Plutão e a distância atual da Voyager I, em comparação à borda interna do disco de acresção do objeto massivo situado no centro de M87, e aparentemente estão copiando e colando inadvertidamente, sem conferir se a informação está correta. Por isso achei que seria interessante adicionar este update.
 


O disco de acresção que se forma em torno de um objeto compacto (buraco-negro, estrela de nêutrons, anã-branca) geralmente é constituído por matéria “fria”, que é aquecida devido às múltiplas colisões com outros objetos que intersectam sua orbita. Quanto maior a velocidade orbital na região, maior é a frequência da radiação emitida (portanto menor é o comprimento de onda). Nas regiões mais próximas ao horizonte de eventos, a velocidade é maior, portanto o comprimento de onda é menor. 
 
A parte observável do disco de acresção fica numa região externa à suposta “esfera” de fótons, que é a região na qual a velocidade circular é igual à velocidade da luz, situada a 1,5 vezes o raio de Schwarzschild. As bordas mais internas do disco de acresção têm pico de emissão na faixa de raios-gama, depois raios-x, UV, luz visível, IR, microondas, ondas de rádio. O estudo publicado no dia 10/4/2019 investigou a emissão numa estreita faixa com pico próximo a 1,3 mm, portanto ondas de rádio. As bordas mais internas do disco de acrescção detectáveis nessa faixa não são as bordas realmente mais internas. 
 
Se o comprimento de onda utilizado no estudo fosse na faixa dos raios-gama, e se o método fosse apropriado para essa faixa (que não é o caso, por isso foi usado 1,3 mm), teria sido possível detectar as bordas internas, próximas à esfera de fótons, que tem raio um pouco maior que 1,5 vezes o raio de Schwarzschild, isto é, 1,5 mais distante da singularidade do que as bordas do horizonte de eventos. Como o comprimento de onda utilizado foi mais longo, as bordas mais internas da imagem estão bem mais distantes da singularidade. 
 
Portanto a região escura da imagem não tem diâmetro interno de 39.000.000.000 km, que seria o dobro do raio de Schwarzschild. Essa região é muito maior. E mesmo que tivesse sido utilizado um comprimento de onda adequado para detectar as regiões mais internas do disco de acresção, nas quais o pico de emissão fica na faixa dos raios-gama, ainda assim essas bordas tangenciariam a esfera de fótons, que fica a 1,5 vezes o raio de Schwarzschild, portanto cerca de 60.000.000.000 km. 
 
Outro ponto a considerar é que nas imediações de um buraco-negro o espaço não é ortonormal e não pode ser representado por uma métrica minkowskiana, como no Sistema Solar. Se as propriedades do buraco-negro fossem calculadas a partir de uma abordagem Newtoniana, a esfera de fótons ficaria a 2 vezes raio de Schwarzschild de distância da singularidade, já que a velocidade de escape é dada por ve=(2GM/r)^0,5, enquanto a velocidade circular é dada por vc=(GM/r)^0,5. 
 
Essa comparação, portanto, além de imprópria, por estar comparando uma região do espaço quase euclidiana a uma região com métrica de Kerr-Neuman, ainda por cima está tratando a borda interna visível na faixa de ondas de rádio como se fosse o próprio horizonte de eventos. 
 
O gráfico abaixo oferece uma representação das principais faixas de emissão em função da distância ao centro de massa: 

 

A imagem não é muito bonita e parece feita para crianças, mas como não quero ter o trabalho de refazer, vou utilizar essa mesmo, por ser a única que representa quase o que eu gostaria (esta representa o pico de emissão dos jatos nos polos em função da distância à singularidade. Eu gostaria de algo que representasse o pico de emissão do disco de acresção em função da distância à singularidade). 
 
O gráfico a seguir, mostra também a distribuição espectral do disco inteiro (mas sem informação sobre a variação no pico de emissão em função da distância): 

 

[Update 3] Mesmo depois de ler esse artigo, algumas pessoas continuam em dúvida se a imagem divulgada é uma fotografia. É muito simples resolver esse impasse: o método utilizado para gerar a imagem foi uma interferometria de linha de base muito longa com 15 linhas de base (8 telescópios em 6 localidades combinados 2 a 2). Uma interferometria “tradicional” com 2 pontos serve para medir uma distância muito pequena, algumas ordens de grandeza menor do que os instrumentos são capazes de medir. Uma descrição dessa técnica está no artigo sobre ondas gravitacionais, disponível em https://www.saturnov.org/ondas. Uma interferometria de longa linha de base tem algumas diferenças em comparação a uma interferometria tradicional, mas a ideia por trás do método é a mesma: medir distâncias muito pequenas com base no nível de sobreposição de ondas. 
 
Num interferômetro tradicional, a simultaneidade das observações é garantida pela montagem da estrutura, em que o mesmo feixe de ondas eletromagnéticas é dividido em dois e estes são direcionados em dois caminhos perpendiculares: uma parte da radiação atravessa um semi-espelho e outra parte é refletida por este semi-espelho. A radiação percorre distâncias levemente diferentes (ou mesma distância a velocidades ligeiramente diferentes), e depois ambos os feixes atingem um sensor, gerando uma padrão de interferência devido à sobreposição das ondas não ser “perfeita”. O mesmo sensor recebe os dois feixes de ondas, portanto a garantia de simultaneidade está na localidade do sensor, que é a mesma para os dois feixes, e qualquer deslocamento das franjas poderá ser atribuído a alguma diferença no comprimento dos braços (como no caso do LIGO, em que a contração é diferente nas duas direções) ou alguma diferença na velocidade (como no caso do experimento de Michelson, mas nenhuma diferença estatisticamente significativa foi verificada). 

 

Isso não depende de que os braços do interferômetro sejam exatamente iguais (mas precisam ser muito semelhantes), porque eles são calibrados de modo a que o sensor receba ondas “perfeitamente” sobrepostas (dentro dos limites que se consegue medir), antes do experimento. Em seguida, se faz o teste desejado para medir quanto as franjas se deslocam. 
 
No caso do interferômetro de longa linha de base, não existe essa possibilidade de usar o mesmo feixe de luz e o mesmo sensor, por isso a simultaneidade da observação acaba se tornando um problema extremamente difícil de resolver, bem como é uma fonte de erro muito perigosa, porque se houver ínfimas diferenças entre os tempos de registro dos dados em cada sensor, o impacto no resultado da medida é gigantesco. Como os telescópios estão separados por milhares de quilômetros, a sincronização no nível de acurácia necessária para o sucesso do experimento é extremamente difícil. 
 
Como os feixes de ondas eletromagnéticas que chegam aos observatórios precisam atravessar camadas atmosféricas de diferentes espessuras, com diferentes temperaturas, densidades, composições, já que os observatórios estão em diferentes países e diferentes latitudes, são necessários vários procedimentos para minimizar esse efeito. A escolha do comprimento de onda dentro de uma janela de boa transparência é uma das medidas necessárias. 
 
Perturbações gravitacionais causadas por mudanças nas posições da Lua e do Sol, embora estejam distantes da Terra, já são suficientes para afetar as medidas, porque a resolução das imagens é da ordem de 0,000025”. Nas proximidades da superfície do Sol, a deflexão relativística da luz é cerca de 1,7”. Como a distância da Terra ao centro do Sol é cerca de 215 vezes maior do que a distância da superfície do Sol ao centro do Sol, a deformação no espaço-tempo provocada pelo Sol nas imediações da Terra não é desprezível para esse nível de precisão. 
 
Há uma série de outros fatores que podem afetar as medidas em experimentos com esse nível de sensibilidade. No caso dos experimentos de Michelson e Morley realizados em 1881, por exemplo, as carruagens que passavam em ruas próximas ao laboratório, a centenas de metros distantes do interferômetro, estavam provocando tremores no solo que se propagavam até o aparato e estavam afetando os resultados a ponto de impedir que se chegasse a resultados conclusivos, e o experimento teve que ser repetido em 1887, tomando os devidos cuidados para minimizar essas perturbações. 
 

 
 
Se fosse possível obter imagens diretas do objeto, não haveria necessidade de utilizar métodos interferométricos. Além disso, quem ainda tem dúvida, basta calcular o diâmetro angular de um objeto com 1,95 x 10^10 km de raio, situado a 5,15 x 10^20 km (cerca de 0,000078”), para conferir que está muito abaixo da capacidade de resolução dos maiores telescópios. Para se ter ideia do que isso representa, basta ter em mente que a estrela supergigante Betelgeuse tem diâmetro aparente em torno de 0,043” com incerteza em torno de 0,011” se medida com um telescópio individual. Para conseguir medir algo com tamanho aparente de 0,000078” seria necessário que a incerteza na medida fosse pelo menos 1000 vezes melhor, e não se consegue resolução nesse nível com um instrumento isolado. 
 
O simples empilhamento de várias imagens não resolveria esse problema, e não faria sentido utilizar vários telescópios afastados se o problema pudesse ser resolvido com um simples empilhamento de imagens que poderiam ser obtidas de um mesmo observatório. 
 
A estratégia utilizada deixa evidente como a imagem foi construída: cada observatório fotografou uma região e constatou diferentes níveis de sobreposição de ondas. Com base no nível de interferência observado a partir de cada localidade, foi possível estimar onde deveriam ser colocados os pontos que poderiam representar certas regiões do disco de acresção. 
 
Fotografias tiradas em dois observatórios diferentes produzirão imagens desse tipo: 

 

Em que numa delas quase não se nota padrão de interferência, em outra se nota claramente. Em alguns observatórios o efeito é mais sutil, em outros é mais acentuado, dependendo da distância entre os observatórios. As imagens acima, na verdade, são idealizadas, sem ruídos espúrios. As fotos reais são prejudicadas pelos efeitos citados acima, da atmosfera, atrasos/adiantamentos nos relógios etc. Boa parte dos ruídos pode ser filtrada com auxílio de algoritmos, que são treinados com base em imagens conhecidas.

  

As fotografias, portanto, foram de franjas de interferências (como nas figuras acima), relacionadas ao espaçamento entre pares consecutivos de ondas que deveriam se sobrepor perfeitamente ou se apresentarem levemente deslocadas. Isso nada tem a ver com a forma da imagem apresentada como “fotografia do buraco negro” (Fig-2).

 

Cada fotografia de franjas de interferência obtida em cada observatório gera uma informação unidimensional, sobre quanto as ondas estão deslocadas na localidade daquele observatório em comparação ao deslocamento observado no outro observatório em sua linha de base. Essa informação unidimensional ajuda a estimar o diâmetro do objeto que se deseja medir, plotando um ponto de localidade, com informação sobre intensidade da temperatura ou da luminosidade naquele ponto, como na imagem abaixo:

 

Nesse exemplo, cada ponto indica a localização e o brilho de cada região da qual o ponto foi obtido e, com disso, é necessário deduzir qual é a imagem a partir da qual vieram esses pontos. Nesse exemplo os pontos vieram dessa imagem: 

 

Mas há uma imensa variedade de outras imagens possíveis a partir das quais poderiam ter vindo estes mesmos pontos. Também é interessante notar que as intensidades dos pontos tem determinada incerteza, o que dificulta ainda mais o resultado. E nesse exemplo, os pontos estão todos equidistantes, mas no caso do objeto compacto de M87 os pontos estão espalhados em regiões mais ou menos aleatórias pela superfície da Terra, alguns bastante próximos entre si, outros muito afastados. 
 
É como se uma cartolina com 15 furinhos espalhados, cada furo menor que o diâmetro de uma agulha, e essa cartolina fosse colocada em frente aos nossos olhos, tampando um cenário (uma paisagem, por exemplo, com árvores e lagos), e alguém que olhasse para a cartolina, vendo apenas a informação visual que passa através dos furinhos, tivesse que deduzir a forma da paisagem do outro lado. Se a pessoa não sabe que existe uma paisagem por trás, fica extremamente difícil reconstruir corretamente a imagem oculta por trás da cartolina com base nos poucos furinhos. Embora as cores e o brilho de cada furinho forneça algumas pistas úteis, a informação é muito reduzida para descobrir a realidade muito mais complexa que se oculta por trás, por isso a dedução que a pessoa vai fazer pode ser muitíssimo diferente da paisagem real. Se fosse uma fotografia com 24.000.000 pixels, seria possível ter uma imagem bastante fidedigna, mas com uma imagem de apenas 15 pixels, é bastante difícil deduzir e ter chances razoáveis de fazer uma reconstituição razoavelmente correta. Por isso é usado um modelo teórico que nos diz o que devemos esperar que exista por trás da cartolina. Assim, a imagem reconstruída é muito mais fortemente dependente do modelo teórico que se utiliza como referência do que dos pontos coletados empiricamente. A principal utilidade dos pontos está em ajudar a determinar alguns parâmetros sobre o tamanho da área mais escura e a espessura da parte mais clara, e não muito mais que isso, nem sequer a forma correta da figura pode ser determinada muito bem. 
 
Há todo um aparato matemático extremamente sofisticado para “tirar leite da pedra”, extraindo o máximo de informação possível com base nos poucos dados disponíveis, mas não há como fazer milagre e tudo isso acaba não sendo suficiente para gerar uma imagem fidedigna de como é o disco de acresção. 
 
Também é importante esclarecer que esses pontos não foram obtidos por uma fotografia. 


O que a fotografia forneceu foram as franjas de interferências, e a partir do nível de interferência se calcula a posição e a intensidade de cada ponto. Depois se usa esse conjunto de pontos para tentar inferir qual a imagem “por trás” deles.  
  
As duas imagens acima deixam bastante claro que não é possível deduzir a forma da segunda imagem com base exclusivamente nos pontos da primeira imagem. O mesmo acontece com o caso da “fotografia” divulgada em 10/4/2019. 

Cada observatório forneceu a informação sobre a localização de 1 pixel, num total de 15 pixels. Com base nisso, não teria como produzir uma imagem que fosse muito diferente de uma mancha disforme, com áreas claras e escuras misturadas (não de uma área aproximadamente circular com uma região interna escura). O que possibilitou produzir a imagem com uma região escura aproximadamente circular, cercada por uma mancha clara, foi o modelo teórico usado como referência. 
 
Apesar de todas essas limitações, o método todo é extraordinariamente engenhoso e foi necessário vencer uma enormidade de desafios hercúleos para conseguir obter uma imagem com resolução tão alta. O “problema” é que o objeto tem tamanho angular extremamente pequeno. Mas o mesmo método pode servir a outras finalidades, inclusive a determinação muito mais acurada do diâmetro de várias estrelas e brevemente até de planetas exosolares. O método também pode ser aperfeiçoado mediante o envio de telescópios espaciais devidamente equipados, e estes podem ser posicionados a distâncias muito maiores entre si do que as distâncias entre os telescópios situados na Terra, melhorando em várias ordens de grandeza a resolução atual. Os telescópios mais distantes na superfície da Terra não chegam a 13.000 km de distância linear, ao passo que os telescópios em órbita podem chegar a distâncias de bilhões de quilômetros, melhorando a resolução em 1 milhão de vezes. 

 

 

[Update 4] Outro ponto que eu gostaria de comentar é sobre esse resultado ter mostrado que Newton estava certo, Kelvin estava certo, Bohr estava certo, Gauss estava certo, Euclides estava certo, Boltzmann estava certo, Wien estava certo, Schwarzschild estava certo, Hilbert estava certo, Fizeau estava certo, Planck estava certo, Laplace estava certo, Russell estava certo, e mais alguns milhões de outros pesquisadores estavam certos. Porém as notícias costumam ser “Einstein estava certo” ou “Einstein estava errado” ou “novos resultados colocam teoria de Einstein em xeque” etc. 
 
Quando um atleta olímpico faz o lançamento do martelo e a trajetória do martelo descreve um segmento de parábola, ninguém publica uma matéria dizendo “Galileu e Newton estavam certos”. Quando O’ Sullivan vence um jogo de Bilhar, ninguém diz que Newton estava certo. Quando se descobre um novo cometa cuja órbita tem a forma de elipse, a velocidade do cometa é tal que ele percorre áreas iguais em tempos iguais, e cujo período orbital medido em anos gaussianos é proporcional ao semi-eixo maior de sua órbita medido em unidades astronômicas elevado a 1,5, ninguém diz que Kepler estava certo. 
 
Parece haver uma obsessão em dizer que Einstein estava certo, ou errado, para qualquer resultado experimental que se tenha nos campos da Física, Astrofísica ou Cosmologia. Isso soa muito mal sob diversos aspectos, tanto para quem escreve a matéria quanto para quem lê, porque fica-se com a impressão de que toda a Física dos últimos 100 anos gira em torno de Einstein, que os experimentos são realizados para verificar se Einstein tinha razão etc., quando na verdade as teorias de Einstein sobre Relatividade Restrita, Relatividade Geral, Efeito Fotoelétrico, Movimento Browniano já estão muito bem corroboradas, e não é a imagem obtida de um novo experimento cuja incerteza nas medidas é da mesma ordem de grandeza dos resultados que terá alguma utilidade ou fará alguma diferença na corroboração de alguma das teorias de Einstein. 
 
Além de os resultados desse experimento não terem servido para corroborar as teorias de Einstein, ainda por cima usaram modelos baseados nas teorias de Einstein para construir a imagem que foi anunciada como se fosse uma fotografia. Ou seja, a confiabilidade na teoria é muito maior do que nos resultados desse experimento, logo não faria o menor sentido usar os resultados do experimento para corroborar a teoria. 
 
Outro ponto negativo é que se transmite ao leigo à impressão de que Einstein era um “palpiteiro”, e que suas ideias até hoje não foram devidamente corroboradas, e toda a fama e prestígio que ele alcançou teria sido pela mera proposição de hipóteses. Seria importante deixar claro que desde 1919 se começou a reunir dados experimentais que se mostraram consistentes com o modelo de Einstein para campos gravitacionais e movimentos acelerados, e nas décadas seguintes houve uma grande variedade de outros testes, além dos eclipses solares, que corroboraram diversos aspectos de suas teorias. Provavelmente a eficiência dos GPS seja o melhor exemplo de uso cotidiano para enfatizar o sucesso de suas teorias. Se suas teorias não fossem boas representações da realidade, a acurácia dos GPS seria muito menor e não serviriam para quase nada. 
 
Outro problema é que esse tipo de abordagem faz parecer que a finalidade dos cientistas é tentar fazer previsões sobre o futuro, e ganham estrelinhas quando acertam, causando a impressão de que astrólogos, tarólogos e pais de santo são como cientistas. Seria interessante tentar mostrar que, na verdade, um dos trabalhos dos cientistas (teóricos) não é prever o futuro, mas sim tentar explicar fenômenos já conhecidos que não se mostram consistentes com os modelos vigentes, e quando conseguem propor modelos capazes de explicar tudo que já se conhecia e também os detalhes que se mostravam inconsistentes, o passo seguinte é testar se o modelo também é capaz de descrever alguns fenômenos ainda não conhecidos. No caso de Einstein, seu modelo dava conta de explicar os resultados obtidos por Michelson e Morley, a precessão nos periélios de Marte e Mercúrio. Além disso, efeitos ainda não observados foram previstos com base em sua teoria, sendo a deflexão da luz ao passar pelas imediações de campos gravitacionais intensos uma das primeiras e mais importantes previsões, que o consagrou mundialmente quando as medições do envolvendo o eclipse de 1919, feitas em Sobral, corroboraram suas previsões. Além de criar modelos matemáticos para tentar explicar, de forma simplificada, usando funções com poucos parâmetros, mas capazes de descrever uma grande variedade de fenômenos, outra função dos cientistas (experimentais) consiste em criar experimentos engenhosos por meio dos quais se possa tentar falsear as teorias, construir os dispositivos necessários para levar a cabo esses experimentos, coligir os dados, utilizar ferramentas estatísticas adequadas para tratar esses dados e fazer inferências sobre os resultados de modo a verificar se os resultados obtidos foram consistentes com o modelo dentro de limites “tolerâncias”.
  
Outro ponto muito importante é que Einstein não desempenhou quase nenhum papel no caso desse estudo para tentar medir o perímetro interno do disco de acresção do objeto massivo na região central de M87, mas o nome de Einstein foi mais citado que os dos pesquisadores responsáveis pelo experimento. Claro que a importância da obra de Einstein é muito maior que a de todos os envolvidos nesse projeto somados, e mesmo dividindo os méritos de Einstein com Voigt, Poincaré, Lorentz, Minkowski, Schwarzschild, Hilbert e outros responsáveis pelo desenvolvimento da Teoria da Relatividade, ainda assim os méritos individuais de Einstein superam ao das equipes que trabalharam no presente estudo. Mas Einstein já recebeu seus louros, e agora seria o momento de reconhecer e valorizar o trabalho das equipes responsáveis pela construção dessa imagem, citando-os, descrevendo o papel que desempenharam, a importância que tiveram no trabalho etc. Não citar apenas a moça que fez uma parte operacional do trabalho, mas sim citar todos os integrantes das equipes envolvidas, com maior destaque àqueles que protagonizaram a pesquisa, na resolução dos problemas mais difíceis e nas eventuais inovações que foram necessárias para adaptar os princípios básicos da interferométrica a esse problema em particular, que é um caso não-trivial. 
 
Na Idade Média, por volta do século VIII d.C., houve um famoso erudito chamado “Geber”. Antes da invenção dos tipos móveis, a publicação de livros era muito cara, por isso houve vários autores que usaram o pseudônimo Geber, inclusive alguns séculos após a morte de Geber, tentando se passar por ele para que conseguissem que seus trabalhos fossem publicados, e esse grupo de autores ficou conhecido como “Falso Geber”. Os verdadeiros nomes desses autores se perderam na história. Uma lástima que os nomes de alguns personagens importantes para o desenvolvimento da Ciência tenham se perdido por um motivo desses. Agora, em pleno século XXI, vivemos uma situação semelhante, em que Einstein continua sendo citado várias décadas após sua morte, em trabalhos nos quais ele não teve nenhum envolvimento, enquanto as pessoas que deveriam ser homenageadas, às quais deveriam ser atribuídos os méritos, ficam no obscurantismo. 
 
Parabéns a Shep Doeleman, Kazunori Akiyama, Jonathan C. McKinney, Mark Avara, Megan Marshall, Peter Polko, Alexander Tchekhovskoy, Roger Blandford, Sam Gralla, Ramesh Narayan, Jane Dai, Aleksander Sadowski, Alexander Tchekhovskoy, Roman Gold, Avery Broderick, Jason Dexter, Michael Johnson, Charles Gammie, Asaf Peter, Michael O’Rieden e todos que contribuíram para que esses resultados fossem obtidos. 

 

LEIA TAMBÉM: A VERDADE SOBRE A 1ª FOTO DE BURACO-NEGRO

  • Branca Ícone LinkedIn
  • Branco Facebook Ícone
  • Branca ícone do YouTube
  • Branca Ícone Instagram

CONTATO

Para agilizar seu atendimento, por gentileza, preencha corretamente todos os campos abaixo:

© 2019 Saturno V Todos os direitos reservados. O Saturno V não comercializa nem distribui cotas de fundos de investimento ou qualquer outro ativo financeiro, fornecemos licença de uso do sistema automatizado.