Uma manobra extremamente arriscada salvou o telescópio espacial mais poderoso do mundo

A NASA finalmente consertou seu Telescópio Espacial Hubble depois de semanas passando por uma falha misteriosa.

Na sexta-feira, a agência anunciou que o Hubble havia ligado com sucesso o hardware de backup que parou de funcionar há mais de um mês. Agora os engenheiros da NASA estão lentamente retornando o telescópio para o estado totalmente operacional. O processo pode levar alguns dias.

“Eu estava muito preocupado”, disse o administrador associado da NASA Thomas Zurbuchen em uma entrevista na sexta-feira com Nzinga Tull, que liderou a equipe do Hubble através da solução de problemas. “Todos sabíamos que isso era mais arriscado do que normalmente fazemos.”

Hubble é o telescópio espacial mais poderoso do mundo, mas está ficando velho. Foi lançado em órbita em 1990. Ele fotografou o nascimento e mortes de estrelas, avistou novas luas circulando Plutão, e rastreou dois objetos interestelares atravessando nosso Sistema Solar.

Suas observações permitiram aos astrônomos calcular a idade e a expansão do Universo e observar galáxias formadas logo após o Big Bang.

Embora a NASA provavelmente tenha corrigido o problema, é um sinal de que a idade do Hubble pode estar começando a interferir com a ciência que ele nos permite realizar. O telescópio não é atualizado desde 2009, e parte de seu hardware tem mais de 30 anos.

“Esta máquina é antiga, e está meio que nos dizendo: Olha, eu estou ficando um pouco velho aqui, certo? Está falando conosco”, disse Zurbuchen. “Apesar disso, temos mais ciência para fazer, e estamos animados com isso.”

Astronautas visitaram o Hubble para reparos e manutenção em cinco ocasiões. (NASA)
Uma manobra arriscada salvou o telescópio espacial mais poderoso do mundo
O computador de carga do Hubble – uma máquina dos anos 1980 que controla e monitora todos os instrumentos científicos da espaçonave – de repente parou de funcionar em 13 de junho. Engenheiros tentaram e falharam em reiniciá-lo várias vezes.

Finalmente, depois de realizar mais testes de diagnóstico, eles perceberam que o computador não era o problema – algum outro hardware na sonda estava causando o problema.

Ainda não está totalmente claro qual peça de hardware foi a culpada. Os engenheiros suspeitam que uma falha na Unidade de Controle de Energia (PCU, na sigla em inglês) do telescópio instruiu o computador a desligar. A PCU poderia estar enviando a elétrica errada para o computador, ou o próprio sistema contra falhas poderia estar com defeito.

Mas a NASA estava preparada para questões como esta. Cada parte do hardware do Hubble tem um backup instalado no telescópio no caso de falhar. Então os engenheiros tiveram que mudar para o hardware de backup.

A NASA já reiniciou o Hubble usando este tipo de operação antes. Em 2008, após uma queda de computador que tirou o telescópio do ar por duas semanas, os engenheiros mudaram para hardware redundante.

Um ano depois, os astronautas repararam dois instrumentos quebrados enquanto estavam em órbita – essa foi a quinta e última operação de manutençãodo Hubble. (A NASA não tem mais como lançar astronautas para o telescópio espacial.)

Ainda assim, a troca de hardware desta semana foi uma manobra arriscada.

“Você não pode ver a espaçonave, você não pode ver enquanto acontece. Você tem que ter certeza de que seus uploads de comando farão exatamente o que você pretende fazer”, disse Paul Hertz, diretor da divisão de astrofísica da NASA, ao Insider na semana passada.

“Você simplesmente não quer estragar nada acidentalmente”, acrescentou.

O que não ajudou foi o fato que os engenheiros não poderiam simplesmente mudar a PCU com defeito. A unidade está conectada a muitos outros componentes, então a NASA teve que trocar outro hardware, também.

A agência também usou o computador de carga de backup em vez do original, apenas por segurança. Ele ligou corretamente, os engenheiros o carregaram com software atualizado, e agora está em “modo de operações normais”, disse a NASA em sua atualização de sexta-feira

“Eu me sinto super animado e aliviado”, disse Tull. “Fico feliz em ter boas notícias para compartilhar.”

Fazer o Hubble praticar ciência de novo levará alguns dias.
Agora a equipe do Hubble tem que começar a ligar os instrumentos científicos do telescópio. Pode levar até uma semana para voltar às operações completas, de acordo com Hertz.

Ainda há um mistério a ser resolvido: por que o telescópio parou de funcionar?

Seja qual for o hardware defeituoso, o Hubble não tem mais um backup agora. Se falhar de novo, isso pode ser o fim do Hubble.

“Seja qual for esse componente, está em muitos outros satélites”, disse Hertz. “Queremos sempre entender o que funciona e o que não funciona no espaço.” [Science Alert]

*Por Marcelo Ribeiro
……………………………………………………………………………………….
*Fonte: hypescience

9 coisas que você precisa saber sobre Nikola Tesla

Nascido em 1856 na região da atual Croácia, Nikola Tesla foi um inventor, físico e engenheiro elétrico sérvio-americano. Tesla é famoso pelas contribuições para o projeto do sistema de eletricidade de corrente alternada e por invenções que até hoje chamam a atenção da cultura popular.

O inventor nutria o interesse por sistemas de iluminação sem fio e seus experimentos exploravam a distribuição de energia de alta tensão e frequência. Também foi uma das primeiras pessoas a manifestar a possibilidade de comunicação sem fio intercontinental e tentou colocar essa ideia em prática na época, sem sucesso. A tentativa ficou conhecida como o projeto da Torre Wardenclyffe.

Em 1960, a Conferência Geral sobre Pesos e Medidas introduziu o termo “tesla” ao Sistema Internacional de Unidades para a medida de intensidade do campo magnético. Vários fatos e curiosidades como essa rondam o nome e a reputação do inventor. Confira:

1. Tesla nasceu durante uma tempestade de raios
Nikola Tesla nasceu em 10 de julho de 1856, durante uma tempestade de raios bem forte. Ironicamente, a parteira afirmou que o garoto seria uma “criança da escuridão”, por considerar a tempestade um sinal ruim. A mãe retrucou dizendo “não, da luz”.

2. Ele foi um ambientalista
Além de se preocupar com o consumo desenfreado de recursos do planeta, o inventor defendia o desenvolvimento de combustíveis renováveis e pesquisou métodos de gerar energia pelo solo e pelo ar, alternativas que poderiam substituir o consumo e impacto do combustível fóssil. Tesla também apoiava melhorias na qualidade de vida humana sem o objetivo de criar fortuna: talvez por isso, apesar de suas contribuições à sociedade, morreu pobre.

3. Imaginou a internet sem fio (em 1901)
Enquanto desenvolvia um rádio transatlântico, Tesla imaginou um sistema que coletasse informações e pudesse transmiti-las para aparelhos portáteis. Muitas de suas ideias nunca iam além da sua imaginação, já que algumas não tinham como ser aplicadas, mas o conceito elaborado por ele era basicamente o que conhecemos como internet móvel hoje em dia.

4. Tinha hábitos obsessivo-compulsivos e sofria de misofobia
Ao longo da vida, Tesla demonstrou ser um profissional bastante disciplinado e mantinha uma rotina bem delimitada. Alguns acreditam que ele só dormia duas horas por noite, talvez porque não conseguia dormir mais ou porque se forçava a isso. Também era obcecado pelo número 3 e usava 18 guardanapos, um número divisível por 3, para limpar sua sala de jantar antes das refeições — possível sintoma de misofobia, a aversão a germes e sujeira.

5. Tinha ótima memória
A memória de Tesla era eidética, ou seja, fotográfica, e ele conseguia lembrar o conteúdo de livros inteiros e imagens em grandes detalhes.


6. O governo americano ainda guarda documentos secretos que pertenciam a ele
Quando Tesla morreu, em 1943, um dos escritórios do governo americano recolheu todos os pertences do inventor. A maioria das coisas foi devolvida a sua família e outros itens foram doados para o Museu Tesla em Belgrado, capital da Sérvia. Curiosamente, vários documentos pessoais dele continuam nas mãos dos Estados Unidos e nunca foram divulgados.

7. Ele acreditava que quase tinha provocado um terremoto em Manhattan
Em seu desafio de criar eletricidade mais eficiente, Tesla chegou a pensar que havia inventado uma máquina de terremotos, que sacudiram seu prédio e vizinhos em Manhattan ao conduzir experimentos. Mais tarde, ele percebeu que os tremores eram efeito de seu oscilador de alta frequência, gerador elétrico movido a vapor.


8. Apagou uma estação de energia em Colorado
Quando transferiu suas operações para a cidade de Colorado Springs, em 1899, Tesla produziu experimentos em um laboratório com uma torre e um mastro de metal com 43 metros, formando raios artificiais que supostamente teriam criado trovões e faíscas a até 15 quilômetros de distância. O teste teria assustado moradores e causado o apagão em uma companhia de energia da região.


9. Thomas Edison e Tesla não foram arqui-inimigos

Os dois aclamados inventores nunca foram adversários de verdade e até trabalharam juntos no desenvolvimento de geradores de corrente contínua. A relação entre os dois poderia ser descrita, no máximo, como “rivalidade de negócios”.

*Por Humberto Abdo
………………………………………………………………………………………………
*Fonte: revistagalileu

Caneta que possibilita a criação de letras e desenhos perfeitos

Uma incrível tecnologia chamada AxiDraw V3 possibilita a criação de letras e desenhos perfeitos.A nova ferramenta possui rodas de rolamento suave em extrusões de alumínio, tudo especialmente concebido para alta precisão e leveza. Sua construção oferece qualidade e permite ser operada até duas vezes mais rápido do que o modelo anterior.

A atual AxiDraw V3 é moderna, precisa e versátil, capaz de escrever ou desenhar em praticamente qualquer superfície plana. Ela pode utilizar canetas, marcadores permanentes, e outros instrumentos de escrita para lidar com uma variedade infinita de aplicações.

*Por Ademilson Ramos

……………………………………………………………………………
*Fonte: engenhariae

Obras científicas inestimáveis de Stephen Hawking serão preservadas em um arquivo especial

O legado de uma das estrelas mais brilhantes do campo da física foi garantido.

Cerca de 10.000 páginas dos ensaios e estudos do lendário físico teórico Stephen Hawking serão preservadas em um arquivo especial da Biblioteca da Universidade de Cambridge, no Reino Unido. Isso incluirá um projeto de digitalização, a ser disponibilizado gratuitamente online.

Além disso, o escritório e itens pessoais de Hawking foram adquiridos pelo Museu da Ciência do Reino Unido.

As duas aquisições foram feitas como parte de um acordo financeiro, no qual os herdeiros de uma propriedade podem compensar seu imposto sobre herança doando itens significativos para o país. Nesse caso, os estudos foram avaliados em £ 2,8 milhões (quase R$ 20,5 milhões) e o escritório em £ 1,4 milhão.

Claro, essas quantias são amplamente excedidas pelo valor cultural inestimável do trabalho do professor Hawking. Nenhum cientista opera no vácuo, mas Hawking é amplamente considerado uma das maiores mentes científicas da história.

Ter acesso a seus documentos pessoais – incluindo um primeiro rascunho de seu livro de ciência popular, Uma Breve História do Tempo – nos dá um vislumbre íntimo de como essa mente surpreendente funcionava.

Rascunho original da primeira página do primeiro capítulo do livro Uma Breve História do Tempo. Crédito: Universidade de Cambridge.
“O arquivo nos permite entrar na mente de Stephen e viajar com ele pelo cosmos para, como ele disse, ‘entender melhor nosso lugar no Universo’”, disse a bibliotecária da Universidade de Cambridge, Jessica Gardner.

“Ele dá uma visão extraordinária sobre a evolução da vida científica de Stephen, desde a infância até o estudante de pesquisa, desde ativista da prevenção a deficiência e da proteção dos direitos das pessoas com deficiência até o cientista mundialmente renomado”.

A coleção de itens pessoais, a ser abrigada no Museu da Ciência, inclui sintetizadores de voz, seis cadeiras de rodas personalizadas, livros de referência, memorabilia de Star Trek e uma jaqueta de remo que um jovem Hawking estava usando quando caiu em um rio (na época em que estava sendo acometido pela doença).

O Museu da Ciência planeja colocar alguns desses itens em exibição e, eventualmente, reconstruir o escritório do jeito que Hawking usava.

“Ao preservar o escritório de Hawking e seu conteúdo histórico como parte da Coleção do Grupo do Museu da Ciência, as gerações futuras poderão mergulhar a fundo no mundo de um físico teórico líder mundial que desafiou as leis da medicina para reescrever as leis da física e tocar o coração de milhões”, disse Sir Ian Blatchford, diretor do Grupo do Museu da Ciência.

Um quadro negro no antigo departamento do professor Hawking. Crédito: Universidade de Cambridge.
A papelada inclui correspondências, rascunhos de ensaios e estudos científicos, fotografias de Hawking com figuras notáveis ​​e roteiros de Os Simpsons (no qual Hawking atuou como ator convidado quatro vezes).

Ela ficará guardada ao lado dos arquivos de Isaac Newton e Charles Darwin, cujo entre os túmulos as cinzas de Hawking foram enterradas, após sua morte aos 76 anos de idade em 2018.

“Nossa esperança é que a carreira científica de nosso pai continue a inspirar gerações de futuros cientistas a encontrar novas perspectivas sobre a natureza do universo, com base no trabalho notável que ele produziu em sua vida”, disseram os filhos de Hawking, Lucy, Tim e Robert, em um comunicado.

“Por décadas, nosso pai fez parte da trama da vida na Universidade de Cambridge e foi um membro notável do Museu da Ciência, então parece certo que essas relações, tão queridas para ele e para nós, continuarão por muitos anos mais”.

Quem sabe o que as gerações futuras conseguirão alcançar ficando em pé nos ombros deste gigante.
*site da Universidade de Cambridge.

*Por Michelle Starr / Publicado na ScienceAlert
………………………………………………………………………………………………………..
*Fonte: universoracionalista

Nosso cocô tem mais de 50 mil espécies de vírus, diz estudo

A situação da pandemia pelo mundo causada pela Covid-19 foi um alerta para algo que muita gente não sabia: na natureza, existem vírus ainda não conhecidos pelo ser humano e, inclusive, vários estão dentro do nosso corpo.

Os cientistas do Joint Genome Institute e da Universidade Stanford, nos EUA, analisaram o material genético presente em 11.810 amostras de fezes de pessoas de 24 países, que estão disponíveis em um banco de dados público.

A ideia do estudo era de criar algo como um “catálogo” dos vírus que compõem a nossa microbiota, que é conjunto de micro-organismos que habita o intestino. Depois de sequenciar o genoma do “nosso cocô”, os pesquisadores identificaram que há 54.118 espécies de vírus vivendo em nosso intestino, sendo que 92% eram desconhecidas.

A descoberta foi publicada esta semana no periódico Nature Microbiology e você pode ficar tranquilo! Esses vírus não trazem grande risco à saúde e também não vão exigir que você aumente os cuidados de higiene. De acordo com os cientistas, a grande maioria dos vírus em nosso intestino são bacteriófagos, sendo assim, infectam apenas bactérias e não podem “atacar” células humanas, são até importantes para o equilíbrio da flora intestinal, que é “povoada” por bactérias boas e ruins.

Eles ligaram os vírus presentes a seus hospedeiros, validando que as espécies virais mais abundantes são as que “atacam” as espécies de bactérias presentes em nossa microbiota, como as das “famílias” (filos) Firmicutes e Bacteroidetes.

Por que essa descoberta importa?
Depois de saber que há mais de 50 mil vírus no nosso cocô, a questão que deve estar na sua cabeça é: por que é importante? Bom, os micro-organismos presentes em nosso intestino é cada vez mais associada à nossa saúde e bem-estar.

Portanto, atuam na imunidade, participam do processo de digestão, da absorção de nutrientes, da eliminação de toxinas e da sinalização neurológica. Agora, se estiverem em desequilíbrio, são associados a quadros de diarreia, alterações no humor e podem desencadear problemas como o ganho de peso.

Ademais, a disbiose (desequilíbrio das bactérias) intestinal já foi identificada em pacientes que sofrem de depressão, ansiedade e Alzheimer. Por fim, conhecer quais vírus estão presentes no nosso intestino podem abrir portas para a terapia fágica, para tratar infecções ou diminuir o número de bactérias ruins e manter o equilíbrio da microbiota.

*Por Gabriela Bulhões
…………………………………………………………………………………………….
Fonte: olhardigital

Balão gigante vai levar turistas à “beira” do espaço

As viagens para o espaço, ainda mais as turísticas, podem até parecer coisa de filme, só que agora se aproximam da realidade. Inclusive, se por acaso pensou que seria em um foguete, saiba que há outras opções. A empresa Space Perspective anunciou que fará uma viagem até a “beirada” do espaço com um balão gigante.

Após o primeiro teste, o qual chegou a uma altitude de 33 quilômetros, a empresa de viagens espaciais disse que oferecerá o passeio a partir de 2024. O valor da passagem será de US$ 125 mil, ou R$ 613,5 mil, na cotação atual.

O custo pode soar caro e inclui o transporte de outras sete pessoas durante seis horas no balão, chamado de Spaceship Neptune. A estrutura conta com um bar e banheiro, com expectativa de que chegue a altura de 30 quilômetros, que é quase três vezes a de um avião normal.

A empresa explicou que o lançamento será feito a partir do Aeroporto Regional da Costa Espacial, na Flórida, próximo do Kennedy Space Center, que é de onde saem os foguetes da Nasa e da SpaceX. Porém, o destino ainda é incerto e depende de como os ventos vão se comportar na ocasião.

Já a aterrissagem poderá acontecer no oceano Atlântico ou próximo ao Golfo do México, local onde o teste realizado pela Space Perspective no último 18 de junho parou.

Ao site “Space News”, a cofundadora da empresa, Jane Poynter, revelou que foram registradas 25 inscrições de pessoas interessadas durante um evento online de anúncio da novidade e que o número total já seria “muito maior”.

A ideia de ter o passeio pelo espaço é mais uma na disputa pelo mercado de turismo espacial. Tanto que pela Blue Origin, Jeff Bezos (CEO da Amazon) anunciou que irá viajar para o espaço no próximo dia 20 de julho junto do irmão.

Ademais, o Spaceship Neptune chegará a cerca de 30 quilômetros, enquanto as empresas com foguetes alcançarão a linha de Kármán (100 quilômetros), que define o limite entre a atmosfera da Terra e o espaço.

Mas, cá entre nós, dessa altitude, já vai dar para ver a curvatura da Terra e a cor real do espaço profundo, podendo ser considerado como “espaço” para muita gente.

*Por Gabriela Bulhões
………………………………………………………………………………………..
*Fonte: olhardigital

Tamanho da pupila surpreendentemente ligado às diferenças na inteligência

O que você pode dizer olhando nos olhos de alguém? Você pode notar o humor, sinais de cansaço, ou talvez que eles não estejam curtindo algo ou alguém.

Mas além de avaliar um estado emocional, os olhos de uma pessoa também podem fornecer pistas sobre sua inteligência, sugere uma nova pesquisa. Um estudo realizado no Instituto de Tecnologia da Geórgia (EUA) mostra que o tamanho das pupilas está “intimamente relacionado” às diferenças de inteligência entre indivíduos.

Cientistas descobriram que pupilas maiores podem estar correlacionadas à inteligência superior, como demonstrado por testes que mediram habilidades de raciocínio, memória e atenção. Na verdade, os pesquisadores afirmam que a relação da inteligência com o tamanho da pupila é tão pronunciada, que pode ser observada a olhos nus, sem quaisquer instrumentos científicos adicionais. Você deve ser capaz de dizer quem obteve nota maior ou mais menor em testes cognitivos apenas olhando para seus olhos, dizem os pesquisadores.

A ligação entre pupila e QI
A conexão foi notada pela primeira vez em tarefas de memória, olhando para dilatações pupilas como sinais de esforço mental. Os estudos envolveram mais de 500 pessoas entre 18 e 35 anos da área de Atlanta, EUA. Os tamanhos da pupila dos voluntários foram medidos por rastreadores oculares, que usam uma câmera e um computador para capturar a luz refletindo a pupila e a córnea. Como os cientistas explicaram na Scientific American, os diâmetros das pupilas variam de dois a oito milímetros. Para determinar o tamanho médio da pupila, eles fizeram medições dos alunos em repouso quando os participantes estavam olhando para uma tela em branco por alguns minutos.

Outra parte do experimento envolveu colocar os voluntários para realizar uma série de testes cognitivos que avaliaram a “inteligência fluida” (a capacidade de raciocinar quando confrontados com novos problemas), “capacidade de memória de trabalho” (quão bem as pessoas poderiam lembrar informações ao longo do tempo) e “controle de atenção” (a capacidade de manter a atenção focada mesmo sendo distraída). Um exemplo deste último envolve um teste que tenta desviar o foco de uma pessoa em uma carta que vai desaparecendo, mostrando um asterisco piscante em outra parte da tela. Se uma pessoa prestar muita atenção no asterisco, pode perder a carta.

As conclusões da pesquisa foram de que ter um tamanho maior de pupila de linha de base estava relacionado a maior inteligência fluida, mais controle de atenção e ainda maior capacidade de memória de trabalho, embora em menor grau. Em uma troca de e-mails com o Big Think, o autor Jason Tsukahara apontou: “É importante considerar que o que encontramos é uma correlação — que não deve ser confundida com causalidade”.

Os pesquisadores também descobriram que o tamanho da pupila parecia diminuir com a idade. As pessoas mais velhas tinham pupilas mais restritas, mas quando os cientistas padronizavam a idade, a conexão entre tamanho da pupila e inteligência ainda permanecia.


Por que as pupilas estão ligadas à inteligência?

A conexão entre o tamanho da pupila e o QI provavelmente reside dentro do cérebro. O tamanho da pupila foi previamente conectado ao lócus coeruleus, uma parte do cérebro responsável por sintetizar o hormônio e neurotransmissor norepinefrina (noradrenalina), que mobiliza o cérebro e o corpo para a ação. A atividade no lócus coeruleus afeta nossa percepção, atenção, memória e processos de aprendizagem.

Como explicam os autores, essa região do cérebro “também ajuda a manter uma organização saudável da atividade cerebral para que regiões cerebrais distantes possam trabalhar juntas para realizar tarefas e objetivos desafiadores”. Por ser tão importante, a perda de função no lócus coeruleus tem sido associada a condições como doença de Alzheimer, Parkinson, depressão clínica e transtorno do déficit de atenção com hiperatividade (TDAH).

Os pesquisadores afirmam que as pessoas que têm pupilas maiores em um estado de repouso, como olhar para uma tela de computador em branco, têm “maior regulação da atividade pelo lócus coeruleus“. Isso leva a um melhor desempenho cognitivo. Mais pesquisas são necessárias, no entanto, para realmente entender por que ter pupilas maiores está relacionado com maior inteligência.

Tsukahara disse: “Se eu tivesse que especular, eu diria que são pessoas com maior inteligência fluida que desenvolvem pupilas maiores, mas novamente neste momento só temos dados correlacionais.”

Outros cientistas acreditam nisso?
Como os cientistas apontam no início de seu artigo,suas conclusões são controversas e, até agora, outros pesquisadores não foram capazes de duplicar seus resultados. A equipe de pesquisa aborda essa crítica explicando que outros estudos tiveram questões metodológicas e examinaram apenas a capacidade de memória, mas não a inteligência fluida, que é o que eles mediram.

*Por Marcelo Ribeiro

……………………………………………………………………………………….
*Fonte: hypescience

Cientista sugere que a consciência humana cria a nossa realidade

Existe uma realidade física que é independente de nós? A realidade objetiva existe? Ou a estrutura de tudo, incluindo o tempo e o espaço, é criada pelas percepções do observador? A afirmação inovadora vem de um novo artigo cintífico publicado no Journal of Cosmology and Astroparticle Physics.

Os autores do artigo incluem Robert Lanza, especialista em células-tronco e medicina regenerativa, famoso pela teoria do biocentrismo, que argumenta que a consciência é a força motriz para a existência do universo. Ele acredita que o mundo físico que percebemos não é algo que está separado de nós, mas que é criado por nossas mentes enquanto o observamos. De acordo com sua visão biocêntrica, o espaço e o tempo são um subproduto do “turbilhão de informações” em nossa cabeça que é tecido pela nossa mente de uma maneira coerente.

Seu novo artigo, com a co-autoria de Dmitriy Podolskiy e Andrei Barvinsky, teóricos da gravidade quântica e cosmologia quântica, mostra como os observadores influenciam a estrutura de nossa realidade.

De acordo com Lanza e seus colegas, os observadores podem afetar dramaticamente “o comportamento de quantidades observáveis” tanto em escalas microscópicas quanto massivas. Na verdade, uma “mudança profunda em nossa visão de mundo cotidiana comum” é necessária, escreveu Lanza em uma entrevista ao Big Think. O mundo não é algo que se forma fora de nós, simplesmente existindo por conta própria. “Os observadores finalmente definem a estrutura da própria realidade física”, afirmou.

Como os observadores podem criar a realidade?
Como isso funciona? Lanza afirma que uma rede de observadores é necessária e é “inerente à estrutura da realidade”. Como ele explica, observadores — você, eu e qualquer outra pessoa — vivem em um universo gravitacional quântico e vêm com “um modelo cognitivo globalmente de acordo” com a realidade, trocando informações sobre as propriedades do espaço-tempo. “Pois, uma vez que você mede algo”, escreve Lanza, “a onda de probabilidade de medir o mesmo valor da quantidade física já sondada torna-se ‘localizada’ ou simplesmente ‘colapsa’”. É assim que a realidade se torna consistentemente real para todos nós. Uma vez que você continue medindo uma quantidade várias vezes depois, sabendo o resultado da primeira medição, você verá o mesmo resultado.

“Da mesma forma, se você aprender com alguém sobre os resultados de suas medições de uma quantidade física, suas medidas e as de outros observadores influenciam uns aos outros congelando a realidade de acordo com esse consenso”, acrescentou Lanza, explicando ainda que “um consenso de opiniões diferentes sobre a estrutura da realidade define sua própria forma, moldando a espuma quântica subjacente”, explicou Lanza.

Em termos quânticos, um observador influencia a realidade através da decoerência, que fornece a estrutura para ondas de probabilidade em colapso, “em grande parte localizadas nas proximidades do modelo cognitivo que o observador constrói em sua mente ao longo de sua vida”, acrescentou.

Lanza diz: “O observador é a primeira causa, a força vital que colapsa não só o presente, mas a cascata de eventos espaço-temporais que chamamos de passado. Stephen Hawking estava certo quando disse: “O passado, como o futuro, é indefinido e existe apenas como um espectro de possibilidades.”


O universo poderia ser uma simulação?

Poderia uma entidade artificialmente inteligente sem consciência estar sonhando nosso mundo? Lanza acredita que a biologia desempenha um papel importante, como ele explica em seu livro The Grand Biocentric Design: How Life Creates Reality, que ele escreveu com o físico Matej Pavsic.

Enquanto um robô poderia ser um observador, Lanza acha que uma entidade viva consciente com capacidade de memória é necessária para estabelecer a seta do tempo. “‘Um observador sem cérebro’ não experimenta tempo e/ou decoerência com qualquer grau de liberdade”, escreve Lanza. Isso leva à causa e efeito, relacionamentos que podemos notar ao nosso redor. Lanza acha que “só podemos dizer com certeza que um observador consciente realmente colapsa uma função de onda quântica”.

A Equação de Deus
Como Robert Lanza também escreveu ao Big Think, outro aspecto fundamental de seu trabalho é que ele resolve “a incompatibilidade exasperante entre a mecânica quântica e a relatividade geral”, que era uma impossibilidade até mesmo para Albert Einstein.

A aparente incongruência dessas duas explicações do nosso mundo físico — com a mecânica quântica olhando para os níveis moleculares e subatômicos e a relatividade geral nas interações entre estruturas cósmicas maciças como galáxias e buracos negros — desaparece uma vez que as propriedades dos observadores são levadas em conta.

Embora tudo isso possa parecer especulativo, Lanza diz que suas ideias estão sendo testadas usando simulações de Monte Carlo em poderosos aglomerados computacionais do MIT e em breve serão testadas experimentalmente. [Big Think]

*Por Marcelo Ribeiro

……………………………………………………………………………………….
*Fonte: hypescience

Por que cada corpo celeste no espaço é esférico? Quais forças fazem com que tudo gire e se torne esférico?

O fato é que quase todos os corpos celestes em nosso Sistema Solar, incluindo o intruso que está na primeira imagem, estão longe de serem esféricos. No entanto, todos os corpos grandes são esféricos. Bem, há uma dica sobre o que está fazendo com que os corpos se tornem esféricos: a gravidade. Especificamente, quando a gravidade da superfície é forte o suficiente para superar a resistência estrutural do material do corpo (tipicamente alguma forma de rocha), e puxa-a para uma forma esférica (ou, mais frequentemente, elipsoidal).

A União Astronômica Internacional classifica um planeta anão como um corpo em equilíbrio hidrostático com suficiente auto-gravidade interna para puxá-lo para uma forma elipsoidal. Existem cerca de 38 corpos em equilíbrio hidrostático no sistema solar, e provavelmente cerca de 100 ou mais são descobertos ou reclassificados. Mas essa quantidade é muito pequena comparada a um total de milhões de asteroides. Existem pelo menos 1,9 milhão de asteroides de mais de 1 km de comprimento e milhões de asteroides menores.

Então, quão grande um planeta anão precisa ser? Isso depende parcialmente da estrutura, é claro – uma gota de água naturalmente formará uma esfera, não importa quão pequena ela seja – mas para algo sólido… bem, o maior corpo celeste dentre os pequenos que não detinha o status de planeta anão é Vesta, que possui 525 km de dimensão média, tem uma massa de 2.6×10^20 kg (cerca de 1/20.000 da massa da Terra), é quase esferoidal e tem uma gravidade superficial de .025 g.

Em contraste, Ceres é um planeta anão com um raio de 473 km, uma massa de 9.4×10^20 kg e uma gravidade superficial de .029 g, apenas um pouco maior do que a de Vesta.

Quanto a por que tudo está girando: todo corpo celeste é um acúmulo de corpos menores, principalmente do tamanho de manchas de pó, que ao longo de éons tornaram-se gravitacionalmente ligadas a um único corpo celeste. Cada mancha de poeira teve algum movimento em relação ao corpo e, portanto, algum momento angular em relação ao corpo. O momento angular é uma quantidade conservada, e assim o corpo gira.

*Por Ruan Bitencourt Silva
…………………………………………………………………………………..
*Fonte: universoracionalista

Descoberta radical sugere que a expectativa de vida máxima do ser humano é de 150 anos

Sonhamos com uma época em que a medicina moderna permitirá aos humanos viver muito além da expectativa de vida que conhecemos hoje. Mas existe um limite superior do que é biologicamente possível?

Sim, de acordo com um novo estudo, que sugere que a expectativa de vida máxima humana provavelmente chega aos 150 anos de idade.

Somos uma plataforma dedicada ao conhecimento que só poderá continuar a existir graças a sua comunidade de apoiadores. Saiba como ajudar.

A pesquisa explora a ideia de envelhecimento biológico ou senescência – a rapidez com que nossos corpos se deterioram, o que pode ou não corresponder à nossa idade cronológica (quantos aniversários celebramos).

Nesse caso, os cientistas desenvolveram uma nova maneira de interpretar as variações no número de diferentes tipos de células sanguíneas, resultando em uma medida que eles chamaram de indicador dinâmico do estado do organismo (DOSI, do inglês dynamic organism state indicator).

Com o tempo, ele mostra a resiliência de nossos corpos diminuindo lentamente – um dos motivos pelos quais leva mais tempo para se recuperar de doenças e lesões quando ficamos mais velhos.

Presumindo que possamos evitar doenças, desastres e coisas como assassinato ao longo de nossa vida, o DOSI é um método confiável para mostrar quando essa resiliência acabaria completamente, dizem os pesquisadores.

“A extrapolação dessa tendência sugeriu que o tempo de recuperação do DOSI e a variação divergiriam simultaneamente em um ponto crítico de 120-150 anos de idade, correspondendo a uma perda completa de resiliência”, explicaram os pesquisadores em seu estudo.

As informações de contagem de células sanguíneas de mais de meio milhão de pessoas retiradas de bancos de dados de pesquisa no Reino Unido, Estados Unidos e Rússia foram analisadas, juntamente com dados de contagem de passos de 4.532 indivíduos para medir a taxa de declínio na aptidão do corpo das pessoas.

A contagem de células sanguíneas pode indicar uma série de problemas no corpo. Para garantir que fosse um bom indicador geral de saúde e recuperação do corpo, a equipe usou os dados de contagem de passos para verificar novamente seu raciocínio.

Outra descoberta feita a partir dos dados foi uma mudança nas trajetórias de envelhecimento a partir dos 35 anos, e novamente a partir dos 65 anos. Isso está de acordo com alguns dos limites que existem na sociedade, como a idade em que as pessoas tendem a se aposentar dos esportes de elite e a idade em que as pessoas geralmente se aposentam do trabalho em tempo integral.

Mais adiante, os pesquisadores disseram que o estudo poderia ser usado para informar tratamentos que podem ter como alvo doenças e enfermidades sem afetar a resistência biológica, e talvez um dia até mesmo estender o tempo de vida máximo possível. No entanto, precisaremos de muito mais pesquisas e muito mais dados primeiro.

A nova análise está geralmente de acordo com estudos anteriores que mencionaram uma vida útil máxima de cerca de 120-140 anos – embora, em qualquer tipo de análise numérica como essa, haja um certo grau de suposições e estimativas fundamentadas.

No momento em que este artigo foi escrito, a idade mais velha que alguém alcançou nos registros é de 122 anos e 164 dias, da francesa Jeanne Calment. O que este estudo postula é que, sem algumas mudanças bastante radicais em nossos corpos em um nível fundamental, seria difícil forçar muitos anos a mais em nossas formas frágeis.

“Concluímos que a criticidade que resulta no fim da vida é uma propriedade biológica intrínseca de um organismo que é independente de fatores de estresse e significa um limite fundamental ou absoluto da expectativa de vida humana”, escreveram os pesquisadores.

A pesquisa foi publicada na Nature Communications.

*Por Julio Batista
……………………………………………………………………………………………………….
*Fonte: universoracionalista

Geleira da Antártica chega a um ponto sem volta: o nível do mar subirá mais de três metros

O alarme já havia sido disparado há algum tempo, durante anos … Mas agora os pesquisadores confirmaram pela primeira vez que a geleira Pine Island, no oeste da Antártica, está em seu ponto de inflexão. O derretimento do gelo é rápido e irreversível e terá consequências significativas para o nível do mar em todo o mundo.

Não se trata mais de cenários apocalípticos de filmes, mas da realidade.

Estamos falando em particular da Geleira Pine Island, que tem cerca de dois terços do tamanho do Reino Unido, o que é particularmente preocupante, pois está perdendo mais gelo do que qualquer outra geleira na Antártica. Atualmente, a Ilha Pine e a vizinha Thwaites Glacier são responsáveis ​​por cerca de 10% do aumento do nível do mar global em curso.

Os cientistas há muito argumentam que essa região da Antártica logo alcançaria um ponto crítico, passando por um recuo irreversível do qual nunca se recuperaria. E agora aconteceu. Tal recuo, uma vez iniciado, inevitavelmente leva ao colapso de todo o manto de gelo da Antártica Ocidental , que contém gelo suficiente para elevar o nível global do mar em mais de três metros.

Agora, pesquisadores da Northumbria University mostraram, pela primeira vez, que esse é realmente o caso. Suas descobertas foram publicadas no jornal The Cryosphere e mostram que a geleira tem pelo menos três pontos de inflexão distintos. O terceiro e último evento, desencadeado pelo aumento da temperatura do oceano em 1,2 ° C, leva a um recuo irreversível de toda a geleira.

Os pesquisadores dizem que as tendências de aquecimento e escalonamento de longo prazo em águas circumpolares profundas, combinadas com mudanças nos padrões de vento no Mar de Amundsen, podem expor a plataforma de gelo da geleira da Ilha Pine a águas mais quentes por períodos mais longos, fazendo mudanças de temperatura dessa magnitude cada vez mais provável.

“Esse processo pode já ter sido ativado na região do Mar de Amundsen, onde as geleiras Pine Island e Thwaites dominam a atual perda de massa da Antártica, mas as técnicas de modelagem e observação não foram capazes de estabelecê-lo de forma rigorosa, levando a visões divergentes sobre a futura perda de massa do manto de gelo da Antártica Ocidental. Aqui, pretendemos preencher essa lacuna de conhecimento conduzindo uma investigação sistemática do Regime de Estabilidade da Geleira da Ilha Pine. Para este fim, demonstramos que os indicadores de alerta precoce em simulações de modelo detectam de forma robusta o início da instabilidade da camada de gelo do mar. Somos, portanto, capazes de identificar três pontos de inflexão distintos em resposta ao aumento do degelo induzido pelo oceano.

“Nosso estudo é o primeiro a confirmar que a geleira de Pine Island realmente cruza esses limites críticos. Muitas simulações de computador diferentes ao redor do mundo estão tentando quantificar como as mudanças climáticas podem afetar a camada de gelo da Antártica Ocidental, mas identificar se um período de recuo nesses modelos é o ponto de inflexão é um desafio. No entanto, é uma questão crucial e a metodologia que usamos neste novo estudo torna muito mais fácil identificar potenciais pontos de inflexão futuros ”, explica Sebastian Rosier, vice-chanceler do Departamento de Geografia e Ciências Ambientais da Northumbria,

Se a geleira entrasse em recuo instável e irreversível, o impacto no nível do mar poderia ser medido em metros e, como mostra este estudo, uma vez iniciado o recuo, pode ser impossível parar.

Então é. E nunca queremos lembrar disso … nós dissemos a você.

…………………………………………………………………………………………………………………….
*Fonte: UNIVERSIDADE DE NORTHUMBRIA / A Criosfera
pensarcontemporaneo

Eclipse Lunar e Superlua: Onde será visível o fenômeno de 26 de maio?

A madrugada desta quarta-feira, 26 de maio, será especial. Vai ocorrer o primeiro eclipse lunar de 2021, que também será uma superlua e uma “lua de sangue”.

No Brasil, o eclipse total da Lua não poderá ser visto, mas na maior parte do território será possível observar um eclipse parcial ou penumbral. Já a “lua de sangue” poderá ser vista em qualquer lugar.

Vamos explicar cada fenômeno e onde o eclipse será visível.

Um eclipse lunar total ocorre quando a Terra passa entre a Lua e o Sol, lançando uma sombra na lua. Os três corpos celestes devem estar perfeitamente alinhados para que isso aconteça.

Uma superlua ocorre quando uma lua cheia ou nova coincide com uma maior proximidade do satélite da Terra. Isso faz a Lua parecer maior.

A órbita da Lua é elíptica e um lado (apogeu) está cerca de 50 mil km mais distante da Terra do que o outro mais próximo (perigeu).

Portanto, uma lua cheia que ocorre perto do perigeu é chamada de superlua.

Nesse caso também é conhecida como “superlua das flores”, pois ocorre quando as flores aparecem na primavera do Hemisfério Norte.

Durante o eclipse, a Lua vai aparecer avermelhada porque a luz do sol não chegará diretamente a ela, mas parte dessa luz será filtrada pela atmosfera da Terra e as cores avermelhadas e laranja serão projetadas em nosso satélite.

Este efeito misterioso é popularmente conhecido como “lua de sangue”.

“Esta mudança de cor não se deve a uma mudança física na Lua, mas simplesmente porque a Lua se moverá em direção à sombra da Terra”, explicou Patricia Skelton, astrônoma do Observatório Real de Greenwich, à agência Press Association, de Londres.

“A atmosfera da Terra desvia a luz do Sol e banha a lua com uma luz vermelha.”

ONDE O ECLIPSE SERÁ VISÍVEL?

O eclipse lunar total em 26 de maio durará 15 minutos e será visível em parte da América do Sul e na costa oeste da América do Norte.

Será parcialmente visível em algumas partes da América Central e no oeste da América do Sul.

No Brasil, não será possível observar o eclipse total, mas numa faixa ao oeste será possível ver um eclipse parcial. Entre as capitais onde o eclipse parcial poderá ser observado estão Manaus, Campo Grande, Curitiba e Porto Alegre.

Numa outra faixa, que engloba a maior parte do país, será possível ver apenas um eclipse penumbral, que não encobre a Lua, mas a deixa mais escura que o normal. Entre as capitais onde poderá ser visto o eclipse penumbral estão Belém, Brasília, Rio de Janeiro e São Paulo.

Na ponta leste do Nordeste, numa região que engloba capitais como São Luís, Fortaleza, Natal, Recife e Aracajú, não será possível observar o eclipse.

Além das Américas, o eclipse também poderá ser visto na parte oriental de alguns países asiáticos, bem como na Oceania.

Este será o primeiro de quatro eclipses em 2021. Em 10 de junho acontecerá o próximo, um eclipse solar anular. Outro eclipse lunar ocorrerá em 18 de novembro e o último será um eclipse solar total em 4 de dezembro.

…………………………………………………………………………………
*Fonte: epoca

A Terra está girando em ritmo acelerado e 2021 pode ser um dos anos mais rápidos da história

O ano de 2020 será lembrado por muitas coisas – a maioria delas desagradáveis, diga-se de passagem. Mas também ficará na história por ser um dos anos mais rápidos já registrados. E isso tem um motivo: o nosso planeta está girando de maneira bem mais acelerada do que antes. Se essa tendência continuar, isso pode tornar 2021 ainda mais veloz.

De acordo com os cientistas, nossos relógios estão fora de sincroniza porque estão começando a funcionar um pouco mais rápido que o normal. Como resultado, a rotação do nosso planeta vem acelerando ligeiramente. A plataforma colaborativa Time and Date, que reúne horários e fusos dos países, diz que foram precisamente 28 dias que a Terra girou mais rápido em volta de si mesma. A ciência não observava algo assim desde 1960, quando foram registrados os dias mais curtos que sabemos até então.

A Terra leva 24 horas, ou 86.400 segundos, para fazer uma rotação completa em torno de seu eixo, que os cientistas chamam de dia solar médio. O termo “médio” é fundamental, uma vez que pequenas variações ocorrem a cada dia. Isso se tornou aparente na década de 1960 com o desenvolvimento da cronometragem atômica. Os relógios atômicos medem a rotação da Terra em relação a um objeto astronômico distante, normalmente uma estrela fixa. Os cientistas aprenderam que a duração de um único dia pode desviar alguns milissegundos (ms), em que 1 ms é igual a 0,001 segundos.

A variabilidade na rotação do nosso planeta não é nada com que se preocupar, e você certamente não precisa se segurar no sofá por medo de ser jogado para fora no espaço. A variabilidade da velocidade de rotação da Terra é um fenômeno normal e influenciado por vários fatores, como o derramamento interno do núcleo derretido do planeta, movimento dos oceanos, ventos e pressão atmosférica.

Para ser claro, estamos falando de números muito pequenos. Hoje, por exemplo, deve durar 24 horas, 0 minutos e 0,0792 ms, enquanto ontem durou 24 horas, 0 minutos e 0,2561 ms, segundo o Time and Date. Isso é uma diferença de 0,1769 ms, então são diferenças quase que imperceptíveis.

No entanto, alguns dias podem estar errados em um grau incomum, como 5 de julho de 2005, quando a rotação da Terra era 1,0516 ms menor que o dia solar médio. Quanto a isso, o ano de 2020 foi extraordinário, batendo o recorde de 2005 não menos que 28 vezes. O mais curto deles foi em 19 de julho, quando a rotação da Terra estava 1,4602 ms abaixo do dia solar médio.

Curiosamente, podemos esperar dias mais rápidos em 2021. “[Um] dia médio em 2021 será 0,05 ms menor que 86.400 segundos”, relata o Time and Date, o que significa que, ao longo de todo o ano, “os relógios atômicos terão acumulado um atraso de cerca de 19 ms”.

Normalmente, esses relógios funcionam rapidamente em algumas centenas de milissegundos a cada ano, exigindo um segundo bissexto adicional para manter os relógios em sincronia.

“Um segundo bissexto é um segundo adicionado ao Tempo Universal Coordenado (UTC) para mantê-lo sincronizado com o tempo astronômico. UTC é uma escala de tempo atômica, baseada no desempenho de relógios atômicos que são mais estáveis ​​do que a taxa de rotação da Terra”, explica o Instituto Nacional de Padrões e Tecnologia dos EUA.

A última vez que isso aconteceu foi em 2016. Os segundos bissextos são normalmente adicionados à meia-noite na véspera de Ano Novo. Então, se você comemorou na hora e não esperou um segundo extra, você deu início a 2017 um pouco prematuramente. Não tivemos que invocar um segundo bissexto desde 2016 e, dada a aceleração da rotação da Terra, podemos eventualmente fazer o caminho contrário: tirar um segundo inteiro. Seria algo inédito.

Essa ação teria o mesmo propósito de um segundo bissexto positivo, que é manter o UTC em sintonia com nossos relógios atômicos. Dito isso, o Serviço Internacional de Rotação Terrestre e Sistemas de Referência, que decide sobre tais assuntos, ainda não tem planos para fazer isso acontecer.


*Por George Dvorsky

………………………………………………………………………………………
*Fonte: gizmodo

Aviões com esse motor poderão voar a 21 mil km/h

Pesquisadores da UCF (EUA) dizem que contiveram uma detonação explosiva sustentada, no local, pela primeira vez, transformando sua enorme força em impulso: um novo motor de detonação de ondas oblíquas que poderia impulsionar uma aeronave até 17 vezes a velocidade do som, potencialmente superando o scramjet como um método de propulsão hipersônica.

A deflagração – a queima de combustível com oxigênio em alta temperatura – é uma maneira relativamente lenta, segura e controlada de liberar energia química e transformá-la em movimento. Mas se você quiser liberar a energia máxima possível de uma unidade de combustível, o melhor negócio é uma explosão.

A detonação é rápida, caótica e frequentemente destrutiva. Não precisa necessariamente de oxigênio, apenas um único material explosivo e algum tipo de cutucada energética grande o suficiente para quebrar as ligações químicas que mantém unida uma molécula já instável. Ele cria ondas de choque exotérmicas que chegam a velocidades supersônicas, liberando enormes quantidades de energia.

Há mais de 60 anos tentamos usar a explosão, a forma mais poderosa de combustão, como propulsão. Mas conter uma bomba é extremamente difícil. Motores de detonação em pulso criam uma série de explosões de forma semelhante a um jato em pulso — estes já foram testados em aeronaves — notavelmente no projeto “Borealis” da Scaled Composites Long-EZ construído pelo Laboratório de Pesquisa da Força Aérea dos EUA e soluções científicas inovadoras incorporadas em 2008.

Motores de detonação rotativos, nos quais as ondas de choque de uma detonação são ajustadas para desencadear novas detonações dentro de um canal em forma de anel, foram considerados impossíveis de construir até que pesquisadores da Universidade da Flórida Central (UCF, na sigla em inglês) demonstraram um protótipo no ano passado em operação sustentada. Os motores de detonação rotativo devem ser mais eficientes do que os motores de detonação de pulso porque a câmara de combustão não precisa ser limpa entre as detonações.

Agora, outra equipe da UCF, incluindo alguns dos mesmos pesquisadores que construíram o motor de detonação rotativo no ano passado, diz que conseguiu uma demonstração mundial de um complexo terceiro tipo de motor de detonação que poderia superar todos eles, teoricamente abrindo o caminho para aeronaves voando a velocidades de até 21.000 km/h, ou 17 vezes a velocidade do som.


O motor de detonação de ondas oblíqua (OWDE, na sigla em inglês), visa produzir uma detonação contínua estável e fixa no espaço, tornando um sistema de propulsão extremamente eficiente e controlável gerando significativamente mais energia e usando menos combustível do que a tecnologia atual permite.

A equipe da UCF afirma que estabilizou com sucesso uma onda de detonação sob condições de fluxo hipersônico, mantendo-a no lugar.


Para isso, a equipe construiu um protótipo experimental que chamou de High-Enthalpy Hypersonic Reacting Facility – ou HyperReact. Com menos de um metro de comprimento, o HyperReact pode ser descrito como um tubo oco, dividido em três seções, cada uma com um interior precisamente moldado.

 

“Esta é a primeira vez que uma detonação se mostra estabilizada experimentalmente”, diz Kareem Ahmed, professor associado do Departamento de Engenharia Mecânica e Aeroespacial da UCF e um dos autores do novo artigo de pesquisa. “Finalmente conseguimos conter a detonação … em forma de detonação oblíqua. É quase como congelar uma intensa explosão no espaço físico.”

 

O OWDE tem sido suposto teoricamente há algum tempo, como uma forma potencialmente superior de propulsão hipersônica. Scramjets tendem a perder eficiência à medida que a velocidade do ar sobe, potencialmente atingindo em torno de Mach 14. Os resultados experimentais divulgados pela UCF apontam para uma aeronave “Sodramjet” (jato de detonação oblíqua) capaz de voar entre Mach 6 e Mach 17.

O que isso significa? A tecnologia permitirá que os aviões espaciais voem eficientemente até a órbita sem serem conectados a foguetes. E nenhum sistema de defesa de radar ou mísseis no mundo poderia lidar com um míssil hipersônico até o momento. Além disso, você nem precisaria de uma ogiva para causar níveis de devastação próximos ao de uma bomba nuclear. “Toda essa velocidade e toda essa inércia transforma qualquer plataforma de pesquisa, unidade de reconhecimento ou aeronave de passageiros em uma potencial arma cinética”, escreve Szondy. “Eles não precisam de explosivos para destruir um alvo. Tudo o que eles têm que fazer é acertar. Em outras palavras, qualquer veículo hipersônico é uma arma intrínseca dadas as modificações adequadas.”



De fato, a pesquisa foi financiada não só pela National Science Foundation e pela NASA, mas pelo Escritório de Pesquisa Científica da Força Aérea, todas instituições dos EUA. Então esses motores de explosão são claramente uma questão de interesse militar.

O artigo científico foi publicado na revista PNAS. [New Atlas]

………………………………………………………………………………………………..
*Fonte: hypescience

Esse poder é verdadeiro? Um estudo sobre precognição que sacudiu a ciência

Entre os estudos científicos que surgiram na última década, talvez nenhum tenha sido mais controverso do que o artigo de 2011 do psicólogo americano Dr. Daryl Bem. Ele provou uma noção explosiva, que a precognição, a capacidade de ver eventos futuros, é verdadeiramente real, desencadeando um período conturbado entre psicólogos que ainda persiste até hoje. Como pode um eminente professor da Universidade Cornell chegar a tal conclusão, que está tão diretamente fora da ciência tradicional e sustentar a parapsicologia? Seus experimentos, que pareciam seguir procedimentos aceitos e métodos sonoros para chegar a essa prova inesperada, poderiam ser replicados?

O artigo “Feeling the Future: Experimental Evidence for Anomalous Retroactive Influences on Cognition and Affect” (Sentindo o futuro: evidências experimentais de influências retroativas anômalas na cognição e no afeto, em tradução livre), relatou nove experimentos envolvendo mais de mil participantes, com oito deles mostrando com sucesso que as respostas de uma pessoa poderiam ser influenciadas por eventos estimulantes que aconteceram após as respostas já terem sido feitas e gravadas.

Essa possibilidade apoiou fortemente a noção de precognição, onde os indivíduos parecem obter informações ou transferência de energia que nenhum processo físico ou biológico que conhecemos explica que eles devem ter.

Os experimentos que pareciam provar a tese de Daryl variaram em sua abordagem. Alguns dos estímulos utilizados eram de natureza erótica, com um experimento inicial que consistia em fazer que os voluntários do estudo olhassem para um par de cortinas em um computador. Eles deveriam adivinhar qual deles tinha uma imagem pornográfica por trás, com a resposta correta sendo escolhida aleatoriamente depois que o aluno tomou sua decisão. Curiosamente, os alunos tiveram um desempenho ligeiramente melhor do que a simples adivinhação teria produzido, com 53% escolhendo a localização correta da imagem.

Outro experimento fez com que os alunos examinassem conjuntos de palavras que eles teriam que digitar. De alguma forma, os alunos se saíram melhor no início lembrando as palavras que digitariam mais tarde. É como se ter a segunda oportunidade de praticar e lembrar que as palavras tinham benefícios que retrocedem no tempo.

O professor de neurociência cognitiva Chris Chambers, um dos críticos de Bem (e havia muitos), chamou a conclusão do artigo de “ridícula”. E ainda, “isso é realmente interessante porque se um artigo como este que está fazendo tudo normalmente e corretamente pode acabar produzindo uma conclusão ridícula, então quantos outros artigos que usam exatamente esses mesmos métodos que não chegaram a conclusões ridículas são igualmente falhos?” Chambers perguntou em uma entrevista. [Big Think]

*Por Marcelo Ribeiro

…………………………………………………………………………………………………….
*Fonte: hypescience

Japoneses estão desenvolvendo tecnologia de transmissão de energia sem fio proveniente de painéis solares espaciais

Já imaginou não ter que se preocupar em ter que recarregar o seu celular todo dia? É provável que no futuro isso seja possível. Engenheiros no Japão têm concentrado esforços no desenvolvimento de um sofisticado sistema que consegue enviar grandes quantidade de energia elétrica a distâncias consideráveis.

O objetivo da pesquisa, eventualmente, é criar um enorme painel solar baseado no espaço que não é afetado pelos sistemas meteorológicos e que, constantemente, possa coletar grandes quantidades de energia e enviá-las aos receptores na Terra via microondas.

Durante a feira de eletrônicos Ceatec, que acontece no Japão nesta semana, a J Space Systems apresentou algumas das antenas que usa para receber as transmissões de microondas de alta potência. Batizadas de “Rectenna”, elas são antenas planas sintonizadas na frequência de 5.8GHz.

A empresa conseguiu com sucesso transmitir energia a uma distância de cerca de 50 metros usando o sistema, apesar de apresentar perdas consideráveis. A antena envia 1.8 kilowatts, mede 1,2 metros quadrados e consegue colher 340 watts de uma antena receptora que tinha 2,6 metros por 2,3 metros.

A Mitsubishi Heavy Industries também está a frente de uma pesquisa similar e no ano passado conseguiu enviar 10kW de energia a uma distância de cerca de 500 metros, um recorde para pesquisadores japoneses. Para fazer isso, ela usou amplas matrizes de transmissão e recepção.

Se a tecnologia continuar a progredir, haverá uma série de usos para ela. Um deles é usar a curta distância para enviar energia em torno das fábricas, permitindo que máquinas, sensores e estações de trabalho facilmente sejam configurados sem ter que executar novos cabos de alimentação.

Outra uso bem útil dessa tecnologia é enviar energia para áreas atingidas por desastres naturais através de balões. Mas tudo isso soa pequeno quando comparado a ideia futurística de painéis solares orbitantes capazes de coletar grandes quantidades da energia do sol e enviá-las a Terra.

A grande tarefa para que essa tecnologia chegue no estágio desejado é reduzir perdas de transmissão.

A agência espacial japonesa, que está atrás da ideia, admite que a ideia de colheita de energia solar no espaço não é nova. Projetos anteriores em outros países chegaram perto, mas devido a falta de suporte para um sistema como esse não evoluíram.

Mesmo assim, a agência espacial está continuando a direcionar pesquisadores para a tecnologia. Mas se mantém realista: “levará tempo significativo e esforços para superar os muitos obstáculos no caminho para a concretização de um sistema de energia solar espacial”, disse.

*Por Ademilson Ramos

………………………………………………………………………………………….
*Fonte: engenhariae

Pesquisadores criam a tinta mais potente para resfriar superfícies

Engenheiros da Purdue University estão, há anos, dedicados a criar uma tinta branca com maior eficiência para resfriar edifícios do que a tinta comum. Na última quinta-feira (15), eles anunciaram o que chamam de a “pintura mais branca já registrada”.

Em 2020, os mesmos pesquisadores já haviam criado uma tinta capaz de refletir até 95,5% da luz solar e resfriar superfícies em até 8°C. A nova formulação é ainda mais eficiente do que os pesquisadores haviam demonstrado.

A tinta “ultra-branca” reflete 98,1% da luz solar e desvia o calor infravermelho, desta forma os edifícios resfriam abaixo da temperatura do ar circundante. Seu poder de resfriamento é graças ao sulfato de bário – um pigmento derivado do mineral barita.

Os testes mostraram que a tinta é capaz de manter superfícies 4°C mais frias do que sua temperatura ambiente à luz do sol do meio-dia e até 10°C mais fria à noite.
Câmera infravermelha mostra como a tinta ultra-branca resfria a placa abaixo da temperatura ambiente. Imagem: Purdue University | Joseph Peoples

“Se você usasse essa tinta para cobrir uma área de telhado de cerca de 92 m² estimamos que você poderia obter uma potência de resfriamento de 10 quilowatts. Isso é mais poderoso do que os condicionadores de ar centrais usados na maioria das casas”, garante Xiulin Ruan, professor de engenharia mecânica da Purdue.

Para se ter ideia, as tintas disponíveis no mercado – mesmo quando projetadas para reduzir o calor – refletem apenas de 80% a 90% da luz solar. Além disso, não são capazes de fazer com que as superfícies fiquem mais frias do que o ambiente circundante.

O objetivo é que, com a nova formulação de tinta, os edifícios possam ser menos dependentes do ar condicionado e contribuir para amenizar as ilhas de calor em grandes cidades.


Sulfato de bário

Ao contrário do dióxido de titânio usado nas tintas brancas tradicionais, a formulação inclui alta concentração de sulfato de bário, um composto químico também usado para fazer papel fotográfico e cosméticos brancos. Ao longo da pesquisa vários produtos comerciais foram analisados. “Descobrimos que usando sulfato de bário, você pode, teoricamente, tornar as coisas muito, muito reflexivas, o que significa que elas são muito, muito brancas”, explica o pesquisador Xiangyu Li, pós-doutorando do Instituto Massachusetts de Tecnologia (MIT).

Segundo os estudiosos, as partículas de sulfato de bário são todas de tamanhos diferentes na tinta e o quanto cada partícula espalha a luz depende de seu tamanho. Ou seja, uma gama mais ampla de tamanhos de partículas permite que a tinta espalhe mais do espectro de luz do sol.

Mas, é preciso equilíbrio para não comprometer a textura da pintura. “Embora uma concentração mais alta de partículas seja melhor para fazer algo branco, você não pode aumentar muito a concentração. Quanto maior a concentração, mais fácil é para a tinta quebrar ou descascar”, prossegue Li.
Potencial

Os pesquisadores mostraram em seu estudo que a tinta à base de sulfato de bário pode potencialmente lidar com as condições externas. Não haverá também problemas em ser adotada em escala industrial uma vez que a técnica usada para criar a tinta é compatível com o processo de fabricação de tintas comerciais.

Ao The Guardian, a Purdue University afirmou que a tinta “ultra-branca” pode estar disponível no mercado em um ou dois anos e o melhor: com preço comparável ao da tinta convencional.

*Por Marcia Sousa

…………………………………………………………………………………………………….

*Fonte: ciclovivo

Cientistas descobrem como fazer luz atravessar objetos sólidos

Por que o açúcar não é transparente? Porque a luz que penetra em um bloco de açúcar é espalhada, alterada e desviada de uma forma extremamente complicada. No entanto, como uma equipe de pesquisa da TU Wien (Viena) e da Universidade de Utrecht (Holanda) já foi capaz de mostrar, há uma classe de ondas de luz muito especiais para as quais isso não se aplica: para qualquer meio desordenado específico — como o cubo de açúcar que você pode ter colocado em seu café — feixes de luz sob medida podem ser criados que praticamente não são alterados por este meio, mas apenas atenuados. O feixe de luz penetra no meio, e um padrão de luz chega do outro lado que tem a mesma forma, como se o meio não estivesse lá.

Essa ideia de “modos de luz invariantes de dispersão” também pode ser usada para examinar especificamente o interior dos objetos. Os resultados foram publicados na revista Nature Photonics.

Um número astronômico de possíveis formas de onda

As ondas na superfície turbulenta da água podem assumir um número infinito de formas diferentes — e de forma semelhante, ondas de luz também podem ser feitas de inúmeras formas diferentes. “Cada um desses padrões de ondas de luz é alterado e desviado de uma maneira muito específica quando você a envia através de um meio desordenado”, explica o Prof. Stefan Rotter, do Instituto de Física Teórica da TU Wien.

Juntamente com sua equipe, Stefan Rotter está desenvolvendo métodos matemáticos para descrever tais efeitos de dispersão de luz. Conhecimento para produzir e caracterizar tais campos de luz complexos foi trazido pela equipe em torno do Prof. Allard Mosk na Universidade de Utrecht. “Como meio de dispersão de luz, usamos uma camada de óxido de zinco — um pó branco opaco de nanopartículas completamente organizadas aleatoriamente”, explica Allard Mosk, chefe do grupo experimental de pesquisa.

Primeiro, você tem que caracterizar essa camada precisamente. Você emite sinais de luz muito específicos através do pó de óxido de zinco e mede como eles chegam ao detector atrás dele. A partir disso, você pode então concluir como qualquer outra onda é alterada por este meio — em particular, você pode calcular especificamente qual padrão de onda é alterado por esta camada de óxido de zinco exatamente como se a dispersão de ondas estivesse totalmente ausente nesta camada.

“Como pudemos mostrar, há uma classe muito especial de ondas de luz — os chamados modos de luz invariante de dispersão, que produzem exatamente o mesmo padrão de onda no detector, independentemente de a onda de luz ter sido enviada apenas pelo ar ou se teve que penetrar na complicada camada de óxido de zinco”, diz Stefan Rotter. “No experimento, vemos que o óxido de zinco realmente não muda a forma dessas ondas de luz totalmente — elas ficam um pouco mais fracas no geral”, explica Allard Mosk.

Uma constelação estelar no detector de luz

Por mais especiais e raros que esses modos de luz invariantes possam ser, com o número teoricamente ilimitado de possíveis ondas de luz, ainda se pode encontrar muitas delas. E se você combinar vários desses modos de luz invariante de dispersão no arranjo certo certa, você terá uma forma de onda invariante de dispersão.

“Desta forma, pelo menos dentro de certos limites, você tem bastante liberdade para escolher qual imagem você quer enviar através do objeto sem interferência”, diz Jeroen Bosch, que trabalhou no experimento como um estudante de doutorado. “Para o experimento, escolhemos uma constelação como exemplo: a Ursa Maior. E, de fato, foi possível determinar uma onda invariante que envia uma imagem da Ursa Maior para o detector, independentemente de a onda de luz estar espalhada pela camada de óxido de zinco ou não. Para o detector, o feixe de luz parece quase o mesmo em ambos os casos.”


Olhando no interior de uma célula

Este método de encontrar padrões de luz que penetram em um objeto grande e imperturbável também poderia ser usado para procedimentos de imagem. “Em hospitais, os raios-X são usados para olhar dentro do corpo — eles têm um comprimento de onda mais curto e, portanto, podem penetrar em nossa pele. Mas a forma como uma onda de luz penetra um objeto depende não apenas do comprimento de onda, mas também da forma de onda”, diz Matthias Kühmayer, que trabalha como doutorando em simulações de computador de propagação de ondas. “Se você quer focar a luz dentro de um objeto em certos pontos, então nosso método abre possibilidades completamente novas. Conseguimos mostrar que, usando nossa abordagem, a distribuição de luz dentro da camada de óxido de zinco também pode ser especificamente controlada.” Isso pode ser interessante para experimentos biológicos, por exemplo, onde você quer introduzir luz em pontos muito específicos, a fim de olhar profundamente dentro das células.

O que a publicação conjunta dos cientistas dos Países Baixos e da Áustria já mostra é o quão importante é a cooperação internacional entre teoria e experimento para alcançar o progresso nesta área de pesquisa. [Phys]

*Por Marcelo Ribeiro

……………………………………………………………………………….
*Fonte: hypescience

Carro elétrico solar chega ainda esse ano

Já imaginou ter um carro e não precisar gastar nenhum dinheiro com combustível? Essa realidade está a cada dia mais próxima e já há previsão da empresa Lightyear lançar o veículo One já nesse ano de 2021.

O carro promete superar o Tesla Model S, chegando em 725km de autonomia e ainda conta com 4 motores elétricos e 5m² de painéis solares, que estão protegidos pelo vidro.

Um diferencial em relação ao mercado, é que suas células solares são 20% mais eficientes que as tradicionais e caso o usuário decida, pode ser carregado com o plugin tradicional dos veículos elétricos.

Por conta de seus motores, o veículo pode acelerar de 0 a 100 km/h em apenas 10 segundos.

Esse veículo será uma inovação e fará a ficção científica se tornar realidade, com veículos cada vez mais sustentáveis.

Porém ainda há o desafio de se tornar acessível para todos, uma vez que seu preço de reserva deverá variar entre R$ 700 mil a R$ 900 mil e será lançado primeiramente na Europa.

Esperamos que o mundo se transforme nas próximas décadas e passam permitir o uso de toda a população.

Para conhecer o carro elétrico solar, você pode assistir o vídeo da fabricante:

………………………………………………………………………………………
*Fonte: engenhariahoje

Site usa a ciência para criar “solo perfeito” de guitarra

Por mais que tenhamos anos e anos de Rock and Roll para analisar, é difícil dizer se há um “solo de guitarra perfeito”.

Claro que as opiniões variam bastante e, como tudo da arte, a música é extremamente subjetiva e dificilmente haverá um consenso sobre isso em algum momento. Mas, por enquanto, a revista Total Guitar resolveu usar a ciência (e as opiniões do público) para chegar o mais perto possível disso.

Depois de conduzir uma pesquisa e eleger os 50 melhores solos de guitarra de todos os tempos, os responsáveis buscaram as semelhanças para poder criar, objetivamente, o melhor solo possível.

O primeiro passo foi definir o tempo: entre os escolhidos, estavam canções cujos solos variavam de 64 a 170bpm. Portanto, eles tomaram uma quase-média de 120bpm como o ideal.

Quanto ao tom, o essencial era ser um tom menor. Os músicos então escolheram Mi menor como o tom ideal, com alguns trechos se aventurando em Mi menor harmônico e Mi dórico. Mais ainda, eles encontraram que é necessário ter um mínimo de 2,5 oitavas de alcance e, por isso, espaçaram o solo em 3 oitavas.

O solo em si, segundo a pesquisa, tem que começar nas notas mais graves e ir evoluindo para as mais agudas. Da mesma forma, a frequência de notas começa mais leve e vai aumentando conforme a canção avança, incluindo “uma mistura de conteúdo rápido, de fritação e ganchos melódicos”.

*Por Felipe Ernani

………………………………………………………………………………….
*Fonte: tenhomaisdiscosqueamigos

Cientistas pretendem produzir cerveja na Lua

Se uma das múltiplas circunstâncias possíveis para o fim da humanidade acontecer, todos nós teremos que ir para a Lua, para Marte ou para algum exoplaneta. Mas para isso, precisamos de bebidas.

Felizmente, cientistas estão projetando uma experiência para saber se é possível preparar cerveja na Lua.

Um grupo de estudantes da Universidade da Califórnia, em San Diego, projetou um experimento — finalista da competição Lab2Moon — para enviar a bordo da espaçonave da equipe indiana TeamIndus, que é uma das quatro finalistas do desafio Lunar XPRIZE do Google, que consiste em enviar uma espaçonave para a Lua.

O experimento é projetado para explorar como o fermento se comporta nas condições lunares, com ênfase a ver se é possível desenvolver produtos farmacêuticos e alimentos contendo levedura, como o pão, no espaço. Para testar isso, eles vão preparar cerveja.

A equipe projetou um sistema único para realizar esta experiência. Primeiro, o mosto (malte e água misturados) será misturado na Terra e colocado em um recipiente de fermentação especial. Em seguida, o sistema irá combinar os estados de fermentação (transformando o açúcar em álcool) e carbonatação (adicionando as bolhas na cerveja), que normalmente são feitos separadamente, para evitar a liberação de qualquer dióxido de carbono na nave espacial.

*Por Giovane Almeida

……………………………………………………………………………………….
*Fonte: ciencianautas

O que o budismo pode fazer pela ética da Inteligência Artificial

O crescimento explosivo da Inteligência Artificial (IA) alimentou a esperança de que ela nos ajudará a resolver muitos dos problemas mais intratáveis ​​do mundo. No entanto, também há muita preocupação com o poder que ela detém ​​e um crescente consenso de que seu uso deve ser orientado para evitar a infração de nossos direitos.

Muitos grupos discutiram e propuseram diretrizes éticas de como a IA deve ser desenvolvida ou implantada: IEEE, uma organização profissional global para engenheiros, publicou um documento de 280 páginas sobre o assunto, e a União Europeia publicou seu próprio conjunto de regras. O Inventário Global das Diretrizes de Ética da AI compilou mais de 160 dessas orientações em todo o mundo.

Infelizmente, a maioria dessas normas é desenvolvida por grupos ou organizações concentradas na América do Norte e na Europa: uma pesquisa publicada pela cientista social Anna Jobin e seus colegas encontrou 21 nos EUA, 19 na União Europeia, 13 no Reino Unido, quatro no Japão, e um de cada um dos Emirados Árabes Unidos, Índia, Cingapura e Coreia do Sul.

Elas refletem os valores das pessoas que as emitem. O fato de a maioria das diretrizes de ética da IA ​​estar sendo escrita em países ocidentais significa, consequentemente, que o campo é dominado por valores ocidentais, como respeito à autonomia e aos direitos dos indivíduos, especialmente porque as poucas regras emitidas em outros países refletem principalmente as do Ocidente.

Aquelas escritas em diferentes países podem ser semelhantes porque alguns valores são realmente universais. No entanto, para que essas diretrizes reflitam verdadeiramente as perspectivas das pessoas em países não ocidentais, elas também precisariam representar os sistemas de valores tradicionais encontrados em cada cultura.

Tanto no Oriente como no Ocidente, as pessoas precisam compartilhar suas ideias e considerar as de outras pessoas para enriquecer suas próprias perspectivas. Como o desenvolvimento e o uso da IA ​​se estendem por todo o globo, a maneira como pensamos sobre isso deve ser informada por todas as principais tradições intelectuais.

Com isso em mente, acredito que as percepções derivadas do ensino budista podem beneficiar qualquer pessoa que trabalhe com a ética da IA ​​em qualquer lugar do mundo, e não apenas em culturas tradicionalmente budistas (que estão principalmente no Oriente e principalmente no Sudeste Asiático).

O budismo propõe uma maneira de pensar sobre a ética com base na suposição de que todos os seres sencientes desejam evitar a dor. Assim, o budismo ensina que uma ação é boa se conduz à libertação do sofrimento.

A implicação desse ensino para a Inteligência Artificial é que qualquer uso ético da IA ​​deve se esforçar para diminuir a dor e o sofrimento. Em outras palavras, por exemplo, a tecnologia de reconhecimento facial deve ser usada apenas se for comprovada que reduz o sofrimento ou promove o bem-estar. Além disso, o objetivo deve ser reduzir o sofrimento para todos — não apenas para aqueles que interagem diretamente com a IA.

É claro que podemos interpretar esse objetivo de forma ampla para incluir o conserto de um sistema ou processo que seja insatisfatório ou mudar qualquer situação para melhor. Usar a tecnologia para discriminar as pessoas ou para vigiá-las e reprimi-las seria claramente antiético. Quando há áreas cinzentas ou a natureza do impacto não é clara, o ônus da prova caberia àqueles que procuram mostrar que uma aplicação específica de IA não causa danos.

Não fazer o mal

Uma ética de IA de inspiração budista também entenderia que viver de acordo com esses princípios requer autocultivo. Isso significa que aqueles que estão envolvidos com IA devem treinar continuamente para se aproximarem do objetivo de eliminar totalmente o sofrimento. Alcançar a meta não é tão importante; o importante é que eles empreendam a prática para alcançá-la. É a prática que conta.

Designers e programadores devem praticar, reconhecendo esse objetivo e definindo etapas específicas que seu trabalho executaria para que seu produto incorporasse o ideal. Ou seja, a IA que eles criam deve visar ajudar o público a eliminar o sofrimento e promover o bem-estar.

Para que tudo isso seja possível, as empresas e agências governamentais que desenvolvem ou usam IA devem prestar contas ao público. A responsabilidade também é um ensinamento budista e, no contexto da ética da IA, requer mecanismos legais e políticos eficazes, bem como independência judicial. Esses componentes são essenciais para que qualquer diretriz de ética de IA funcione conforme o esperado.

Outro conceito-chave no budismo é a compaixão, ou o desejo e o compromisso de eliminar o sofrimento dos outros. A compaixão também requer autocultivo e significa que atos prejudiciais, como exercer o poder de reprimir os outros, não têm lugar na ética budista. Não é necessário ser monge para praticar a ética budista, mas deve-se praticar o autocultivo e a compaixão na vida diária.
Podemos ver que os valores promovidos pelo budismo — incluindo responsabilidade, justiça e compaixão — são principalmente os mesmos encontrados em outras tradições éticas. Isto é esperado; afinal, somos todos seres humanos. A diferença é que o budismo defende esses valores de uma maneira diferente e coloca talvez uma ênfase maior no autocultivo.

O budismo tem muito a oferecer a qualquer pessoa que pense sobre o uso ético da tecnologia, incluindo aqueles interessados ​​em IA. Acredito que o mesmo também se aplica a muitos outros sistemas de valores não ocidentais. As diretrizes de ética da IA ​​devem se basear na rica diversidade de pensamento das muitas culturas do mundo para refletir uma variedade mais ampla de tradições e ideias sobre como abordar os problemas éticos. O futuro da tecnologia seria ainda mais brilhante dessa maneira.
Soraj Hongladarom é professor de filosofia no Centro de Ciência, Tecnologia e Sociedade da Universidade Chulalongkorn em Bangkok, Tailândia.

…………………………………………………………………………….
*Fonte: mithtechreview

Esta nova Inteligência Artificial existe com o único propósito de discutir com humanos

Os robôs não podem nos vencer. Ainda. Mas um programa de inteligência artificial (IA) desenvolvido por cientistas da IBM é tão bom em debater contra humanos que pode ser apenas uma questão de tempo até que não possamos competir.

O Project Debater, um sistema de debate autônomo que está em desenvolvimento há vários anos, é capaz de argumentar contra os humanos de uma forma significativa, tomando posições em um debate sobre um tópico escolhido e defendendo por que seu ponto de vista é o correto.

A IA, descrita em um novo estudo publicado na Nature, ainda não está no ponto de poder superar a lógica argumentativa humana, mas uma demonstração pública de suas habilidades em 2019 mostrou o quão longe sua forma artificial de raciocínio chegou.

Em um debate de demonstração contra o especialista em debates Harish Natarajan, o Project Debater revelou que foi capaz de formar um argumento sobre um tópico complexo (se a pré-escola deveria ser subsidiada para as famílias) e apresentar pontos em apoio ao argumento.

No processamento de linguagem natural, a capacidade de fazer isso envolve o que é chamado de mineração de argumento, em que uma IA analisa uma grande quantidade de informações díspares, procurando vincular seções relevantes.

No caso do Project Debater, a IA foi alimentada por um arquivo de cerca de 400 milhões de notícias, a partir das quais agora ela pode redigir declarações iniciais, refutações e resumos finais sobre uma gama de aproximadamente 100 tópicos de debate.

Embora o sistema ainda precise de refinamento – e ainda não está no ponto em que pode se igualar a um especialista humano em debates – a maioria dos observadores que classificam as transcrições dos argumentos do Project Debater deram uma pontuação alta, classificando o desempenho da IA ​​como decente nos debates.

Isso é uma conquista e tanto, considerando que os desafios tecnológicos da mineração de argumentos para esse tipo de propósito eram considerados quase impossíveis mesmo para a IA de última geração apenas uma década atrás.

“Desde então, uma combinação de avanços técnicos em IA e a crescente maturidade na engenharia de tecnologia de argumento, juntamente com a intensa demanda comercial, levou a uma rápida expansão da área”, explica o pesquisador de tecnologia de argumento Chris Reed, da Universidade de Dundee no Reino Unido, que não estava envolvido no estudo, em um comentário sobre a pesquisa.

“Mais de 50 laboratórios em todo o mundo estão trabalhando nessa questão, incluindo equipes em todas as grandes corporações de software.”

Claro, nos últimos anos vimos IAs ultrapassar as capacidades humanas muitas vezes no mundo dos jogos, mas a mineração de argumentos é, em muitos aspectos, um esforço mais complexo, dadas as enormes quantidades de informações que precisam ser analisadas e, em seguida, ligadas em conjunto.

“O debate representa uma atividade cognitiva primária da mente humana, exigindo a aplicação simultânea de um amplo arsenal de compreensão da linguagem e capacidades de geração de linguagem, muitas das quais foram apenas parcialmente estudadas de uma perspectiva computacional (como tarefas separadas), e certamente não em uma maneira holística”, explicam os pesquisadores, liderados pelo pesquisador principal Noam Slonim em seu estudo.

“Portanto, um sistema de debate autônomo parece estar além do alcance dos esforços da pesquisa linguística anterior.”

Embora o Project Debater represente um avanço significativo, o campo de pesquisa ainda não chegou ao ponto das IAs poderem realizar esse feito de raciocínio melhor do que os humanos.

A equipe diz que o debate ainda está fora da ‘zona de conforto’ dos sistemas de IA, e que novos paradigmas precisarão ser desenvolvidos antes de vermos as máquinas superando a habilidade argumentativa inerente das pessoas em tópicos complexos e ambíguos.

*Por Julio Batista

………………………………………………………………………………………………………
*Fonte: universoracionalista

Em 2100, o verão durará 6 meses no hemisfério Norte

Os pesquisadores estão preocupados com uma perturbação climática das estações terrestres que não estamos acostumados. Eles alertam que em 2100 o verão provavelmente durará 6 meses no hemisfério Norte e teria repercussões catastróficas no equilíbrio dos ecossistemas, colocando a humanidade em perigo.

Ou seja, será prejudicial aos ecossistemas que são finamente equilibrados em termos de estações e temperaturas. Portanto, ondas de calor prolongadas, incêndios florestais mais frequentes, mudanças nos padrões de migração (afetando a cadeia alimentar) e mais uma lista exaustiva de instabilidades virão.

Aquecimento global e verão mais prolongado

O estudo relata que, se o aquecimento global continuar no ritmo atual, os riscos para a humanidade só irão piorar com o tempo. A previsão é baseada em 60 anos de dados.

Assim, os pesquisadores analisaram dados climáticos diários históricos de 1952 a 2011, marcando os dias com 25% das temperaturas mais quentes nesses anos como os meses de verão e aqueles com temperaturas mais quentes.

Dessa forma, a análise descobriu que o verão aumentou em média de 78 dias para 95 dias nesse período e o inverno diminuiu de 76 dias para 73 dias. A primavera e o outono também diminuíram, em 9 dias e 5 dias, respectivamente.

Enquanto a primavera e o verão começaram gradualmente mais cedo, o outono e o inverno começaram mais tarde. Os resultados foram publicados na revista Geophysical Research Letters.

Enfim, o estudo conclui que o hemisfério Norte chegará a um verão de 6 meses em 2100, começando mais cedo. Isso porque a equipe se voltou para modelos climáticos futuros para prever como essas tendências poderiam continuar até a virada do século. De acordo com as simulações, o inverno vai durar apenas 2 meses.

Este é um desenvolvimento potencialmente perigoso por várias razões, significando maior exposição aos pólens no ar e disseminação de mosquitos tropicais que transmitem doenças, por exemplo.

*Por Amanda dos Santos

…………………………………………………………………………………………
*Fonte: socientifica

Novo estudo aponta que há 50% de chance de estarmos vivendo em uma simulação

Revisado por cientistas da Universidade da Califórnia, a analise iniciou em 2003 e chegou a citar Matrix para comparar as possibilidades

Um novo estudo, publicado pela revista Scientic American, levantou dados teóricos sobre uma das principais dúvidas sobre vidas paralelas; de acordo com cientistas da Universidade de Columbia, existe 50% de chance de nós, seres humanos, estarmos vivendo em uma simulação.

Em 2003, o filósofo Nick Bostrom realizou um trabalho acadêmico onde concluiu que há 50.22222% de chance dos seres humanos serem reais e 49.777778% de na verdade, tudo não passar de uma simulação.

O projeto foi revisado por David Kipping, um astrônomo da Universidade de Columbia, que destacou uma citação do autor onde ele menciona duas afirmações e diz que, no mínimo, uma delas é verdadeira; é muito provável que a espécie humana entre em extinção antes mesmo do início de uma futura era “pós-humana”; e, em uma possível civilização pós-humana, as chances de haver uma repetição de simulações de sua história evolutiva é muito pequena.

Bostrom declara que a teoria de que existe uma chance significativa de, um dia, nos tornarmos pós-humanos que executam simulações ancestrais é falsa — a não ser que de fato estejamos vivendo uma simulação.

A conspiração do filósofo é baseada quase inteiramente no poder da computação, podendo ser comparada, por exemplo, com o enredo da produção de Matrix; ele defende que, se os seres humanos não criarem uma simulação própria e com seres conscientes, a possibilidade de tudo o que vivemos ser de fato uma simulação tem suas chances aumentadas.

*Por Wallacy Ferrari

……………………………………………………………………………………………
*Fonte: aventurasnahistoria

A revolução do acesso aberto

O acesso ao conhecimento pode ser muito caro. Cientistas que querem uma grande relevância para suas pesquisas são obrigado a tentar publicar em revistas científicas de grande impacto, com destaque para as editoras Nature e Elsevier. Grande parte das revistas de renome são pagas, cujos preços são muitas vezes abusivos. Até mesmo o Ciencianautas é afetado, quando restringido ao acesso de determinada pesquisa pelo preço, e impossibilitado, portanto, de escrever sobre tal pesquisa.

Uma pesquisa científica demanda muitas referências e fontes, ou seja, estudos de outras pesquisas, que também podem ser de acesso pago. Nenhum pesquisador ou aluno universitário pode bancar tanto acesso à revistas científicas. No Brasil, a CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior), uma fundação do Ministério de Educação, que atua no fomento à pesquisa científica, paga para todos os universitários (alunos, professores, pesquisadores) o acesso às principais revistas científicas do mundo, com mais de 45 mil títulos disponíveis.

Mesmo com a CAPES pagando por boa parte dos acessos, as universidades precisam pagar outros títulos para atender suas necessidades. Na proposta orçamentária da USP para 2019, a previsão de gastos com periódicos é de 6 milhões de reais, por exemplo.

Os altos preços são polêmicos e injustos porque as editoras não financiam pesquisas, não pagam aos autores e nem mesmo pela revisão, que é tradicionalmente feita de forma voluntária pelos acadêmicos. A editora tem, basicamente, o trabalho de administrar a revisão, fazer a formatação do artigo e publicar (imprimir ou hospedar) o artigo. Os altos preços são, portanto, insustentáveis. As margens de lucro são altíssimas — em 2013, a média da margem de lucro das editoras científicas era de 38,9%, maior do que os 29%, no mesmo ano, de um dos maiores bancos do mundo, o Banco Industrial e Comercial da China, como mostra um estudo publicado em 2015 que aponta para um Oligopólio das editoras científicas.

Como se não bastasse, muitas vezes, as pesquisas são financiadas com dinheiro público, ou seja, de impostos. A maior parte dos cientistas não concordam com esses abusos, mas são encurralados pelo ciclo vicioso, já que o renome das revistas são muitas vezes necessários para o impacto das pesquisas. Mesmo assim, muitos boicotes são feitos às editoras, como o recente rompimento da gigante Universidade da Califórnia com a Elsevier, a maior editora científica do mundo. Outras universidades pelo mundo já haviam tomado medidas parecidas.

“O conhecimento não deve ser acessível apenas para aqueles que podem pagar”, disse Robert May, presidente do Senado Acadêmico da Universidade da Califórnia. “A busca pelo acesso aberto total é essencial para que possamos realmente defender a missão desta universidade.”

Ultimamente, o número e o impacto das revistas de acesso aberto estão crescendo. Além disso, são vários os repositórios de artigos científicos na internet, como por exemplo o Cruesp (Repositório da Produção Científica do Conselho de Reitores das Universidades Estaduais Paulistas), que reúne trabalhos científicos publicados por pesquisadores da USP, Unicamp e Unesp.

Segundo o relatório Analytical Support for Bibliometrics Indicators – Open access availability of scientific publications, de 2018, o Brasil lidera em número de publicações em revistas de acesso aberto, com uma taxa de 75%. Um enorme contribuidor disso é o SciELO, uma biblioteca digital brasileira criada em uma parceria entre a FAPESP (Fundação de Amparo à Pesquisa de São Paulo) e o Bireme, (Centro Latino-Americano e do Caribe de Informação em Ciências da Saúde), e que conta com a participação de diversos países.

Há diversas iniciativas, muitas internacionais, que visam acelerar a transição para o acesso aberto à publicações científicas. O Plan S, por exemplo, determina que todos os artigos acadêmicos resultantes de pesquisas financiadas por membros da coAllition S devem ser publicados em acesso aberto imediato a partir de 1° de janeiro de 2020, e propõe que pesquisas financiadas com dinheiro público também sejam publicadas nessa modalidade. Lançada em 2016 pela Max Planck Society, a OA2020, outra iniciativa do tipo, já conta com 136 organizações signatárias.

“O Plan S não defende um modelo específico, mas apenas determina o acesso imediato aos resultados de pesquisa”, disse à Pesquisa FAPESP o holandês Robert-Jan Smits, conselheiro sênior em Acesso Aberto da Comissão Europeia. “Acreditamos que a iniciativa contribuirá para o surgimento de novos periódicos de acesso aberto com qualidade. Isso ocorrerá gradualmente.”

As grandes editoras já estão se movimentando. Em 2016 a Elsevier adquiriu o repositório SSRN (Social Science Research Network).

Um gigante repositório, Sci-Hub, com mais de 60 milhões de artigos, publica com ajuda de acadêmicos de todo o mundo até mesmo artigos protegidos com direitos autorais, das grandes editoras, o que se encaixa como pirataria. Em 2017, a Corte de Nova York determinou que o Sci-Hub e o Library Genesis paguem mais de 15 milhões de dólares à Elsevier por violação de direitos autorais. Em 2016, a própria Nature, uma das editoras mais pirateadas pelo Sci-Hub, elegeu Alexandra Elbakyan, criadora do repositório, como umas das 10 pessoas mais importantes no ano.

Os preprints — artigos ainda não editados pelas editoras — também fazem sucesso. Um dos principais repositórios de preprints é o ArXiv, lançado em 1991.

“O acesso aberto estimulará uma pesquisa mais rápida e melhor – e maior equidade global de acesso a novos conhecimentos”, diz Ivy Anderson, diretora executiva associada da Biblioteca Digital da Califórnia, da Universidade da Califórnia.

*Por Felipe Miranda

………………………………………………………………………….
*Fonte: ciencianautas

Cientistas criam um mapa 2D da Terra mais fiel à realidade

Três cientistas das universidades de Princeton e Drexel, ambas dos Estados Unidos, desenvolveram um novo método de representação do planeta Terra em uma imagem plana. A projeção, batizada de Double-Sided Gott, envolve a impressão do mapa como um círculo de dupla face na qual há a divisão de um globo em dois e a indicação separada dos hemisférios.

Ainda que modelos 3D ofereçam uma maneira mais precisa de se ilustrar o nosso lar no espaço sideral, existem diversos jeitos de torná-lo 2D. Entretanto, nenhum deles é perfeito, pois todos distorcem algum aspecto ou mais, a exemplo do Mercator, utilizado pelo Google Maps em regiões locais, e do Winkel Tripel, encontrado em mapas mundiais da National Geographic. Mesmo o segundo, explicam os especialistas, divide o Oceano Pacífico em dois.

Modelo é um dos menos distorcidos entre os propostos até então.Modelo é um dos menos distorcidos entre os propostos até então.

Para conquistarem os resultados expressivos divulgados, J. Richard Gott, professor emérito de astrofísica, e David Goldberg, professor de física, se basearam em um sistema de pontuação criado por eles em 2007, capaz de determinar a acurácia de mapas planos. Quanto mais próximo de zero estiver um modelo, mais fiel será à realidade.

Considerando-se os seis tipos de distorções que os exemplares podem apresentar (formas locais, áreas, distâncias, flexão ou curvatura, assimetria e cortes de limite ou lacunas de continuidade), enquanto o Mercator chega a 8,296 e o Winkel Tripel marca 4,563, o Double-Sided Gott, sugerido pelos dois junto a Robert Vanderbei, professor de pesquisa operacional e engenharia financeira, atingiu a taxa impressionante de 0,881.

“Acreditamos que seja o mapa plano mais preciso da Terra até o momento”, defende a equipe.

Uma das grandes vantagens da proposta é que ela rompe com os limites das duas dimensões sem perda alguma de conveniências logísticas comuns a um mapa plano (armazenamento e fabricação, por exemplo).

“É possível segurá-lo na mão”, ressalta Gott, complementando que uma simples caixa fina poderia conter mapas de todos os principais planetas e luas do Sistema Solar – assim como ilustrações que carregassem dados físicos e a respeito de fronteiras políticas, densidades populacionais, climas ou idiomas, assim como outras informações desejadas.

Aliás, a novidade também pode ser impressa em uma única página de uma revista, afirmam os cientistas, pronta para o leitor recortar. Os três imaginam seus mapas em papelão ou plástico e, em seguida, empilhados como registros, armazenados juntos em uma caixa ou guardados dentro das capas de livros didáticos.

“Nosso mapa é na verdade mais parecido com o globo do que outros mapas planos”, destaca Gott. “Para ver todo o globo, você precisa girá-lo; para ver todo o nosso novo mapa, basta virá-lo. Se você for uma formiga, pode ir de um lado desse ‘disco fonográfico’ para o outro. Temos continuidade ao longo do Equador. A África e a América do Sul estão dobradas na borda, como um lençol sobre um varal, mas são contínuas”, detalha.

“Não se pode tornar tudo perfeito. Um mapa que é bom em uma coisa pode não ser em representar outras”, pondera o pesquisador, que, de todo modo, não deixa de comemorar: “Estamos propondo um tipo de mapa radicalmente diferente e vencemos Winkel Tripel em cada um dos seis erros.”

*Por Reinaldo Zaruvni

…………………………………………………………………….
*Fonte: tecmundo

As imagens mais espetaculares na história da exploração espacial: o pouso da sonta Perseverance em Marte

A NASA divulgou um vídeo do Rover Perseverance em Marte enquanto ele descia pela atmosfera do planeta e pousou como planejado na Cratera Jezero na última quinta-feira.

Falando em uma coletiva de imprensa na segunda-feira, David Gruel, do Laboratório de Propulsão a Jato da NASA, disse que a equipe de vídeo manteve suas expectativas modestas: “Conseguimos o que conseguimos e não ficamos chateados”.

O que eles fizeram estão entre as imagens mais espetaculares na história da exploração espacial.

Seis pequenas câmeras compõem o sistema EDL Cam (Entrada, Descida e Aterrissagem, na sigla em inglês). Elas sobreviveram à viagem e funcionaram perfeitamente, capturando a abertura do paraquedas da espaçonave, separação do escudo térmico, descida e o suave pouso do Rover Perseverance na superfície marciana.

Há detalhes extraordinários no vídeo. A espaçonave balança um pouco debaixo do paraquedas e estabiliza à medida que os propulsores do módulo de descida assumem e o paraquedas é lançado para longe. Uma câmera no módulo de descida mostra o Rover enquanto ele desce com a ajuda de três cabos. Uma câmera no Rover captura a mesma cena de baixo; uma vez na superfície os cabos desconectam e o módulo de descida voa para longe.

Havia também dois microfones na espaçonave. Gruel disse que não conseguiu capturar o áudio do pouso, mas uma vez na superfície um dos microfones gravou – pela primeira vez – sons de Marte. O clipe disponibilizado pela NASA contém um zumbido silencioso do funcionamento do Rover, e uma rajada de vento marciana varrendo o módulo de pouso. Outro clipe cancela o som do Rover, deixando apenas a brisa.

*Por Marcelo Ribeiro

……………………………………………………………………………
*Fonte: hypescience

Avião elétrico solar percorreu 43.000 km, com 97% de eficiência e sem uma gota de combustível

Que o futuro está chegando e que há muitas tecnologias para serem lançadas, não temos dúvida. Nessa matéria você irá conhecer o avião denominado Solar Impulse 2, que percorreu 43.000 km sem uma gota de combustível e seus 4 motores elétricos tiveram uma eficiência recorde de 97%.

O Solar Impulse é projeto de avião solar de longo alcance proposto na Escola Politécnica Federal de Lausana (EPFL), na Suíça, e é promovido por Bertrand Piccard, tem o objetivo de produzir aeronaves capazes de darem a volta ao mundo com apenas energia solar.

Sobre o Solar Impulse 2

Tem o peso de uma tonelada e meia e é tão largo quanto um Boeing 747, voa através de energia solar captada através de 17.248 células solares, é praticamente um laboratório voador, repleto de tecnologias inovadoras que permitem produzir energia renovável, armazená-la e utilizá-la quando necessário e da forma mais eficiente.

A eficiência de seus motores elétricos é de 97% e dos motores térmicos é de apenas 27%, o que significa que seus motores perdem apenas 3% da energia, enquanto os motores tradicionais chegam a perder 73% para propulsão em combustão.

Isso nos faz refletir sobre o motivo dessas tecnologias não serem tão divulgadas, nós do Engenharia Hoje temos a missão de popularizar essas tecnologias que podem ajudar a humanidade e pedimos seu apoio para compartilhar e ajudar a disseminar essa informação para toda a sociedade.

E já fazem 5 anos que ele foi capaz de completar uma circum-navegação da Terra sem gastar 1 gota de combustível e percorreu mais de 43.000 km.

Veja o vídeo oficial em inglês, você também pode ativar legendas:

………………………………………………………………………
*Fonte: engenhariahoje

Assista a um homem tentando esmagar sua própria barata-robô (e falhando)

Em um esforço para criar um robô mais forte e flexível, os pesquisadores estão se voltando às criaturas minúsculas, mas poderosas do mundo: insetos. Especificamente, baratas. Os cientistas começaram a observar baratas quando estavam sendo esmagadas para entender como esses pequenos insetos sorrateiros conseguem se espremer através de rachaduras apertadas e suportar cargas pesadas (como o esmagamento de um pé humano). Agora, os pesquisadores dizem que desenvolveram um robô que reflete os movimentos dessas criaturas tenazes.

Com uma perna, em forma de lâmina, e impulsionado por uma corrente alternada, esse novo robô se move com um movimento de salto semelhante a uma barata a uma velocidade de 20 comprimentos de corpo por segundo (acima). O roachbot tem 10 milímetros de comprimento e é feito de materiais flexíveis que geram uma carga elétrica em resposta a forças externas.

Para testar a velocidade, a força e a flexibilidade do roachbot, os pesquisadores colocaram uma série de pesos e objetos nele e cronometraram a velocidade com que ele se movia ao longo de uma régua. Eles descobriram que o robô é capaz de subir 7,5° a uma velocidade de sete comprimentos do corpo por segundo, transportar cargas de até seis vezes seu próprio peso e suportar o peso de um pé humano adulto, aproximadamente 1 milhão de vezes mais pesado que o próprio robô, os pesquisadores relataram hoje na Science Reports. O roachbot é o único entre robôs duros com um exoesqueleto flexível, mas forte – a maioria dos outros são feitos de partes rígidas e se movem lentamente e desajeitadamente como resultado.

Os cientistas dizem que, como esses robôs aprendem a se mover de forma mais eficiente, eles poderiam se tornar especialistas em exploração ambiental e socorro em desastres. Quem iria imaginar que essas pragas se tornariam tão úteis?

*Por Douglas R. Aguiar de Oliveira

……………………………………………………………………………………..
*Fonte: universoracionalista

Cientistas inventam pasta de hidrogênio que pode substituir a gasolina

Se você acha que o futuro são apenas veículos elétricos, pode estar enganado. Cientistas inventaram uma pasta de hidrogênio que armazena até dez vezes mais energia que baterias.

Os pesquisadores responsáveis pela invenção dessa pasta são do Fraunhofer Institute for Manufacturing Technology and Advanced Materials (IFAM), na Alemanha e nomearam como Power Paste.

A pasta é uma forma segura de se usar o hidrogênio e não é poluente. Também é uma mistura em pó de magnésio e hidrogênio que resulta em hidreto de magnésio, que incluído um éster, é possível armazenar em um cartucho.

Benefícios

– Não evapora se deixar o carro sob a luz do Sol
– Densidade de armazenamento de energia superior à fornecida por um tanque de alta pressão
– Reabastecimento rápido com apenas uma troca de cartucho
– Transporte de unidades extras
– Sem necessidade de postos de combustíveis

Piloto de Power Paste em 2021

O IFAM está atualmente construindo uma planta de produção para Power Paste no Centro de Projetos Fraunhofer para Armazenamento de Energia e Sistemas ZESS. Prevista para entrar em operação neste ano, esta nova instalação será capaz de produzir até quatro toneladas de Power Paste por ano.

……………………………………………………………………………….
*Fonte: engenhariahoje