O que o budismo pode fazer pela ética da Inteligência Artificial

O crescimento explosivo da Inteligência Artificial (IA) alimentou a esperança de que ela nos ajudará a resolver muitos dos problemas mais intratáveis ​​do mundo. No entanto, também há muita preocupação com o poder que ela detém ​​e um crescente consenso de que seu uso deve ser orientado para evitar a infração de nossos direitos.

Muitos grupos discutiram e propuseram diretrizes éticas de como a IA deve ser desenvolvida ou implantada: IEEE, uma organização profissional global para engenheiros, publicou um documento de 280 páginas sobre o assunto, e a União Europeia publicou seu próprio conjunto de regras. O Inventário Global das Diretrizes de Ética da AI compilou mais de 160 dessas orientações em todo o mundo.

Infelizmente, a maioria dessas normas é desenvolvida por grupos ou organizações concentradas na América do Norte e na Europa: uma pesquisa publicada pela cientista social Anna Jobin e seus colegas encontrou 21 nos EUA, 19 na União Europeia, 13 no Reino Unido, quatro no Japão, e um de cada um dos Emirados Árabes Unidos, Índia, Cingapura e Coreia do Sul.

Elas refletem os valores das pessoas que as emitem. O fato de a maioria das diretrizes de ética da IA ​​estar sendo escrita em países ocidentais significa, consequentemente, que o campo é dominado por valores ocidentais, como respeito à autonomia e aos direitos dos indivíduos, especialmente porque as poucas regras emitidas em outros países refletem principalmente as do Ocidente.

Aquelas escritas em diferentes países podem ser semelhantes porque alguns valores são realmente universais. No entanto, para que essas diretrizes reflitam verdadeiramente as perspectivas das pessoas em países não ocidentais, elas também precisariam representar os sistemas de valores tradicionais encontrados em cada cultura.

Tanto no Oriente como no Ocidente, as pessoas precisam compartilhar suas ideias e considerar as de outras pessoas para enriquecer suas próprias perspectivas. Como o desenvolvimento e o uso da IA ​​se estendem por todo o globo, a maneira como pensamos sobre isso deve ser informada por todas as principais tradições intelectuais.

Com isso em mente, acredito que as percepções derivadas do ensino budista podem beneficiar qualquer pessoa que trabalhe com a ética da IA ​​em qualquer lugar do mundo, e não apenas em culturas tradicionalmente budistas (que estão principalmente no Oriente e principalmente no Sudeste Asiático).

O budismo propõe uma maneira de pensar sobre a ética com base na suposição de que todos os seres sencientes desejam evitar a dor. Assim, o budismo ensina que uma ação é boa se conduz à libertação do sofrimento.

A implicação desse ensino para a Inteligência Artificial é que qualquer uso ético da IA ​​deve se esforçar para diminuir a dor e o sofrimento. Em outras palavras, por exemplo, a tecnologia de reconhecimento facial deve ser usada apenas se for comprovada que reduz o sofrimento ou promove o bem-estar. Além disso, o objetivo deve ser reduzir o sofrimento para todos — não apenas para aqueles que interagem diretamente com a IA.

É claro que podemos interpretar esse objetivo de forma ampla para incluir o conserto de um sistema ou processo que seja insatisfatório ou mudar qualquer situação para melhor. Usar a tecnologia para discriminar as pessoas ou para vigiá-las e reprimi-las seria claramente antiético. Quando há áreas cinzentas ou a natureza do impacto não é clara, o ônus da prova caberia àqueles que procuram mostrar que uma aplicação específica de IA não causa danos.

Não fazer o mal

Uma ética de IA de inspiração budista também entenderia que viver de acordo com esses princípios requer autocultivo. Isso significa que aqueles que estão envolvidos com IA devem treinar continuamente para se aproximarem do objetivo de eliminar totalmente o sofrimento. Alcançar a meta não é tão importante; o importante é que eles empreendam a prática para alcançá-la. É a prática que conta.

Designers e programadores devem praticar, reconhecendo esse objetivo e definindo etapas específicas que seu trabalho executaria para que seu produto incorporasse o ideal. Ou seja, a IA que eles criam deve visar ajudar o público a eliminar o sofrimento e promover o bem-estar.

Para que tudo isso seja possível, as empresas e agências governamentais que desenvolvem ou usam IA devem prestar contas ao público. A responsabilidade também é um ensinamento budista e, no contexto da ética da IA, requer mecanismos legais e políticos eficazes, bem como independência judicial. Esses componentes são essenciais para que qualquer diretriz de ética de IA funcione conforme o esperado.

Outro conceito-chave no budismo é a compaixão, ou o desejo e o compromisso de eliminar o sofrimento dos outros. A compaixão também requer autocultivo e significa que atos prejudiciais, como exercer o poder de reprimir os outros, não têm lugar na ética budista. Não é necessário ser monge para praticar a ética budista, mas deve-se praticar o autocultivo e a compaixão na vida diária.
Podemos ver que os valores promovidos pelo budismo — incluindo responsabilidade, justiça e compaixão — são principalmente os mesmos encontrados em outras tradições éticas. Isto é esperado; afinal, somos todos seres humanos. A diferença é que o budismo defende esses valores de uma maneira diferente e coloca talvez uma ênfase maior no autocultivo.

O budismo tem muito a oferecer a qualquer pessoa que pense sobre o uso ético da tecnologia, incluindo aqueles interessados ​​em IA. Acredito que o mesmo também se aplica a muitos outros sistemas de valores não ocidentais. As diretrizes de ética da IA ​​devem se basear na rica diversidade de pensamento das muitas culturas do mundo para refletir uma variedade mais ampla de tradições e ideias sobre como abordar os problemas éticos. O futuro da tecnologia seria ainda mais brilhante dessa maneira.
Soraj Hongladarom é professor de filosofia no Centro de Ciência, Tecnologia e Sociedade da Universidade Chulalongkorn em Bangkok, Tailândia.

…………………………………………………………………………….
*Fonte: mithtechreview

Esta nova Inteligência Artificial existe com o único propósito de discutir com humanos

Os robôs não podem nos vencer. Ainda. Mas um programa de inteligência artificial (IA) desenvolvido por cientistas da IBM é tão bom em debater contra humanos que pode ser apenas uma questão de tempo até que não possamos competir.

O Project Debater, um sistema de debate autônomo que está em desenvolvimento há vários anos, é capaz de argumentar contra os humanos de uma forma significativa, tomando posições em um debate sobre um tópico escolhido e defendendo por que seu ponto de vista é o correto.

A IA, descrita em um novo estudo publicado na Nature, ainda não está no ponto de poder superar a lógica argumentativa humana, mas uma demonstração pública de suas habilidades em 2019 mostrou o quão longe sua forma artificial de raciocínio chegou.

Em um debate de demonstração contra o especialista em debates Harish Natarajan, o Project Debater revelou que foi capaz de formar um argumento sobre um tópico complexo (se a pré-escola deveria ser subsidiada para as famílias) e apresentar pontos em apoio ao argumento.

No processamento de linguagem natural, a capacidade de fazer isso envolve o que é chamado de mineração de argumento, em que uma IA analisa uma grande quantidade de informações díspares, procurando vincular seções relevantes.

No caso do Project Debater, a IA foi alimentada por um arquivo de cerca de 400 milhões de notícias, a partir das quais agora ela pode redigir declarações iniciais, refutações e resumos finais sobre uma gama de aproximadamente 100 tópicos de debate.

Embora o sistema ainda precise de refinamento – e ainda não está no ponto em que pode se igualar a um especialista humano em debates – a maioria dos observadores que classificam as transcrições dos argumentos do Project Debater deram uma pontuação alta, classificando o desempenho da IA ​​como decente nos debates.

Isso é uma conquista e tanto, considerando que os desafios tecnológicos da mineração de argumentos para esse tipo de propósito eram considerados quase impossíveis mesmo para a IA de última geração apenas uma década atrás.

“Desde então, uma combinação de avanços técnicos em IA e a crescente maturidade na engenharia de tecnologia de argumento, juntamente com a intensa demanda comercial, levou a uma rápida expansão da área”, explica o pesquisador de tecnologia de argumento Chris Reed, da Universidade de Dundee no Reino Unido, que não estava envolvido no estudo, em um comentário sobre a pesquisa.

“Mais de 50 laboratórios em todo o mundo estão trabalhando nessa questão, incluindo equipes em todas as grandes corporações de software.”

Claro, nos últimos anos vimos IAs ultrapassar as capacidades humanas muitas vezes no mundo dos jogos, mas a mineração de argumentos é, em muitos aspectos, um esforço mais complexo, dadas as enormes quantidades de informações que precisam ser analisadas e, em seguida, ligadas em conjunto.

“O debate representa uma atividade cognitiva primária da mente humana, exigindo a aplicação simultânea de um amplo arsenal de compreensão da linguagem e capacidades de geração de linguagem, muitas das quais foram apenas parcialmente estudadas de uma perspectiva computacional (como tarefas separadas), e certamente não em uma maneira holística”, explicam os pesquisadores, liderados pelo pesquisador principal Noam Slonim em seu estudo.

“Portanto, um sistema de debate autônomo parece estar além do alcance dos esforços da pesquisa linguística anterior.”

Embora o Project Debater represente um avanço significativo, o campo de pesquisa ainda não chegou ao ponto das IAs poderem realizar esse feito de raciocínio melhor do que os humanos.

A equipe diz que o debate ainda está fora da ‘zona de conforto’ dos sistemas de IA, e que novos paradigmas precisarão ser desenvolvidos antes de vermos as máquinas superando a habilidade argumentativa inerente das pessoas em tópicos complexos e ambíguos.

*Por Julio Batista

………………………………………………………………………………………………………
*Fonte: universoracionalista

Em 2100, o verão durará 6 meses no hemisfério Norte

Os pesquisadores estão preocupados com uma perturbação climática das estações terrestres que não estamos acostumados. Eles alertam que em 2100 o verão provavelmente durará 6 meses no hemisfério Norte e teria repercussões catastróficas no equilíbrio dos ecossistemas, colocando a humanidade em perigo.

Ou seja, será prejudicial aos ecossistemas que são finamente equilibrados em termos de estações e temperaturas. Portanto, ondas de calor prolongadas, incêndios florestais mais frequentes, mudanças nos padrões de migração (afetando a cadeia alimentar) e mais uma lista exaustiva de instabilidades virão.

Aquecimento global e verão mais prolongado

O estudo relata que, se o aquecimento global continuar no ritmo atual, os riscos para a humanidade só irão piorar com o tempo. A previsão é baseada em 60 anos de dados.

Assim, os pesquisadores analisaram dados climáticos diários históricos de 1952 a 2011, marcando os dias com 25% das temperaturas mais quentes nesses anos como os meses de verão e aqueles com temperaturas mais quentes.

Dessa forma, a análise descobriu que o verão aumentou em média de 78 dias para 95 dias nesse período e o inverno diminuiu de 76 dias para 73 dias. A primavera e o outono também diminuíram, em 9 dias e 5 dias, respectivamente.

Enquanto a primavera e o verão começaram gradualmente mais cedo, o outono e o inverno começaram mais tarde. Os resultados foram publicados na revista Geophysical Research Letters.

Enfim, o estudo conclui que o hemisfério Norte chegará a um verão de 6 meses em 2100, começando mais cedo. Isso porque a equipe se voltou para modelos climáticos futuros para prever como essas tendências poderiam continuar até a virada do século. De acordo com as simulações, o inverno vai durar apenas 2 meses.

Este é um desenvolvimento potencialmente perigoso por várias razões, significando maior exposição aos pólens no ar e disseminação de mosquitos tropicais que transmitem doenças, por exemplo.

*Por Amanda dos Santos

…………………………………………………………………………………………
*Fonte: socientifica

Novo estudo aponta que há 50% de chance de estarmos vivendo em uma simulação

Revisado por cientistas da Universidade da Califórnia, a analise iniciou em 2003 e chegou a citar Matrix para comparar as possibilidades

Um novo estudo, publicado pela revista Scientic American, levantou dados teóricos sobre uma das principais dúvidas sobre vidas paralelas; de acordo com cientistas da Universidade de Columbia, existe 50% de chance de nós, seres humanos, estarmos vivendo em uma simulação.

Em 2003, o filósofo Nick Bostrom realizou um trabalho acadêmico onde concluiu que há 50.22222% de chance dos seres humanos serem reais e 49.777778% de na verdade, tudo não passar de uma simulação.

O projeto foi revisado por David Kipping, um astrônomo da Universidade de Columbia, que destacou uma citação do autor onde ele menciona duas afirmações e diz que, no mínimo, uma delas é verdadeira; é muito provável que a espécie humana entre em extinção antes mesmo do início de uma futura era “pós-humana”; e, em uma possível civilização pós-humana, as chances de haver uma repetição de simulações de sua história evolutiva é muito pequena.

Bostrom declara que a teoria de que existe uma chance significativa de, um dia, nos tornarmos pós-humanos que executam simulações ancestrais é falsa — a não ser que de fato estejamos vivendo uma simulação.

A conspiração do filósofo é baseada quase inteiramente no poder da computação, podendo ser comparada, por exemplo, com o enredo da produção de Matrix; ele defende que, se os seres humanos não criarem uma simulação própria e com seres conscientes, a possibilidade de tudo o que vivemos ser de fato uma simulação tem suas chances aumentadas.

*Por Wallacy Ferrari

……………………………………………………………………………………………
*Fonte: aventurasnahistoria

A revolução do acesso aberto

O acesso ao conhecimento pode ser muito caro. Cientistas que querem uma grande relevância para suas pesquisas são obrigado a tentar publicar em revistas científicas de grande impacto, com destaque para as editoras Nature e Elsevier. Grande parte das revistas de renome são pagas, cujos preços são muitas vezes abusivos. Até mesmo o Ciencianautas é afetado, quando restringido ao acesso de determinada pesquisa pelo preço, e impossibilitado, portanto, de escrever sobre tal pesquisa.

Uma pesquisa científica demanda muitas referências e fontes, ou seja, estudos de outras pesquisas, que também podem ser de acesso pago. Nenhum pesquisador ou aluno universitário pode bancar tanto acesso à revistas científicas. No Brasil, a CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior), uma fundação do Ministério de Educação, que atua no fomento à pesquisa científica, paga para todos os universitários (alunos, professores, pesquisadores) o acesso às principais revistas científicas do mundo, com mais de 45 mil títulos disponíveis.

Mesmo com a CAPES pagando por boa parte dos acessos, as universidades precisam pagar outros títulos para atender suas necessidades. Na proposta orçamentária da USP para 2019, a previsão de gastos com periódicos é de 6 milhões de reais, por exemplo.

Os altos preços são polêmicos e injustos porque as editoras não financiam pesquisas, não pagam aos autores e nem mesmo pela revisão, que é tradicionalmente feita de forma voluntária pelos acadêmicos. A editora tem, basicamente, o trabalho de administrar a revisão, fazer a formatação do artigo e publicar (imprimir ou hospedar) o artigo. Os altos preços são, portanto, insustentáveis. As margens de lucro são altíssimas — em 2013, a média da margem de lucro das editoras científicas era de 38,9%, maior do que os 29%, no mesmo ano, de um dos maiores bancos do mundo, o Banco Industrial e Comercial da China, como mostra um estudo publicado em 2015 que aponta para um Oligopólio das editoras científicas.

Como se não bastasse, muitas vezes, as pesquisas são financiadas com dinheiro público, ou seja, de impostos. A maior parte dos cientistas não concordam com esses abusos, mas são encurralados pelo ciclo vicioso, já que o renome das revistas são muitas vezes necessários para o impacto das pesquisas. Mesmo assim, muitos boicotes são feitos às editoras, como o recente rompimento da gigante Universidade da Califórnia com a Elsevier, a maior editora científica do mundo. Outras universidades pelo mundo já haviam tomado medidas parecidas.

“O conhecimento não deve ser acessível apenas para aqueles que podem pagar”, disse Robert May, presidente do Senado Acadêmico da Universidade da Califórnia. “A busca pelo acesso aberto total é essencial para que possamos realmente defender a missão desta universidade.”

Ultimamente, o número e o impacto das revistas de acesso aberto estão crescendo. Além disso, são vários os repositórios de artigos científicos na internet, como por exemplo o Cruesp (Repositório da Produção Científica do Conselho de Reitores das Universidades Estaduais Paulistas), que reúne trabalhos científicos publicados por pesquisadores da USP, Unicamp e Unesp.

Segundo o relatório Analytical Support for Bibliometrics Indicators – Open access availability of scientific publications, de 2018, o Brasil lidera em número de publicações em revistas de acesso aberto, com uma taxa de 75%. Um enorme contribuidor disso é o SciELO, uma biblioteca digital brasileira criada em uma parceria entre a FAPESP (Fundação de Amparo à Pesquisa de São Paulo) e o Bireme, (Centro Latino-Americano e do Caribe de Informação em Ciências da Saúde), e que conta com a participação de diversos países.

Há diversas iniciativas, muitas internacionais, que visam acelerar a transição para o acesso aberto à publicações científicas. O Plan S, por exemplo, determina que todos os artigos acadêmicos resultantes de pesquisas financiadas por membros da coAllition S devem ser publicados em acesso aberto imediato a partir de 1° de janeiro de 2020, e propõe que pesquisas financiadas com dinheiro público também sejam publicadas nessa modalidade. Lançada em 2016 pela Max Planck Society, a OA2020, outra iniciativa do tipo, já conta com 136 organizações signatárias.

“O Plan S não defende um modelo específico, mas apenas determina o acesso imediato aos resultados de pesquisa”, disse à Pesquisa FAPESP o holandês Robert-Jan Smits, conselheiro sênior em Acesso Aberto da Comissão Europeia. “Acreditamos que a iniciativa contribuirá para o surgimento de novos periódicos de acesso aberto com qualidade. Isso ocorrerá gradualmente.”

As grandes editoras já estão se movimentando. Em 2016 a Elsevier adquiriu o repositório SSRN (Social Science Research Network).

Um gigante repositório, Sci-Hub, com mais de 60 milhões de artigos, publica com ajuda de acadêmicos de todo o mundo até mesmo artigos protegidos com direitos autorais, das grandes editoras, o que se encaixa como pirataria. Em 2017, a Corte de Nova York determinou que o Sci-Hub e o Library Genesis paguem mais de 15 milhões de dólares à Elsevier por violação de direitos autorais. Em 2016, a própria Nature, uma das editoras mais pirateadas pelo Sci-Hub, elegeu Alexandra Elbakyan, criadora do repositório, como umas das 10 pessoas mais importantes no ano.

Os preprints — artigos ainda não editados pelas editoras — também fazem sucesso. Um dos principais repositórios de preprints é o ArXiv, lançado em 1991.

“O acesso aberto estimulará uma pesquisa mais rápida e melhor – e maior equidade global de acesso a novos conhecimentos”, diz Ivy Anderson, diretora executiva associada da Biblioteca Digital da Califórnia, da Universidade da Califórnia.

*Por Felipe Miranda

………………………………………………………………………….
*Fonte: ciencianautas

Cientistas criam um mapa 2D da Terra mais fiel à realidade

Três cientistas das universidades de Princeton e Drexel, ambas dos Estados Unidos, desenvolveram um novo método de representação do planeta Terra em uma imagem plana. A projeção, batizada de Double-Sided Gott, envolve a impressão do mapa como um círculo de dupla face na qual há a divisão de um globo em dois e a indicação separada dos hemisférios.

Ainda que modelos 3D ofereçam uma maneira mais precisa de se ilustrar o nosso lar no espaço sideral, existem diversos jeitos de torná-lo 2D. Entretanto, nenhum deles é perfeito, pois todos distorcem algum aspecto ou mais, a exemplo do Mercator, utilizado pelo Google Maps em regiões locais, e do Winkel Tripel, encontrado em mapas mundiais da National Geographic. Mesmo o segundo, explicam os especialistas, divide o Oceano Pacífico em dois.

Modelo é um dos menos distorcidos entre os propostos até então.Modelo é um dos menos distorcidos entre os propostos até então.

Para conquistarem os resultados expressivos divulgados, J. Richard Gott, professor emérito de astrofísica, e David Goldberg, professor de física, se basearam em um sistema de pontuação criado por eles em 2007, capaz de determinar a acurácia de mapas planos. Quanto mais próximo de zero estiver um modelo, mais fiel será à realidade.

Considerando-se os seis tipos de distorções que os exemplares podem apresentar (formas locais, áreas, distâncias, flexão ou curvatura, assimetria e cortes de limite ou lacunas de continuidade), enquanto o Mercator chega a 8,296 e o Winkel Tripel marca 4,563, o Double-Sided Gott, sugerido pelos dois junto a Robert Vanderbei, professor de pesquisa operacional e engenharia financeira, atingiu a taxa impressionante de 0,881.

“Acreditamos que seja o mapa plano mais preciso da Terra até o momento”, defende a equipe.

Uma das grandes vantagens da proposta é que ela rompe com os limites das duas dimensões sem perda alguma de conveniências logísticas comuns a um mapa plano (armazenamento e fabricação, por exemplo).

“É possível segurá-lo na mão”, ressalta Gott, complementando que uma simples caixa fina poderia conter mapas de todos os principais planetas e luas do Sistema Solar – assim como ilustrações que carregassem dados físicos e a respeito de fronteiras políticas, densidades populacionais, climas ou idiomas, assim como outras informações desejadas.

Aliás, a novidade também pode ser impressa em uma única página de uma revista, afirmam os cientistas, pronta para o leitor recortar. Os três imaginam seus mapas em papelão ou plástico e, em seguida, empilhados como registros, armazenados juntos em uma caixa ou guardados dentro das capas de livros didáticos.

“Nosso mapa é na verdade mais parecido com o globo do que outros mapas planos”, destaca Gott. “Para ver todo o globo, você precisa girá-lo; para ver todo o nosso novo mapa, basta virá-lo. Se você for uma formiga, pode ir de um lado desse ‘disco fonográfico’ para o outro. Temos continuidade ao longo do Equador. A África e a América do Sul estão dobradas na borda, como um lençol sobre um varal, mas são contínuas”, detalha.

“Não se pode tornar tudo perfeito. Um mapa que é bom em uma coisa pode não ser em representar outras”, pondera o pesquisador, que, de todo modo, não deixa de comemorar: “Estamos propondo um tipo de mapa radicalmente diferente e vencemos Winkel Tripel em cada um dos seis erros.”

*Por Reinaldo Zaruvni

…………………………………………………………………….
*Fonte: tecmundo

As imagens mais espetaculares na história da exploração espacial: o pouso da sonta Perseverance em Marte

A NASA divulgou um vídeo do Rover Perseverance em Marte enquanto ele descia pela atmosfera do planeta e pousou como planejado na Cratera Jezero na última quinta-feira.

Falando em uma coletiva de imprensa na segunda-feira, David Gruel, do Laboratório de Propulsão a Jato da NASA, disse que a equipe de vídeo manteve suas expectativas modestas: “Conseguimos o que conseguimos e não ficamos chateados”.

O que eles fizeram estão entre as imagens mais espetaculares na história da exploração espacial.

Seis pequenas câmeras compõem o sistema EDL Cam (Entrada, Descida e Aterrissagem, na sigla em inglês). Elas sobreviveram à viagem e funcionaram perfeitamente, capturando a abertura do paraquedas da espaçonave, separação do escudo térmico, descida e o suave pouso do Rover Perseverance na superfície marciana.

Há detalhes extraordinários no vídeo. A espaçonave balança um pouco debaixo do paraquedas e estabiliza à medida que os propulsores do módulo de descida assumem e o paraquedas é lançado para longe. Uma câmera no módulo de descida mostra o Rover enquanto ele desce com a ajuda de três cabos. Uma câmera no Rover captura a mesma cena de baixo; uma vez na superfície os cabos desconectam e o módulo de descida voa para longe.

Havia também dois microfones na espaçonave. Gruel disse que não conseguiu capturar o áudio do pouso, mas uma vez na superfície um dos microfones gravou – pela primeira vez – sons de Marte. O clipe disponibilizado pela NASA contém um zumbido silencioso do funcionamento do Rover, e uma rajada de vento marciana varrendo o módulo de pouso. Outro clipe cancela o som do Rover, deixando apenas a brisa.

*Por Marcelo Ribeiro

……………………………………………………………………………
*Fonte: hypescience

Avião elétrico solar percorreu 43.000 km, com 97% de eficiência e sem uma gota de combustível

Que o futuro está chegando e que há muitas tecnologias para serem lançadas, não temos dúvida. Nessa matéria você irá conhecer o avião denominado Solar Impulse 2, que percorreu 43.000 km sem uma gota de combustível e seus 4 motores elétricos tiveram uma eficiência recorde de 97%.

O Solar Impulse é projeto de avião solar de longo alcance proposto na Escola Politécnica Federal de Lausana (EPFL), na Suíça, e é promovido por Bertrand Piccard, tem o objetivo de produzir aeronaves capazes de darem a volta ao mundo com apenas energia solar.

Sobre o Solar Impulse 2

Tem o peso de uma tonelada e meia e é tão largo quanto um Boeing 747, voa através de energia solar captada através de 17.248 células solares, é praticamente um laboratório voador, repleto de tecnologias inovadoras que permitem produzir energia renovável, armazená-la e utilizá-la quando necessário e da forma mais eficiente.

A eficiência de seus motores elétricos é de 97% e dos motores térmicos é de apenas 27%, o que significa que seus motores perdem apenas 3% da energia, enquanto os motores tradicionais chegam a perder 73% para propulsão em combustão.

Isso nos faz refletir sobre o motivo dessas tecnologias não serem tão divulgadas, nós do Engenharia Hoje temos a missão de popularizar essas tecnologias que podem ajudar a humanidade e pedimos seu apoio para compartilhar e ajudar a disseminar essa informação para toda a sociedade.

E já fazem 5 anos que ele foi capaz de completar uma circum-navegação da Terra sem gastar 1 gota de combustível e percorreu mais de 43.000 km.

Veja o vídeo oficial em inglês, você também pode ativar legendas:

………………………………………………………………………
*Fonte: engenhariahoje

Assista a um homem tentando esmagar sua própria barata-robô (e falhando)

Em um esforço para criar um robô mais forte e flexível, os pesquisadores estão se voltando às criaturas minúsculas, mas poderosas do mundo: insetos. Especificamente, baratas. Os cientistas começaram a observar baratas quando estavam sendo esmagadas para entender como esses pequenos insetos sorrateiros conseguem se espremer através de rachaduras apertadas e suportar cargas pesadas (como o esmagamento de um pé humano). Agora, os pesquisadores dizem que desenvolveram um robô que reflete os movimentos dessas criaturas tenazes.

Com uma perna, em forma de lâmina, e impulsionado por uma corrente alternada, esse novo robô se move com um movimento de salto semelhante a uma barata a uma velocidade de 20 comprimentos de corpo por segundo (acima). O roachbot tem 10 milímetros de comprimento e é feito de materiais flexíveis que geram uma carga elétrica em resposta a forças externas.

Para testar a velocidade, a força e a flexibilidade do roachbot, os pesquisadores colocaram uma série de pesos e objetos nele e cronometraram a velocidade com que ele se movia ao longo de uma régua. Eles descobriram que o robô é capaz de subir 7,5° a uma velocidade de sete comprimentos do corpo por segundo, transportar cargas de até seis vezes seu próprio peso e suportar o peso de um pé humano adulto, aproximadamente 1 milhão de vezes mais pesado que o próprio robô, os pesquisadores relataram hoje na Science Reports. O roachbot é o único entre robôs duros com um exoesqueleto flexível, mas forte – a maioria dos outros são feitos de partes rígidas e se movem lentamente e desajeitadamente como resultado.

Os cientistas dizem que, como esses robôs aprendem a se mover de forma mais eficiente, eles poderiam se tornar especialistas em exploração ambiental e socorro em desastres. Quem iria imaginar que essas pragas se tornariam tão úteis?

*Por Douglas R. Aguiar de Oliveira

……………………………………………………………………………………..
*Fonte: universoracionalista

Cientistas inventam pasta de hidrogênio que pode substituir a gasolina

Se você acha que o futuro são apenas veículos elétricos, pode estar enganado. Cientistas inventaram uma pasta de hidrogênio que armazena até dez vezes mais energia que baterias.

Os pesquisadores responsáveis pela invenção dessa pasta são do Fraunhofer Institute for Manufacturing Technology and Advanced Materials (IFAM), na Alemanha e nomearam como Power Paste.

A pasta é uma forma segura de se usar o hidrogênio e não é poluente. Também é uma mistura em pó de magnésio e hidrogênio que resulta em hidreto de magnésio, que incluído um éster, é possível armazenar em um cartucho.

Benefícios

– Não evapora se deixar o carro sob a luz do Sol
– Densidade de armazenamento de energia superior à fornecida por um tanque de alta pressão
– Reabastecimento rápido com apenas uma troca de cartucho
– Transporte de unidades extras
– Sem necessidade de postos de combustíveis

Piloto de Power Paste em 2021

O IFAM está atualmente construindo uma planta de produção para Power Paste no Centro de Projetos Fraunhofer para Armazenamento de Energia e Sistemas ZESS. Prevista para entrar em operação neste ano, esta nova instalação será capaz de produzir até quatro toneladas de Power Paste por ano.

……………………………………………………………………………….
*Fonte: engenhariahoje

Startup israelense desenvolve bateria elétrica capaz de ser carregada em somente 5 minutos

Se a questão da duração e do carregamento das baterias na atualidade em que tanto dependemos de nossos smartphones, computadores, tablets e gadgets em geral já crucial, mais ainda será quando enfim a inevitável migração para automóveis elétricos se dê de forma massiva – as baterias terão de durar mais e demorar menos para serem carregadas. Resolver todo esse dilema é o propósito da startup israelense StoreDot – que, em seu novo lançamento, criou uma bateria de íon-lítio capaz de ser carregada em somente cinco minutos, e que pode ser utilizada não só em smartphones, tablets e drones, como também em veículos elétricos.

Segundo o CEO da empresa, Doron Myersdorf, a novidade ajuda a resolver o principal impedimento hoje para o público geral ao pensar em migrar dos veículos de combustão para os elétricos: não mais o custo, mas sim a ansiedade pela autonomia, o alcance, a capacidade do veículo, a experiência e facilidade em seu uso de modo geral. “As pessoas ou estão preocupadas se ficarão presas em uma Avenida ou se terão de ficar esperando em um posto de carregamento por duas horas”, comentou Myersdorf. “Mas se a experiência do motorista for exatamente como é com combustível, toda essa preocupação desaparece”.

A oferta da StoreDot, portanto, é justamente uma tecnologia capaz de padronizar uma experiência fácil, rápida e sustentável para os veículos elétricos – a estimativa da empresa é de lançar até 2025 uma bateria ainda mais durável do que a atual, capaz de dirigir por 160 quilômetros com uma carga de somente cinco minutos. Os esforços da startup, portanto, se juntam aos de outras gigantes da área – como a Tesla, que também vem tentando aprimorar ou mesmo resolver o dilema das baterias.

*Por Vitor Paiva

…………………………………………………………………………
*Fonte: hypeness

Veja um bilhão de anos de evolução do nosso planeta em 40 segundos

As placas tectônicas cobrem o nosso planeta como um quebra-cabeça e elas estão em constante mudanças. Um grupo geocientistas divulgaram um vídeo que pela primeira vez mostra um bilhão de anos de evolução do nosso planeta em apenas 40 segundos hipnotizantes!

O vídeo é um dos modelos mais completos de movimentos de placas tectônicas já reunidos.

“Pela primeira vez, um modelo completo de tectônica foi construído, incluindo todas as fronteiras”, disse o geocientista Michael Tetley, que concluiu seu doutorado na Universidade de Sydney, ao Euronews.

“Em uma escala de tempo humana, as coisas se movem em centímetros por ano, mas, como podemos ver na animação, os continentes estiveram em todos os lugares no tempo. Um lugar como a Antártica, que vemos como um lugar frio, inóspito e gelado hoje, na verdade já foi como um bom destino de férias no equador.”
Um bilhão de anos de evolução em nosso planeta

As imagens fornecem uma estrutura científica para a compreensão da habitabilidade planetária. Ele revela um planeta em movimento constante conforme as massas de terra se movem ao redor da superfície da Terra, por exemplo, mostrando que a Antártica já esteve no equador.

O vídeo se baseia em um estudo publicado na revista Earth-Science Reviews. Confira:
Vídeo que mostra o movimento das placas tectônicas da Terra nos últimos bilhões de anos.
(Dr. Andrew Merdith / Universidade de Lyon)

As placas tectônicas

As placas tectônicas são uma espécie de laje maciça de rocha sólida de formato irregular, geralmente composta por litosfera continental e oceânica. O tamanho da placa pode variar muito, de algumas centenas a milhares de quilômetros de diâmetro; as placas do Pacífico e da Antártica estão entre as maiores. A espessura da placa também varia muito, variando de menos de 15 km para a litosfera oceânica jovem a cerca de 200 km ou mais para a litosfera continental antiga.

*Por Damares Alves

………………………………………………………………………….
*Fonte: socientifica

Os cientistas descobriram uma maneira de decodificar os sinais do cérebro em discurso

Você não precisa pensar muito a respeito: quando você fala, seu cérebro envia sinais aos lábios, língua, mandíbula e laringe, que trabalham juntos para produzir os sons pretendidos.

Agora, os cientistas em San Francisco dizem que utilizaram esses sinais cerebrais para criar um dispositivo capaz de emitir frases completas, como “Não lave a louça suja de Charlie” e “Equipamentos fundamentais precisam de manutenção adequada”.

A pesquisa é um passo em direção a um sistema que seria capaz de ajudar pessoas com paralisia severa a falar — e, talvez um dia, dispositivos disponibilizados para o comércio que permitem que qualquer pessoa envie um texto direto do cérebro.

Uma equipe liderada pelo neurocirurgião Edward Chang, da Universidade da Califórnia, em San Francisco, analisou o cérebro de cinco pessoas com epilepsia, que já estavam passando por uma cirurgia no cérebro, enquanto falavam frases de uma lista com 100 possibilidades.

Quando a equipe de Chang posteriormente adicionou os sinais em um modelo de computador do sistema vocal humano, ele gerou uma fala sintetizada que era quase inteligível.

Uma amostra da fala gerada pela decodificação dos sinais cerebrais de um paciente.

O dispositivo não capta pensamentos abstratos, mas identifica a ativação dos nervos enquanto dizem aos seus órgãos vocais para se moverem. Anteriormente, os pesquisadores usaram esses sinais motores de outras partes do cérebro para controlar braços robóticos.

“Estamos acessando as partes do cérebro que controlam esses movimentos — estamos tentando decodificá-los, em vez de falar diretamente”, diz Chang.

No experimento de Chang, os sinais foram registrados usando eletrodos flexíveis em um aparelho chamado matriz de eletrocorticografia, ou ECoG, que fica na superfície do cérebro.

Para testar o quão bem os sinais podem ser usados ​​para recriar o que os pacientes disseram, os pesquisadores apresentaram os resultados sintetizados para pessoas que trabalham no Mechanical Turk, um site colaborativo, que tentaram transcrevê-los usando um conjunto de palavras possíveis. Esses ouvintes conseguiam entender cerca de 50% a 70% das palavras, em média.

“Este é provavelmente o melhor trabalho que está sendo feito em BCI [interfaces cérebro-computador] no momento”, diz Andrew Schwartz, um pesquisador sobre essas tecnologias na Universidade de Pittsburgh. Ele diz que se os pesquisadores colocassem sondas dentro do tecido cerebral, não apenas sobre o cérebro, a precisão poderia ser muito maior.

Esforços anteriores procuraram reconstruir palavras ou sons de palavras a partir de sinais cerebrais. Em janeiro de 2019, por exemplo, pesquisadores da Universidade de Columbia mediram sinais na parte auditiva do cérebro enquanto os pacientes ouviam outra pessoa falar os números de 0 a 9. Eles foram então capazes de determinar qual número havia sido ouvido.

As BCI ainda não são avançadas o suficiente, nem simples o suficiente, para ajudar as pessoas que estão paralisadas, embora isso seja um objetivo dos cientistas.

Em 2018, outro pesquisador da Universidade da Califórnia em São Francisco (UCSF) começou a recrutar pessoas com Esclerose Lateral Amiotrófica (ELA), ou doença de Lou Gehrig, para receber implantes de ECoG. Esse estudo tentará sintetizar a fala, de acordo com uma descrição do ensaio do teste, bem como solicitar aos pacientes que controlem um exoesqueleto que sustenta seus braços.

Chang diz que seu próprio sistema não está sendo testado em pacientes. E ainda não está claro se funcionaria para pessoas que não conseguem mover a boca. A equipe UCSF diz que seu dispositivo não funcionou tão bem quando eles pediram aos oradores que pronunciassem as palavras silenciosamente em vez de dizê-las em voz alta.

Algumas empresas do Vale do Silício disseram que esperam desenvolver leitores cerebrais comerciais de pensamento para texto. Uma delas, o Facebook, diz que está financiando pesquisas relacionadas na UCSF “para revelarem a primeira interface de fala silenciosa capaz de digitar 100 palavras por minuto”, segundo um porta-voz.

O Facebook não pagou pelo estudo atual e a UCSF se recusou a descrever que outras pesquisas estão fazendo em nome do gigante da mídia social. Mas o Facebook afirma ver que o sistema implantado é um passo em direção ao tipo de dispositivo de consumo que deseja criar.

“Este objetivo está bem alinhado com a missão da UCSF de desenvolver uma prótese de comunicação implantável para pessoas que não falam — uma missão que apoiamos. O Facebook não está desenvolvendo produtos que requerem dispositivos implantáveis, mas a pesquisa na UCSF pode fundamentar pesquisas em tecnologias não invasivas”, disse a empresa.

Chang diz que “não está ciente” de nenhuma tecnologia capaz de funcionar fora do cérebro, onde os sinais se misturam e se tornam difíceis de ler.

“O estudo que fizemos envolveu pessoas que passaram por uma neurocirurgia. Não temos realmente conhecimento da tecnologia não invasiva disponível atualmente que possa permitir que você faça isso sem precisar abrir a cabeça”, diz ele. “Acredite em mim, se existisse teria profundas aplicações médicas”.

………………………………………………………………………………
*Fonte:mittechreview

Bateria superenergética pode quase dobrar o alcance dos veículos elétricos

Os cientistas há muito veem as baterias de metal de lítio como uma tecnologia ideal para armazenamento de carga, aproveitando o metal mais leve da tabela periódica para fornecer células repletas de energia.

Mas pesquisadores e empresas tentaram e falharam durante décadas para produzir versões recarregáveis ​​e acessíveis que não tivessem o risco de pegarem fogo.

Até que, no início deste ano, Jagdeep Singh, o presidente-executivo da QuantumScape, afirmou em uma entrevista ao The Mobilist que a discreta empresa fortemente financiada do Vale do Silício havia vencido os principais desafios técnicos. Ele acrescentou que a VW espera ter as baterias em seus carros e caminhões até 2025, prometendo reduzir o custo e aumentar a autonomia de seus veículos elétricos.

Depois de abrir o capital em novembro, o QuantumScape agora está avaliado em cerca de US $ 20 bilhões, apesar de ainda não ter nenhum produto ou receita (e nenhuma expectativa de que isso aconteça até 2024). A VW investiu mais de $ 300 milhões na empresa e criou um empreendimento conjunto com a QuantumScape para fabricar as baterias. A empresa também levantou centenas de milhões de outros grandes investidores.

Ainda assim, até agora Singh havia revelado poucos detalhes sobre a bateria, o que levou os pesquisadores, rivais e jornalistas a vasculhar registros de patentes, documentos de investidores e outras fontes em busca de pistas sobre o que exatamente a empresa havia alcançado — e como.

Em um anúncio à imprensa no dia 8 de dezembro, a QuantumScape finalmente forneceu os resultados técnicos dos testes de laboratório. Sua tecnologia é uma bateria parcialmente de estado sólido, o que significa que ela usa um eletrólito sólido em vez do líquido do qual a maioria das baterias depende para promover o movimento de átomos carregados através do dispositivo.

Numerosos pesquisadores e empresas estão explorando a tecnologia de estado sólido para uma variedade de produtos químicos de bateria porque esse método tem o potencial de melhorar a segurança e a densidade de energia, embora o desenvolvimento de uma versão prática tenha se mostrado difícil.

A empresa, com sede em San Jose, Califórnia, ainda está ocultando alguns detalhes sobre sua bateria, incluindo alguns dos principais materiais e processos que está usando para fazê-la funcionar. E alguns especialistas continuam céticos de que QuantumScape tenha realmente abordado os difíceis desafios técnicos que tornariam possível uma bateria de metal de lítio em veículos comerciais nos próximos cinco anos.

Resultado dos testes

Em uma entrevista para a MIT Technology Review americana, Singh disse que a empresa mostrou que suas baterias atenderão efetivamente cinco necessidades principais do consumidor que, até agora, impediram que os veículos elétricos ultrapassassem 2% das vendas de automóveis novos nos EUA: custos mais baixos, maior alcance, tempos de recargas mais curtos, maior vida útil total na estrada e maior segurança.

“Qualquer bateria que atenda a esses requisitos pode realmente abrir 98% do mercado de uma forma que você não consegue fazer hoje”, diz ele.

Na verdade, os resultados de desempenho do QuantumScape são notáveis.

As baterias podem ser carregadas até 80% de sua capacidade em menos de 15 minutos. (MotorTrend descobriu que o V3 Supercharger da Tesla levou um Model 3 de 5% a 90% em 37 minutos, em um teste no ano passado.) E eles retêm mais de 80% de sua capacidade em 800 ciclos de carregamento, que é o equivalente aproximado de dirigir 240.000 milhas (386.243 quilômetros). Na verdade, a bateria apresenta pouca degradação, mesmo quando sujeita a ciclos agressivos de carga e descarga.

Por fim, a empresa afirma que a bateria foi projetada para atingir gamas de direção que podem exceder as dos veículos elétricos com baterias de íon de lítio padrão em mais de 80% — embora isso ainda não tenha sido testado diretamente.

“Os dados do QuantumScape são bastante impressionantes”, diz Paul Albertus, professor assistente de engenharia química e biomolecular da Universidade de Maryland e anteriormente diretor do programa IONICS da ARPA-E com foco em estado sólido, sem afiliação ou financiamento relacionamento com a empresa.

A empresa “foi muito mais longe do que outras coisas que eu vi” em baterias de metal de lítio, ele acrescenta: “Eles correram uma maratona enquanto todos os outros fizeram 5 km.”

Como funciona?
Então, como eles conseguiram tudo isso?

Em uma bateria de íon de lítio padrão em um carro elétrico hoje, um dos dois eletrodos (o ânodo) é feito principalmente de grafite, que armazena facilmente os íons de lítio que vão e vêm através da bateria. Em uma bateria de metal de lítio, esse ânodo é feito do próprio lítio. Isso significa que quase todos os elétrons podem ser colocados para trabalhar armazenando energia, que é o responsável pelo maior potencial de densidade dela.

Mas isso cria alguns grandes desafios. A primeira é que o metal é altamente reativo, portanto, se entrar em contato com um líquido, incluindo o eletrólito que suporta o movimento desses íons na maioria das baterias, pode desencadear reações colaterais que degradam a bateria ou fazem com que ela entre em combustão. A segunda é que o fluxo de íons de lítio pode desenvolver formações semelhantes a agulhas conhecidas como dendritos, que podem perfurar o separador no meio da bateria, causando um curto-circuito na célula.

Ao longo dos anos, esses problemas levaram os pesquisadores a tentar desenvolver eletrólitos de estado sólido que não são reativos com o metal de lítio, usando cerâmicas, polímeros e outros materiais.

Uma das principais inovações da QuantumScape foi desenvolver um eletrólito de cerâmica de estado sólido que também serve como separador. Com apenas algumas dezenas de micrômetros de espessura, ele suprime a formação de dendritos enquanto ainda permite que os íons de lítio passem facilmente para frente e para trás. (O eletrólito na outra extremidade da bateria, o lado do cátodo, é um gel de alguma forma, então não é uma bateria totalmente de estado sólido.)

Singh se recusa a especificar o material que está usando, dizendo que é um de seus segredos comerciais mais bem guardados. (Alguns especialistas em baterias suspeitam, com base em pedidos de patente, que se trata de um óxido conhecido como LLZO.) Levou cinco anos para se descobrir isso; e depois mais cinco para desenvolver a composição e o processo de fabricação certos para evitar defeitos e dendritos.

A empresa acredita que a mudança para a tecnologia de estado sólido tornará as baterias mais seguras do que a variedade de íons de lítio no mercado hoje, que ainda ocasionalmente pegam fogo em circunstâncias extremas.

O outro grande avanço é que a bateria é fabricada sem um ânodo distinto. (Veja o vídeo do QuantumScape aqui para ter uma ideia melhor de seu design “livre de ânodo”.)

Conforme a bateria carrega, os íons de lítio no lado do cátodo viajam através do separador e formam uma camada perfeitamente plana entre ele e o contato elétrico na extremidade da bateria. Quase todo esse lítio retorna ao cátodo durante o ciclo de descarga. Isso elimina a necessidade de qualquer material de ânodo “hospedeiro” que não esteja contribuindo diretamente para o trabalho de armazenamento de energia ou transporte de corrente, reduzindo ainda mais o peso e o volume necessários. Também deve cortar custos de fabricação, diz a empresa.

Riscos restantes

Há um porém: os resultados do QuantumScape são de testes de laboratório realizados em células de camada única. Uma bateria automotiva de verdade precisaria ter dezenas de camadas, todas trabalhando juntas. Passar da linha piloto para a manufatura comercial é um desafio significativo no armazenamento de energia e o ponto em que muitas startups de baterias antes promissoras fracassaram.

Albertus observa que há um farto histórico de reclamações prematuras de avanços de baterias, então qualquer inovação é recebida com ceticismo. Ele gostaria de ver a QuantumScape submeter as células da empresa aos tipos de testes independentes que os laboratórios nacionais realizam, sob condições padronizadas.

Outros analistas da indústria expressaram dúvidas de que a empresa pudesse realizar os testes de expansão e segurança exigidos para colocar baterias em veículos nas estradas até 2025, se a empresa tiver testado rigorosamente apenas células de camada única até agora.

A Sila Nanotechnologies, uma startup de bateria rival desenvolvendo um tipo diferente de materiais anódicos de alta densidade energética para baterias de íon-lítio, lançou um relatório técnico um dia antes da história da Mobilist que destaca uma lista de desafios técnicos para baterias de metal de lítio de estado sólido. Ele observa que muitas das vantagens teóricas do metal de lítio diminuem à medida que as empresas buscam baterias comerciais, dadas todas as medidas adicionais necessárias para fazê-las funcionar.

Mas o documento enfatiza que a parte mais difícil será enfrentar o desafio do mercado: competir com a enorme infraestrutura global já existente para adquirir, produzir, enviar e instalar baterias de íon-lítio.

Apostas massivas

Outros analistas, no entanto, dizem que os avanços recentes no campo indicam que as baterias de metal de lítio irão ultrapassar significativamente a densidade de energia da tecnologia de íons de lítio e que os problemas de retenção do campo podem ser resolvidos.

“A questão costumava girar em torno se teríamos baterias de metal de lítio; agora o foco é quando as teremos”, diz Venkat Viswanathan, um professor associado da Carnegie Mellon que pesquisou baterias de metal de lítio (e fez trabalho de consultoria para QuantumScape).

Singh reconheceu que a empresa ainda enfrenta desafios, mas insiste que eles se relacionam mais com a engenharia e o aumento da produção. Ele não acha que quaisquer avanços adicionais na química são necessários.

Ele também observou que a empresa agora tem mais US $ 1 bilhão, proporcionando uma condição mais favorável para chegar à produção comercial.

Questionado sobre por que os jornalistas deveriam confiar nos resultados da empresa sem o benefício de descobertas independentes, Singh ressaltou que está compartilhando o máximo de dados possível para ser transparente. Mas ele acrescenta que QuantumScape não está “no negócio de pesquisa acadêmica”.

“Sem ofensa, mas não nos importamos com o que os jornalistas pensam”, diz ele. “As pessoas com as quais nos importamos são os nossos clientes. Eles viram os dados, executaram os testes em seu próprio laboratório, viram que funcionava e, como resultado, estão apostando muito nessa empresa. A VW apostou tudo”.

…………………………………………………………………………….
*Fonte: mittechreview

Por que o 6 é um número perfeito, mas o 7 definitivamente não é

Nem todos podem ser, mas o 6 é um número perfeito.

Sabemos disso há 2,3 mil anos, muito tempo antes de tomarmos conhecimento da grande maioria dos outros 50 membros deste clube exclusivo.

A criativa maneira como se contava até 9.999 nos dedos na Idade Média
Como a Índia revolucionou a matemática séculos antes do Ocidente

Mas por que ele é perfeito?

Porque 6 = 1 + 2 + 3

Os números perfeitos são iguais à soma de seus divisores: 6 pode ser dividido por 1, 2 e 3 e, quando você soma esses números, o resultado é 6.

O 28 é outro número perfeito porque a soma dos números que podem dividi-lo é 28

A história dos números perfeitos faz parte de um dos ramos mais antigos e fascinantes da matemática: a teoria dos números.

O primeiro a se referir a eles foi ninguém menos que o matemático grego Euclides, em sua influente obra Os Elementos, publicada em 300 a.C.

Ele havia descoberto quatro números perfeitos e, em seu livro, revelou uma maneira eficaz de encontrar outros. Eficaz, mas difícil e demorada.

Se você está curioso para saber qual era a fórmula, prossiga a leitura. Do contrário, pule o trecho que está entre as linhas verdes.

Isto é, passo a passo, o que ele disse:

“Se qualquer série de números for colocada continuamente em dupla proporção…”

Ou seja, por exemplo, 1, 2, 4, 8, 16, 32, 64…

“… (começando) de uma unidade, até que a soma de todos seja um número primo…”

Então vamos somar até chegar a um número primo (divisível apenas por 1 e ele mesmo):

1 + 2 + 4 + 8 + 16 = 31

“… e se (o total) da soma for multiplicada pelo último (número da sequência), então o produto (resultado) será (um número) perfeito.”

Portanto, a soma deve ser multiplicada pelo último número da sequência: 31 x16 = 496 … e o resultado deve ser um número perfeito.

Será que é?

496 pode ser dividido por 1, 2, 4, 8, 16, 31, 62, 124 e 248. E, se somarmos todos, o resultado é 496. Trata-se, efetivamente, de um número perfeito.

Euclides não apenas nos presenteou com quatro desses números seletos — 6, 28, 496 e 8128 — como também inspirou as gerações seguintes de matemáticos a continuar a busca.

Uma longa busca. Levaria mais de 1750 anos até outro número perfeito ser identificado.

Antes disso, outro matemático grego, o neopitagórico Nicômaco de Gerasa deu a eles um caráter mais místico.

Divinos

Em sua Introdução à Aritmética, Nicômaco fez uma classificação dos números que incluía os perfeitos, e colocava os outros em seu devido lugar.

Os perfeitos já haviam sido definidos por Euclides, mas se a soma dos divisores dava um número maior, eles eram abundantes; se dava um número menor, deficientes.

Mas ele não se limitou a dar nomes a eles: os números talvez tenham sido criados iguais, mas para Nicômaco alguns eram mais iguais do que outros.

Quando há demasiado, disse ele, “se produz excesso, superfluidade, exageros e abusos; no caso de muito pouco, se produz desejos, inadimplência, privações e insuficiências”.

O contraste com estar em igualdade era abissal.

“Se produz virtude, medidas justas, decoro, beleza e coisas do gênero, das quais a mais exemplar é aquele tipo de número que se chama perfeito.”

Sua classificação deixou uma marca. Os números perfeitos se tornaram, pelo menos por um tempo, divinos.

Milhares de cálculos depois…

Em 1456, alguém registrou outro número perfeito em um manuscrito medieval: 33550336.

E em 1588, o matemático italiano Pietro Antonio Cataldi encontrou dois outros: 8589869056 e 137438691328.

Você pode imaginar quanto trabalho eles devem ter tido para conseguir isso sem um computador!

É impressionante… e o oitavo número perfeito que seria descoberto dois séculos depois, ainda mais.
2305843008139952128

Ele foi identificado por ninguém menos que o grande Leonhard Euler em 1772, tinha 19 dígitos e, de acordo com o matemático inglês do século 19 Peter Barlow, era “provavelmente o maior que seria descoberto”.

Ele estava enganado.

Duas décadas após sua morte, foi encontrado o nono número perfeito, graças aos avanços da tecnologia e da teoria dos números. Os intervalos de tempo entre uma descoberta e outra foram encurtados ao ponto que neste milênio, foram identificados quase um por ano.

Hoje conhecemos um total de 51 números perfeitos. O mais recente tem 49.724.095 dígitos.

O evasivo ímpar

Se você visse todos, notaria que, sem exceção, são pares.

Isso deu origem a um dos mistérios mais antigos da matemática: a conjectura sobre os números perfeitos ímpares.

Uma conjectura é uma regra que nunca foi comprovada, neste caso seria algo como “todos os números perfeitos são pares”.

Isso é algo que não poderemos afirmar até que seja respondida a grande pergunta que os matemáticos fazem desde René Descartes no século 17 até o norueguês Øystein Ore no século 20: existem números perfeitos ímpares?

Várias mentes brilhantes avançaram em busca da resposta.

Porém, a única coisa que sabemos até agora é que, se existirem, devem ser maiores que 10³⁰⁰, uma vez que a conjectura foi verificada computacionalmente até esse valor sem encontrar nenhum.

Mas afinal de contas…
Para que servem?

Dados a dimensão e a quantidade de mentes brilhantes no mundo matemático que dedicaram tempo e massa cinzenta aos números perfeitos, talvez seja natural se perguntar qual é sua importância.

E nada mais gratificante do que encontrar uma resposta magnífica, como a que David E. Joyce, professor de Matemática e Computação da Clark University, nos EUA, deu no portal Quora.

“Os critérios tradicionais de importância na teoria dos números são estéticos e históricos. O que as pessoas consideram importante é o que interessa a elas. Isso difere de pessoa para pessoa”, afirma.

Em outras palavras, são importantes porque são interessantes… quer razão melhor? E se você leu até aqui, provavelmente concorda.

Além disso, uma das coisas mais fascinantes em relação à matemática é que ela frequentemente nos revela maravilhas que só com o tempo passamos a entender.

*Por Dalia Ventura

……………………………………………………………………………………….
*Fonte: bbc-brasil

5 invenções brasileiras que você achava que era coisa de gringo

O mecanismo do câmbio automático é invenção nacional. O canadense Alfred Horner Munro inventou a primeira transmissão automática em 1921, mas o dispositivo utilizava ar comprimido e nunca foi comercializado. Já em 1932, os brasileiros José Braz Araripe e Fernando Lemos desenvolveram a primeira transmissão automática com fluido hidráulico. O protótipo foi vendido para a General Motors que lançou, em 1940, o Oldsmobile “Hydra-matic”. Fantástico, não é?

Urna eletrônica
O aparelho registra votos por meio de um display com botões ou uma tela sensível ao toque que processa os dados por meio de um programa de computador. Os dados processados ​​são armazenados em um componente de memória removível e impresso. A urna eletrônica foi implementada pela primeira vez na cidade de Brusque, Santa Catarina, em 1989. Os técnicos garantem que o processo de votação é mais seguro e a contagem de votos mais rápida. Restam dúvidas.

Áudio portátil
Andreas Pavel é o inventor do reprodutor de áudio portátil e estéreo de fita cassete, mais conhecido como o Stereobelt. Antepassado do Walkman e dos dispositivos pessoais de áudio modernos, Pavel só entrou com a primeira patente do equipamento na Itália, em 1977. Em 1979, a Sony começou a vender seu Walkman, um modelo muito semelhante ao de Pavel. Depois de uma primeira rodada de testes, que durou até 1986, a Sony concordou em pagar royalties para Pavel e, em 2003, ambos chegaram a um acordo confidencial. Show!

Balão de ar quente
O jesuíta nascido em Santos, Bartolomeu de Gusmão, é considerado o inventor do balão de ar quente, nos idos do século XVIII. A “passarola” chegou a ser lembrada por José Saramago em seu Memorial do Convento. O balão de ar quente é a tecnologia mais antiga e mais bem sucedida de voo humano. É constituída por um saco que contém o ar aquecido por uma fonte de calor. Uma vez aquecido, o ar no interior do saco é mais leve do que o ar exterior, impelindo o balão para cima. Anexado à bolsa, uma cesta transporta passageiros. As primeiras experiências com o balão de ar quente para ser usado como meio de transporte foram feitas no início de 1700 por Gusmão.Na época, ele conseguiu levantar um balão a uma altura de 4,5 metros, em frente ao Tribunal Português. Genial, não?

Exoesqueleto
Durante a abertura da Copa do Mundo 2014, a apresentação do exoesqueleto, com o chute de um tetraplégico em uma bola, durou apenas alguns segundos. A pesquisa que motivou o experimento é considerada revolucionária e é desenvolvida pelo brasileiro Miguel Nicolelis, considerado um dos 20 maiores cientistas do mundo pela revista Scientific American. Ele lidera um grupo de pesquisadores da área de Neurociência na Universidade Duke4, Estados Unidos, no campo de fisiologia de órgãos e sistemas.
Deixe-nos a sua opinião aqui nos comentários.

*Por Ademilson Ramos

…………………………………………………………………………..
*Fonte: engenhariae

Tinta resfria superfícies e pode substituir ar condicionado

Engenheiros da Purdue University, nos Estados Unidos, criaram uma tinta branca capaz de resfriar superfícies em até 8°C, fazendo isso sem o uso de eletricidade.

De acordo com os pesquisadores, a tinta poderia substituir o uso do ar condicionado ao deixar de absorver a energia e o calor provocado pelo sol. E sem o aquecimento provocado pelo sol na superfície das construções, não seria necessário ligar o equipamento para anter o interior resfriado.

“Pode parecer muito improvável que uma superfície em contato direto com a luz do sol tenha uma temperatura mais baixa do que a mostrada nos termômetros para determinada área, mas estamos mostrando que isso é possível”, explica Xiulin Ruan, professor de Engenharia Mecânica na Purdue University.

Além de afastar o calor das superfícies, a tinta pode contribuir no combate ao aquecimento global já que ajuda a diminuir a absorção de calor na atmosfera.

“Nós não estamos apenas transferindo o calor da superfície ara a atmosfera, mas afastando este aquecimento da nossa atmosfera”, garante outro pesquisador, o pós-doutorando do Instituto Massachusetts de Tecnologia, Xiangyu Li.

A superfície da Terra pode se resfriar com o uso desta tecnologia se a tinta fosse aplicada em uma variedade de construções, incluindo coberturas de edifícios, carros, estradas e telhados em todo o planeta, defendem os cientistas.

Em um artigo publicado pelo periódico Cell Reports Physical Science, os pesquisadores mostram que em comparação com uma tinta branca tradicional, a tinta criada na Purdue University mantêm a temperatura mais baixa em uma superfície com incidência de luz solar direta graças à reflexão dos raios ultravioleta.
Uma câmera infravermelha mostra que a tinta branca criada pelos engenheiros pode manter uma superfície mais fria do que a mesma área pintada com tinta convencional. Imagem: Purdue University | Joseph Peoples

Algumas tintas disponíveis no mercado hoje prometem diminuir o calor nas superfícies, mas estes produtos refletem apenas de 80% a 90% da luz solar e não são capazes de fazer com que as temperaturas caiam mais do que a temperatura ambiente. Já a tinta desenvolvida pelos pesquisadores pode refletir até 95,5% da luz solar e é capaz de dispersas o calor infravermelho.

Para que esta tecnologia fosse desenvolvida foram necessários 6 anos de pesquisa e testes. Os cientistas analisaram mais de 100 combinações entre diferentes materiais, escolheram as 10 melhores alternativas e então testaram mais 50 outras variações para cada material.

A combinação final tem em sua formula carbonato de cálcio, um componente abundante na superfície Terrestre e facilmente encontrado em rochas e conchas marinhas.

Com este componente, a tinta final tem os mesmos resultados estéticos que as tintas tradicionais, mas com a diferença de resfriar significativamente as superfícies pintadas. O carbonato de cálcio absorve quase todos os raios ultravioletas por conta de sua estrutura atômica e também tem uma variedade de partículas com diferentes tamanhos o que faz com que a tinta se espalhe bem em superfícies com diferentes texturas.
O pesquisador Joseph Peoples usa uma câmera infravermelha para avaliar os resultados de duas amostras de tinta em uma cobertura. Foto: Purdue University | Jared Pike

De acordo com os engenheiros, a produção da tinta é mais barata do que a fabricação das tintas comerciais e seu uso se torna ainda mais econômico ao poupar o uso do ar condicionado – e da energia elétrica necessária para o equipamento.

“Esta tinta praticamente substitui o ar condicionado ao refletir os raios solares e diminuir o calor absorvido pelo interior das construções”, afirma Joseph Peoples, doutorando em Engenharia Mecânica na Purdue University e um dos autores do estudo.

Ao diminuir o uso do ar condicionado, a tinta também ajuda a evitar o consume de energia elétrica e consequentemente de recursos naturais. De acordo com Joseph Peoples, ainda estão sendo realizados estudos para mensurar todos os benefícios da tecnologia.

A fórmula original foi patenteada e agora os pesquisadores estão trabalhando em desenvolver outras cores para a tinta, com os mesmo benefícios da tinta branca que eles criaram.

*Por Natasha Olsen

…………………………………………………………………………….
*Fonte: ciclovivo

Cálculos mostram que será impossível controlar uma Inteligência Artificial super inteligente

A ideia da inteligência artificial derrubar a humanidade tem sido discutida por muitas décadas, e os cientistas acabaram de dar seu veredicto sobre se seríamos capazes de controlar uma superinteligência de computador de alto nível. A resposta? Quase definitivamente não.

O problema é que controlar uma superinteligência muito além da compreensão humana exigiria uma simulação dessa superinteligência que podemos analisar. Mas se não formos capazes de compreendê-lo, é impossível criar tal simulação.

Regras como ‘não causar danos aos humanos’ não podem ser definidas se não entendermos o tipo de cenário que uma IA irá criar, sugerem os pesquisadores. Uma vez que um sistema de computador está trabalhando em um nível acima do escopo de nossos programadores, não podemos mais estabelecer limites.

“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô’”, escrevem os pesquisadores.

“Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos que são potencialmente incompreensíveis para os humanos, quanto mais controláveis.”

Parte do raciocínio da equipe vem do problema da parada apresentado por Alan Turing em 1936. O problema centra-se em saber se um programa de computador chegará ou não a uma conclusão e responderá (para que seja interrompido), ou simplesmente ficar em um loop eterno tentando encontrar uma.

Como Turing provou por meio de uma matemática inteligente, embora possamos saber isso para alguns programas específicos, é logicamente impossível encontrar uma maneira que nos permita saber isso para cada programa potencial que poderia ser escrito. Isso nos leva de volta à IA, que, em um estado superinteligente, poderia armazenar todos os programas de computador possíveis em sua memória de uma vez.

Qualquer programa escrito para impedir que a IA prejudique humanos e destrua o mundo, por exemplo, pode chegar a uma conclusão (e parar) ou não – é matematicamente impossível para nós estarmos absolutamente seguros de qualquer maneira, o que significa que não pode ser contido.

“Na verdade, isso torna o algoritmo de contenção inutilizável”, diz o cientista da computação Iyad Rahwan, do Instituto Max-Planck para o Desenvolvimento Humano, na Alemanha.

A alternativa de ensinar alguma ética à IA e dizer a ela para não destruir o mundo – algo que nenhum algoritmo pode ter certeza absoluta de fazer, dizem os pesquisadores – é limitar as capacidades da superinteligência. Ele pode ser cortado de partes da Internet ou de certas redes, por exemplo.

O novo estudo também rejeita essa ideia, sugerindo que isso limitaria o alcance da inteligência artificial – o argumento é que se não vamos usá-la para resolver problemas além do escopo dos humanos, então por que criá-la?

Se vamos avançar com a inteligência artificial, podemos nem saber quando chega uma superinteligência além do nosso controle, tal é a sua incompreensibilidade. Isso significa que precisamos começar a fazer algumas perguntas sérias sobre as direções que estamos tomando.

“Uma máquina superinteligente que controla o mundo parece ficção científica”, diz o cientista da computação Manuel Cebrian, do Instituto Max-Planck para o Desenvolvimento Humano. “Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam.”

“Portanto, surge a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”

A pesquisa foi publicada no Journal of Artificial Intelligence Research.

*Por Ademilson Ramos

……………………………………………………………………………………..
*Fonte: engenhariae

Jovem engenheiro cria pavimento que se regenera com água

O jovem engenheiro civil Israel Antonio Briseño, da Universidade Autônoma de Coahuila, no México, desenvolveu um material que permite a criação de estradas que podem ser reparadas apenas através do contato com a água.

O material foi criado a partir de pneus de veículos, de modo que a base de borracha funciona como um solo que pode fechar as rachaduras que surgem em sua superfície. A invenção rendeu a Israel o primeiro lugar na competição James Dyson-México, focada em estimular a criação de novos designs.

”O projeto é inspirado na solução dos danos causados pela chuva nas estradas. Assim, quando a água entra em contato com ela, uma reação química é criada e a auto-manutenção ocorre”.

Segundo Israel Briseño, o projeto batizado de Paflec, já foi testado em laboratório e teve grande eficiência na reparação ou fechamento de rachaduras, no entanto, ainda faltam alguns procedimentos para que a invenção de Israel possa ser utilizada em vias públicas.

O engenheiro também enfatizou que, embora já existam pavimentos semelhantes, seu protótipo é original, pois ninguém usa a água como meio de regeneração, muito menos pneus. No México, 80% do pavimento é asfalto e 20% concreto hidráulico.

A próxima etapa é certificar a invenção perante a Agência Nacional de Padronização e Certificação de Construção, além de levar uma ficha técnica do seu protótipo ao Secretário de Comunicações e Transporte para que eles determinem para que o Paflec seja usado nas ruas e estradas de seu país.

……………………………………………………………………………..
*Fonte: contioutra

Movimento da Terra fará com que 2021 passe mais rápido

O ano de 2021 deve ser o mais rápido já registrado na história. Com a rotação da Terra sendo guiada por uma velocidade um pouco maior do que a usual, os dias serão, em média, 0,5 milissegundo mais curtos. As informações foram dadas pela Marcella Duarte, do UOL .

O último domingo (3) teve 23 horas, 59 minutos e 59,9998927 segundos. Apesar disso, os dias não têm duração igual. A segunda-feira (4), por exemplo, teve pouco mais de 24 horas.
Continua após a publicidade

Essas pequenas alterações na duração dos dias foram descobertas apenas na década de 1960, depois do desenvolvimento de relógios atômicos superprecisos.

A variação na velocidade de rotação do planeta acontece constantemente e depende de diferentes fatores, como o movimento do núcleo derretido da Terra, dos oceanos e da atmosfera. Além disso, interações gravitacionais com a Lua e o aquecimento global também influenciam o fenômeno.

Quando o processo começou a ser estudado, inicialmente, observou-se que a velocidade de rotação da Terra estava diminuindo. Desde a década de 1970, foram adicionados 27 segundos no tempo atômico internacional para que a contagem se mantivesse sincronizada com o planeta.

Recentemente, o oposto tem acontecido: a velocidade com a qual a Terra gira em torno do próprio eixo, resultando nos dias e nas noites, está aumentando.

Por isso, pode ser necessário “saltar” o tempo para que haja consonância com o movimento do planeta. Nesse caso, seria a primeira vez que um segundo seria deletado dos relógios internacionais.

Os responsáveis por monitorar a rotação do planeta e os 260 relógios atômicos que existem são os oficiais do Serviço Internacional de Sistemas de Referência e Rotação da Terra (Iers), em Paris, na França. Eles também avisam quando é necessário adicionar ou deletar algum segundo.

Há um debate na comunidade internacional sobre a necessidade de realizar esse ajuste ou não. Cientistas defendem que, em 2021, os relógios atômicos irão acumular um atraso de 18 milésimos de segundos.

Sem o ajuste, demoraria centenas de anos para uma pessoa comum notar alguma diferença. Os sistemas de navegação e de comunicação por satélite, porém, podem ser impactados pelo descompasso, uma vez que utilizam a posição da Terra, do Sol e das estrelas para funcionar.

……………………………………………………………………………
*Fonte: ultimosegundo

Cientistas criam sistema de inteligência artificial “autoconsciente”

Cientistas criaram sistema de IA capaz de identificar quando ele mesmo não é confiável, usando redes neurais.

Um sistema de IA “autoconsciente”

A inteligência artificial (IA) está cada vez mais presente em nossas vidas, sendo uma das grandes tendências para o futuro. Aos poucos, mais equipamentos baseados em IA surgem, mudando todo o modo de vida e o comportamento da nossa sociedade.

A IA já toma decisões em áreas que afetam vidas humanas, como direção autônoma e diagnóstico médico. Assim, é vital que essas tecnologias sejam mais precisas e confiáveis o possível.

O sistema de rede neural recém criado pelos pesquisadores pode então ter papel fundamental nisso, aumentando o nível de confiança dos sistemas artificialmente inteligentes.

Segundo o cientista da computação Alexander Amini, um dos autores do projeto, é necessário que tenhamos não apenas modelos de alto desempenho, mas também modelos confiáveis. Devemos ser capazes de entender quando podemos, ou não, confiar na IA.

Os pesquisadores criaram, portanto, um sistema que pode identificar se ele próprio é confiável ou não. Essa “autoconsciência” recebeu o nome de “Regressão de Evidência Profunda” (Deep Evidential Regression) e baseia sua pontuação na qualidade dos dados disponíveis. Quanto mais precisos e abrangentes forem os dados de treinamento, mais provável é que as previsões deem certo.

Por exemplo, no sistema de um veículo autônomo prestes a atravessar um cruzamento, a rede poderia dar o comando de espera, caso estivesse menos confiante de suas previsões.

Afinal, a rede é confiável?

Embora sistemas semelhantes já tenham sido construídos com redes neurais no passado, o que diferencia este é a sua velocidade. O nível de confiança pode ser obtido rapidamente, no tempo de uma decisão.

Os pesquisadores testaram o sistema usando-o para avaliar uma imagem, assim como um carro autônomo avaliaria uma distância. A rede obteve sucesso nos resultados, além de estimar sua própria incerteza com precisão.

Os cientistas estão confiantes que o sistema possa contribuir para a segurança em situações com uso de IA.

No entanto, ainda não é tão simples. Mesmo que a rede neural esteja certa 99% das vezes, o 1% restante pode ter consequências graves, dependendo do cenário. Por isso, mais testes e aprimoramentos ainda deverão ser feitos.

As redes neurais artificiais são modelos computacionais inspirados no sistema nervoso central humano, sendo capazes de realizar o aprendizado de máquina e de reconhecer de padrões. São sistemas de nós interconectados que funcionam como os neurônios do cérebro humano, simulando o comportamento das redes neurais biológicas.

A partir de métodos iterativos, elas podem, com o tempo, aprender e melhorar continuamente. Podem, por exemplo, ajudar a criar programas que identificam objetos a partir de imagens. Elas são capazes de identificar padrões em conjuntos gigantescos de dados que nós, humanos, não temos a capacidade de analisar.

*Por Matheus Gouveia
………………………………………………………………………………….
*Fonte: socientifica

Cabo submarino que ligará Brasil e Europa é ancorado em Fortaleza

O Ministério das Comunicações anunciou o lançamento de um cabo submarino de fibra ótica que ligará Fortaleza no Ceará a Sines, em Portugal, com previsão de expansão para pontos no Rio de Janeiro e em São Paulo, além de conexões na África e em outros países europeus, ilhas do Atlântico e Guiana Francesa. A estimativa é de que o projeto esteja concluído até meados de 2021. “Lançamos um cabo submarino de fibra ótica que vai sair de Fortaleza até Sines, em Portugal. Serão mais de 6 mil quilômetros. Estimamos que até o segundo trimestre do ano que vem estará pronto”, disse o ministro das comunicações Fábio Farias.

Atualmente, toda a informação que o nosso país envia para o Velho Continente vai primeiro para os Estados Unidos, e de lá segue para data centers na Europa. Esse percurso leva o dobro de tempo do que é necessário para fazer a conexão direta entre as duas regiões.

A obra será feita pela empresa EllaLink, proprietária e operadora dos serviços que serão oferecidos pela fibra, tão logo esteja com a infraestrutura concluída. A estrutura proporciona o tráfego de dados a 72 Terabits por segundo (Tbps) e latência de 60 milissegundos. Ao todo, serão lançados e ancorados 6 mil quilômetros de cabos de alta capacidade que devem conectar a capital cearense a Portugal.

“O cabo, em alguns lugares, chegará a ter 5 quilômetros de profundidade. É algo impensável, inimaginável, mas agora nós vamos ter uma conexão direta com a Europa. É uma grande entrega do Ministério das Comunicações que vai ajudar o nosso país no escoamento de dados”, afirmou Faria.

*Por Ademilson Ramos
………………………………………………………………………….
*Fonte: engenhariae

Eclipse solar ficará parcialmente visível no Brasil neste dia 14; saiba como acompanhar

Mais um fenômeno astronômico incrível poderá aparecer para os brasileiros na próxima segunda-feira, 14 de dezembro. Por quase 3 horas o sol desaparecerá por completo no céu e moradores da região sul do país terão vista privilegiada.

De acordo com astrônomos, o eclipse iniciará 12h23min (horário de Brasília) e chegará ao seu ápice às 13h51min quando, aos poucos, começará a desaparecer até voltar a forma normal às 15h12min.

“O próximo eclipse do Sol visível em Porto Alegre será em 14 de outubro de 2023, bem menos impressionante que o de agora, pois o obscurecimento máximo será de apenas 17.5%.”, escreveu o astrônomo Luiz Augusto L. da Silva para o portal da Rede Omega Centauri.

Quem não estiver na região sul do Brasil, poderá acompanhar o eclipse em tempo real virtualmente através do perfil oficial do Professor André Lau da Costa. Vale ressaltar que, para quem pretende assistir o fenômeno a olho nú, deve observar apenas com óculos de sol e nunca direcionar os olhos para o sol com qualquer instrumento de aumento de visão.

Se o clima permitir, no dia 21 de dezembro, após o pôr do sol, Júpiter e Saturno parecerão planetas duplos aos nossos olhos. Isso acontecerá porque estes dois astros do Sistema Solar se alinharão e poderão ser vistos a olho nu de qualquer canto da Terra.

Segundo o astrônomo Patrick Hartigan, da Rice University, nos Estados Unidos, o fenômeno acontecerá entre os dias 16 e 25 de dezembro e será mais visível próximo à linha do Equador, no entanto, será possível observá-lo de qualquer canto do mundo com o auxílio de binóculos especialmente após o pôr do sol de 21 de dezembro.

“Na noite de maior aproximação, em 21 de dezembro, eles [Júpiter e Saturno] se parecerão com um planeta duplo, separados por apenas um quinto do diâmetro da lua cheia”, disse ele.

………………………………………………………………………
*Fonte: bonsfluidos

A NASA vai utilizar a comunicação a laser sem fio com sondas espaciais

Durante as últimas décadas, a forma como trocamos informação muda constantemente, de forma inacreditavelmente grande. Agora, a NASA testará a comunicação a laser sem fio. Isso facilitará muito na velocidade e capacidade do fluxo de dados entre a Terra e as naves.

O funcionamento é um tanto semelhante à fibra óptica, mas sem um cabo. Em resumo, as ondas de rádio, que já foram muito utilizadas, e possuem algumas aplicações até os dias de hoje, viajam muito longe, mas conseguem carregar pouca informação, entretanto. Por outro lado, ondas que carregam mais informações não conseguem viajar longe tão facilmente.

Isso ocorre por causa de duas características das ondas: o comprimento e a frequência. Quando maior o comprimento de uma onda, menor a frequência, e vice-versa. Quando a frequência é maior, é possível armazenar mais informação. Mas há um grande problema: os obstáculos.

Por exemplo, o seu rádio. Você consegue ouvir rádio dentro de casa, mesmo com as paredes e o telhado barrando as ondas. A luz, por outro lado, não é capaz de atravessar a parede. Isso ocorre porque as ondas de maiores frequências não são muito boas em atravessar o espaço vazio dos átomos. Portanto, obstáculos maiores dificultam completamente essa comunicação.

É por isso que a internet de fibra óptica, por exemplo, é transferida através de cabos. A fibra óptica utiliza lasers. Portanto, ele transfere uma quantidade de informação muito boa – bem maior do que microondas e rádio, por exemplo. Mas um laser não atravessa paredes. Portanto, é ideal que haja uma forma de se conduzir esse sinal. É aí que entra o trabalho do cabo.

O espaço não tem paredes

Como todos sabemos, o espaço é um grande vazio com algumas concentrações de matéria em determinados pontos. Portanto, as ondas de maiores frequências possuem menos limitações do que aqui na Terra. Esse fato permite que os cientistas utilizem comunicação óptica sem a necessidade de um condutor. E isso é bom, considerando o fluxo de informações que todas as sondas espaciais enviam para a Terra a todo momento. Além disso, a tecnologia está constantemente em desenvolvimento, e a cada passo, tem-se uma necessidade maior de transferência de dados.

A NASA quer, portanto, utilizar lasers infravermelhos para se comunicar com as sondas espaciais. O laser infravermelho é o mesmo tipo de sinal que o seu controle remoto utiliza para se comunicar com a televisão, por exemplo. E não, a comunicação a laser sem fio não irá cegar ninguém, fique tranquilo.

Chamada de (LCRD, na sigla em inglês), a base em construção no Havaí tem previsão de entrega já para o ano de 2021. Para haver uma redundância, do outro lado do Oceano Pacífico, há uma segunda base. A OGS-1, localizada no estado da Califórnia, pode entrar em operação caso o mal tempo atrapalhe a estação óptica havaiana.

“O LCRD e suas estações terrestres demonstrarão comunicações ópticas como um relé, o que significa que as missões serão capazes de transmitir dados de pontos em sua órbita sem linha de visão direta das estações terrestres”, diz Dave Israel em um comunicado da NASA.

…………………………………………………………………………………
*Fonte: ciencianautas

‘Qual é a música Google?’ Busca agora reconhece melodias e assovios

A busca do Google ganhou a função de reconhecer alguma música cantarolada ou assoviada pelo usuário, mesmo que ele não saiba a letra. Para usar o recurso, basta acessar a pesquisa por voz e perguntar “qual é a música”, seguido pelos sons da melodia.

O app, então, exibe as canções correspondentes, e permite conferir informações como cantor e álbum, além de conferir a letra. O recurso está disponível no celular a partir da pesquisa, da Google Assistente e do aplicativo do Google em português para Android. Por enquanto, a ferramenta no iPhone (iOS) funciona apenas em inglês.

A busca do Google usa inteligência artificial (IA) para reconhecer o trecho de 10 a 15 segundos captado pelo celular. O machine learning empregado pelo Google também funciona com gravações e com letras de música, então a ferramenta é uma espécie de junção do Shazam ao Soundhound, já que é possível simplesmente dar play em uma canção desconhecida ou assoviá-la sem saber a letra.

O recurso pode ser ativado a partir do ícone de microfone da barra de pesquisa, ou pelo comando “que música é essa?” na Google Assistente. À medida que o usuário cantarola a música, a tela indica o volume de áudio, até encontrar uma canção correspondente ao som detectado. Depois, o usuário pode selecionar a música correta, acessar a letra e ouvi-la em algum aplicativo a partir dos comandos do Google.

*Por Beatriz Cardoso

………………………………………………………………….
*Fonte: techtudo

Elon Musk pretende transferir informações do cérebro para o computador

Há quatro anos, Elon Musk criou a empresa Neuralink com o objetivo ambicioso de criar uma interface cérebro-computador.

Essa conexão de largura de banda ultra-alta é vista por Musk como a única solução para combater o que ele acredita ser uma ameaça existencial para a humanidade. Tudo em que Neuralink tem trabalhado está em segredo e o site da empresa é atualmente apenas uma lista de empregos.

O objetivo da tecnologia também não é muito claro, com aplicações potenciais que vão desde conectar nossos cérebros à internet até usar inteligência artificial (IA) para aprimorar nossas habilidades cognitivas.

Transumanismo

Esta e outras tecnologias fazem parte de um movimento chamado “transumanismo”, que defende o uso da tecnologia e da inteligência artificial para melhorar a qualidade da vida humana.

Trata-se de usar a tecnologia para aprimorar nosso estado intelectual, físico e psicológico, por meio, por exemplo, do chamado “mind-upload”, expressão criada dentro dessa filosofia para se referir à transferência da mente humana para um computador.

Os cientistas dizem que copiar a mente de alguém, suas memórias e personalidade em um computador é possível, em teoria — mas o cérebro tem muitos mistérios. Ele têm 86 bilhões de neurônios, uma rede produzindo pensamentos via cargas elétricas.

Como um computador

Precisamos lembrar que a tecnologia que sustenta tudo está longe de estar pronta. Ler os sinais do cérebro em detalhes ainda requer cirurgia e a tecnologia assistiva usada para a comunicação do cérebro ainda é extremamente lenta em comparação com os meios tradicionais de comunicação.

Há muita pesquisa em tecnologia e o cérebro, com alguns grandes projetos recebendo investimentos, como a BRAIN Initiative nos EUA e o Human Brain Project na Europa.

Podemos não ser completamente ignorantes sobre como conectar computadores a nossos corpos, mas no caminho para a fusão com a IA, ainda temos um longo caminho a percorrer.

………………………………………………………………………
*Fonte: ciencianautas

Uma nova abordagem bactericida: será que a luz pode substituir os antibióticos?

A descoberta dos antibióticos a partir da Penicilina em 1928 revolucionou o mundo da medicina no tratamento contra infecções bacterianas. Com os estudos ao longo dos anos, novos antibióticos foram surgindo e com eles foi se compreendendo melhor os seus mecanismos de ação, que acabariam por inviabilizar a multiplicação dessas colônias bacterianas, levando-as a morte. Porém, as bactérias possuem aparatos que lhe conferem uma adaptação à presença de antibióticos, com isso, estes micro-organismos se tornam resistentes a esses medicamentos.

Nos últimos anos, o número de bactérias que desenvolveram resistência a maior parte dos antibióticos existentes cresceu exponencialmente, dificultando o tratamento quimioterápico em pacientes que apresentam infecções bacterianas. Devido a isso, os cientistas buscam meios de combater esses organismos por outras abordagens. A partir desta, surge então, uma técnica inovadora, que utiliza a luz como um fator atuante na eliminação e inibição do crescimento das colônias bacterianas.

Basicamente, as bactérias possuem em seu interior, estruturas moleculares chamadas cromóforos, que são capazes de absorver determinados comprimentos de ondas da luz. Essas estruturas, são moléculas que quando excitadas, podem gerar compostos á base de oxigênio, conhecidos como espécies reativas de oxigênio (ERO’s), que tem uma alta capacidade de reagir com outros componentes intracelulares, podendo alterar a estrutura de proteínas, do material genético e da membrana celular, causando a morte do organismo.

Estudos realizados na Universidade Nacional de Chonnam na Coréia do sul mediram os efeitos bactericidas de diferentes comprimentos de onda em três modelos bacterianos patogênicos in vitro¹. Os comprimentos de onda utilizados eram 425 nm (azul), 525 nm (verde) e 625 nm (vermelho) que foram emitidos através de lâmpadas especiais conhecidas como LED (Lighting-Emitting Diode). As bactérias usadas como modelo eram Porphyromonas gengivalis; Escherichia coli e Staphylococcus aureus. Como resultado, os pesquisadores encontraram que o comprimento de onda do azul foi capaz de eliminar as três espécies, enquanto que o verde eliminava S. aureaus, mas diminuía a viabilidade das outras duas espécies. Já o LED vermelho, não apresentava efeitos bactericidas nas três espécies estudadas.

Esse tipo de resultado demonstra a capacidade bactericida do LED azul, sendo viável empregá-lo em terapias de tratamento dentário, por exemplo. Onde se poderia substituir o uso de antibióticos, ou combiná-los para se aperfeiçoar sua eficácia do tratamento. Os trabalhos realizados com esse tipo de terapia, conhecido como Fototerapia, envolvem diversos fatores que podem influenciar no resultado final. Pode-se citar como exemplo: o tipo de comprimento de onda utilizado, fluência, potência, tempo de exposição, área de irradiação e modelo celular empregado.

Diferentes bactérias, também podem reagir de forma diferente na presença da luz. Um estudo realizado na Universidade Nacional de Cingapura decidiu avaliar os efeitos bactericidas do LED azul e verde e analisar o papel de um cromóforo na molécula de coproporfirina nesse processo, onde neste estudo, foram utilizadas seis bactérias, das quais três eram gram-positivas e três gram-negativas, todas patogênicas².

A diferenciação das bactérias gram-positivas e gram-negativas está principalmente na constituição de sua membrana celular. Segundo os autores constatou-se que: as bactérias gram-positivas são mais susceptíveis à luz azul em comparação às gram-negativas, muito provavelmente, pela maior presença de coproporfirinas que absorvem a luz azul, gerando ERO’s e levando a morte celular. As gram-negativas também demonstraram sensibilidade, porém menor. Com relação à luz verde, esta se mostrou menos eficaz que a luz azul para efeitos bactericidas.

Vale ressaltar que, o mecanismo de ação da luz no efeito bactericida ainda não é muito bem elucidado, a hipótese mais aceita é justamente a presença de cromóforos em moléculas, como flavinas, porfirinas e coproporfirinas presentes no interior desses organismos que acabam por formar espécies reativas de oxigênio que ocasionam a morte celular. Por conta disso, estudos mais investigativos in vitro e in vivo devem ser realizados, para que se possa compreender melhor o mecanismo de ação da luz em modelos bacterianos, na qual poderá se cogitar com mais seguridade a substituição de antibióticos por luz. Esses resultados se mostram promissores, onde, talvez, em um futuro não muito distante, estaremos, realizando tratamentos fototerápicos, no combate a infecções bacterianas.

*Por Rickson Ribeiro

………………………………………………………………………………
*Fonte: ciencianautas

Vídeo traz a sensação de como é viajar na velocidade da luz

Geralmente, quando pensamos em velocidade da luz, logo nos vêm à mente uma viagem ultra rápida, onde podemos ir de um ponto a outro instantaneamente, uma vez que a luz toma o posto de maior velocidade do Universo e nada pode ultrapassá-la ou alcançá-la. Porém, não é bem assim. A luz do Sol demora, por exemplo, cerca de 8 minutos para chegar até a Terra.

Muitos pensadores, artistas e psicólogos recomendam o exercício de, sempre que possível, tomarmos a dimensão do espaço que ocupamos no Universo. Se a este exercício somarmos a velocidade real das coisas na imensidão cósmica, o efeito pode ser bastante emocionante.

O curta-metragem “Riding Light”, realizado pelo diretor e animador norte-americano Alphonse Swinehart, nos traz uma representação do tempo gasto em uma viagem na velocidade da luz pelo espaço interplanetário. Confira!

*Por Giovane Almeida

…………………………………………………………………………….
*Fonte: ciencianautas

Guerra das Correntes: a batalha entre Edison e Tesla que mudou a história

A rivalidade entre Nikola Tesla e Thomas Alva Edison era notória. Antigos parceiros, eles acabaram se tornando praticamente inimigos mortais. A competitividade entre os dois está por trás de um dos episódios mais fascinantes da história das invenções: a “Guerra das Correntes”.

A história começou em 1879, quando Edison buscava inventar a lâmpada incandescente. Após vários anos de testes, ele conseguiu substituir o vapor pela corrente contínua como fonte de energia, obtendo sucesso de curto alcance, já que o sistema tinha algumas desvantagens: a energia fluía em uma direção e os cabos derretiam.

Buscando soluções, em 1884, Edison contratou Nikola Tesla, que havia chegado recentemente a Nova York. Após um ano e meio trabalhando com ele, o jovem Tesla encontrou uma solução alternativa à corrente contínua de Edison: um sistema de geração e transmissão de corrente alternada que permitia transportar energia a grandes distâncias.

No entanto, Edison desestimulou a ideia, menosprezou o trabalho de Tesla e, inclusive, se negou a pagar-lhe o dinheiro prometido por cumprir o trabalho. Enquanto isso, muitos investidores se mostraram interessados na ideia do jovem europeu, e a comercialização do novo sistema deu início à famosa “Guerra das Correntes” entre ambos. Enquanto Edison defendia a utilização da corrente contínua para distribuição de eletricidade, Tesla pregava o uso da corrente alternada.

De acordo com o Departamento de Energia dos EUA, Edison não queria perder os royalties que ganhava com suas patentes de corrente contínua, então tentou desacreditar Tesla por meio de uma campanha de desinformação que pregava os supostos perigos da corrente alternada. Durante os primeiros anos de fornecimento de eletricidade, a corrente contínua foi usada como padrão nos Estados Unidos, mas, com o tempo, a corrente alternada de Tesla acabou predominante. Atualmente, ela é usada para alimentar a maior parte da eletricidade do mundo.

………………………………………………………………………………..
*Fonte: history

Utensílios de bambu e bagaço da cana se decompõem em 60 dias

O bagaço da cana-de-açúcar, subproduto do processo de extração, pode ser matéria-prima para plásticos biodegradáveis. Adicionando bambu na composição, chega-se a uma combinação ecológica, eficiente e barata. É o que sugere pesquisadores da Universidade do Nordeste, nos Estados Unidos, em artigo à revista Matter.

Em laboratório, os estudiosos testaram o uso dos dois materiais para criar bandejas, copos e tigelas. O objetivo era encontrar potenciais substitutos para os descartáveis. Afinal, a comodidade de “usar e jogar fora” foi popularizada há poucas décadas, mas foi tempo suficiente para tornar-se um dos grandes desafios ambientais.
plástico de bagaço

“É difícil proibir as pessoas de usar contêineres descartáveis ​​porque são baratos e convenientes”, afirma Hongli (Julie) Zhu, professora e coautora do artigo. “Mas acredito que uma das boas soluções é usar materiais mais sustentáveis”.

De origem chinesa, Hongli afirma que a primeira vez que pisou nos Estados Unidos, em 2007, ficou chocada com a quantidade de itens plásticos descartáveis disponíveis nos supermercados. Tempos depois passou a focar seus estudos na identificação de materiais naturais e tecnologias que ajudem a reduzir nossa dependência do petróleo.

Plástico de bambu e açúcar

Hongli e seus colegas da Universidade do Nordeste moldaram recipientes enrolando fibras de bambu longas e finas com fibras curtas e grossas de bagaço de cana – formando uma rede estável. O resultado é um material forte, limpo, não tóxico, eficiente para reter líquidos e o melhor: começa a se decompor após 30 a 45 dias no solo. Em 60 dias, perde completamente sua forma.

A composição do “plástico” alternativo leva também AKD (Dímero Alquil Ceteno) – um produto químico seguro para a indústria alimentícia – para aumentar a resistência ao óleo e à água.

De acordo com os pesquisadores, o novo produto emite 97% menos CO2 do que os recipientes de plástico e 65% menos CO2 do que produtos de papel e plástico biodegradável disponíveis no mercado. Por aproveitar de resíduos, o custo também é favorável – sobretudo em comparação aos biodegradáveis. O próximo passo é baixar ainda mais para competir com os copos plásticos tradicionais.

Agora, imagine o potencial do Brasil, que é o maior produtor de cana-de-açúcar do mundo. Não à toa, o bagaço da cana já é estudado para diversas finalidades e esta pode ser mais uma delas.

O artigo, em inglês, você confere aqui.

*Por Marcia Sousa

………………………………………………………………………………….
*Fonte: ciclovivo

Idosos conseguem gerar novas células cerebrais igual a pessoas jovens, revela estudo

Pesquisadores mostram pela primeira vez que homens e mulheres idosos saudáveis podem gerar tantas novas células cerebrais quanto pessoas mais jovens. Há controvérsias acerca se humanos adultos desenvolvem novos neurônios, e algumas pesquisas já haviam…

Pesquisadores mostram pela primeira vez que homens e mulheres idosos saudáveis podem gerar tantas novas células cerebrais quanto pessoas mais jovens.

Há controvérsias acerca se humanos adultos desenvolvem novos neurônios, e algumas pesquisas já haviam sugerido que o cérebro adulto era conectado e que os idosos não desenvolviam novos neurônios. Este estudo, publicado na revista Cell Stem Cell em 5 de abril, contraria essa noção. A autora principal, Maura Boldrini, professora associada de neurobiologia da Universidade de Columbia, diz que as descobertas podem sugerir que muitos idosos permanecem mais cognitiva e emocionalmente intactos do que comumente se acreditava.

“Descobrimos que as pessoas mais velhas têm capacidade semelhante para produzir milhares de novos neurônios do hipocampo a partir de células progenitoras, como fazem as pessoas mais jovens”, diz Boldrini. “Nós também encontramos volumes equivalentes do hipocampo (uma estrutura do cérebro usada para emoção e cognição) através das idades. No entanto, os indivíduos mais velhos tiveram menos vascularização e talvez menos habilidade de novos neurônios para fazer conexões”.

Os pesquisadores fizeram autopsia de hipocampos de 28 indivíduos previamente saudáveis, com idades entre 14 e 79 anos, que haviam morrido subitamente. Esta é a primeira vez que os pesquisadores examinaram os neurônios recém-formados e o estado dos vasos sanguíneos dentro do hipocampo humano logo após a morte. (Os pesquisadores determinaram que os sujeitos do estudo não tinham problemas cognitivos e não sofriam de depressão ou tomavam antidepressivos, algo que Boldrini e seus colegas haviam percebido anteriormente que poderiam afetar a produção de novas células cerebrais.)

Em roedores e primatas, a capacidade de gerar novas células hipocampais diminui com a idade. A produção em declínio de neurônios e um encolhimento total do giro dentado, parte do hipocampo que pensa-se ser o responsável de ajudar a formar novas memórias episódicas, também ocorreram em humanos envelhecidos.

Os pesquisadores da Universidade de Columbia e do Instituto Psiquiátrico do Estado de Nova York descobriram que até os cérebros mais antigos que eles estudaram produziram novas células cerebrais. “Encontramos um número similar de progenitores neurais intermediários e milhares de neurônios imaturos”, escreveram eles. No entanto, os indivíduos mais velhos formam menos vasos sanguíneos novos dentro das estruturas cerebrais e possuem um armazenamento menor de células progenitoras – descendentes de células-tronco que são mais restritas em sua capacidade de se diferenciar e se auto-renovar.

Boldrini supôs que a redução da capacidade de recuperação cognitivo-emocional na velhice pode ser causada por esse pequeno grupo de células-tronco neurais, pelo declínio na vascularização e pela redução da conectividade célula-célula dentro do hipocampo. “É possível que a neurogênese do hipocampo em curso sustente a função cognitiva específica do ser humano ao longo da vida e que o declínio possa estar vinculado à resiliência cognitivo-emocional comprometida”, diz ela.

Boldrini diz que pesquisas futuras sobre o envelhecimento cerebral continuarão a explorar como a proliferação, a maturação e a sobrevivência das células neurais são reguladas por hormônios, fatores de transcrição e outras vias intercelulares.

 

 

…………………………………………………………………..
*Fonte: socientifica

Veja o centro da Via Láctea neste incrível vídeo em 360º

Coloque o cinto de segurança e segure firme: você está prestes a ser teleportado para uma representação em 360 graus do centro da nossa galáxia, a Via Láctea.

A visualização de ultra-alta definição é cortesia dos dados coletados pelo Observatório de raios-X Chandra, um observatório espacial que entrou em órbita em 1999. O supercomputador Ames da NASA transformou os dados em uma simulação impressionante que você pode assistir no conforto de sua casa.

No vídeo, você pode observar gases emitindo raios-X e ver explosões de gases que estão próximos ao buraco negro. De acordo com a NASA, esses gases estão a dezenas de milhões de graus Kelvin.

A NASA espera usar esta simulação para estudar o ambiente em torno do buraco negro supermassivo que está no centro da Via Láctea.

*Por Giovane Almeida

………………………………………………………………………………….
*Fonte: ciencianautas

Muito além de “Cosmos”: as contribuições cósmicas e científicas de Carl Sagan

O legado mais conhecido de Carl Sagan talvez seja seu trabalho para tornar a ciência acessível e popular entre as massas, melhor demonstrado por seu programa de televisão Cosmos: Uma Viagem Pessoal. Originalmente transmitido em 1980, o programa era – e ainda é – amado por apresentar conceitos científicos complexos de uma maneira que os tornava compreensíveis.

Duas décadas após sua morte, a influência de Carl Sagan na investigação, descoberta e compreensão científica ainda é forte atualmente. Embora, sem dúvida, as conquistas científicas de Sagan cheguem a “bilhões e bilhões”, nos limitaremos nesse artigo a apresentar apenas algumas das mais importantes contribuições de Sagan para a ciência.

Marte, o planeta empoeirado

Sagan contribuiu significativamente para o nosso entendimento acerca de Marte. Cientistas já pensaram que Marte era coberta por uma vegetação que mudava com as estações do ano – levando a seus padrões variados de luz e escuridão, como pode ser visto através de telescópios. Sagan examinou novos dados e determinou que as mudanças nos padrões de cores eram causadas pela poeira que sopra ao vento em diferentes elevações. Isso foi confirmado por expedições posteriores ao planeta, que o acharam empoeirado e sem vida.

Luas habitáveis

Sagan foi um dos primeiros a supor que a água estava presente na lua de Saturno, Titã, e na lua de Júpiter, Europa. Essas duas luas são agora a fonte de muita fascinação e especulação, com muitos contemplando a possibilidade de colonização humana, bem como a empolgante ideia de que as luas possam ser capazes de desenvolver a vida independentemente. Embora nenhuma das duas seja atualmente um lugar muito confortável para se viver – ambas têm climas quase inimaginavelmente frios e Europa possui níveis de radiação potencialmente fatais – ambas apresentam possibilidades.

Vênus e o efeito estufa

Pensava-se que Vênus tinha um clima como o da Terra, mas ainda mais tropical. Agora sabemos que é exatamente o oposto – quente, seco e inabitável. Sagan foi o primeiro a sugerir que as nuvens de Vênus podem não ser uma indicação de um clima agradável; seu estudo das emissões de rádio de Vênus o levou a sugerir uma temperatura de superfície de 900 °F (cerca de 480 °C). Mais tarde, ele ajudou a projetar e gerenciar as expedições Mariner da NASA a Vênus, que provaram que Vênus é realmente inabitavelmente quente. Sagan determinou que, embora Vênus possa ter tido água, ela evaporou devido a um intenso efeito estufa – e alertou sobre o perigo de um caminho semelhante aqui na Terra, se o aquecimento global fosse deixado fora de controle.

SETI

Sagan foi um cientista pioneiro na divulgação do SETI, uma série de projetos realizados na esperança de encontrar vida inteligente em outras partes do Universo. Membro do Conselho de Administração do Instituto SETI, ele trabalhou para atrair atenção e compreensão para a busca, com sua mistura característica de advocacia racional e deleite total. Sagan poderia nos dizer o quão cientificamente e culturalmente importante era determinar se compartilhamos o Universo com outros seres inteligente (e nos deixar muito empolgados com a possibilidade).

Desmascarando OVNIs

Fora do fascínio de Sagan pela busca de vida inteligente no Universo, cresceu sua frustração com o culto aos OVNIs. Enquanto ele estava confiante de que a vida inteligente está por aí em algum lugar, ele também tinha certeza de que ela não está circulando pela Terra, abduzindo humanos e fazendo círculos em plantações. Nesta e em muitas outras áreas, Sagan era um cético notável, sempre defendendo o poder da investigação científica sobre a crença cega.

A Sociedade Planetária

Em 1980, Sagan fundou a Sociedade Planetária, juntamente com Bruce Murray e Louis Friedman. Com a missão de inspirar e envolver o público mundial na exploração espacial por meio de projetos científicos e educacionais, a Sociedade é hoje o maior grupo de interesse espacial do mundo. Através de trabalho independente e financiamento privado, a Sociedade Planetária está criando sua própria espaçonave para testar as possibilidades da navegação solar. Também financia outras entidades em uma ampla variedade de esforços, da pesquisa em Marte à ação política.

Dilema da deflexão

Um importante campo de estudo para Sagan e a Sociedade Planetária foram os corpos celestes próximos à Terra (como asteroides e meteoros), que poderiam colidir com a Terra e causar efeitos devastadores. Alguns propuseram a solução cinematográfica de disparar mísseis nucleares que poderiam desviar um meteoro em rota de colisão, alterando seu caminho para que passasse inofensivamente pela Terra. Sagan rebateu essa ideia com o pensamento preocupante de que, se criarmos a capacidade de desviar um meteoro da Terra, também criaremos a capacidade de desviar um deles em direção à Terra – aproveitando assim o poder destrutivo além de qualquer tecnologia atual e colocando em risco a nós mesmos e outras nações. Esse dilema da deflexão é apenas um exemplo das muitas maneiras pelas quais Sagan aplicou princípios científicos a questões políticas, tentando incentivar o pensamento sadio e crítico em todas as áreas.

Escritos

Sagan foi o autor ou coautor de 20 publicações, usando seu estilo de escrita amigável e acessível para tornar a ciência compreensiva para aqueles que não possuem formação avançada em astrofísica. Do seu primeiro aos seus dois últimos trabalhos, brilhantemente escritos enquanto ele estava passando por um tratamento doloroso e estressante da mielodisplasia que levaria sua vida, Sagan procurou compartilhar sua fome de conhecimento para seus leitores. Ele até escreveu um romance, Contato, que foi transformado em um filme bem recebido e premiado, explorando a ideia de Sagan de como nossa primeira experiência com inteligência extraterrestre poderia se desenrolar.

Um senso de maravilhamento

Durante todas as suas enormes realizações científicas e suas aparições públicas populares, Sagan nunca perdeu o que o tornava tão notável e tão amado: seu senso de maravilhamento. Ele não era apenas um cientista porque era brilhante e sabia como fazer seu trabalho; ele também era um cientista porque pensava que a ciência era muito legal. Sua empolgação apareceu em seus discursos e aparições na TV, em suas publicações, descobertas e hipóteses, e em seu entusiasmo ao longo da vida pela ciência. E, sempre, com dois objetivos principais: promover o conhecimento científico e levar esse conhecimento para as pessoas do mundo inteiro.

*Por Ruan Bitencourt Silva

……………………………………………………………………………………
*Fonte: universoracionalista

Derretimento de geleiras poderá fazer o nível do mar aumentar 38 cm até 2100

Se os humanos continuarem emitindo gases de efeito estufa no ritmo atual, o derretimento de geleiras poderá fazer o nível do mar aumentar 38 centímetros até 2100. Dessa forma, pesquisadores afirmam que algo precisa ser feito e rápido. Caso contrário, as consequências serão irreversíveis.

Já sabemos que os gases de efeito estufa emitidos pela atividade humana, como o dióxido de carbono, contribuem significativamente para as mudanças climáticas e o aquecimento do planeta Terra. Assim, à medida que as temperaturas se elevam, as geleiras se derretem.

Tudo irá depender de como lidaremos com as mudanças climáticas

De acordo com um novo estudo realizado por uma equipe internacional de mais de 60 cientistas, o derretimento de mantos de gelo irá alterar os níveis globais do mar. “Quando se trata de quanto o nível do mar aumentará no futuro, uma das maiores incertezas é como os mantos de gelo contribuirão para essas mudanças”, afirma Sophie Nowicki, da Universidade de Buffalo e líder do projeto. “E a contribuição dos mantos de gelo depende muito do que como o clima será afetado”, completa.

Segundo os resultados do estudo, se as emissões humanas de gases de efeito estufa continuarem no ritmo em que estão, o derretimento das camadas de gelo da Groenlândia e da Antártica contribuirão para o aumento de mais de 28 centímetros no nível global do mar. Dessa forma, os pesquisadores chegaram a esses resultados traçando uma média de crescimento entre 2015 e 2100.

Com altas emissões de carbono, apenas o derretimento da região Groenlândia contribuirá com 9 centímetros no aumento global do nível do mar. Caso autoridades tomem medidas, esse número será menor. Assim, os pesquisadores estimam que, ao invés de 9 centímetros, o aumento seja de 3 centímetros.

Essas previsões valem para os anos entre 2015 e 2100

Em todo caso, a perda do manto de gelo na Antártida é mais difícil de prever. Isso porque, embora as plataformas de gelo continuem a derreter no lado ocidental do continente, o Leste da Antártica pode realmente ganhar massa. Por isso, as previsões são incertas. Mas, a estimativa é que o nível do mar aumente entre 18 e 30 centímetros.

Vale lembrar que, essas previsões não levam em conta derretimentos de gelo recentes. “Levou mais de seis anos de encontros com cientistas de todo o mundo trabalhando em camadas de gelo, atmosfera e modelagem do oceano para reunir o grupo do estudo”, afirma Nowicki, que participou do estudo. “A razão de ter funcionado, é porque a comunidade polar é pequena. Estamos muito interessados ??em resolver esse problema do nível do mar no futuro. Precisamos saber esses números”, completa.

Nesse sentido, os pesquisadores continuam o trabalho. Em breve, eles esperaram entregar um relatório e previsões mais atualizadas para o futuro. Tendo como base o atual trabalho, o próximo deverá vir mais preciso com as previsões. Dessa forma, a ideia é que isso seja feito até 2022. Até lá, os pesquisadores acreditam que muito líderes mundiais tomarão decisões importantes para mudar as previsões. E claro, de forma positiva. Entretanto, nesse caso, muitos pesquisadores se mostram pouco esperançosos quanto a isso, uma que não é o que temos visto.

*Por Erik Ely

…………………………………………………………………………………..
*Fonte: fatosdesconhecidos

NASA pode ter detectado uma parede gigante no fim do sistema solar

A espaçonave New Horizons, da Nasa, ajudou cientistas a estudarem um misterioso fenômeno no limite do Sistema Solar, onde partículas do Sol e do espaço interestelar interagem.

Esta região, cerca de 100 vezes mais distante do Sol que a Terra, é onde átomos de hidrogênio não carregados do espaço interestelar se encontram com partículas carregadas do nosso Sol.

No ponto em que os dois interagem, acredita-se que haja um acúmulo de hidrogênio no espaço interestelar. Isso cria uma espécie de “parede”, que dispersa a luz ultravioleta.

Cerca de 30 anos atrás, as sondas Voyagers 1 e 2 da NASA detectaram pela primeira vez este muro, e agora a New Horizons encontrou novas evidências para ele.

A New Horizons fez a detecção usando seu espectrômetro Alice UV, fazendo medições de 2007 a 2017. Ela encontrou um brilho ultravioleta conhecido como uma linha Lyman-alfa, que é produzida quando partículas solares atingem átomos de hidrogênio.

Nós vemos esse brilho ultravioleta por todo o Sistema Solar. Mas nesta região chamada heliopausa, parece haver uma fonte adicional causada pela parede de hidrogênio, criando um brilho maior.

Além da parede, há mais luz ultravioleta do que na frente dela, sugerindo que ela está sendo espalhada pelo “muro”

“Essa fonte distante poderia ser a assinatura de uma parede de hidrogênio, formada perto de onde o vento interestelar encontra o vento solar”, escreveram os pesquisadores.

A teoria ainda não é definitiva. É possível que outra fonte de luz ultravioleta em nossa galáxia possa estar causando esse brilho de fundo. Para ter certeza, a New Horizons continuará procurando pelo muro duas vezes por ano.

Em algum momento, a sonda atravessará a parede, e se existir, a quantidade de luz ultravioleta detectada diminuirá. Isso forneceria alguma evidência adicional de que a parede está realmente lá.

A Voyager 1 e 2 já passaram pela parede agora, então não podem fazer mais detecções. Mas a New Horizons está apenas 42 vezes mais longe do Sol do que a Terra, uma distância que levou cerca de 12 anos para alcançar e está atualmente a caminho de explorar um novo alvo chamado Ultima Thule.

Se nossas estimativas estiverem corretas, então, quando a missão terminar em cerca de 10 a 15 anos, ela deve ter chegado à parede. Nesse ponto, podemos saber com certeza se ela está lá ou não.

*Por Davson Filipe

…………………………………………………………………………….
*Fonte: realidadesimulada

Marte atinge ponto mais próximo da Terra; a próxima vez só em 2035

Marte está o mais perto da Terra possível, em um fenômeno que só vai acontecer novamente daqui a 15 anos, em 2035. Esta semana será o período no qual o planeta vermelho estará ainda mais próximo do nosso, posicionado quase que perfeitamente para ser visto pelos dois hemisférios e com um brilho intenso que permite que ele seja visto no céu à noite.

Na última sexta-feira, 2, um pontinho brilhante embaixo da Lua causou comoção nas redes sociais: e nada mais era do que Marte ao vivo e a cores.

O que acontece é que a cada 15 anos, durante o verão marciano, o planeta fica mais próximo do Sol e também da órbita terrestre. Nesta terça-feira, 6, o planeta estará a uma distância de 62,07 milhões de quilômetros da Terra.

Marte estará visível por boa parte da noite do céu no Sul, sendo que seu pico acontecerá em torno da meia-noite. Se Marte e a Terra tivessem órbitas perfeitamente circulares, a distância mínima entre os dois planetas seria sempre a mesma — mas não é assim que funciona, uma vez que a órbita de ambos os planetas tem um formato parecido com o de um ovo.

Apesar da proximidade, esse não é o número recorde que a Terra e Marte se encontraram tão de perto. Em 2003, o planeta vermelho ficou a 55,7 milhões de quilômetros do nosso — um fenômeno que não acontecia há cerca de 60 mil anos. Agora, para vê-lo tão de perto novamente, só em 2287.

Mas a Nasa pede cuidado: Marte não ficará do tamanho da Lua em nosso céu. “Se isso fosse verdade, teríamos um grande problema, porque teríamos a gravidade da Terra, de Marte e da Lua”, explica a agência americana.

*Por Tamires Vitorio

…………………………………………………………………………………….
*Fonte: exame