terça-feira, 31 de janeiro de 2012

Conheça o telescópio sucessor do Hubble

Por Pedro Sirna, Atualizado: 6/1/2012 10:44

Novo observatório espacial da Nasa terá o dobro do tamanho e poderá observar até os limites do UniversoJames Webb leva nome de diretor da Nasa da época do projeto Apolo

James Webb leva nome de diretor da Nasa da época do projeto Apolo

Não há dúvidas de que o telescópio Hubble revolucionou o nosso entendimento do Universo. As imagens em ótima resolução do aparelho ajudaram astrônomos do mundo todo a estudar os corpos celestes e desvendar os segredos do cosmos. Mas como todo equipamento eletrônico, o Hubble está ficando velho e os cientistas da Nasa anseiam por novidade.

Para não deixar os astrônomos na mão, a agência espacial norte-americana já anunciou um novo telescópio que deverá substituir o Hubble em 2018. Batizado de James Webb, em homenagem ao diretor da Nasa no tempo do projeto Apolo, que levou o homem à Lua, o novo equipamento será quase três vezes maior que o seu antecessor, e segundo os cientistas, terá capacidade de observar todo o Universo, até os seus limites.

Enquanto o Hubble tem cerca de 13 metros de comprimento por 4 de largura e um espelho coletor de luz com 2,45 metros de diâmetro, o James Webb terá um comprimento total de 24 metros e 12 de altura, com espelho de 6,5 metros de diâmetro, que lhe permitirá cobrir área quase 15 vezes maior que o Hubble e coletar quase sete vezes mais luz.

Como a "potência" de um telescópio está na quantidade de luz que ele pode receber de um objeto - quanto maior o diâmetro de um telescópio, maior a sua "potência" – o James Webb poderá fotografar os corpos celestes e medir em detalhes a luz que vem deles.

Hubble_01

Outro aspecto importante que também ajuda a medir com grande precisão a posição dos objetos é estar no espaço, fora da atmosfera da Terra. O sucesso do Hubble se deve, sobretudo, a capacidade de tirar fotos sem interferencia da atmosfera terrestre.

O James Webb também estará no vácuo do espaço, mas enquanto o Hubble está a pouco menos de 600 quilômetros da superfície terrestre, o novo telescópio ficará afastado 1,5 milhão de quilômetros, numa órbita além da Lua e com ainda menos interferência atmosférica que a da órbita do Hubble.

A enorme distância, no entanto, aumenta os riscos do projeto. Se algo der errado e o telescópio precisar de reparos, não a nada que a Nasa poderá fazer. O próprio Hubble passou por esta situação quando, pouco depois de entrar em órbita em 1993, descobriu-se que o espelho principal tinha um defeito que impedia o telescópio de focar objetos com a precisão planejada.

Na ocasião, a Nasa treinou intensamente sete astronautas que voarem a bordo do ônibus espacial Endeavour até o observatório espacial para realizar um extenso trabalho a fim de instalar a ótica corretiva. Porém, com o James Webb não existe a possibilidade de uma missão tripulada viajar mais de um milhão de quilômetros para trocar uma câmera queimada.

JamesWebb_02

O custo no novo telescópio também representa outro empecilho. O projeto foi estimado inicialmente em US$ 3,5 bilhões, mas já foi recalculado diversas vezes e, atualmente, está estimado em US$ 8,8 bilhões. Além disso, o James Webb deveria ser lançado em junho de 2013, logo após o encerramento da vida útil do Hubble, mas cortes de verba da Nasa e a crise econômica mundial adiaram o lançamento.

Mesmo com tantos problemas, a Nasa matem o plano de lançar o novo telescópio em 2018 a bordo do foguete europeu Ariane 5 ECA, o maior transportador espacial do mundo, com capacidade de carregar mais de 10 toneladas. A agência espacial européia também terá participação de 15% no projeto, a mesma quantia que ela tinha com o Hubble.

Além da distância, do tamanho e da forma, a principal diferença entre o James Webb e o Hubble é o jeito de observar o Universo. Enquanto o Hubble enxerga as luzes ultravioletas e as visíveis ao olho humano, o Webb verá em luz infravermelha, o que lhe permitira enxergar os objetos mais distantes no Universo e ter imagens das primeiras galáxias formadas, assim como estudar os planetas que rodeiam estrelas distantes.

Com isto, os cientistas esperam começar a resolver alguns dos muitos mistérios do Universo, tais como a origem do cosmos, os processos iniciais do nascimento das estrelas, a formação dos exoplanetas e a real natureza das misteriosas matéria e energia escura.

Fonte: Nasa / MSN

Microsoft trabalha em holograma palpável

Por Pedro Sirna, 30/1/2012 10:45

Tecnologia se aproxima do conceito mostrado em Star Wars

Realidade está mais próxima da mostrada em Star Wars

Realidade está mais próxima da mostrada em Star Wars

A comunicação por holograma tem sido sonhada pela humanidade desde a cena clássica com a princesa Leia em “Star Wars”, mas os cientistas do mundo real ainda não conseguiram criar um sistema com a tecnologia necessária para projetar imagens como as vistas no filme.

O problema é que a maioria dos dispositivos encontrados no mercado requerem o uso de óculos especiais para a visualização em 3D. E os que não exigem, são incapazes de permitir a visualização em 360 graus dos objetos projetados.

Alguns dos mais modernos sistemas holográficos em desenvolvimento até conseguem reproduzir a imagem em 3D com ângulo de 360 graus, mas a interação direta do usuário com a imagem fica comprometida pois estes são envoltos por vidros ou acrílicos transparentes.

Agora, a Microsoft está trabalhando em um dispositivo que promete resolver todos esses problemas criando hologramas em três dimensões que podem ser visualizados em 360 graus e interagidos pelo usuário por meio do toque.

O Vermeer, como é chamado o novo dispositivo da empresa, é capaz de movimentar as imagens a 15 frames por segundo enquanto simula 192 pontos de vista diferentes. E o mais impressionante, o holograma não fica “preso” em uma cúpula de vidro.

A tecnologia funciona graças ao auxílio de sensores infravermelhos e equipamentos como o Kinect, que permitem ao usuário colocar os dedos no conteúdo holográfico e mexer os objetos virtuais como se esses fossem de verdade.

Embora o dispositivo ainda esteja em desenvolvimento e as imagens tenham um visual um pouco fantasmagórico, pode-se dizer que o Vermeer é um grande passo rumo a um futuro no qual a humanidade se comunicará da mesma forma que os personagens da série “Star Wars”.

Para entender melhor como a nova tecnologia funciona, confira o vídeo a seguir:

 

<a href="http://video.msn.com?vid=220d5c5b-4303-4823-97e1-e151655c2e35&amp;mkt=pt-br&amp;from=iv2_pt-br_tecnologia&amp;src=FLPl:embed::uuids" target="_new" title="Vermeer Interactiv Display">Vídeo: Vermeer Interactiv Display</a>
Caso não veja o vídeo assista aqui

Caso não consiga assistir clique aqui.

Fonte: MSN

ReRAM: memória resistiva começa a sair dos laboratórios

Redação do Site Inovação Tecnológica - 31/01/2012

ReRAM: memória resistiva começa a sair dos laboratórios

Protótipo da memória resistiva ReRAM, que a Elpida pretende fabricar em grande escala em 2013, usando uma tecnologia de 30 nanômetros e atingindo uma capacidade na faixa dos gigabits.[Imagem: Elpida Memory]

Confusão de memória

A empresa japonesa Elpida Memory anunciou a criação do primeiro protótipo de memória resistiva com uma velocidade que se equipara às memórias DRAM atualmente no mercado.

Aparentemente o anúncio causou um entusiasmo desmedido na imprensa, já que a empresa teve que prontamente emitir um segundo comunicado, afirmando que muitas notícias eram "especulativas, sem base factual".

O que é fato é que o desenvolvimento da Elpida é significativo, mostrando que as memórias resistivas têm potencial para concorrer com outras tecnologias emergentes de memória não-volátil, ou seja, que não perdem os dados quando a energia é desligada.

O que não é fato é que a nova memória resistiva já esteja pronta para substituir as memórias dos computadores.

Na verdade, o protótipo é rápido, mas não tem ainda a durabilidade de uma DRAM. A Elpida anunciou que está fazendo um acordo com a também japonesa Sharp para tentar tornar a nova tecnologia pronta para chegar ao mercado.

Memórias resistivas, ou RRAM

A nova memória é do tipo conhecido como RRAM - a Elpida chama seu protótipo de ReRam -, um acrônimo para memória de acesso aleatório resistiva.

As memórias resistivas, assim como as memórias ferromagnéticas e outras, mantêm os dados na falta de energia.

As memórias flash, usadas em cartões de memória e em discos rígidos de estado sólido, também fazem isto, mas não são rápidas o suficiente para serem usadas como memória principal de um computador.

A ReRAM agora anunciada foi fabricada com uma tecnologia de 50 nanômetros - ainda "grande" para os padrões atuais - com células de 64 megabits.

As memórias resistivas são fabricadas com um material que altera sua resistência à passagem da corrente elétrica em resposta a variações na sua tensão de alimentação.

Depois que a memória é desligada, essa resistência se mantém, o que significa que os dados não se perdem.

Pendrives mais duráveis

O tempo de escrita da ReRam, segundo a empresa, é de 10 nanossegundos, uma velocidade similar à das DRAM atuais.

Sua durabilidade foi calculada em 10 milhões de ciclos de escrita e leitura. Isto é cerca de 10 vezes mais do que uma memória flash suporta, mas ainda muito menos do que uma DRAM.

Ou seja, ainda que não ocupe imediatamente seu lugar nos computadores, a ReRAM tem potencial para ser usada em outras áreas, como em pendrives e discos de estado sólido de maior durabilidade.

A Elpida afirma ter como objetivo fabricar a nova memória em grande escala em 2013, usando uma tecnologia de 30 nanômetros e atingindo uma capacidade na faixa dos gigabits.

Competição acirrada

A Panasonic e a HP também já anunciaram planos para a fabricação futura de RRAMs.

Outra competidora de peso na área das "memórias promissoras" é a MRAM, uma memória não volátil magnética, ou magnetorresistiva.

A memória de mudança de fase e a racetrack também participam do páreo, seguidas ou pouco mais de longe pela mais revolucionária STT-RAM.

O desenvolvimento anunciado pela Elpida contou com a participação de cientistas do Instituto Nacional de Ciências Industriais Avançadas e da Universidade de Tóquio, ambos no Japão.

Fonte:

segunda-feira, 30 de janeiro de 2012

Telas OLED express: prontas em apenas 2 minutos

Por Maria Luciana Rincon Y Tamanini, 30 de Janeiro de 2012

Novo método de fabricação promete baratear o custo dos painéis com produção super-rápida.

(Fonte da imagem: Reprodução/The Verge)

 

Quando surge uma nova tecnologia, especialmente uma com o potencial das TVs com tela OLED, a primeira pergunta que nos vem à cabeça é o custo que um produto como esse pode ter. Para a nossa sorte, a fabricante DuPont parece estar preocupada com os nossos bolsos.

A empresa informou que já está construindo uma nova instalação com o único objetivo de reduzir o custo de fabricação dos painéis. Para isso, os pesquisadores da DuPont estão pensando em aplicar uma técnica chamada spray-printing, com a qual é possível utilizar uma espécie de impressora capaz de produzir uma enorme quantidade de telas de forma bastante rápida, chegando a gerar um painel de 50 polegadas em questão de minutos — dois, para sermos mais exatos.

O processo ainda não foi completamente otimizado, mas a empresa informou que já investiu US$ 20 milhões para licenciar a nova técnica de impressão. Como ninguém faz um investimento desse porte a troco de nada, é de se esperar que a novo método de fabricação se encontre em perfeito funcionamento em breve.

As únicas empresas que apresentaram TVs com as telas OLED durante a CES 2012 foram a LG e a Samsung, e tudo indica que a segunda empresa vai sair na frente, pois já contaria com um acordo com a DuPont.

Fonte: Tecmundo

Era da informação móvel anseia por um novo hardware

Redação do Site Inovação Tecnológica - 30/01/2012

Era da informação móvel

No ano passado, pela primeira vez a venda de smartphones superou a venda de notebooks.

Com a introdução mais recentes dostablets, já há elementos suficientes para concluir que a era da informação está passando por sua primeira evolução: a era da informação móvel.

Parece então que já é hora de pensar em um hardware projetado desde o início para equipamentos que devem permanecer conectados à internet o tempo todo e, sobretudo, gastar menos bateria.

 

Além da miniaturização

Um consórcio europeu, reunindo indústria e academia, acaba de divulgar seus resultados justamente nessa área.

Os dois principais objetivos do projeto DualLogic são a melhoria do desempenho dos equipamentos com conexão permanente à internet e o baixo consumo de energia.

Depois de 40 anos de miniaturização contínua, não está fácil melhorar o desempenho e a eficiência dos chips.

A saída encontrada pela equipe foi manter o velho e bom silício como elemento básico, o substrato do chip, mas olhar além do silício para criar componentes com um novo patamar de rendimento.

"No projeto DualLogic, nós queremos substituir os canais de silício dos transistores, que não permitem que os elétrons andem tão rápido quanto gostaríamos, por materiais semicondutores de maior mobilidade, como o germânio," explica o Dr. Athanasios Dimoulas, coordenador do projeto.

 

Era da informação móvel anseia por um novo hardware

O projeto DualLogic utiliza dois materiais, um para cada um dos dois tipos de transistores encontrados nos chips. [Imagem: A.Dimoulas]

 

Duas lógicas

O projeto foi batizado de DualLogic porque utiliza dois materiais, um para cada um dos dois tipos de transistores encontrados nos chips, o tipo positivo e o tipo negativo.

A equipe escolheu o germânio (Ge) e o silício-germânio (SiGe) para os transistores do tipo p e o arseneto de índio e gálio (InGaAs) para o transistor tipo n.

Isso deu a cada um dos transistores a maior mobilidade de cargas obtida na eletrônica.

O InGaAs, um composto conhecido como semicondutor III-V, porque ele é feito com elementos da terceira e da quinta colunas da Tabela Periódica, deu aos transistores "um rendimento além das expectativas", segundo o Dr. Dimoulas.

Os resultados para os transistores tipo p não superaram tanto as expectativas, mas ainda assim foram positivos, superando os transistores atuais.

 

Desafio do mercado

Mais difícil foi integrar o InGaAs com o silício, o que exigiu o desenvolvimento de um novo equipamento para crescer as camadas do semicondutor III-V diretamente sobre o silício.

E, embora seja uma inovação significativa, parece que essa nova técnica de fabricação é também o ponto fraco da nova tecnologia.

Os resultados foram "surpreendentes" em escala piloto, mas ficou então um enorme desafio para que o novo paradigma DualLogic chegue ao mercado: convencer a indústria a usá-lo.

Algo que seria feito naturalmente se tecnologia de "dupla lógica" pudesse ser fabricada usando a mesma tecnologia CMOS usada hoje pela indústria.

 

Futuro do hardware

Embora seja previsível que, em um futuro próximo, a indústria tenha que superar o atual processo produtivo, as empresas vão tentar estender ao máximo a vida útil de seu parque industrial instalado.

E, com várias novas tecnologias sendo simultaneamente desenvolvidas, ainda não está claro para onde caminhará o hardware nos próximos 10 ou 15 anos.

Depois da introdução dos materiais de elevado dielétrico, em 2007, os semicondutores III-V vinham sendo as grandes promessas para um novo salto qualitativo.

Mas, a medir pelos resultados do projeto DualLogic, parece que a melhor aposta a médio prazo continuam sendo os processadores fotônicos, que usam luz em vez de eletricidade para a troca interna de dados.

Fonte: