sexta-feira, 6 de maio de 2011

Intel apresenta transistores 3-D de 22 nanômetros

Redação do Site Inovação Tecnológica - 06/05/2011

Intel apresenta transistores 3-D de 22 nanômetros

Ilustração comparando um transístor planar de 32 nanômetros com o novo transístor 3-D de 22 nanômetros. À esquerda está o transístor planar, no qual a corrente, representada pelos pontos amarelos, flui em um plano sob a porta. À direita está o transístor 3-D, no qual a corrente flui nos três lados de uma saliência que se eleva verticalmente da pastilha de silício.[Imagem: Intel]

Tri-Gate

A Intel anunciou o início da fabricação em escala industrial de transistores 3-D com estruturas de 22 nanômetros.

Ainda não são os tão esperadosprocessadores 3-D, mas representam um inegável avanço em direção à economia de energia e um novo fôlego para a Lei de Moore.

Os transistores 3-D, chamados Tri-Gate, serão usados na fabricação de uma família de microprocessadores de 22 nanômetros que atende pelo codinome de Ivy Bridge.

Transístor 3-D

Desde a invenção de transístor, há mais de 60 anos, esta é a primeira vez que um transístor 3-D entra em linha industrial de produção.

Um transístor possui três portas, ou eletrodos, chamadas emissor, coletor e base. Nos transistores planos atuais, esses eletrodos são construídos como três fios salientes sobre uma superfície de silício.

No Tri-Gate, cada porta fica em um dos planos de uma única saliência - uma de cada um dos lados e outra no topo - reduzindo significativamente a área ocupada pelo transístor.

A maior proximidade das portas permite um melhor controle da corrente, o que significa que mais corrente pode passar quando o transístor está na condição "ligado" - aumentando o desempenho - e quase nenhuma corrente flui quando ele está na condição "desligado" - diminuindo o consumo de energia.

Esses ganhos podem ser ampliados até um certo limite, ao menos teoricamente, aumentando a altura da estrutura Tri-Gate, o que deverá ser obtido nas futuras gerações dos transistores 3-D.

Intel apresenta transistores 3-D de 22 nanômetros

No Tri-Gate, cada porta fica em um dos planos de uma única saliência - uma de cada um dos lados e outra no topo - reduzindo significativamente a área ocupada pelo transístor. [Imagem: Intel]

Desempenho e economia de energia

Segundo a Intel, seus transistores 3-D Tri-Gate permitem que os chips funcionem com uma tensão menor e sofram menos dos famigerados "vazamentos de corrente", "oferecendo uma combinação sem precedentes de desempenho e eficiência energética."

Os transistores de 3-D Tri-Gate de 22 nanômetros apresentam um desempenho até 37 por cento maior do que os atuais transistores planos de 32 nanômetros da empresa, quando ambos operam sob baixa tensão.

Quando comparados funcionando a plena potência, os transistores 3-D consomem metade da energia dos transistores planares atuais.

Mas tudo continua apontando para a manutenção das "famílias" de processadores - umas voltadas para baixo consumo de energia, usadas em computadores portáteis, e outras voltadas para alto desempenho, com maior consumo de energia.

Nova dimensão

Os transistores tridimensionais representam uma mudança radical da estrutura do transístor planar bidimensional clássico, presente não apenas em todos os computadores, telefones celulares e equipamentos eletrônicos de consumo, mas também nos controles eletrônicos dentro de carros, satélites e sondas espaciais, eletrodomésticos, dispositivos médicos etc.

Os cientistas reconhecem há muito tempo os benefícios da estrutura 3-D não apenas para os transistores individualmente, mas também para o próprio chip como um todo. Mas essas vantagens, demonstradas há anos em laboratório, dependem de outros elementos para migrarem para as fábricas - elementos de natureza técnica e econômica.

O elevado consumo de energia dos processadores atuais, que os fez estacionar em termos de clock ao longo dos últimos anos, parece ter sido a razão técnica que faltava. Mesmo o advento dos processadores com múltiplos núcleos não parecia ser suficiente para salvar a Lei de Moore.

O primeiro protótipo de processador de 22 nanômetros foi apresentado pela Intel equipando um notebook. A previsão é que os primeiros processadores Ivy Bridgecheguem ao mercado até o final de 2011.

Fonte: Inovação Tecnológica

quinta-feira, 5 de maio de 2011

IDC prevê 13% de chips ARM nos PCs em 2015

Por Carlos Morimoto em 5 de maio de 2011 às 12h06

O IDC nem sempre acerta em suas previsões, especialmente nas mais bombásticas, mas caso acertem nessa teremos algumas mudanças interessantes.

Baseado no crescimento do interesse por tablets conversíveis, nettops e na proximidade do lançamento do ARM Cortex15 Eagle (que além dos 4 núcleos oferecerá suporte mais de 4 GB de RAM, virtualização via hardware e outras funções) o IDC previu que os chips ARM começarão a se infiltrar nos PCs a partir desse ano, sendo adotados em tablets conversíveis e também em alguns netbooks e ganhando espaço a partir daí, chegando a 13% em 2015, que é uma participação próxima dos atuais números da AMD, que mesmo antes do lançamento do Fusion mantinha 18%. Se isso se concretizar, o mercado de chips para PCs passaria a ser dominado por três forças, com os 13% dos chips ARM, 15 a 25% para a AMD e o restante para a Intel, que continuaria dominante, porém com um percentual um pouco menor.

Um dos fatores chaves para este possível crescimento será o port do Windows 8 para processadores ARM prometido pela Microsoft. Apesar do crescimento dos serviços baseados em nuvem e a melhora na compatibilidade dos sites e diferentes serviços com diversos navegadores, ainda existe uma dependência muito grande em torno do Windows, de forma que a compatibilidade com ele acaba sendo um fator importante para o sucesso de qualquer arquitetura.

No outro lado da moeda, temos também um possível avanço da Intel sobre os chips ARM, já que com o domínio da técnica de 22 nm e o desenvolvimento dos transístores 3D, eles terão uma importante vantagem do ponto de vista do consumo elétrico e desempenho, até que a técnica seja dominada pelos demais fabricantes. Apesar do avanço a passos de tartaruga, a Intel continua firme na ideia de criar chips Atom de baixo consumo capazes de competir com mais sucesso nos tablets e smartphones. Temos uma guerra em duas frentes, onde tanto a ARM quanto a Intel tentam invadir o território da outra e ao mesmo tempo defender seu próprio território contra ataques.

Fonte: Hardware

Veja o que não pode faltar em seu novo notebook

Melanie Pinola, PCWorld EUA

29-04-2011

Está na hora de trocar seu portátil? Então veja quais os recursos indispensáveis em um novo modelo.

Se você pretende trocar seu velho notebook por um modelo novinho em folha, provavelmente irá se surpreender. Nos últimos anos houve um grande avanço em termos de recursos e capacidade destas máquinas. Esta é nossa lista de coisas essenciais que todo novo modelo deve ter, seja uma máquina de uso geral ou um modelo com uso mais específico, como para games, entretenimento ou trabalho remoto.

Recursos gerais

Processadores modernos

Os mais novos processadores no mercado trazem um ganho significativo de desempenho, melhores gráficos e uma maior autonomia de bateria, características que confirmamos em  nossos testes com máquinas equipadas com processadores da família “Sandy Bridge”, da Intel. E a AMD também tem novos chips (a família Fusion) capazes de lidar facilmente com tarefas que exigem alto-desempenho. Ao comprar um notebook, procure um modelo com estes processadores.

Uma forma fácil de identificar processadores Intel Sandy Bridge é pelo número do modelo. Os chips da geração anterior tem modelos com três dígitos (como “Intel Core i3-350M”), enquanto os Sandy Bridge usam quatro dígitos (como “Intel Core i3-2310M”). Já nos novos chips AMD Fusion são chamados de AMD C-Series APU, AMD E-Series APU ou AMD A-Series APU.

Fique atento, pois há processadores de gerações antigas ainda no mercado, com desempenho muito aquém dos modelos mais recentes e que não se sairão tão bem em tarefas como jogos ou multimídia, além de consumir mais energia. Evite máquinas com processadores Pentium, Celeron ou Core 2 Duo, por exemplo, muito comuns em modelos de baixo custo.

HD, discos híbridos ou discos SSD

A capacidade de armazenamento nos HDs para notebooks aumentou drasticamente nos últimos anos. Um portátil doméstico logo ficará cheio de fotos, música e vídeo, portanto procure um modelo com HD de no mínimo 320 GB. Quanto mais melhor.

Mas se você não faz questão de muito espaço, considere um modelo com um disco de estado sólido, ou SSD. Em nossos testes de laboratório estes novos “discos” (que na verdade são como grandes pendrives ultra-rápidos com capacidade de 128 GB ou mais) tem desempenho notavelmente superior aos HDs tradicionais, além de maior durabilidade e menor consumo de energia. Eles também produzem menos calor e são mais silenciosos.

 

VÍDEO: YOUTUBE

 

Um SSD custa mais caro que um HD mas a recompensa, um micro que “dá boot” quase que instantâneamente, pode compensar a diferença.

Outra opção são os discos híbridos, que combinam um HD tradicional com um pequeno SSD e prometem o melhor dos dois mundos, unindo desempenho e espaço em disco com preço menor que um SSD puro. Eles ainda não são comuns no mercado nacional, mas estão chegando.

Telas de alta-definição

A maioria dos notebooks atuais tem uma resolução de tela de 1366 x 768 pixels, boa o suficiente para as tarefas do dia-a-dia. Mas se você pretende assistir muitos filmes, procure um modelo com tela de 1600 x 900 pixels ou 1920 x 1080 pixels.

O tamanho da tela é uma questão de gosto pessoal. Você prefere uma tela menor (e com isso um notebook mais leve) como a de 11.6 polegadas do MacBook Air, ou uma tela gigantesca como a de 18.4 polegadas do Alienware M18x? Para a maioria dos usuários o ponto de equilíbrio parece ser uma tela de 13.3 polegadas.

Autonomia de bateria

A não ser que você pretenda usar seu novo notebook como um substituto do desktop, permanentemente plugado à tomada, certifique-se de que a autonomia da bateria atende às suas necessidades. Não compre nenhum modelo com autonomia menor do que 3 horas. Se procurar um pouco você poderá encontrar tanto ultraportáteis como notebooks mais tradicionais com autonomia de seis horas ou mais com uma única carga.

Quantidade de memória

Os notebooks atuais tem pelo menos 2 GB de RAM, mas procure modelos com 4 GB. Quanto mais memória, melhor.

Teclado e trackpad confortáveis

Um teclado confortável é criticamente importante, especialmente se você pretende passar horas a fio digitando. Procure por teclados “full size” (ou seja, com o mesmo espaçamento do teclado de um desktop) e digite algumas palavras para ver se as teclas não parecem “rasas” ou duras demais. Um bom espaço para descanso de punho também é útil.

Ao longo dos últimos anos os trackpads evoluíram para suportar gestos multitoque. Se pretende usá-los, procure trackpads largos e com uma superfície texturizada, que facilite o deslizar dos dedos. Evite a todo custo trackpads completamente “lisos”, feitos com exatamente o mesmo plástico do restante do gabinete (CCE T25L e Positivo Premium Essential 9000, estamos olhando pra vocês). Os botões do trackpad não devem ser nem pequenos nem duros demais.

Fonte: pcworld

Como comprar um tablet

por Melissa J. Perenson, PCWorld EUA e Rafael Rigues, PCWorld Brasil

05-05-2011

Com o sucesso do iPad, uma onda de tablets inundou o mercado e muitos mais estão à caminho. Mostramos o que você deve levar em conta antes de comprar.

À medida em que mais e mais tablets chegam ao mercado, prepare-se para ficar impressionado ao descobrir do que eles são capazes. Mas prepare-se também para ficar desapontado: muitos dos modelos atualmente nas lojas tem “pegadinhas”, especialmente os menos sofisticados anunciados a preços “imperdíveis”.

No Brasil já é possível encontrar o Samsung Galaxy Tab, iPad, Motorola Xoom e ZTE v9, só para citar alguns dos produzidos por grandes fabricantes, e estão a caminho o Samsung Galaxy Tab 10.1, LG Optimus Pad e provavelmente o ASUS EeePad Transformer. Sem falar nos inúmeros modelos de fabricantes chinesas desconhecidas que pipocam aqui e ali.

xoom

Motorola Xoom: um dos tablets disponíveis no Brasil

Mas antes de comprar, respire fundo: um bom tablet pode mudar seus hábitos de entretenimento e a forma como você acessa a internet, mas um modelo ruim só irá trazer decepção e prejuízo. Preste atenção em nossos conselhos abaixo e você terá a certeza de um bom negócio.

1. Se a esmola é grande, desconfie!

Um tablet por R$ 500 pode parecer muito atraente, mas o preço baixo tem seu motivo. Ele tipicamente não terá o poder de processamento, capacidade de memória, resolução e tamanho de tela ou agilidade dos modelos mais caros (ou uma combinação de duas ou mais destas características), necessários para uma experiência satisfatória.

Modelos com processador de menos de 1 GHz serão lentos, especialmente para jogos. Evite as telas “resistivas”, muito menos sensíveis que as telas capacitivas do iPad e outros modelos high-end e incapazes de recursos como o multitoque, essencial em muitos aplicativos.

A resolução de tela também é importante: 1024 x 600 pixels em uma tela de 7 polegadas (a resolução do primeiro Samsung Galaxy Tab) é o mínimo em um tablet, especialmente para quem gosta de navegar na web. O resto é “smartphone gigante”.

2. Um contrato limita sua capacidade de fazer upgrade

Muitas operadoras oferecem tablets com 3G por preços atraentes se combinados a um contrato de serviço, tipicamente de 2 anos, com uma mensalidade pré-estabelecida. O problema é que depois de assinar o contrato você não poderá mudar de plano (ou de operadora) antes do fim do contrato sem pagar uma multa. E no mercado de tablets, onde a tecnologia evolui rapidamente, dois anos é uma eternidade!

Dois anos atrás o iPad sequer existia, e hoje já temos o poderoso iPad 2. Mesmo seis meses fazem uma grande diferença: seis meses atrás o Galaxy Tab estava chegando ao mercado, e hoje já estamos nos preparando para um sucessor com tela maior, processador mais rápido e um sistema operacional radicamente diferente.

Antes de comprar um tablet com contrato, faça uma lista do que você quer/espera e certifique-se de que o modelo que escolheu atende às suas necessidades, e que não é só um “tapa-buraco” até a chegada do modelo que você realmente deseja às lojas (embora sempre haja um “modelo melhor” a caminho). Se não estiver completamente satisfeito, guarde o dinheiro e espere mais um pouco.

3. Em tablets Android, fique de olho nos serviços do Google

O sistema operacional Android é Open Source. Isso significa que qualquer fabricante pode baixar o código-fonte e criar uma versão para seus aparelhos, sem pedir permissão ou pagar nada à Google.

Mas muitos dos aplicativos que são parte fundamental da experiência com um tablet Android, como o Android Market (a loja de aplicativos), Gmail, Google Maps e YouTube são proprietários, e só podem ser inclusos em aparelhos aprovados pela Google. É comum encontrar tablets de baixo custo, não aprovados, sem estes aplicativos instalados. E sem acesso ao Android Market nem é possível baixá-los.

É verdade que há várias lojas alternativas de aplicativos para aparelhos Android em operação, como a App Brain, Amazon App Store e a líder de mercado GetJar. Mas elas não são o Android Market oficial, e tem um catálogo de títulos reduzido. Quanto mais completa a “experiência”, mais satisfeito você ficará com seu tablet. Pense nisso antes de comprar.

4. Dê uma boa olhada no iPad

O iPad original já tem um ano de estrada, mas ainda é o padrão contra o qual muitos outros tablets são comparados e recentemente teve o preço reduzido com o lançamento do iPad 2. Ele pode não ter o processador dual-core ou as câmeras de seu irmão mais novo, mas tem uma ótima tela de 9.7 polegadas, bateria com autonomia para 10 horas de uso (reais!) e mais de 75 mil aplicativos à disposição, além de poder suficiente para navegar na web, exibir vídeos e rodar jogos com desenvoltura. Um iPad Wi-Fi de 16 GB tem a melhor relação custo-benefício entre todos os tablets atualmente à venda no mercado nacional.

Fonte: pcworld

Correção de segurança da Microsoft não resolve problema

11 de Março de 2009

Segundo a Panda Security, umas das vulnerabilidades citadas no update liberado esta semana simplesmente continua a existir mesmo com a atualização

pc_triste150

Atualizar seus programas, principalmente quando os updates são de segurança, é uma medida sensata. Mas e se o patch não cumpre o que promete? É o que aconteceu com a atualização divulgada esta semana pela Microsoft (MS09-008), segundo a empresa Panda Security, que divulgou um alerta sobre o problema.

De acordo com a empresa, essa correção não protege efetivamente uma contra vulnerabilidade no servidor DNS, permitindo que criminosos redirecionem internautas para um proxy "nocivo". Assim é possível, por exemplo, infectar o PC com pragas virtuais, monitorar os passos das vítimas e obter dados confidenciais.

Isso acontece, de acordo com a Panda, porque uma vulnerabilidade ainda sem correção foi descoberta no DNS Server, especificamente no protocolo WPAD (Web Proxy Autodiscovery Protocol), que é um serviço que permite a detecção automática de configurações de proxy sem a intervenção do usuário.  A empresa recomenda que os usuários desse sistema fiquem atentos a novas atualizações da Microsoft e, assim que uma correção efetiva esteja disponível, façam a atualização.

Por Daniel dos Santos às 20h12

Fonte: pcwolrd

Projeto de lei obrigará eletrônicos a ter software em português

Redação do IDG Now!

19-04-2011

Escrito pela Deputada Gorete Pereira (PR-CE), proposta quer impedir situações em que comandos em idioma estrangeiro causem "desconforto ao usuário".

 

Um projeto de lei em tramitação na Câmara dos Deputados prevê que os softwares dos produtos importados vendidos no Brasil sejam traduzidos para o português. Em defesa do projeto de lei 7997/10, sua autora, a deputada Gorete Pereira (PR-CE) afirma que os eletrônicos importados vendidos no Brasil sem interface em português obrigam os consumidores a conviver com "interfaces nas mais diversas línguas".

Por conta disso, "muitos consumidores recorrem a adaptações por vezes muito onerosas ou mesmo ineficazes", afirma a deputada, na justificativa.

A deputada lembra que os equipamentos de GPS estão entre os casos mais graves, já que trazem comandos e vozes em idioma estrangeiro que causam "muito desconforto ao usuário. Além disso, muitas vezes as concessionárias de veículos se sentem "desobrigadas de implantar a interface em português em razão da ausência de um dispositivo legal específico", lembra.

Segundo a Agência Câmara a proposta - que altera o Código de Defesa do Consumidor - tramita em conjunto com o Projeto de Lei 182/95 e está pronta para ser votada pelo Plenário.

 

Fonte: PCWORLD

quarta-feira, 4 de maio de 2011

Feno: notebook conceitual com tela dobrável

Por Felipe Gugelmin 3 de Maio de 2011

Novidade se aproveita da elasticidade das telas OLED para entregar um design mais compacto que as alternativas tradicionais.

(Fonte da imagem: Niels van Hoof)

Desenvolvido pelo designer Niels van Hoof, o Feno é um notebook com designer bem diferente do convencional. Além da dobra convencional presente neste tipo de dispositivo, a invenção permite que o usuário dobre ao meio sua tela.

O resultado é um visual interessante e um aparelho que ocupa um espaço muito menor, facilitando seu transporte. Tudo isso é possível através do uso de uma tela OLED flexível, que garante uma grande qualidade de imagens sem que seja preciso reduzir as dimensões do notebook.

Outra forma encontrada para garantir um design mais compacto foi eliminar totalmente a presença do trackpad. Para interagir com os softwares do computador, o usuário conta com um mouse que fica escondido dentro do corpo do aparelho – basta um botão para que ele surja, dispensando qualquer tipo de cabos como forma de comunicação.

Galeria de Imagens


Fonte: Tecmundo

Memória atômica: fóton grava e lê dados em um único átomo

Olivia Meyer-Streng - 04/05/2011

Memória atômica: fóton grava e lê informações em um único átomo

Estes dispositivos são requisitos fundamentais para o processamento de informações em um computador quântico e para a implementação de comunicações quânticas de longa distância. [Imagem: Andreas Neuzner]

Rede quântica universal

Cientistas austríacos alcançaram um feito inédito, ao transferir a informação codificada de um único fóton para um único átomo.

No átomo, a informação foi armazenada durante algum tempo e recuperada mais tarde.

"Isso nos dá um nó de uma rede quântica universal", comemora o Dr. Gerhard Rempe, do Instituto Max-Planck de Óptica Quântica, coordenador do trabalho.

O experimento abre novas perspectivas para o desenvolvimento de redes quânticas escaláveis, nas quais os fótons comunicam informação quântica entre vários nós, a longas distâncias.

Memória quântica

Em uma série de medições usando diferentes estados de polarização na entrada, a fidelidade entre os fótons originais e os fótons lidos mostrou-se superior a 90 por cento em todos os casos.

"A fidelidade com o fóton de entrada que nós conseguimos com o nosso novo método é muito melhor do que aquilo que seria possível com qualquer tipo de dispositivo de medição clássica," afirma Christian Nölleke, coautor do trabalho.

Considerando a eficiência de armazenamento e a fidelidade alcançadas, o sistema é comparável às melhores memórias quânticas já construídas, com a diferença que o seu "hardware" consiste em apenas um único átomo.

Ao mesmo tempo, a memória atômica oferece tempos de armazenamento de cerca de 200 microssegundos, o que ultrapassa todos os valores obtidos com memórias ópticas até o momento.

Memória atômica: fóton grava e lê informações em um único átomo

Esquema mostra o uso de um lasers para aprisionar o átomo-memória e de outro laser de controle para gravar e ler as informações. [Imagem: Specht et al./Nature]

Memória atômica

A miniaturização contínua dos componentes usados para armazenar informações no interior dos chips alcançou um limite a partir de onde as leis da física clássica não podem mais ser aplicadas.

Em vez disso, os sistemas são regidos pelas leis da mecânica quântica.

Neste limite físico, o menor dispositivo de armazenamento possível consiste de um único átomo, enquanto a menor unidade possível para a transferência de dados óptica é um único fóton.

As propriedades especiais dessas partículas quânticas podem então ser usadas para desenvolver novas aplicações, por exemplo, dispositivos de criptografia quântica ou portas lógicas para processar a informação quântica, atingindo velocidades inimagináveis.

A implementação dessas novas tecnologias requer novos conceitos de transferência e armazenamento de informações.

E o candidato mais promissor é a implementação de uma rede de memórias quânticas distribuídas comunicando-se umas com as outras através da troca de fótons.

Informação da luz para a matéria

Este desenvolvimento exige dois elementos principais.

O primeiro, a transferência da informação quântica armazenada em um nó de memória para um único fóton, já foi demonstrado pela mesma equipe, com a implementação de um emissor de fótons individuais baseado em um único átomo.

O segundo, escrever um qubit fotônico em uma outra memória quântica estacionária, e ler esse qubit novamente, sem distorção significativa, tem sido realizado até agora somente através de experiências com conjuntos formados por milhares de partículas, com a informação sendo mapeada em uma excitação atômica compartilhada pelo conjunto de átomos.

A fim de tirar vantagem integral das oportunidades oferecidas pela mecânica quântica, criando implementações práticas - por exemplo, em computadores quânticos - seria muito melhor trocar informações entre as partículas individuais de luz e de matéria - fótons e átomos - que possam ser dirigidas e manipuladas diretamente.

Memória atômica: fóton grava e lê informações em um único átomo

O processo de armazenamento no átomo pode ser descrito como uma deformação (esfera azulada) da esfera de Poincaré (círculos pretos). Os pontos coloridos indicam as polarizações dos estados de entrada sobre os eixos depois da gravação. [Imagem: Specht et al./Nature]

Gravação na memória atômica

No experimento agora realizado, um único átomo de rubídio foi utilizado pela primeira vez como uma memória quântica.

A fim de aumentar seu fraco acoplamento a um único fóton, o átomo é aprisionado dentro de um ressonador óptico, formado por dois espelhos altamente refletores.

Lá, o átomo é mantido no lugar com a luz de um laser, enquanto o fóton que entra é refletido entre os dois espelhos cerca de 20.000 vezes.

Agora, a informação quântica armazenada no fóton precisa ser escrita no átomo.

"Enquanto um bit clássico sempre representa inequivocamente um dentre dois valores possíveis - 0 ou 1 -, um bit quântico é a superposição coerente de dois estados quânticos," explica o Dr. Holger Specht, coautor da pesquisa. "Assim, nós codificamos a informação usando uma superposição coerente de dois estados de polarização do fóton, por exemplo, uma polarização à direita e outra à esquerda."

A transferência da informação óptica quântica é garantida por um laser de controle: quando tanto o qubit fotônico quanto o laser de controle estão presentes, o átomo faz uma transição para um estado que é - e é aí que está o truque - uma superposição coerente de dois sub-estados.

As quantidades relativas dos dois sub-estados correspondem aos respectivos valores dos dois estados de polarização do fóton de entrada.

Leitura da memória atômica

Depois de um tempo variável de armazenamento, a leitura da informação quântica é iniciada, um trabalho também executado pelo laser de controle.

Agora, todo o processo se inverte e o qubit fotônico é liberado, com uma eficiência média de cerca de 10 por cento.

"Ainda há espaço para melhorar os tempos de fidelidade e de armazenamento por meio da otimização das condições experimentais," explica o Dr. Stephan Ritter.

A seguir, os cientistas planejam usar o sistema para demonstrar uma rede quântica básica, formada por dois nós de comunicação.

Devido às suas propriedades universais, a memória quântica agora demonstrada é um marco para o desenvolvimento de portas lógicas ópticas e repetidores quânticos.

Estes dispositivos são requisitos fundamentais para o processamento de informações em um computador quântico e para a implementação de comunicações quânticas de longa distância.

Bibliografia:
A Single-Atom Quantum Memory
Holger P. Specht, Christian Nölleke, Andreas Reiserer, Manuel Uphoff, Eden Figueroa, Stephan Ritter, Gerhard Rempe
Nature
May 2011
Vol.: Advance Online Publication
DOI: 10.1038/nature09997

Fonte: Inovação Tecnológica

terça-feira, 3 de maio de 2011

Semicondutor pode transformar calor dos chips em mais processamento

Redação do Site Inovação Tecnológica - 05/10/2010

Semicondutor pode transformar calor dos chips em mais processamento

O efeito, que "converte" o calor em um fenômeno da mecânica quântica - conhecido como spin - foi detectado em um semicondutor chamado arseneto de gálio-manganês. [Imagem: Jaworski et al./Nature Materials]

Cientistas descobriram um novo fenômeno que poderá no futuro permitir que os computadores reciclem o próprio calor gerado em seu interior.

O efeito, que "converte" o calor em um fenômeno da mecânica quântica - conhecido como spin - foi detectado em um semicondutor chamado arseneto de gálio-manganês por cientistas da Universidade do Estado de Ohio, nos Estados Unidos.

Quando convertido em uma aplicação tecnológica, o efeito poderá permitir que os circuitos integrados de fato funcionem com calor, em vez de eletricidade.

Termo-spintrônica

A spintrônica é promissora porque é muito mais rápida do que a eletrônica, consome uma quantidade irrisória de energia e permite armazenar mais dados em menos espaço.

A termoeletricidade promete degeladeiras de estado sólido a equipamentos que gerem energia usando o calor desperdiçado nos motores de carros e em equipamentos industriais.

A equipe de Joseph Heremans e Roberto Myers acredita agora que é possível combinar spintrônica e termoeletricidade para criar uma tecnologia híbrida, chamada termo-spintrônica, que usa o calor para criar uma polarização de spins, algo equivalente a escrever dados binários em elétrons individuais.

Se o fenômeno puder ser transformado em aplicações práticas, a termo-spintrônica poderá resolver dois problemas para a indústria da computação: como remover o calor residual dos processadores e como aumentar o poder de processamento sem gerar ainda mais calor.

Em um possível uso do novo efeito, um dispositivo termo-spintrônico poderia ser colocado em cima de um microprocessador tradicional, e sifonar o calor gerado por ele para alimentar um chip de memória ou de cálculo adicional.

Efeito spin-Seebeck

Os pesquisadores estudaram como o calor pode ser convertido em polarização de spin - um efeito chamado efeito spin-Seebeck. Este efeito foi identificado pela primeira vez em 2008, por cientistas da Universidade Tohoku, no Japão, em um metal.

Os cientistas agora detectaram o mesmo efeito em um semicondutor - o arseneto de gálio manganês. O arseneto de gálio já é um composto presente em todos os celulares produzidos hoje - a adição do manganês deu propriedades magnéticas ao material.

Neste semicondutor, os spins das cargas elétricas alinham-se paralelamente com a orientação do campo magnético total da amostra.

Quando o material foi aquecido, os elétrons do lado quente ficaram orientados na direçãospin-up, e, do lado frio, eles ficaram orientados como spin-down.

Os pesquisadores também descobriram que, de forma surpreendente, os dois pedaços do material, com temperaturas diferentes, não precisam estar unidos fisicamente para que o efeito se propague de um para o outro: o fenômeno foi registrado mesmo quando a amostra foi dividida, criando duas fatias separadas por um pequeno espaço.

"Nós calculamos que cada fatia teria sua própria distribuição de elétrons spin-up e spin-down," disse Myers. "Em vez disso, um lado da primeira peça tinha spin para cima, e o extremo da segunda fatia tinha spin para baixo. O efeito de alguma forma atravessou a distância [entre as amostras]".

Bibliografia:
Observation of the spin-Seebeck effect in a ferromagnetic semiconductor
C. M. Jaworski, J. Yang, S. Mack, D. D. Awschalom, J. P. Heremans, R. C. Myers
Nature Materials
26 September 2010
Vol.: Published online
DOI: 10.1038/nmat2860

Fonte: Inovação Tecnológica

IBM anuncia processadores com comunicação por luz

Redação do Site Inovação Tecnológica - 03/12/2010

IBM anuncia processadores com comunicação por luz

A nova tecnologia CMOS Integrated Silicon Nanophotonics integra componentes elétricos e ópticos na mesma pastilha de silício, permitindo processadores de computador que se comunicam usando pulsos de luz em vez de sinais elétricos. [Imagem: IBM]

A IBM anunciou o desenvolvimento de uma nova tecnologia para a construção de processadores que integra componentes elétricos e ópticos na mesma pastilha de silício.

A tecnologia permite que os chips de computador comuniquem-se usando pulsos de luz em vez de sinais elétricos.

Processamento cerebral

Os novos processadores permitirão que se alcance a faixa dos exaflops - 1018 (1 milhão de trilhões) cálculos de ponto flutuante por segundo - uma velocidade mil vezes maior do que a alcançada pelossupercomputadores mais poderosos da atualidade, que acabam de superar a faixa dos petaflops.

Segundo os pesquisadores da empresa, supercomputadores na faixa dos exaflops terão a mesma capacidade de "processamento" que o cérebro humano.

Fora do âmbito especulativo, o fato é que os novos processadores nanofotônicos poderão ser construídos em pastilhas de silício 10 vezes menores do que os atuais e consumirão muito menos energia ao trocar a eletricidade pela luz, permitindo que eles funcionem em clocks mais elevados.

A nova tecnologia é chamada CMOS Integrated Silicon Nanophotonics, o que significa que os chips que se comunicam por luz poderão ser fabricados usando os processos industriais atuais (CMOS) - os transistores de silício e os componentes nanofotônicos ficam na mesma pastilha.

"Nossa nanofotônica integrada CMOS promete um aumento sem precedentes na funcionalidade e no desempenho dos chips por meio de comunicações ópticas de baixa potência entre bastidores, módulos, processadores ou mesmo dentro de um único chip," disse o Dr. Yurii Vlasov, responsável pelo desenvolvimento, juntamente com seus colegas William Green e Solomon Assefa.

"O próximo passo nesse avanço é o desenvolvimento da manufatura deste processo em uma fábrica comercial, usando os processos CMOS," disse ele.

Integração de alta densidade

A densidade de integração alcançada nos chips fotônicos é muito superior a qualquer outro já anunciado em tecnologias similares - um canal transceptor, com todos os circuitos elétricos e ópticos, ocupa 0,5 milímetro quadrado (mm2).

Segundo os pesquisadores, isso permitirá construir chips de 4 x 4 mm2, que poderão receber e transmitir dados na faixa dos terabits por segundo.

O anúncio agora feito é o coroamento de uma série de realizações da empresa no campo da fotônica ao longo dos últimos anos:

Fonte: Inovação Tecnológica

Primeiro navio vertical do mundo fará pesquisas oceânicas

BBC - 01/12/2009

Os cientistas viverão debaixo d'água e haverá uma plataforma pressurizada de onde mergulhadores poderão partir em missão.[Imagem: Jacques Rougerie]

Um arquiteto francês apresentou publicamente o protótipo daquele que deverá ser o primeiro navio vertical do mundo, possibilitando ao homem uma nova maneira de explorar o fundo do mar.

Jacques Rougerie, de 64 anos, afirmou que sua invenção, uma estação oceanográfica batizada de SeaOrbiter, será realidade "em um futuro próximo".

Estação oceanográfica móvel

Rougerie afirma já ter metade dos 35 milhões de euros necessários para a construção da estrutura, que, ao contrário das atuais estações submarinas, será móvel e poderá navegar pelos oceanos.

"Atualmente, os oceanógrafos só podem mergulhar por curtos períodos de tempo e depois têm de ser trazidos para a superfície. É como se fossem levados para a Amazônia e depois tirados de lá em um espaço de uma hora", comparou. "O SeaOrbiter vai oferecer uma presença móvel permanente com uma janela para tudo o que está abaixo da superfície do mar."

Navegação e comunicação

Segundo o projeto de Rougerie, a estação terá 51 metros de altura e contará com uma parte submersa e outra para fora da água.

Equipamentos de navegação e comunicação ficarão acima da superfície, juntamente com uma plataforma de observação.

Os cientistas viverão debaixo d'água e haverá uma plataforma pressurizada de onde mergulhadores poderão partir em missão.

O projeto conta ainda com a consultoria de Jean-Loup Chrétien, o primeiro astronauta da França, que está envolvido no design da estação.

Sistema anticolisão

O sistema anticolisão da estrutura é baseado no que é atualmente utilizado na Estação Espacial Internacional.

Rougerie, que dirige um carro-anfíbio, vive e trabalha em um barco e já passou 70 dias em uma expedição submarina, disse que as chances de o SeaOrbiter ser realmente construído "são de 90%".

Um grande estaleiro francês já assinou sua participação no projeto, que também ganhou o apoio do presidente francês, Nicolas Sarkozy.

Fonte: Inovação Tecnológica

Net Applications: 25% dos usuários estão no Windows 7

Por Julio Cesar Bessa Monqueiro em 2 de maio de 2011 às 14h52

Até o final de 2012, o Windows 7 tinha 20% de mercado. No final de abril deste ano, a Microsoft já pode dizer que o Windows 7 ultrapassou a marca dos 25%, segundo dados da Net Applications. Em outras palavras, o sistema operacional mais recente da MS está instalado em 1 a cada 4 computadores pelo mundo, teoricamente.

Enquanto o Windows 7 cresce no mercado, o Windows no total está vagarosamente caindo: entre março e abril, houve queda de 0,67% (de 89,58% para 88,91%); ao mesmo passo, o Mac OS ganhou míseros 0,15% (de 5,25% para 5,40%), e o Linux caiu 0,02% (de 0,96% para 0,94%). Sem espanto, os sistemas mobile cresceram em suas participações no mercado geral de SOs.

O Windows 7 entretanto ganhou 0,94% dentre as versões de sistemas, de 24,17% para 25,11%. O Windows Vista escorregou 0,34% (de 10,56% para 10,22%), e o Windows XP também em 1,21% (de 54,39% para 53,18%). Não demorará muito para o Windows Vista cair para uma quota de apenas um dígito para cá da vírgula, e o XP para menos de 50%.

No mês passado, a Microsoft anunciou que o Windows 7 teve mais de 350 milhões de licençasvendidas nos últimos 18 meses, ou seja, a taxa atual já está abaixo dos 20 milhões por mês. Entretanto, esse período é tradicional por queda nas vendas de computadores; vejamos como fica o sistema do meio do ano para frente.

Fonte: Hardware.com

segunda-feira, 2 de maio de 2011

A história da Internet: pré-década de 60 até anos 80 [infográfico]

Foram anos de avanços até a rede mundial de computadores tornar-se o que é hoje. Conheça o início dessa evolução.
Infográfico - A história da Internet: pré-década de 60 até anos 80 [infográfico]

Quanto tempo você consegue ficar sem internet? Para quem está acostumado a acessá-la diariamente, é difícil imaginar um longo período de tempo sem bate-papos, sites de notícias ou jogos em rede. Mas pare para refletir por um instante: desde a invenção dos computadores, passaram-se décadas sem esses recursos tão simples e essenciais dos quais desfrutamos atualmente.

Essa complexa rede foi evoluindo a partir de diferentes necessidades, como a comunicação instantânea e até o medo da guerra. Foram avanços inicialmente simples e isolados, que foram combinados para melhorar a qualidade e quantidade de dados transmitidos até chegar ao eficiente sistema de conexões que utilizamos hoje.

O Tecmundo preparou um especial sobre o início da trajetória da rede mundial de computadores, agrupando os principais fatos e invenções da criação de nossa querida internet.

Pré-1960

Por séculos, a troca de informações acontecia de pessoa a pessoa ou por documentos em papel. Um grande aliado nessa comunicação foi a criação do telégrafo, um sistema de transmissão de mensagens através de dois pontos graças a ondas de rádio ou fios elétricos.

A primeira mensagem foi transmitida pelo aparelho em 1844, entre as cidades norte-americanas de Baltimore e Washington. A partir dele, o tempo gasto entre a comunicação tornou-se muito menor, mas ainda apresentava falhas. Para a época, entretanto, já era mais do que o suficiente para conectar diferentes regiões.

Outra criação indiretamente relacionada com a rede é a do sistema binário. A codificação de letras do alfabeto em sequências de dígitos binários foi devidamente aperfeiçoada pelo filósofo inglês Francis Bacon, em 1605. Segundo ele, qualquer objeto poderia sofrer codificações. Cerca de meio século depois, o filósofo alemão Gottfried Leibniz criou o sistema binário como o conhecemos hoje, a partir de numerais.

Mas o que isso tem a ver com a rede? É a partir de códigos construídos por esse sistema binário (padronizado com os numerais 0 e 1) que os computadores realizam o processamento de dados, sendo que cada bit corresponde a um dígito dessas sequências. Sem eles, não seria possível nem sequer realizar a leitura dessas informações.

Além disso, não se pode falar do início da internet sem abordar o primeiro computador digital eletrônico, criado em 1946 por cientistas norte-americanos. O ENIAC (Electrical Numerical Integrator and Computer) era uma imensa máquina de realizar cálculos (pesava 30 toneladas e ocupava 180 m²) e pouco tinha de armazenador ou transmissor de dados, funções posteriormente adquiridas pelo computador.

O ENIAC. (Fonte da imagem: Wikimedia Commons)

A década de 1960

Melhoras na transmissão

Em 1961, a transmissão de dados ganhou um poderoso conceito: pesquisadores como Vinton Cerf e Robert Kahn iniciam o planejamento do sistema de pacotes, que consiste em repassar dados através da quebra da mensagem em vários blocos, enviados juntamente com as informações necessárias para utilizá-los em conjunto novamente.

Além de aumentar a velocidade da conexão, o sistema torna possível utilizar um mesmo canal para mensagens com destinos diferentes, algo impossível quando os canais eram circuitos reservados. O sucesso da empreitada é comprovado pela utilização desse modo de transmissão até os dias de hoje.

Outro registro importante é a instalação dos nós, os pontos de intersecção de informações, que servem como uma ponte entre máquinas que se comunicam entre si. A partir desses pontos de segurança, a informação não corria riscos de se perder durante o trajeto por falhas no sinal, por exemplo. O primeiro nó foi instalado na Universidade de Los Angeles, em agosto de 1969.

Filha da guerra

A década de 1960 foi um dos períodos mais conturbados da História. A tensão criada pela Guerra Fria, o conflito ideológico entre Estados Unidos e União Soviética, atingia seu ápice. Nenhum confronto bélico entre ambos ocorreu de verdade, entretanto, a maior arma era provocar medo no inimigo.

Desse modo, qualquer triunfo era visto como um passo à frente na disputa pela dominação mundial. A União Soviética, por exemplo, saiu na frente na corrida espacial: lançou em 1957 o primeiro satélite artificial, o Sputnik. Quatro anos depois, Yuri Gagarin era o primeiro ser humano a fazer uma viagem espacial.

Os Estados Unidos buscaram outra estratégia, principalmente através da ARPA (Advanced Research Project Agency, ou Agência de Pesquisas em Projetos Avançados, em tradução literal), um órgão científico e militar criado em 1957 que cuidava dos avanços tecnológicos da potência ocidental e, posteriormente, da primeira rede.

Um dos pioneiros do conceito hoje conhecido por internet foi J.C.R. Licklider, do Instituto Tecnológico de Massachussets (MIT). Foi ele o responsável, em 1962, por difundir a ideia da “rede galáctica”, um conceito ainda abstrato de um sistema que concentraria todos os computadores do planeta em uma única forma de compartilhamento. Com o passar dos anos, essa ambiciosa ideia começou a tomar forma.

A rede da ARPA

É aí que o medo entra novamente na história: temendo um combate em seu território que acabasse com a comunicação e com todo o trabalho desenvolvido até então, cientistas norte-americanos colocam o plano de Licklider em prática com a ARPANET, uma rede de armazenamento de dados que inicialmente conectou algumas universidades e centros de pesquisa: as sedes da Universidade da Califórnia em Los Angeles e Santa Barbara; o Instituto de Pesquisa de Stanford e a Universidade de Utah.

O início da ARPANET (Fonte da imagem: ARPANET Maps)

Desse modo, tudo ficaria armazenado virtualmente, sem correr o risco de sofrer danos materiais. Além disso, pouco tempo seria perdido na troca de dados. Em outubro de 1969, a ARPANET teve seu primeiro sucesso ao transmitir uma mensagem através de sua rede, da Universidade de Los Angeles até o instituto em Stanford, em uma distância de quase 650 quilômetros.

Ao mesmo tempo, entretanto, essa tentativa resultou em fracasso: o conteúdo transmitido – a palavra “login” – chegou incompleto ao receptor, pois o sistema caiu antes da recepção da terceira letra do termo enviado.

A década de 1970

Se a década de 1960 serviu para estabilizar as bases da internet, os dez anos seguintes foram para a criação de conceitos básicos da rede.

A década dos primeiros

O primeiro invento que vale ser destacado é o da própria palavra que dá nome à rede. Em meados de 1971, Vinton Cerf e sua equipe de cientistas (reconhecidos como “os pais da internet”) tentavam conectar três redes diferentes em um processo descrito em inglês como interneting. O termo foi abreviado e, aos poucos, imortalizado como sinônimo de toda a rede.

Além disso, surgiram também os emoticons, uma forma de facilitar a expressão de sentimentos nas mensagens virtuais. Em 1979, Kevin MacKenzie utilizou um símbolo para descrever uma ironia em uma mensagem, dando início a uma vasta lista de rostos criados por acentos e outras formas. Já os famosos :-) e :-( surgiram apenas em 1982, em um email do cientista Scott Fahlman.

Mas nem tudo foi benéfico. Em 1971, Bob Thomas criou o que seria uma das maiores dores de cabeça dos usuários de computadores: o vírus. Batizado de The Creeper, a infecção invadia a máquina apenas para apresentar a mensagem "I’m the creeper, catch me if you can!" (“Eu sou assustador, pegue-me se for capaz!”, em tradução livre). No início da informática, a ideia do vírus era apenas quebrar o sistema de segurança de uma máquina para irritar o usuário e consagrar o programador capaz de criar o invasor.

Outro item prejudicial foi o spam, o lixo eletrônico em forma de emails em massa ou de conteúdo duvidoso. Ainda sem esse nome, o ancestral dessa ocorrência a surgiu em 1979, com um convite da Digital Equipment Corporation (DEC) para o lançamento de um produto. A mensagem foi encaminhada para 393 funcionários da ARPA, sendo que vários endereços ainda ficaram de fora por falta de espaço.

Surge o correio eletrônico

O engenheiro Ray Tomlinson começou a desenvolver o hoje indispensável email em 1971. A ARPANET já possuía alguns métodos de transmissão de mensagens entre o mesmo computador, mas faltava um sistema simples e que integrasse toda a ARPANET.

Para tornar isso possível, Tomlinson combinou um aplicativo de troca de mensagens chamado SNDMSG com um protocolo de transferência de arquivos, o CYPNET, possibilitando a transmissão em rede. Já o símbolo @ foi incorporado tempos depois com o mesmo objetivo que conhecemos hoje: separar o nome de usuário e seu servidor.

Mudança de protocolo

Entre todas as mudanças ocorridas na década de 1970, a que mais contribuiu para o amadurecimento da internet foi a criação do TCP/IP (Transmission Control Protocol / Internet Protocol), o protocolo padrão para transmissão de dados usado até hoje. Ele é dividido em camadas, cada uma com tarefas específicas, dependendo de sua proximidade com a rede ou o destinatário.

O IP é o responsável pelo endereçamento dos pacotes de dados para os demais protocolos. Já o TCP garante a continuidade do fluxo de informação, cuidando para que o processo ocorra sem problemas.

O método desenvolvido por Vinton Cerf e sua equipe surgiu para substituir o Network Control Protocol (NCP), que já estava obsoleto na época e se limitava a controlar a comunicação entre os computadores na ARPANET, sem corrigir falhas no envio. Já com o TCP/IP, qualquer mensagem transmitida de forma errada é rapidamente reenviada. A oficialização dele como protocolo como único na ARPANET, entretanto, só ocorreu em 1983.

Fora do eixo

Ainda nessa década, começou o compartilhamento da tecnologia providenciada pela ARPANET. Em 1973, foi realizada a primeira conexão entre dois continentes: a NORSAR (Norwegian Seismic Array) ligou-se à ARPANET. Pouco depois, a University College of London recebeu a integração.

Além disso, o número de servidores nos Estados Unidos aumentou consideravelmente. Na imagem abaixo, é possível conferir todos os terminais da agência em 1977, bem diferente dos quatro pontos existentes quando a ARPANET começou suas atividades.

A ARPANET em 1977. (Fonte da imagem: ARPANET Maps)

Outra criação interessante foi a Usenet, precursora dos fóruns de discussão e que iniciou o processo que tornou a internet interessante também para quem não estava interessado na área científica. Em 1979, Tom Truscott e Jim Ellis interligaram computadores em uma rede de compartilhamento de notícias e artigos divididos por grupos de interesse: se você gostasse de ficção científica, por exemplo, poderia receber apenas as novidades sobre tal tema.

A década de 1980

A internet já estava bastante desenvolvida. Programadores expandiam as fronteiras da rede, criando novas funções para a revolucionária invenção que chegava ao alcance da população em geral.

A invasão do computador pessoal

O conceito de uma máquina individual e para uso casual ainda engatinhava na indústria. A ideia foi definitivamente reforçada com o lançamento do PC da IBM, em 1981. Seu estilo padrão foi copiado por inúmeras empresas ao longo dos anos, praticamente padronizando o formato e a composição dos computadores de mesa.

A parceria com a Microsoft (que forneceu o sistema operacional para o PC) e a concorrência com a Apple (que possuía conceitos menos imitados) ditaram o ritmo de crescimento dessanova geração de computadores.

Ascensão e queda da ARPANET

Com o passar dos anos, o número de nós e usuários da ARPANET foi crescendo e, com o enfraquecimento da tensão causada pela Guerra Fria, ela perdeu parte do caráter militar. Por seu potencial, entretanto, ela foi dividida em 1983 na recém-criada MILNET, que cuidaria apenas da parte bélica, enquanto o que restou da ARPANET seria utilizado a partir de interesses científicos.

Esse segmento mais popular, que foi desativado em 1989,foi o que teve maior desenvolvimento, servindo de base para as inúmeras redes conectadas entre si que conhecemos hoje como internet.

Oi, quer teclar?

No final de década de 1980, surge outra criação que não faz mais tanto sucesso, mas ajudou a originar, por exemplo, os famosos mensageiros instantâneos: as salas de bate-papo. Mais direta e informal que os emails e concentrando ao mesmo tempo vários usuários com os mesmo interesses, essa forma de comunicação teve sua revolução em 1988, com o desenvolvimento do IRC pelo finlandês Jarkko Oikarinen para transmitir notícias durante a Guerra do Golfo e em outros conflitos.

Sigla para Internet Relay Chat, o IRC é uma rede de servidores que hospedam as várias salas de conversa. Através de comandos simples, era possível procurar listas específicas, trocar de apelido e interagir com outros usuários.

O futuro estava próximo

Na mudança de década, a internet já estava consolidada como uma das grandes forças da tecnologia. O futuro, entretanto, guardava ainda mais surpresas e novidades para esse serviço de rede. Em 1989,  Tim Berners-Lee propôs oficialmente um ambicioso projeto de hipertextos para dinamizar a passagem de um texto a outro de forma mais rápida e dinâmica, em um sistema que ficou conhecido como World Wide Web – o WWW, que entrou em funcionamento na década seguinte.

O especial do Tecmundo sobre a história da internet continua em breve, com artigos e infográficos sobre as demais décadas da rede. Fique ligado!

Fonte: Tecmundo

Como funciona a fibra ótica [infográfico]

Você sabe como funciona o sistema que oferece conexões muito superiores às conhecidas hoje? Acompanhe este artigo e entenda o funcionamento da fibra ótica.
Infográfico - Como funciona a fibra ótica [infográfico]

Transmissão de dados e voz em longas distâncias com pouca perda de sinal e qualidade, tudo isso com altíssimas velocidades. Já pensou nas maravilhas que isso permitiria? Apostamos que você deve estar pensando: baixar programas e músicas ficaria muito mais rápido e o tempo de espera por downloads seria reduzido ao mínimo.

E é exatamente isso que aconteceria, se todas as empresas de internet banda larga disponibilizassem a tecnologia da fibra ótica para os usuários. Logicamente a mudança de tecnologia demanda grandes quantias de dinheiro, por isso é difícil que tenhamos a fibra ótica em todas redes domésticas pelos próximos anos.

No Brasil, apenas algumas universidades e institutos públicos possuem este tipo de conexão. Em 2011, algumas residências devem passar a contar com o modo de transmissão de alta velocidade da fibra ótica – pelo menos é o que está prometendo uma das maiores empresas de telecomunicações do país.

Mas você sabe como funcionam os cabos de fibra ótica? Acompanhe este artigo que o Tecmundo preparou para você e descubra como ocorre a transmissão de dados e voz por meio dos cabos de fibra ótica. Aproveite também para entender o quão importante eles podem ser em nossas vidas.

Transformando dados em luz

A fibra ótica não envia dados da mesma maneira que os cabos convencionais. Para garantir mais velocidade, todo o sinal é transformado em luz, com o auxílio de conversores integrados aos transmissores. Há dois modos de converter os dados: por laser e por LED (respectivamente: fibras monomodo e multimodo. Ambas serão explicadas mais adiante).

(Fonte da imagem: Wikimedia Commons / BigRiz)

Sem essa conversão, os dados enviados e recebidos não poderiam desfrutar das mesmas larguras de banda. Nesse momento, surge a necessidade dos cabos de fibra ótica, pois são eles que permitem a velocidade e a qualidade superiores às oferecidas pelos tradicionais cabos de cobre. O motivo disso nós vamos explicar mais à frente neste artigo.

Cabos de fibra ótica

Você imagina como é um cabo de fibra ótica por dentro? Ele não é construído apenas com a fibra de vidro e o revestimento plástico, há várias camadas que fazem parte da estrutura essencial dele. Vamos agora explicar um pouco mais sobre cada uma das camadas que compõe a fibra ótica.

Proteção plástica

Como todo cabo, a fibra ótica também precisa de proteção externa, para evitar que o desgaste natural ou as situações anômalas do tempo representem interferências no sistema. Geralmente, essa camada de proteção é composta por plásticos, tornando a aparência dos cabos de fibra ótica muito similar à apresentada por cabos de rede, por exemplo.

Fibra de fortalecimento

Logo abaixo da camada plástica, existe uma fibra de fortalecimento, bastante parecida com a que existe em cabos coaxiais de transmissão de sinal de televisão. Você sabe qual a função dela? Proteger a fibra de vidro de quebras que podem acontecer em situações de torção do cabo ou impactos no transporte.

Se a camada de fortalecimento não existisse, qualquer movimento brusco que atingisse os cabos de fibra ótica resultaria em quebra da fibra principal e, consequentemente, na perda total do sinal transmitido.

Revestimento interno

Também chamado de “Coating”, o revestimento interno tem função similar à das fibras de fortalecimento. É ele que isola todos os impactos externos e também evita que a luz natural atinja as fibras de vidro internas, o que poderia resultar em interferências muito fortes em qualquer que seja o sinal.

Camada de refração

Nas duas camadas mais internas, ocorre a parte mais importante do processo de transmissão de luz. Cobrindo o filete de fibra de vidro, a camada de refração (ou “Cadding”) é responsável pela propagação de todos os feixes, evitando que existam perdas no decorrer dos trajetos. Em um sistema perfeito, essa camada garantiria 100% de reaproveitamento dos sinais luminosos.

Núcleo

Também chamado de “Core”. Em suma, é onde realmente ocorre a transmissão dos pulsos de luz. Construído em vidro, é por ele que a luz viaja em suas longas distâncias. No próximo tópico mostraremos os dois tipos de fibras de vidro que podem ser utilizados nos cabos.

Muita velocidade

Multimodo e monomodo

Os dois nomes que abrem este tópico representam os dois principais modelos de fibras óticas existentes atualmente. Eles são diferenciados em vários aspectos, desde o custo de produção até as melhores possibilidades de aplicação. Qual deles será mais recomendado para a construção de redes de internet?

Monomodo

Como o nome já diz, as fibras monomodo só podem atender a um sinal por vez. Ou seja, uma única fonte de luz (na maior parte das vezes, laser) envia as informações por enormes distâncias. As fibras monomodo apresentam menos dispersão, por isso pode haver distâncias muito grandes entre retransmissores.

Teoricamente, até 80 quilômetros podem separar dois transmissores, mas na prática eles são um pouco mais próximos. Outra vantagem das fibras desse tipo é a largura da banda oferecida, que garante velocidades maiores na troca de informações.

Multimodo

Fibras multimodo garantem a emissão de vários sinais ao mesmo tempo (geralmente utilizam LEDs para a emissão). Esse tipo de fibra é mais recomendado para transmissões de curtas distâncias, pois garante apenas 300 metros de transmissões sem perdas. Elas são mais recomendadas para redes domésticas porque são muito mais baratas.

Isso sim é velocidade

Você já viu que a fibra ótica garante velocidades muito maiores do que as oferecidas pelos fios de cobre comuns, mas ainda não viu os números exatos. Hoje, uma conexão banda larga de alta velocidade é oferecida com cerca de 10 Mbps, o que permite downloads a quase 1,25 MB/s.

Os padrões de testes da fibra ótica apontam para velocidades de 10 Gbps, o que resulta em downloads de 1.280 MB/s. É um aumento considerável, que pode ser extremamente importante para quem gosta de jogar games online ou baixar muitos arquivos pela internet.

(Fonte da imagem: Wikimedia Commons / Hustvedt)

Vale dizer que as conexões de 10 Gbps são muito potentes e devem custar muito caro, por isso são mais recomendadas para grandes empresas e universidades, locais em que a banda precisa ser muito dividida. Outra possibilidade é a instalação de padrões de fibra ótica em condomínios, que podem redividir a conexão para vários computadores.

Saudades do cobre: fibra ótica também tem defeitos

Não existe nenhuma tecnologia perfeita, por isso precisamos apresentar também as desvantagens dos cabos de fibra ótica. A principal delas é relacionada aos custos, tanto de produção quanto de implementação dos novos sistemas de transmissão.

Produzir cabos de fibra ótica envolve processos muito complexos e caros, o que exige uma demanda muito grande de usuários dispostos a pagar um pouco mais pelos recursos oferecidos pela tecnologia. Além disso, para alimentar grandes cidades seriam necessários muitos retransmissores, e há relatos de perdas grandes de sinal em retransmissores divisores.

Outros problemas estão ligados diretamente à fragilidade das fibras de vidro. Como ainda não existe uma padronização no sistema, há muitos cabos que são vendidos sem o encapsulamento protetor adequado. Isso gera instabilidade para os cabos e pode resultar em quebras dos filetes de transmissão.

Tecnologia do futuro?

Será que a fibra ótica está realmente distante da realidade? Aos poucos, algumas empresas de televisão a cabo e internet estão oferecendo pacotes que contam com os recursos da tecnologia para seus assinantes. Os preços ainda são bem altos, mas com o passar do tempo é provável que baixem consideravelmente.

Outro desafio é encontrar formas de retransmitir os sinais sem que seja necessário dispender muitos recursos, mas as vantagens oferecidas realmente impulsionam os pesquisadores. A fibra ótica garante uma largura de banda muito maior do que o cobre, ocupando menos espaço físico e com matéria-prima (sílica) muito mais abundante.

.....

Você está disposto a pagar um pouco a mais para ter fibra ótica na sua casa? Ou acha que ainda não vale a pena gastar dinheiro em uma tecnologia mais moderna? Deixe um comentário para nos dizer o que pensa a respeito da fibra ótica.

Fonte: Tecmundo

Vírus aumenta eficiência de célula solar

Redação do Site Inovação Tecnológica - 27/04/2011

Vírus aumenta eficiência de célula solar

Neste diagrama, o vírus M13 consiste em uma fita de DNA (o formato de 8 à direita) acoplado a um conjunto de proteínas chamadas peptídeos - o vírus recobre as proteínas (em forma de saca-rolhas, no centro), que se ligam aos nanotubos de carbono (cilindros cinza), mantendo-os no lugar. Um revestimento de dióxido de titânio (esferas amarelas) ligado às moléculas de corante (esferas rosa) envolve o conjunto.[Imagem: Matt Klug/Biomolecular Materials Group]

Contaminação benéfica

Cientistas conseguiram uma melhoria significativa na eficiência das células solares com a ajuda de um personagem inusitado: um vírus.

Os pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, estavam explorando o fato já conhecido de que os nanotubos de carbono podem melhorar a eficiência das células solares na conversão da luz em energia elétrica.

Embora demonstrado em escala de laboratório, o uso dos nanotubos de carbono é dificultado por dois problemas.

O primeiro é que o processo de fabricação dos nanotubos gera uma mistura de dois tipos deles, alguns que funcionam como semicondutores - ora deixam passar a corrente, ora não - e alguns que funcionam como metais - que sempre permitem a passagem da corrente elétrica.

A nova pesquisa demonstrou pela primeira vez que os efeitos dos dois tipos de nanotubos tendem a ser diferentes, com os nanotubos semicondutores melhorando o desempenho das células solares e os nanotubos metálicos apresentando o efeito oposto.

Vírus M13

O segundo problema é que os nanotubos tendem a se aglomerar assim que se formam, o que reduz sua eficiência - o processo de fabricação tende a formar algo mais parecido com uma moita de bambus do que bambus individuais.

É aí que entrou o vírus, resolvendo o problema da aglomeração dos nanotubos.

Xiangnan Dang e seus colegas descobriram que uma versão geneticamente modificada de um vírus conhecido como M13, que geralmente infecta bactérias, pode ser usada para controlar o arranjo dos nanotubos em uma superfície, mantendo-os isolados.

Com isto, os nanotubos não grudam uns nos outros e não causam curtos-circuitos dentro da célula solar.

Ganho de eficiência

Nos testes, a estrutura de nanotubos otimizada pelo vírus aumentou a eficiência da célula solar de 8% para 10,6% - um aumento de quase um terço.

O conjunto de nanotubos e vírus representou um acréscimo de peso da célula solar de aproximadamente 0,1%.

O grupo usou um tipo de célula solar de baixo custo, conhecida como DSC ("Dye-sensitized Solar Cells" - células solares sensibilizadas por corante).

Nesta célula solar, a camada ativa, que converte a luz em eletricidade, é composta por dióxido de titânio, e não silício, como nas células solares cristalinas tradicionais.

Mas os cientistas afirmam que a técnica poderá ser aplicada em outros tipos de células solares, incluindo as cristalinas, feitas de silício, as orgânicas e até as células solares feitas de pontos quânticos.

Papel do vírus

Os vírus realizam duas funções diferentes no sistema.

Primeiramente, eles fazem com que pequenas proteínas (peptídeos) se unam fortemente aos nanotubos, mantendo-os separados uns dos outros e fixando-os na superfície da célula solar.

Cada vírus é capaz de segurar de cinco a dez nanotubos, cada um dos quais é mantido no lugar por cerca de 300 peptídeos de cada M13.

Em segundo lugar, os vírus foram induzidos geneticamente a produzir um filme de dióxido de titânio, o ingrediente fundamental das células solares utilizadas na pesquisa, sobre cada um dos nanotubos de carbono.

Isso aproxima o dióxido de titânio dos nanotubos, que funcionam como fios para transportar os elétrons, facilitando o transporte das cargas geradas.

As duas funções são desempenhadas pelos mesmos vírus, em processos sucessivos, o que é alcançado alterando-se a a acidez do meio. Esta possibilidade de "chaveamento" das funções do vírus é uma ferramenta importante, tendo sido agora demonstrada pela primeira vez.

Papel dos nanotubos de carbono

Os nanotubos de carbono, por sua vez, otimizam um passo específico do processo de conversão da luz em eletricidade.

Em uma célula solar, o primeiro passo consiste em aproveitar a energia dos fótons para arrancar elétrons do material da célula - normalmente é usado o silício; no caso da célula utilizada neste experimento, este material é o dióxido de titânio.

Então, esses elétrons devem ser direcionados para um coletor, a partir do qual eles formam uma corrente elétrica, que flui para uma bateria ou diretamente para alimentar um equipamento.

Depois disso, eles retornam para o material por meio do outro eletrodo, e o ciclo se reinicia.

Os nanotubos revestidos com dióxido de titânio otimizam sobretudo este segundo passo, ajudando os elétrons a encontrar seu caminho para fora da célula solar.

Energia, vírus e DNA

Há cerca de dois meses, outro grupo de pesquisadores descobriu uma forma de usar moléculas de DNA para fazer com que células solares orgânicas, também utilizando nanotubos de carbono, se regenerem e não percam eficiência ao longo de sua vida útil:

Os vírus M13 geneticamente modificados também já foram usados em outros experimentos na área de energia e fotossíntese artificial:

Bibliografia:
Virus-templated self-assembled single-walled carbon nanotubes for highly efficient electron collection in photovoltaic devices
Xiangnan Dang, Hyunjung Yi, Moon-Ho Ham, Jifa Qi, Dong Soo Yun, Rebecca Ladewski, Michael S. Strano, Paula T. Hammond, Angela M. Belcher
Nature Nanotechnology
24 April 2011
Vol.: Published online
DOI: 10.1038/nnano.2011.50

Fonte: Inovação Tecnológica