sexta-feira, 21 de novembro de 2014

Alemães conseguem criar gasolina sintética a partir de água e gás carbônico

É possível eliminar o oxigênio das duas moléculas com um procedimento químico
Leandro Müller / 20/11/2014


Uma empresa alemã chamada Sunfire GmbH anunciou sua mais nova criação: uma tecnologia chamada “Power to Liquid” que consegue transformar água e gás carbônico em gasolina sintética. Cada molécula do líquido (H2O) e do gás (CO2) passa por um procedimento em que os átomos de oxigênio são removidos de suas fórmulas. O que resta das duas cria a partícula básica para uma gasolina alternativa (-CH2-).

Esse procedimento requer bastante energia para ser iniciado e concluído, mas também gera muito calor. Esse calor pode ser aproveitado e transformado novamente em eletricidade, o que torna a sintetização da gasolina da Sunfire muito mais eficiente do que o refinamento do petróleo. A empresa comenta que a eficiência energética do combustível chega a 70% por conta desse reaproveitamento.

 

Os detalhes mais minuciosos sobre como isso pode ser feito em larga escala não são revelados, naturalmente, mas a companhia até criou um esquema para mostrar como sua tecnologia consegue resultar na produção de gasolina a partir de duas moléculas massivamente presentes no planeta.

Impacto ambiental

Você pode estar imaginando que os problemas climáticos atuais estão sendo causados mais pela queima da gasolina do que pela produção da mesma. Então, porque produzir o combustível de forma sintética ajudaria de alguma forma? É importante lembrar que a “matéria-prima” da gasolina sintética é o gás carbônico (CO2), um dos seus principais subprodutos.

Assim, à medida que a gasolina sintética é queimada em motores de carros tradicionais, a produção da mesma poderia remover boa parte do CO2 que ela joga na atmosfera, em teoria.

A substituição do petróleo por uma matéria-prima mais limpa para a produção de combustíveis seria um grande passo na caminhada para melhorar as condições do planeta, mas ainda não há informações e dados práticos acerca da gasolina da Sunfire. Não há também expectativas sobre quando ela poderia começar a aparecer no mercado.

domingo, 21 de setembro de 2014

Gerador nuclear à base de água para substituir baterias

Redação do Site Inovação Tecnológica - 18/09/2014

Bateria nuclear à base de água
Embora o pesquisador chame seu dispositivo de bateria, ele é na verdade um gerador betavoltaico. [Imagem: Kim, Kwon - 10.1038/srep05249] 

Betavoltaico
 
Desde 2009, o professor Jae Kwon, da Universidade de Missouri, nos Estados Unidos, vem tentando convencer o mundo a utilizar suas baterias nucleares.

Ele não teve muito sucesso até agora, por isso partiu para uma abordagem diferente.

Kwon e seu colega Baek Kim criaram uma bateria nuclear à base de água.

Segundo a dupla, uma bateria nuclear, tipicamente mais eficiente e de longa duração, poderia ser utilizada em muitas aplicações, incluindo os veículos elétricos, os satélites de comunicação e as sondas espaciais.

"Tecnologias nucleares controladas não são inerentemente perigosas. Nós já temos muitos usos comerciais de tecnologias nucleares em nossas vidas, incluindo detectores de incêndio nos quartos de hotéis e sinalizações de saída de emergência em edifícios," defende Kwon.

"A betavoltaica, uma tecnologia de bateria que gera energia a partir da radiação, tem sido estudada como fonte de energia desde os anos 1950", acrescenta ele.

Contudo, a conversão de energia utilizando radioisótopos vinha-se concentrando quase exclusivamente em materiais de estado sólido.

Bateria nuclear à base de água
Princípio de funcionamento da bateria nuclear. [Imagem: Kim, Kwon - 10.1038/srep05249]
Gerador nuclear de fase líquida

A rigor, apesar de o pesquisador chamar seu dispositivo de bateria, ele é na verdade um gerador de energia.

O gerador betavoltaico utiliza um isótopo radioativo chamado estrôncio-90 para aumentar a energia eletroquímica em uma solução à base de água.

Um eletrodo coleta os elétrons da solução, criando a corrente elétrica de saída do gerador. O eletrodo é feito de dióxido de titânio nanoestruturado - o mesmo material usado em protetores solares e bloqueadores de raios ultravioleta - com um revestimento de platina.

"A água funciona como um armazenador e os plásmons de superfície criados no dispositivo acabam sendo muito úteis para aumentar a sua eficiência", disse Kwon.

"A solução iônica não é facilmente congelada mesmo a temperaturas muito baixas e pode funcionar em uma ampla variedade de aplicações, incluindo baterias de carro e, se devidamente embalada, talvez em naves espaciais," finalizou.


Bibliografia:

Plasmon-assisted radiolytic energy conversion in aqueous solutions
Baek Hyun Kim, Jae W. Kwon
Nature Scientific Reports
Vol.: 4, Article number: 5249
DOI: 10.1038/srep05249

quinta-feira, 31 de julho de 2014

Descoberta grave falha no padrão USB que permite infectar até mouses

Como se já não bastasse a quantidade incontável de malwares, spywares e um bocado de outros tipos de ameaças virtuais que podem infectar seu computador, uma dupla de pesquisadores descobriu que todo e qualquer dispositivo que utiliza conexões USB possui uma falha de segurança fundamental que se refere à forma como o padrão foi criado. Há um modo de alterar o firmware da conexão desses aparelhos para que o chip controlador do USB infecte e tome conta de boa parte dos aparelhos que conhecemos.

Pior do que ficar sabendo disso e saber que não há praticamente nada que possamos fazer para nos defender além de simplesmente não conectar nossos aparelhos em nenhum outro computador que não o nosso ou um completamente confiável.

A falha é tão grave que a dupla de pesquisadores, Karsten Nohl e Jakob Lell, que descobriu a vulnerabilidade, escreveu um pequeno e simples malware e infectou a conexão USB de um pendrive. Eles tiveram sucesso em dominar completamente um computador e até puderam redirecionar todo o tráfego da conexão com a internet desse aparelho.

Antivírus não adianta

O problema de uma falha no firmware do padrão USB é que não há antivírus no mundo que consiga limpar um aparelho que foi infectado por esse meio. O chip simplesmente não é acessível para o sistema operacional, nem para softwares de terceiros, e não pode ser modificado depois de ser hackeado.

Fora isso, é importante lembrar que praticamente todos os nossos dispositivos da atualidade utilizam conexões desse tipo e são passíveis de serem infectados, como mouses, teclados, smartphones, celulares comuns, pendrives e impressoras. Parece até o apocalipse digital, uma vez que não podemos simplesmente nos livrar de tudo isso ou parar de usar aparelhos com conexão USB.

A falha será apresentada na conferência de segurança digital Black Hat em Las Vegas e acredita-se que, em alguns meses, poderemos ter alguma solução para o problema, mas isso tudo é apenas uma suposição.

Brecha para espionagem

Para piorar ainda mais, fontes do Wired acreditam que a NSA, a agência de espionagem global dos EUA, já está explorando essa falha há algum tempo, o que poderia explicar o sucesso da agência de se infiltrar em sistemas tidos como invioláveis.

De qualquer forma, com isso tendo se tornado público, é necessário ficar de olho na forma como você utiliza aparelhos USB a partir de agora, até mesmo o seu mouse ou teclado USB.
Fonte(s)Wired Tecmundo

Entenda o padrão Wi-Fi 802.11 ax, a próxima evolução da rede sem fio

Por Redação em | 31.07.2014 às 08h40
Wireless


A WiFi Alliance, uma organização sem fins lucrativos, está trabalhando no desenvolvimento da conexão Wi-Fi 802.11 ax, que pode ser o novo padrão da internet sem fio até 2019, ou quando for concluída pela iniciativa. A WiFi Alliance conta com cerca de 600 integrantes que buscam implementar tecnologias sem fio e existe desde 1999 quando popularizou o sistema 802.11 a.

O objetivo da Wi-Fi 802.11 ax é oferecer uma conexão com velocidade quatro vezes superior do que o sistema 802.11 ac, o mais difundido atualmente. Ela é ideal para ser utilizada em larga escala, como em locais públicos onde o acesso por várias pessoas ao mesmo tempo é comum.

O padrão 802.11 a foi determinado em 1999 pelo Institute of Electrical and Electronics Engineers (IEEE). Desde então, vários padrões surgiram: o 802.11 b em 1999, junto com o 802.11 a; o g em 2003; o n em 2009; e o padrão mais recente 802.11 ac em 2013. Outros padrões menos utilizados são: 802.11 s, 802.11 ad e 802.11 aj.

A primeira conexão, 802.11 a, pode alcançar uma velocidade máxima de 54 Mbps, enquanto a mais recente, 802.11 ac, atinge uma velocidade de 866,7 Mbps, mas pode chegar a até 1,3 Gbps em uma banda de 5 GHz. Em 2015 uma nova versão da conexão 802.11 ac, focada na banda 5 GHz, será disponibilizada com uma tecnologia que irá permitir o multi-acesso de entrada e saída de dados, com um número maior de usuários simultâneos. Com essa tecnologia, unida a um canal de 160 MHz, será possível ter picos de 7 Gbps.

O novo padrão desenvolvido pela WiFi Alliance só estará disponível posteriormente, com o nome 802.11 ax e o objetivo de quadruplicar a velocidade da conexão sem fio individual, atingindo picos de 10,53 Gbps na banda de 5 GHz de frequência. 

Até o momento, quem saiu à frente na tecnologia do roteador usando ax é a chinesa Huawei, que promete o primeiro equipamento com o padrão em 2018. No entanto, o padrão ainda precisa ser consolidado como plataforma Wi-Fi para que isso seja confirmado. A expectativa é que este padrão só chegue ao público geral em 2019. Mas o investimento da Huawei não será perdido caso o padrão ax não seja adotado. Neste caso ele funcionará com a versão atualizada do 802.11 ac, previsto para 2015.

Com o 802.11 ax espera-se ter uma melhor conectividade em locais públicos, como os hotspots de comércios e outros locais. Dessa forma o usuário terá acesso a uma boa conexão sem fio mesmo com outras pessoas conectadas. O modelo também permitirá uma qualidade melhor mesmo através de paredes.

Ainda que a conexão não fique em 10 Gbps sempre, será possível baixar conteúdo da internet com uma maior velocidade. No entanto, os roteadores ainda podem ser um problema. A internet via Google Fiber nos Estados Unidos, por exemplo, promete uma velocidade de 1 Gbps, no entanto, na prática, atinge 200 Mbps em grande parte por causa dos roteadores.

No Brasil, as operadoras de serviços de internet banda larga oferecem uma velocidade média de 2 Mbps, então, mesmo com o padrão 802.11 ax, ainda há muito o que ser feito por aqui para atingir a velocidade prometida pelo novo padrão. 

Matéria completa: 

domingo, 27 de julho de 2014

Três novidades em telas que você vai querer ver

Redação do Site Inovação Tecnológica - 25/07/2014
Três novidades em telas que você vai querer ver
[Imagem: KAIST]
Parede interativa


Esta é a TransWall, uma tela semitransparente sensível ao toque dos dois lados.

Seus criadores, do Instituto KAIST, na Coreia do Sul, afirmam que ela é ideal para que os compradores dos shoppings centers encontrem itens interessantes para comprar...

"Através das vitrines, os compradores podem ver os produtos expostos, mas podem ter dificuldades apenas olhando. Com o TransWall, no entanto, as vitrines podem se tornar mais divertidas e realistas do que nunca," afirmam eles, eventualmente pensando no cliente interagindo com um vendedor sem precisar entrar na loja.

Isso porque, além da sensibilidade ao toque, a tela possui um transdutor superficial que vibra, podendo fornecer um feedback tátil ao usuário.

"O conceito da TransWall permite às pessoas ver, ouvir, ou mesmo tocar umas às outras através da parede, enquanto desfrutam de jogos e comunicação interpessoal. A TransWall pode ser instalada no interior de edifícios, como centros comerciais, museus e parques temáticos, para que as pessoas tenham a oportunidade de colaborar mesmo com estranhos de uma forma natural," propõe o professor Woohun Lee, idealizador da tecnologia.

A tela é interessante, mas parece que os pesquisadores precisam ser mais criativos na busca de novos usos para suas invenções.


Tela de enrolar
Três novidades em telas que você vai querer ver
[Imagem: LG Display]
Esta tela transparente da LG é menor - 18 polegadas - e não tem sensibilidade ao toque dos dois lados.

Mas a grande novidade da tecnologia é que ela pode ser enrolada em um tubo de apenas 3 centímetros de raio "sem que a função da tela de 1.200 x 810 pixels seja afetada", segundo a empresa.

Embora telas de enrolar sejam esperadas há muito tempo, a LG parece ter chegado a uma solução interessante usando um filme de poliimida de grande densidade, em substituição aos plásticos ou vidros flexíveis normalmente utilizados.

"Estamos confiantes de que, em 2017, vamos conseguir desenvolver uma tela de OLED ultra-HD flexível e transparente de mais de 60 polegadas, que terá uma transmitância superior a 40% e um raio de curvatura de 100R," afirmou In-Byung Kang, chefe do centro de P&D da LG Display.


Computadores de vidro
Três novidades em telas que você vai querer ver
[Imagem: Optics Express]
A equipe do Dr. Raman Kashyap, da Universidade Politécnica de Montreal, no Canadá, colocou suas fichas no famoso Gorilla Glass®, da empresa Corning, usado em várias marcas de celulares inteligentes e tablets.

Kashyap criou uma técnica que permite a inserção de várias camadas sucessivas de sensores sobre o vidro.

Assim, segundo o pesquisador, além de detectar o toque de seus dedos, a tela poderá - no futuro - ser capaz de detectar sua temperatura, medir o nível de açúcar no seu sangue e até analisar seu DNA.

"Neste momento nós estamos abrindo a Caixa de Pandora. Cabe às pessoas inventarem novos usos," entusiasma-se ele.

Além de sensores biomédicos, a tecnologia poderá permitir fabricar dispositivos mais complexos, como circuitos incorporados em qualquer superfície de vidro, como janelas ou tampos de mesa, eventualmente criando as telas transparentes vistas em filmes como Avatar e Homem de Ferro.

Tudo isso graças a uma técnica para gravar componentes fotônicos a laser diretamente no vidro. Esses componentes, chamados guias de onda, funcionam como canais para guiar a luz, como os fios guiam os elétrons. A técnica é bem conhecida, mas esta foi a primeira vez que ela foi usada para criar componentes em um produto comercial como o Gorilla Glass. 

A transformação da tecnologia em produtos, porém, demandará ainda muitos desenvolvimentos adicionais e bastante tempo, já que, essencialmente, o caminho a percorrer é o mesmo dos processadores fotônicos.



Bibliografia:

Making Smart Phones Smarter with Photonics
Jerome Lapointe, Mathieu Gagné, Ming-Jun Li, Raman Kashyap
Optics Express
Vol.: 22, Issue 13, pp. 15473-15483
DOI: 10.1364/OE.22.015473

domingo, 20 de julho de 2014

Conheça a verdade por trás de 4 mitos da tecnologia

Por Redação Olhar Digital - em 14/07/2014 às 17h00

7

A tecnologia ainda é um mistério para muitas pessoas, que acabam acreditando em informações erradas divulgadas de maneira convincente. Abaixo estão alguns destes mitos que muitas vezes são passados como verdades absolutas deste universo, seja por inocência ou por intuito comercial. Confira:

1) LED e LCD são telas diferentes
Na verdade, toda tela de LED é feita de LCD, mas nem todas as telas de LCD têm LED. A maior diferença entre as telas de LCD e LED não está nos pixels em si, mas na iluminação entre elas.

Enquanto as telas de LCD utilizam lâmpadas fluorescentes para iluminar a tela, as TVs de LED utilizam pequenos LEDs para iluminar cada parte da tela separadamente. Isso faz com que certos LEDs possam ter sua iluminação desligada para que fiquem mais escuras, criando uma cor preta mais escura, ou seja: a parte em que os LEDs mais fazem diferença na qualidade de imagem é quando estão desligados!

2) Macs não pegam vírus
Macs pegam menos vírus do que computadores rodando Windows, mas não é sensato utilizar um Mac sem um bom antivírus. Parte do motivo pelo qual os vírus afetam mais os computadores com o sistema da Microsoft se deve ao fato de que o Windows roda em 88% das máquinas (desktops e laptops) no mundo. Com isso, torna-se mais visado, já que as ameaças criadas para um sistema operacional não funcionam no outro.

3) Câmeras com mais megapixels fazem fotos melhores
Na verdade, a quantidade de megapixels que o sensor de uma câmera possui influi pouco na qualidade de suas fotos, se comparado a outros fatores. Primeiramente, como um monitor Full HD possui apenas 2 Megapixels e os novos 4K possuem 8 Megapixels, qualquer câmera com mais resolução do que isso não vai mostrar na tela a diferença que mais megapixels fazem.

Se você der um zoom na foto, parte da imagem estará sendo jogada fora, caso em que mais megapixels fazem a diferença, assim como quando a foto será impressa, já que a resolução das impressoras fotográficas é superior à resolução das telas, em maior parte. Agora, se você costuma ver as fotos em seu monitor ou na TV, a diferença entre uma foto de 15 e 5 megapixels é o tamanho, lotando seu HD mais rápido.

4) Cabos mais caros têm som e imagem melhores
A forma mais fácil de explicar esse mito é que ele é verdadeiro para cabos analógicos e falso para cabos digitais.

Cabos que passem um sinal analógico estão sujeitos a todo tipo de interferência eletromagnética e possuem melhores defesas contra essa interferência em cabos de melhor qualidade. Neste caso, um cabo VGA de R$ 15 e um de R$250 produzirão imagens diferentes. Cabos de som de maior qualidade, também produzirão som com maior fidelidade.

Por outro lado, cabos digitais não funcionam da mesma forma. Com eles, não existe "melhor" ou "pior". Um cabo HDMI de R$ 250 pode durar mais tempo, ser mais bonito e melhor construído do que um cabo HDMI de R$ 15, mas ele com certeza não terá uma imagem melhor. O mesmo pode ser dito para cabos USB, por exemplo. Ou eles funcionam, ou não funcionam, mas não há como um cabo funcionar "melhor" do que o outro.

sábado, 19 de julho de 2014

Matemática torna internet até 10 vezes mais rápida

Redação do Site Inovação Tecnológica - 18/07/2014


Equações matemáticas prometem tornar as comunicações pela internet mais rápidas sem precisar alterar nenhuma infraestrutura.

Uma equipe de pesquisadores da Dinamarca e dos EUA idealizou uma nova técnica que substitui o padrão atual de transmissão de dados pela rede.

Em testes com equipamentos reais, a taxa de transferência de dados chegou a ser 10 vezes maior.

No caso de um vídeo, o arquivo foi baixado cinco vezes mais rápido do que nas melhores condições de rede atuais e sem nenhuma interrupção - para comparação, a transmissão com a tecnologia atual travou 13 vezes, precisando ser reiniciada automaticamente pelo protocolo de troca de dados.

"E esta tecnologia pode ser usada em comunicações via satélite, telefonia e internet móvel e comunicação regular pela internet a partir de computadores," afirma Frank Fitzek, da Universidade Aalborg, na Dinamarca, um dos idealizadores da nova técnica.


Adeus aos pacotes

A transmissão de dados pela internet é feita por meio de "pacotes". O arquivo é quebrado em pequenas partes - os pacotes - que são enviados em sequência, podendo trilhar rotas separadas até o destino, onde o arquivo original é remontado.

É claro que ocorrem muitos erros na transmissão, o que significa que é necessário retransmitir vários pacotes várias vezes, fazendo com que a transmissão demore mais.

Os pesquisadores superaram esse problema usando um tipo especial de codificação que utiliza a matemática para armazenar e enviar o sinal de uma maneira diferente.

"Com os sistemas atuais, nós enviamos o pacote 1, o pacote 2, o pacote 3 e assim por diante. Nós substituímos isso por uma equação matemática. Nós não enviamos pacotes. Nós enviamos uma equação matemática," explica Fitzek.

A grande vantagem é que os erros não exigem que um pacote seja enviado novamente - a equação matemática reconstrói o dado que falta a partir dos dados anteriores e daqueles que chegam imediatamente a seguir.

"Você pode comparar [o mecanismo] com o tráfego de carros. Agora podemos fazer tudo funcionar sem sinais vermelhos. Podemos fazer os carros passarem por um cruzamento vindos de todas as direções, sem terem de parar uns para os outros. Isso significa que o tráfego flui muito mais rápido," acrescenta o pesquisador.


Protocolo RNLC

A equipe patenteou a tecnologia, que eles batizaram de RNLC (Random Linear Network Coding - codificação de rede linear aleatória).

Eles também já fundaram uma empresa, chamada Steinwurf, para licenciar sua tecnologia proprietária para os fabricantes de equipamentos.

Segundo o grupo, sua empresa emergente já está "em negociações secretas com fabricantes de hardware que trarão benefícios para os consumidores".

segunda-feira, 7 de julho de 2014

Primeira bateria de lítio em forma de fios

Redação do Site Inovação Tecnológica - 07/07/2014
Primeira bateria de lítio em forma de fios
Esquema de construção das baterias de lítio em formato de fios. À direita, a bateria tecida em formato de anel alimentando um LED.[Imagem: Jing Ren et al./Angewandte Chemie]
 
 
Bateria de lítio para tecidos

As roupas inteligentes, os tecidos eletrônicos e os computadores de vestir ainda não apareceram na coleção desta estação, mas são promessas sempre repetidas.

Um dos desafios é que todas essas tecnologias exigem fontes de energia adequadas - especificamente, baterias recarregáveis que possam ser tecidas nas roupas juntamente com os circuitos eletrônicos flexíveis.

Isto agora ficou mais próximo da realidade graças a cientistas chineses, que desenvolveram a primeira bateria de íons de lítio em forma de fios.

Eles usaram seus fios recarregáveis para tecer as baterias, que são flexíveis, elásticas, e, segundo eles, totalmente seguras, ou seja, à prova de explosões.

A maior parte dos sucessos nessa área vinha sendo obtida com supercapacitores. Mas tudo fica mais fácil - do ponto de vista de chegar ao mercado - com as baterias de lítio e sua elevada densidade de carga.

Jing Ren e seus colegas da Universidade Fudan afirmam que suas baterias de íons de lítio em forma de fios foram possíveis graças à estrutura que eles idealizaram e aos materiais que eles selecionaram.

O anodo e o catodo das baterias são duas fibras feitas de nanotubos de carbono que contêm nanopartículas de óxido de lítio-titânio (OLT) e óxido de lítio-manganês (OLM), respectivamente.

Quando a bateria está sendo carregada, os íons de lítio são transferidos da rede atômica do OLM para o eletrólito e depois para a rede atômica do OLT no anodo. O processo inverso ocorre quando a bateria está sendo usada.


Bateria de lítio à prova de explosões
 
Segundo a equipe, como a inserção do lítio ocorre a cerca de 1,5 V, é mínima a chance de formação do lítio dendrítico, as nanoestruturas que crescem e causam os curtos-circuitos que vez ou outra fazem as baterias pegarem fogo ou até explodirem.

Os nanotubos de carbono são essenciais para segurar as nanopartículas dos dois materiais e para funcionar como rotas eficientes para o transporte de carga.

Os eletrodos em forma de fio são dispostos em paralelo, separados por uma camada de material isolante, e presos por um tubo termorretrátil.

Para tornar os fios elásticos, permitindo seu uso em roupas, os pesquisadores os dispuseram em formato de mola ao longo de uma fibra elástica de polidimetilsiloxano.

As "baterias tecidas" suportaram milhares de ciclos de deformação e esticamento a até duas vezes o seu tamanho original sem perder a capacidade de retenção de carga.


Bibliografia:

Elastic and Wearable Wire-Shaped Lithium-Ion Battery with High Electrochemical Performance
Jing Ren, Ye Zhang, Wenyu Bai, Xuli Chen, Zhitao Zhang, Xin Fang, Wei Weng, Yonggang Wang, Huisheng Peng
Angewandte Chemie International Edition
Vol.: Article first published online
DOI: 10.1002/anie.201402388

segunda-feira, 16 de junho de 2014

Nanocircuito integrado: componentes feitos de nanotubos

Com informações da Phys.org - 16/06/2014
Nanocircuito integrado usa transistores em nanotubos individuais
Imagem feita por microscopia do circuito de barramento (em cima) e esquema dos transistores em nanotubos individuais (embaixo). [Imagem: Tian Pei et al. - 10.1021/nl5001604]
 
 
Nanoeletrônica definitiva

A eletrônica baseada nos nanotubos de carbono é muito promissora, e vem avançando aos poucos, com o primeiro circuito integrado (2011), o primeiro processador (2012) e, finalmente, o primeiro computador de nanotubos de carbono (2013).

Mas não se trata ainda da esperada "nanoeletrônica definitiva", uma técnica que consiga tirar todo o proveito do potencial dos nanotubos de carbono individuais, e da consequente ultraminiaturização dos circuitos.

Um passo mais significativo nesse sentido mais purista foi dado agora por Tian Pei e seus colegas da Universidade de Pequim, na China.

Eles conseguiram construir transístores de efeito de campo (FET) diretamente sobre nanotubos de carbono individuais.


Circuitos complexos

Tian Pei desenvolveu uma técnica modular para a construção dos seus FET-CNTs (Field Effect Transistor - Carbon NanoTubes) que permite construir circuitos integrados nanoeletrônicos autênticos.

O protótipo de demonstração é um sistema de barramento de 8 bits formado por 46 transistores em seis nanotubos de carbono - sistema de barramento é um circuito amplamente utilizado para a transferência de dados em computadores.

Segundo a equipe, este é o mais complicado circuito de nanotubos fabricado até hoje, e o processo de fabricação deverá permitir a construção de circuitos ainda mais complexos.

"Este trabalho estabelece uma técnica geral para a construção de circuitos integrados complexos usando os atuais nanotubos de carbono imperfeitos, que, ao contrário de silício, são unidimensionais e diferentes uns dos outros," disse o professor Lian-Mao Peng.

Agora a equipe pretende fabricar circuitos integrados de nanotubos de carbono que superem os sistemas baseados em silício em termos de desempenho. Esses circuitos prometem ser mais rápidos, menores e consumirem menos energia.

Para isso, eles vão tirar proveito do fato de que seu sistema de barramento é um circuito modular que pode ser usado para construir circuitos mais complexos.


Bibliografia:

Modularized Construction of General Integrated Circuits on Individual Carbon Nanotubes
Tian Pei, Panpan Zhang, Zhiyong Zhang, Chenguang Qiu, Shibo Liang, Yingjun Yang, Sheng Wang, Lian-Mao Peng
Nano Letters
Vol.: Article ASAP
DOI: 10.1021/nl5001604

terça-feira, 29 de abril de 2014

Bateria fina e flexível dispensa o lítio

Redação do Site Inovação Tecnológica - 29/04/2014

Bateria fina e flexível dispensa o lítio
A "superbateria" reteve 76% de sua capacidade depois de 10.000 ciclos de carga e descarga e 1.000 ciclos de flexionamento. [Imagem: Rice University]
 
Bateria ou supercapacitor?

Uma bateria de grande capacidade, mas que é leve, flexível e que não usa lítio.

Isso é o que prometem Yang Yang e seus colegas da Universidade Rice, nos Estados Unidos.

O protótipo da bateria, com a espessura de uma folha grossa de plástico, possui eletrodos sólidos de níquel-fluoreto, dispostos em uma estrutura nanoporosa que aumenta sua área superficial.

Tecnicamente o dispositivo é um supercapacitor, embora a fronteira entre supercapacitores e baterias esteja cada vez mais difícil de traçar.

Nos testes, essa "superbateria" reteve 76% de sua capacidade depois de 10.000 ciclos de carga e descarga e 1.000 ciclos de flexionamento.

"Em comparação com uma bateria de íons de lítio, a estrutura é incrivelmente simples e segura," disse Yang. "Se nós a usarmos como um supercapacitor, podemos descarregá-la rapidamente com uma elevada taxa de corrente. Mas, para outras aplicações, descobrimos que podemos ajustá-la para carregar mais devagar e descarregar lentamente, como uma bateria."

Para criar a bateria/supercapacitor, a equipe depositou uma camada de 900 nanômetros de espessura de níquel e flúor sobre um substrato de suporte.

Essa camada foi entalhada para criar poros de 5 nanômetros, dando-lhe uma elevada área superficial para o armazenamento de energia.

Depois que o suporte foi removido, os eletrodos foram ensanduichados por um eletrólito de hidróxido de potássio imerso em álcool polivinílico.

Segundo o professor James Tour, orientador do trabalho, já há empresas interessadas em produzir a bateria/supercapacitor em escala industrial.


Bibliografia:

Flexible Three-Dimensional Nanoporous Metal-Based Energy Devices
Yang Yang, Gedeng Ruan, Changsheng Xiang, Gunuk Wang, James M. Tour
Journal of the American Chemical Society
Vol.: Article ASAP
DOI: 10.1021/ja501247f

segunda-feira, 7 de abril de 2014

NASA vai disponibilizar mais de 1.000 programas gratuitamente

Redação do Site Inovação Tecnológica - 07/04/2014


A NASA anunciou que irá disponibilizar ao público, sem nenhum custo, mais de 1.000 programas de computador.

Organizados em quinze categorias gerais, os softwares englobam uma grande variedade de aplicativos para uso na indústria, academia, agências governamentais, e também pelo público em geral.

"Software é um elemento cada vez mais importante na carteira de ativos intelectuais da agência, que compõem cerca de um terço de nossas invenções relatadas a cada ano," disse Jim Adams, do departamento de tecnologia da NASA. "Estamos muito animados de sermos capazes de tornar esses softwares amplamente disponíveis ao público com o lançamento de nosso novo catálogo de software."

Segundo Adams, os códigos disponibilizados representam as melhores soluções encontradas pela NASA para uma ampla gama de tarefas complexas.

Os programas disponibilizados incluem aplicativos para gerenciamento de projetos, ferramentas de design, tratamento de dados e processamento de imagens, assim como soluções para funções de suporte à vida, aeronáutica, análise estrutural e sistemas robóticos e autônomos.

O lançamento do catálogo de softwares da NASA será feito nesta quinta-feira, 10 de abril, através do site do setor de transferência de tecnologia da agência, no endereço http://technology.nasa.gov/.

sábado, 29 de março de 2014

Europa lança processador multinúcleos anti-NSA

Redação do Site Inovação Tecnológica - 28/03/2014
Europa lança processador multinúcleos anti-NSA
Palavras pesadas forma usadas no lançamento do processador Tomahawk (tacape), de resto um nome particularmente associado a armas. [Imagem: Jürgen Lösel]

Processador antiespionagem

Normalmente as notícias sobre novos chips e processadores vêm de empresas como Intel, AMD ou IBM.

Mas parece que a espionagem norte-americana está fazendo nascer novos atores, que possuem preocupações além da conquista de mercado.

Pesquisadores alemães apresentaram um novo processador de uso genérico que está sendo aclamado como uma "nova revolução digital".

O Tomahawk é extremamente rápido, eficiente em termos de energia e resistente.

Trata-se de um processador heterogêneo, de múltiplos núcleos, que pode facilmente se tornar o coração de vários tipos diferentes de aparelhos.

"Não é nada menos do que um novo nível da revolução digital," anunciou o professor Gerhard Fettweis, da Universidade Técnica de Dresden.

Segundo a equipe, o chip foi projetado para permitir a troca de volumes muito grandes de dados, transmitidos com alta latência ponta a ponta, abrindo caminho para aplicações totalmente novas.

Entre as aplicações mais imediatas, foram citados veículos capazes de reagir automaticamente a todos os obstáculos na estrada e veículos sem motorista que poderão viajar em alta velocidade sem precisar manter distância uns dos outros, praticamente com os pára-choques colados.


Chip da discórdia

O interesse maior, contudo, parece estar na transmissão de dados, no desenvolvimento de um novo padrão de internet móvel, o 5G, e de um conceito ainda não totalmente definido, que os pesquisadores chamam de "internet tátil".

E, claro, na segurança da comunicação de dados.

Nesse particular, a apresentação dos pesquisadores mais parecia um discurso de militares apregoando a defesa contra inimigos declarados.

"O desenvolvimento da liderança tecnológica europeia na área das tecnologias de rede - como as atividades da NSA mostraram claramente - não é apenas uma necessidade econômica," disse o professor Fettweis.

Palavras ainda mais pesadas constam da nota à imprensa acerca do lançamento do processador Tomahawk (tacape), de resto um nome particularmente associado a armamentos.

"Inovações em áreas como engenharia, automóveis, transporte e logística, serviços de saúde e administração pública só podem ser desenvolvidas de forma sustentável na Alemanha e na Europa se elas forem desenvolvidas, testadas e utilizadas aqui," diz a nota.

A julgar pelo tom adotado mo lançamento, provavelmente não será possível comprar um processador Tomahawk na loja de informática da esquina tão cedo.

segunda-feira, 24 de março de 2014

Bateria que respira promete dar fôlego aos carros elétricos

Redação do Site Inovação Tecnológica - 24/03/2014


Autonomia elétrica

Desde que se descobriu a possibilidade técnica de construir baterias de lítio-ar que inúmeros grupos de pesquisas ao redor do mundo vêm tentando fabricar essa bateria que respira.

Os cálculos indicam que uma bateria de ar-lítio pode armazenar 10 vezes ou mais energia do que as melhores baterias de íons de lítio disponíveis no mercado atualmente.

A principal diferença entre as baterias de íons de lítio e a bateria de lítio-ar é que esta substitui o catodo tradicional - um componente-chave da bateria envolvido no fluxo da corrente elétrica - pelo ar atmosférico.

Isso torna a bateria recarregável mais leve e com maior densidade de energia.

O problema é que tem sido difícil construir essas baterias de forma que elas consigam respirar por longos períodos sem se degradar.

Os melhores resultados foram relatados agora pela equipe do professor Nobuyuki Imanishi, da Universidade Mie, no Japão.

"A densidade prática de energia do nosso sistema é de mais de 300 Wh/kg [watts-hora por quilograma], em comparação com a densidade de energia de uma bateria de íons de lítio comercial, que é de 150 Wh/kg," disse Imanishi.

Isso seria suficiente para dar aos carros elétricos a mesma autonomia que um carro a gasolina tem hoje com um tanque cheio.

Bateria que respira promete dar fôlego aos carros elétricos
A bateria ar-lítio - a barra inferior, identificada como lítio-oxigênio - tem uma densidade de energia muito superior às baterias mais modernas. [Imagem: Cortesia Winfried Wilcke/IBM]
 
 
Bateria de ar-lítio

A receita do professor Imanishi para fazer uma bateria lítio-ar prática parece bem simples: adicionar água ao eletrólito, o material que conduz os elétrons entre os eletrodos.

Esse design "aquoso" impede que o lítio reaja com os gases da atmosfera, além de permitir reações mais rápidas no eletrodo "aéreo".

Para evitar que a água danifique o lítio, os pesquisadores fizeram um sanduíche de polímero com alta condutividade e um eletrólito sólido entre o eletrodo de lítio e a solução aquosa.

O resultado foi uma bateria com capacidade para reter o dobro da energia de uma bateria de íons de lítio convencional.

A tarefa agora é aumentar a vida útil da bateria que respira, que sobreviveu a 100 ciclos de inspiração e expiração (recarga e descarga), o que significa que ela ainda precisa ganhar algum fôlego.

sexta-feira, 21 de março de 2014

Quebrado sistema de segurança das redes Wi-Fi

Redação do Site Inovação Tecnológica - 21/03/2014

Quebrado protocolo de segurança WPA2 das redes wi-fi
A maior fraqueza do WPA2 foi encontrada na etapa de autenticação, que representa um ponto de entrada muito mais acessível para um invasor.[Imagem: Achilleas Tsitroulis et al./IJICS]
 
Um trio de cientistas da Grécia e do Reino Unido acaba de criar mais uma dor de cabeça para os milhões de usuários das redes sem fio, ou Wi-Fi.

Eles mostraram que existem várias falhas que podem ser exploradas por invasores no sistema de segurança usado nos roteadores wireless.

Existem várias maneiras de proteger uma rede sem fios. Algumas geralmente são consideradas mais seguras do que as outras - embora não por muito tempo.

O protocolo WEP (Wired Equivalent Privacy), por exemplo, foi quebrado há vários anos, e hoje não é mais recomendado como uma maneira de manter os intrusos longe das redes privadas.

Agora foi a vez do protocolo WPA2 (Wi-Fi protected access 2), considerado um dos sistemas de segurança sem fio mais fortes disponíveis atualmente.

Achilleas Tsitroulis e seus colegas afirmam que este sistema de segurança das redes sem fio pode ser violado com relativa facilidade por um ataque malicioso.

Eles sugerem que os especialistas em segurança e os programadores encarem o problema como uma questão de urgência, a fim de eliminar as vulnerabilidades do WPA2.

Contudo, se o protocolo não puder ser salvo, outros terão que ser desenvolvidos.


Falhas na segurança das redes Wi-Fi

Os pesquisadores mostraram que é possível ter êxito em um ataque de força bruta na senha do WPA2, embora o tempo necessário para quebrar um sistema aumente conforme as senhas ficam mais longas - a criptografia de 256 bits disponível no WPA2 permite criar senhas com uma sequência alfanumérica e com caracteres especiais de até 63 caracteres.

Mas a maior fraqueza do WPA2 foi encontrada na etapa de autenticação, que representa um ponto de entrada muito mais acessível para um invasor.

Como parte das medidas de segurança do WPA2, os roteadores devem reconectar e reautenticar os aparelhos periodicamente, compartilhando uma nova chave a cada reautenticação.

Esse processo deixa uma porta aberta, ainda que temporariamente - um "temporariamente" que é tempo suficiente para um scanner sem fio rápido e um intruso insistente.


Medidas de proteção

E o que os usuários devem fazer para proteger suas redes sem fios?

Os pesquisadores sugerem que os usuários usem o protocolo de criptografia mais forte disponível em seu equipamento, escolham a senha mais complexa e longa possível, e limitem o acesso a aparelhos conhecidos através do endereço MAC (endereço de controle de acesso de mídia).

Vale a pena também aprender como atualizar o software do seu roteador - uma visita ao site do fabricante pode ajudar - e ficar atento às atualizações de segurança.

E depois talvez seja melhor cruzar os dedos - pelo menos até que um novo sistema de segurança seja criado e se torne disponível.


Bibliografia:

Exposing WPA2 security protocol vulnerabilities
Achilleas Tsitroulis, Dimitris Lampoudis, Emmanuel Tsekleves
International Journal of Information and Computer Security
Vol.: 6, 93-107

segunda-feira, 3 de março de 2014

SATA Express: entenda esse novo conector que está sendo usado nos PCs

 Por Vinicius Karasinski em 3 de Março de 2014

 Os SSDs já atingiram o limite de velocidade das portas SATA tradicionais, agora é preciso ir além


SATA Express: entenda esse novo conector que está sendo usado nos PCs (Fonte da imagem: Reprodução/TechPowerup)

Se você é familiarizado com PCs, certamente já ouvir falar de uma porta de conexão SATA e de slots PCI Express. A primeira é comumente utilizada para a conexão de dispositivos de armazenamento, o que inclui HDs e SSDs, além de unidades ópticas, como CD, DVD e Blu-ray, e a segunda é geralmente empregada na conexão de dispositivos de expansão, como placas de vídeo, rede, som, entre outras.

Mas e a conexão SATA Express? Você já ouviu falar? Essa nova interface é justamente a união dos dois padrões anteriores, ou seja, SATA+PCI Express. O principal objetivo desse sistema é aproveitar a integração de componentes já existentes para aumentar a velocidade de transmissão das unidades de armazenamento.

Mas e por que utilizar a porta PCI Express em vez de simplesmente trabalhar na evolução natural da porta SATA, o SATA IV? Simples: isso consumiria muito tempo e exigiria muitas mudanças no padrão, resultando em um conector que acabaria consumindo muita energia e teria uma velocidade máxima de 1,2 GB por segundo (SATA1200).

Por outro lado, o PCI Express já é largamente utilizado e oferece uma velocidade de transmissão de até 1 GB por segundo (por pista) em sua versão 3.0. Como a arquitetura permite o agrupamento de pistas para aumentar o desempenho, é relativamente fácil aumentar a banda de dados do PCI Express. No caso do SATA Express é possível agrupar até dois canais, o que resulta em uma transmissão nominal de 2 GB/s bidirecionalmente.


Mas e qual a necessidade de tanta velocidade? Se por um lado os HDs tradicionais e os SSDs de entrada ainda não aproveitam 100% da banda de transferência das portas SATA III, os SSDs já estão atingindo o limite que, em teoria, é de 600 MB/s, mas que na prática fica na casa dos 550 MB/s. Esse gargalo já está limitando o desempenho de alguns sistemas e obrigando alguns usuários a investir em sistemas de armazenamento PCI Express.

Sistema de armazenamento PCI Express

 

Utilizar a porta PCI Express para conectar unidades de armazenamento não é exatamente uma novidade. Há um bom tempo já existem as placas SSDs, que são conectadas no slot PCI Express.
SATA Express: entenda esse novo conector que está sendo usado nos PCsSSD PCI Express (Fonte da imagem: Reprodução/OCZ)

Esse tipo de equipamento apresenta um bom desempenho, mas exige a instalação de uma placa de expansão no gabinete, algo que nem sempre é possível, algumas vezes pelo espaço físico ou simplesmente pela inexistência de uma porta PCI Express livre na placa-mãe.

Interface antiga, novo conector

 

Apesar de o SATA Express parecer uma nova conexão, ela não é exatamente nova. Como falamos anteriormente, a arquitetura utilizada será a PCI Express que já existe. Contudo, o conector deve ser diferente, como se fosse uma mistura das duas interfaces. A vantagem é que ele é retrocompatível, ou seja, pode ser utilizado tanto para a conexão de dispositivos SATA tradicionais quanto para os novos equipamentos.
SATA Express: entenda esse novo conector que está sendo usado nos PCs (Fonte da imagem: Baixaki/Tecmundo)


O conector SATA Express é composto por duas portas SATA tradicionais e mais um conector de 4 pinos. Nele é possível conectar um cabo que leva até uma unidade de armazenamento SATA Express ou duas unidades SATA tradicionais.

Servidores

 

O SATA Express também deve chegar ao mercado de servidores, contudo, a interface de conexão deve ser um pouco diferente daquela apresentada nos desktops tradicionais.

Laptops, notebooks e ultrabooks

 

Um novo conector resolve os problemas dos desktops, mas e quanto aos computadores portáteis? A maioria desses equipamentos é tão compacta hoje em dia que o único periférico que eles utilizam são os SSDs mSATA, já que esses equipamentos medem cerca de 50 x 30 x 4 mm. A vantagem deles é o tamanho, mas eles também estão sujeitos à largura de banda da interface SATA, ou seja, 600 MB/s.

SATA Express: entenda esse novo conector que está sendo usado nos PCsUnidade mSATA Kingston (Fonte da imagem: Reprodução/Kingston)

Para resolver esse problema, um novo tipo de conector também está sendo desenvolvido. Esse novo conector deve seguir os mesmos parâmetros de sua contraparte desktop, com a vantagem de ser extremamente compacto. Essa porta tem a facilidade de ser compatível tanto com SSDs quanto com placas de expansão PCI Express, como controladores WiFi, por exemplo.

Quando isso chega ao mercado?


Diversos fabricantes já estão trabalhando no desenvolvimento de placas-mãe com a nova interface de comunicação, e a ASUS é uma delas. A companhia demonstrou algumas placas com a interface durante a CES 2014, mas não apresentou data de lançamento.
Entretanto, é possível que esses equipamentos comecem a chegar ao mercado tão logo dispositivos (leia-se SSDs) comecem a surgir. E isso não deve demorar, uma vez que os SSDs de alto desempenho já atingiram o limite das portas SATA tradicionais e precisam de mais espaço para continuar crescendo.

sexta-feira, 14 de fevereiro de 2014

Descoberta brecha no IE que nem a Microsoft sabe consertar

Por Redação Olhar Digital - em 14/02/2014 às 11h24
A brecha está sendo explorada no site VFW.org. Comprometida por hackers, a página contém um iframe que carrega outro site sem que se perceba, e é desse lugar que se instala softwares maliciosos.

A FireEye não descobriu de onde vem o ataque, mas a Seculert, empresa de segurança de Israel, informou que o emissor é o site aliststatus.com.

Enquanto a Microsoft não liberar alguma correção, o melhor é evitar o uso das versões 9 e 10, que até já estão desatualizadas, pois o IE mais novo é o 11.

Robôs-cupins dispensam projetos e engenheiros

Com informações da Science - 14/02/2014

Robôs-cupins constroem sem projetos e sem engenheiros
Robôs-cupins podem trabalhar incansavelmente para construir as estruturas sem um planejamento centralizado.[Imagem: Eliza Grinnell/Harvard]
 
Estigmergia

Imagine pedir a uma equipe de robôs para que eles construam uma casa para você sem precisar lhes dizer como fazê-lo.

Pelo menos essa segunda parte - construir sem um projeto inicial - já é uma realidade para a equipe de robôs construída por engenheiros da Universidade de Harvard, nos Estados Unidos.
Eles foram buscar inspiração nos cupins.

Ao contrário dos humanos, que necessitam de um projeto e de planejamento para construir algo complicado, os cupins constroem montes que têm centenas de vezes o seu tamanho sem uma estratégia inicial, sem coordenação central e com uma capacidade de comunicação entre indivíduos que é limitada.

Em vez de planejamento e controle, os cupins usam algo chamado estigmergia, um mecanismo de coordenação indireta que se baseia em dicas simples capturadas do ambiente e dos outros cupins.

Justin Werfel e seus colegas usaram a estigmergia para projetar algoritmos que refletem o comportamento dos cupins. A seguir, eles implementaram os algoritmos em um conjunto de robôs de construção.

Robôs-cupins constroem sem projetos e sem engenheiros
Os cupins robóticos trabalham com blocos especialmente projetados - as cruzes em cada bloco ajudam os pesquisadores a monitorar o trabalho. [Imagem: Justin Werfel et al./Science]
 
Seguir as regras

Cada robô precisar ter apenas a capacidade de detectar um bloco ou outro robô para fazer seu trabalho, que consiste em capturar um bloco, mover-se seguindo uma matriz, depositar o bloco no próximo espaço livre, e recomeçar.

Embora cada robô seja capaz de seguir apenas algumas regras simples - como colocar um bloco em um espaço vazio ou iniciar uma nova fileira quando um nível ficou pronto - o resultado global é um comportamento inteligente, capaz de construir estruturas definidas pelo usuário.

Assim, em vez das etapas de um projeto, é o número de regras que cada robô conhece que é importante - quanto mais complexa for a estrutura a ser construída, maior será o número de regras que precisarão ser inseridas na programação dos robôs.

Robôs-cupins constroem sem projetos e sem engenheiros
Os pesquisadores parecem ter planos grandiosos para seus cupins robóticos. [Imagem: Justin Werfel et al./Science]
 
Diques contra inundações

Segundo os pesquisadores, o conceito é interessante de um ponto de vista prático porque equipes de robôs com este tipo de controle independente e descentralizado são escalonáveis, ou seja podem ser adicionados tantos robôs quantos forem necessários para a execução de um projeto, sem ter que avisar ninguém - os novos robôs vão simplesmente se juntar ao time e começar a trabalhar.

O oposto também é verdadeiro, já que a perda de membros individuais não vai atrapalhar em nada o trabalho da equipe, tornando o sistema adequado para ambientes perigosos.

"A visão de longo prazo é que equipes de robôs como esta construam estruturas em grande escala para uso humano. Embora ainda tenhamos que percorrer um longo caminho para isso, uma aplicação de curto prazo poderia ser algo como a construção de pilhas de sacos de areia para proteção contra inundações," disse Werfel.


Bibliografia:

Designing Collective Behavior in a Termite-Inspired Robot Construction Team
Justin Werfel, Kirstin Petersen, Radhika Nagpal
Science
Vol.: 343 - PP. 754-758
DOI: 10.1126/science.1245842

quinta-feira, 13 de fevereiro de 2014

A evolução dos ícones ao longo do tempo [infográfico]

Por Fabio Jordão em 11 de Fevereiro de 2014

Acompanhe um pouco da história desses elementos que facilitaram a utilização dos computadores e smartphones


De 1969 até 1980, os sistemas operacionais eram todos muito parecidos, oferecendo algumas funcionalidades em um ambiente todo escuro que mostrava uma série de linha de códigos.

A história da informática teve uma verdadeira guinada em 1981, ano em que a Xerox (sim, a marca que popularizou as fotocópias) lançou o sistema operacional Pilot junto ao computador Xerox Star.

Este foi o primeiro sistema operacional a oferecer uma interface gráfica. Com o uso de um mouse (que também foi lançado primeiramente pela Xerox), o usuário podia realizar tarefas com facilidade, navegando por entre janelas e clicando em ícones que habilitavam funções e abriam programas.



A evolução dos ícones ao longo do tempo [infográfico]Xerox Pilot (Fonte da imagem: Reprodução/White And Noisy)

Apesar de as silhuetas lembrarem levemente os ícones que conhecemos hoje, os gráficos da época eram bem rudimentares e não muito semelhantes aos desenhos de alta qualidade que conhecemos nos atuais computadores. Hoje, vamos ver como foi essa evolução dos ícones, passando por PCs, smartphones e outros aparelhos.

O que é um ícone?

Bom, antes de entrarmos de cabeça na história desses símbolos, vale sabermos do que estamos tratando. Segundo os dicionários, um ícone pode representar muitas coisas, mas na informática ele é um elemento gráfico que representa determinado objeto, função, software ou atalho.

Assim, o ícone não é apenas aquele item na sua Área de trabalho. Ele também está presente nos menus dos programas, no menu do sistema e em quase todos os cantos que você imaginar. A principal função dele é facilitar o reconhecimento visual e deixar a usabilidade geral mais simples.

Formas limitadas e poucas cores

Quando a Xerox lançou o Pilot, os ícones eram quase todos iguais. A maioria servia para criar novos documentos e cada um tinha um texto que indicava a funcionalidade específica. Algo curioso é que o sistema já trazia imagens representativas para a lixeira, a calculadora, a impressora e as pastas. Esses ícones não mudaram quase nada em 33 anos de história.

Em 1983, a Apple lançou o Lisa OS e também disponibilizou seus primeiros ícones. Os itens do sistema da Maçã eram claramente inspirados no sistema da Xerox (observe a lixeira, a pasta e o documento). A interface da Apple era um pouco mais evoluída, mas os elementos ainda eram compostos por duas cores: preta e branca.

A evolução dos ícones ao longo do tempo [infográfico]Apple Lisa (Fonte da imagem: Reprodução/White And Noisy)

Um ano depois, ao lançar o Macintosh System 1.0, a Apple caprichou nos ícones, os quais foram desenhados pela designer Susan Kare. Os elementos gráficos começaram a ter uma cara mais agradável e dar maior noção de suas funcionalidades. Agora, alguns itens tinham tamanhos diferentes e eram mais simpáticos. A resolução, contudo, ainda era limitada.

Assim como a Apple, outras empresas estavam desenvolvendo seus ícones. A Atari resolveu lançar um computador em 1985 que vinha com o sistema Atari TOS. A interface era um pouco rudimentar, mas os ícones foram trabalhados com perspectiva isométrica e davam a noção de profundidade.

Ícones coloridos e desenhos mais complexos

Ainda em 1985, a Amiga lançou seu sistema operacional. O Workbench 1.0 trazia uma série de novos ícones, os quais já tinham quatro cores: azul, laranja, cinza e preto. Além disso, o software da Amiga tinha cursor personalizável e ícones interativos que mudavam de coloração quando ativados.

A evolução dos ícones ao longo do tempo [infográfico]Amiga Workbench 1.0 (Fonte da imagem: Reprodução/White And Noisy)

No mesmo ano, a Microsoft disponibilizou o Windows 1.0. O sistema trazia ícones bem simples e voltava para o velho esquema preto e branco. Conforme nota o site TutsPlus, apesar de ter muita coisa semelhante com outros sistemas, a Microsoft conseguiu alterar alguns elementos gráficos para se diferenciar da Apple.

Um bom avanço no design de ícones aconteceu apenas em 1991, quando surgiu o Macintosh System 7. As representações gráficas ganharam mais pixels e mais cores. Alguns objetos, como a lixeira e a calculadora, não mudaram muito, mas novos ícones apareceram para representar algumas funcionalidades que o sistema trazia.

Finalmente, em 1992, a Microsoft lançou o Windows 3.1 com ícones desenhados por Susan Kare (sim, a designer que trabalhou previamente para a Apple). A artista criou uma série de itens que são muito parecidos com diversos ícones que são usados até hoje.

Três anos depois, a Microsoft chega arrebentando a boca do balão com o Windows 95 e, para garantir a familiaridade, a empresa oferece ícones muito parecidos com aqueles que foram usados na versão anterior. Mais cores, mais isometria e retoques deixam o visual mais moderno. O sistema ainda trouxe um ícone importantíssimo que dá acesso ao Menu Iniciar. Resultado: o Windows 95 foi um sucesso absoluto.

A evolução dos ícones ao longo do tempo [infográfico]Windows 95 (Fonte da imagem: Reprodução/White And Noisy)

Em 1997, a Apple corre atrás do prejuízo e lança o Macintosh OS 8 com novíssimos ícones. Os elementos apresentados buscam mais o formato tridimensional com um pouco de isometria e têm uma paleta de cores com mais contraste. Os itens agora têm sombras e são mais definidos.

A verdadeira revolução dos ícones

Microsoft e Apple lançaram uma série de sistemas até o ano 2000, mas foi em 2001 que as duas tiveram a ideia de dar uma repaginada completa no visual. A primeira foi a Apple com seu Mac OS X, o qual trouxe uma interface bem diferente e uma coleção de ícones incríveis. Com o uso de milhares de cores e maior resolução, o design dos elementos gráficos ficou atraente e muito realista.

A evolução dos ícones ao longo do tempo [infográfico] (Fonte da imagem: Reprodução/uWaterloo)

Alguns meses depois, a Microsoft lançou o tão aclamado Windows XP. O sistema vinha com um visual completamente diferente e, claro, os objetos e atalhos foram todos redesenhados. Os ícones ficaram mais coloridos e simpáticos. Apesar de caprichar nas sombras e na paleta, os elementos da Microsoft não eram tão realistas, mas foi o suficiente para deixar o sistema agradável.

Depois de quase seis anos de sucesso do Windows XP, a Microsoft viu que era hora de atualizar seu sistema. O Windows Vista foi criticado, não tanto por seu visual, mas por conta do desempenho. Apesar dessa questão, não há como negar que a Microsoft fez bonito. Os ícones ficaram realistas e muitos foram espelhados. Alguns foram reaproveitados no Windows 7.

Em 2007, a Apple também resolveu dar alguns retoques em seus ícones. A empresa lançou o Mac OS X Leopard, que veio com itens cromados, reflexivos e alguns efeitos que imitam o efeito de vidro. Não se tratava de um design completamente novo, principalmente porque os objetos já eram muito bonitos anteriormente.

A evolução dos ícones ao longo do tempo [infográfico]Windows 8.1 (Fonte da imagem: Reprodução/White And Noisy)

Para finalizar, em 2012, a Microsoft lança o Windows 8 e, por incrível que pareça, traz alguns ícones básicos para sua nova interface. O visual moderno do sistema é baseado em tiles e conta com elementos simplificados que visam facilitar a compreensão. Apesar disso, o software não abandonou a antiga interface e ícones que são parecidos com os do Windows 7 estão presentes.

Os ícones invadem os celulares

Por volta dos anos 2000, diversos aparelhos celulares começaram a ganhar mais funções além das ligações e mensagens de texto. Com isso, os telefones necessitaram de telas mais versáteis, capazes de exibir elementos mais complexos.

Seja uma simples chave para indicar que o aparelho estava bloqueado ou uma pequena antena para representar o nível de sinal, os celulares começaram a receber ícones dos mais variados tipos que garantiam a simplicidade no uso.

Com o passar do tempo, eles ganharam displays coloridos e mais funções. Aos poucos, as telas já eram semelhantes à de um computador, possibilitando a exibição de papéis de parede e ícones para diversas funções.

A evolução dos ícones ao longo do tempo [infográfico] (Fonte da imagem: Tecmundo/Baixaki)

No entanto, a verdadeira mudança aconteceu em 2007, quando a Apple lançou o iPhone, que trazia um display de alta resolução e ícones que realmente facilitavam a navegação. Não era mais necessário ter textos e explicações no display. Com um ícone muito bonito de tamanho grande, o usuário sabia como acessar a internet e realizar diversas operações no smartphone.

O iPhone também garantiu a chegada de diversos apps ao mundo dos celulares. Logo, navegadores, players de música e outros tantos softwares foram lançados para o smartphone da Apple. Os ícones tiveram papel fundamental nesse sentido, tanto que serviam como propaganda para a empresa divulgar a exclusividade de diversos games e apps.

Logo, Android e Windows Phone chegaram para dividir o mercado. Cada sistema trouxe seus próprios ícones, mas o Android tinha mais semelhanças com o iOS (apesar de não usar bordas e ícones regulares) e o WP7 era bem diferente, sendo inclusive o precursor do estilo do Windows 8. O Windows Phone 8 ainda é o mais alternativo, trazendo elementos chapados e planos.

O ícone obsoleto

É curioso que, no meio de tantos ícones, um em especial nunca foi alterado e hoje ele já não tem mais razão de existir. Estamos falando do ícone da função “Salvar”, que em diversos programas ainda é representado por um disquete.

A verdade é que ele já não tem razão de ser usado desde quando os documentos deixaram de ser salvos exclusivamente em disquetes. Os computadores atuais sequer trazem drives de disquetes, mas, devido ao longo histórico do ícone, ele continua sendo um elemento que serve muito bem para sua representar a função a qual se propõe.

A evolução dos ícones ao longo do tempo [infográfico] (Fonte da imagem: Tecmundo/Baixaki)

Há também uma grande problemática por conta da familiaridade. As pessoas já sabem que o disquete significa salvar, mesmo que esse objeto já não faça mais parte do cotidiano. É difícil substituir esse ícone por outro, pois ele pode confundir as pessoas, ainda mais que há inúmeros locais para salvar um documento: nuvem, pendrive, CD e outros.

Ícones por toda parte

Bom, esse foi um breve histórico dos ícones. É evidente que existem uma infinidade de outros sistemas que foram lançados durante todos esses anos e cada um trouxe diversos elementos gráficos. Além disso, os ícones têm papel fundamental nas interfaces gráficas de video games, smart TVs, Blu-ray players e outros tantos aparelhos.

Vale notar ainda que os ícones deixaram de ser desenhados apenas para sistemas e, hoje, há muitos artistas que esboçam elementos que ficam magníficos em temas e para substituir logos de diversos aplicativos. A história desses itens não acaba aqui e certamente ainda deve sofrer muitas alterações no futuro. O jeito é se acostumar com os novos ícones e continuar usando o bom e velho disquete para salvar tantas mudanças.