sexta-feira, 12 de julho de 2013

Cogumelo faz biocélula produzir eletricidade continuamente

Redação do Site Inovação Tecnológica - 12/07/2013

Cogumelo faz biocélula produzir eletricidade continuamente

A descoberta mereceu a capa de uma publicação científica voltada para a sustentabilidade na química. [Imagem: Wiley-VCH]

 

Energia verde

Há poucos dias, pesquisadores apresentaram uma bateria feita essencialmente de madeira e sal.

Agora, outra equipe encontrou um auxílio inesperado não nas árvores, mas em cogumelos que crescem em árvores.

E a grande vantagem é que eles não construíram uma bateria, mas uma biocélula.

As biocélulas produzem eletricidade de uma forma que é ambientalmente correta e sustentável, tirando proveito do metabolismo de microrganismos.

Em vez dos catalisadores tradicionais - metais nobres como a platina - as biocélulas usam enzimas para otimizar as reações eletroquímicas que geram eletricidade - e essas enzimas podem ser obtidas de fontes renováveis.

 

Biocatalisador

Sabine Sané e Sven Kerzenmacher, da Universidade de Freiburg, na Alemanha, resolveram enfrentar o grande inconveniente das biocélulas - sua vida útil muito curta.

Para isso, eles desenvolveram uma técnica para reabastecer continuamente a biocélula com seu biocatalisador.

O "frentista" desse reabastecimento é o Trametes versicolor, um cogumelo que cresce em árvores e que libera a enzima laccase.

Permitindo que o cogumelo se desenvolva junto ao catodo - o polo positivo da célula microbiana - o catalisador é liberado continuamente exatamente onde ele é necessário para induzir a conversão eletroquímica do oxigênio.

Os experimentos iniciais mostraram que a técnica permite o funcionamento contínuo da biocélula por até 120 dias. Hoje, as biocélulas operam por, no máximo, 14 dias, antes de terem que receber manutenção e um novo suprimento de catalisador.

Os pesquisadores destacam a drástica redução no custo de operação da biocélula, uma vez que a enzima catalisadora é liberada diretamente na célula a combustível, sem nenhum processo de purificação.

O grupo agora pretende testar a aplicação da biocélula autocatalisadora na geração de eletricidade a partir de águas residuais.

 

Bibliografia:
Overcoming Bottlenecks of Enzymatic Biofuel Cell Cathodes: Crude Fungal Culture Supernatant Can Help to Extend Lifetime and Reduce Cost
Sabine Sané, Claude Jolivalt, Gerhard Mittler, Peter J. Nielsen, Stefanie Rubenwolf, Roland Zengerle, Sven Kerzenmacher
ChemSusChem
Vol.: 6, Issue 7, pages 1209-1215, July 2013
DOI: 10.1002/cssc.201300205

quarta-feira, 10 de julho de 2013

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs?

Por Felipe Gugelmin em 8 de Julho de 2013

 

Limitações tecnológicas estão obrigando empresas como AMD e Intel a abandonar o foco em poder bruto para continuar evoluindo seus produtos.

 

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Reprodução/MemeBurn)

Um dos motivos pelos quais o mercado de computadores se mostra intimidante para muitas pessoas é a rápida evolução pela qual ele passa de tempos em tempos. Não é incomum ouvir quem fale que não vale a pena investir na compra de uma máquina top de linha, já que em questão de um mês vai estar disponível no mercado um produto com o dobro da capacidade e o mesmo preço.

Embora em certo momento essa frase até fizesse sentido, não é possível dizer que ela se aplique ao mercado atual. Apesar de fabricantes continuarem investindo no desenvolvimento de novas tecnologias, o ritmo na evolução de CPUs tem sido de somente 10% ao ano — nada comparado aos ganhos anuais de 60% registrados em certo momento da indústria.

O principal responsável por isso é a estagnação da conhecida “Lei de Moore”, que durante muito tempo ditou os avanços do mundo da tecnologia. Após décadas de validade, essa regra finalmente parece ter chegado a seu limite, o que deve obrigar companhias a investir em novos meios de continuar competitivas e de convencer o consumidor a investir em produtos novos.

 

O que é a Lei de Moore?

Cunhada em 1965 por Gordon Moore, cofundador da Intel, a Lei de Moore dita que o número de transistores em um chip tende a dobrar a cada ano — período que foi corrigido para dois anos em 1975. Porém, a forma mais conhecida dessa regra é responsabilidade de David House, um executivo da empresa que afirmou que o tempo de transição correto é de 18 meses.

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Reprodução/MemeBurn)

Na prática, o mercado tem mostrado que produtos com o dobro da capacidade de seus antecessores estão disponíveis aos consumidores a cada 20 meses. Apesar de esse ciclo ter se provado verdadeiro durante vários anos, tudo indica que ele está próximo de terminar, já que estamos cada vez mais perto de alcançar o número-limite de elétrons que podem ser colocados em uma área determinada.

 

Uma lei em crise

“Quando começamos, tínhamos cerca de 1 milhão de elétrons por células... Agora temos somente algumas poucas centenas”, afirma Eli Harari, CEO da Sandisk. Ele admite que esse ciclo não pode continuar para sempre e que não deve demorar muito para que ele seja esgotado. “Não podemos ter menos de um (elétron)”.

Bernie Meyerson, da IBM, concorda com essa afirmação e explica de forma sucinta as regras com as quais a indústria tem que lidar: “1) átomos não são escalonáveis; 2) dispositivos de silício entram no campo da ‘mecânica quântica’ em dimensões de cerca de 7 nanômetros e 3) a luz está se mostrando muito lenta, enquanto os sinais elétricos estão ainda mais lentos”.

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Divulgação/Intel)

O conhecimento de que a Lei de Moore eventualmente será esgotada já faz parte da indústria há mais de uma década. Prova disso é a transição que companhias como a AMD e a Intel fizeram para as arquiteturas baseadas em múltiplos núcleos de processamento a partir do início dos anos 2000, já que investir em CPUs individuais com clocks cada vez maiores estava se mostrando um processo pouco eficiente e bastante propenso ao superaquecimento.

Para tornar mais complicado o trabalho dessas fabricantes, desenvolvedores de software se mostraram capazes de encontrar meios de usar rapidamente toda a potência que era oferecida pelos novos chips. Segundo a Lei de May, a eficiência dos aplicativos diminui pela metade a cada 18 meses — ou seja, toda vez que o poder de processamento era aumentado em 10 vezes, softwares passavam a exigir 10 vezes mais trabalho para funcionar corretamente.

 

Uma questão física

Um dos principais motivos pelos quais a Lei de Moore deve se esgotar em breve está relacionado às propriedades físicas do silício, material utilizado em uma imensa variedade de componentes eletrônicos (daí o termo Vale do Silício). Segundo o físico teórico Michio Kaku, em cerca de 10 anos o poder desse elemento vai ser esgotado completamente.

Segundo Kaku, o problema ocorre em dois campos: calor e vazamento. Ele afirma que, embora atualmente os processadores da Intel possuam uma camada externa de 20 átomos, esse valor não pode ser menor do que 5 átomos, ponto a partir do qual “está tudo terminado”.

 

O físico afirma que, a partir desse estágio, o calor gerado pelo processador será tão intenso que ele vai simplesmente derreter. A outra preocupação do profissional está relacionada ao vazamento de dados, já que, ao lidar com dispositivos com escala tão pequena, seria impossível determinar o posicionamento correto de cada elétron.

Kaku prevê que, embora cientistas provavelmente vão encontrar meios de estender a validade da Lei de Moore, o limite possível já está próximo. Segundo ele, isso vai resultar no investimento em computadores moleculares, que devem ser substituídos no final do século 21 por máquinas quânticas.

 

Broadwell: novo foco para a Intel

A maior prova de que a Lei de Moore não está mais dando os resultados esperados é a própria Intel, empresa cofundada pelo responsável por essa regra. Nos últimos anos, a companhia tem se focado cada vez mais em aprimorar a relação performance por watt de seus produtos, deixando de lado o investimento em poder bruto.

Embora isso possa ser atribuído em partes à ascensão dos mercados de dispositivos portáteis, que exigem pouca quantidade de energia para funcionar, o grande motivador por trás dessa decisão são as limitações físicas que os cientistas da empresa enfrentam.

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Reprodução/Hot Hardware)

A próxima geração de chips produzidos pela companhia, conhecidos pelo codinome Broadwell, são um belo exemplo disso. Tudo indica que os novos processadores não devem apostar em um novo chipset, reaproveitando aquele que já é utilizado pela família de produtos Haswell.

Na prática, as CPUs pertencentes à nova linha devem empregar uma frequência de operação maior e passar a usar formas de 14 nanômetros em sua fabricação. O principal aumento de desempenho deve ser visto na GPU integrada ao novo chip, que deve ganhar ainda mais importância devido ao foco cada vez maior que a empresa está dando ao mercado de dispositivos móveis.

Documentos indicam que o processamento gráfico dos novos componentes deve ser 40% melhor do que aquele apresentado pela linha Haswell. Infelizmente, não há indícios de que a Intel vá começar a dar prioridade ao desenvolvimento de drivers mais eficientes, área na qual a companhia continua a pecar.

Mudança de rumo

Prova de que a Intel está planejando uma mudança de rumo são os indícios de que os produtos da linha Broadwell não devem acompanhar o soquete característico dos dispositivos fabricados pela empresa. Ao que tudo indica, as novas CPUs devem vir soldadas diretamente a placas-mães, o que acaba de vez com a possibilidade de realizar upgrades desse componente.

Embora a decisão deva assustar adeptos dos desktops tradicionais, ela faz bastante sentido para a companhia do ponto de vista comercial. Atualmente, é difícil convencer a maioria dos usuários de computadores tradicionais a investir em um novo processador usando seu poder de fogo como única justificativa — afinal, esse público não costuma fazer atividades que vão além de navegar na internet, assistir a vídeos em baixa definição e usar editores de texto.

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Reprodução/PC World)

Assim, trocar a versatilidade das peças tradicionais por uma arquitetura mais fechada que prioriza a eficiência energética faz bastante sentido. Como no mercado de dispositivos portáteis (que ainda está em expansão) não existe a cultura do “upgrade” de componentes individuais, não faz sentido apostar em tecnologias antiquadas que estão se mostrando pouco atrativas do ponto de vista comercial.

Isso não significa que a companhia deve abandonar o mercado de desktops, que, embora estagnado, continua sendo muito importante para ela. Ao que tudo indica, o que devemos ver é uma evolução mais lenta desse segmento, que passaria a testemunhar o lançamento de novos processadores com soquetes tradicionais em um ritmo mais lento do que o atual.

 

Para onde vamos agora?

O fim iminente do funcionamento da Lei de Moore, mais do que provocar a estagnação da indústria, pode significar uma mudança de rumo muito bem-vinda. Quando se leva em consideração que todo o mundo da tecnologia depende do mesmo elemento (o silício) há mais de 50 anos, é surpreendente termos conseguido avançar tanto.

Entre as soluções que estão sendo desenvolvidas para aumentar o poder bruto de processamento a nosso dispor, está a criação das chamadas “CPUs tridimensionais”. Assim como os seres humanos começaram a “empilhar” casas para economizar espaço (resultando na criação de prédios), empresas apostam no agrupamento de diversos chips como forma de encurtar a distância que uma informação precisa navegar para chegar a seu destino.

 

Já o MIT aposta na substituição de fios tradicionais por um sistema de lasers baseados no elemento germânio (Ge), que usam luzes infravermelhas para transmitir informações. “Conforme processadores ganham mais núcleos e componentes, os fios que os interconectam ficam congestionados e viram a parte fraca do sistema. Estamos usando fótons, em vez de elétrons, para fazer isso de uma forma melhor”, explica o pesquisador Jurgen Michel.

Ao substituir as ligações tradicionais por pequenos espelhos e túneis pelos quais a luz pode ser transmitida, a equipe conseguiu reduzir o consumo elétrico dos processadores e a quantidade de calor gerada por eles. Com o tempo, isso pode resultar na construção de CPUs com frequências surpreendentes que não sofrem com os problemas de superaquecimento vistos em componentes tradicionais.

 

Grafeno: substituto para o silício?

Outras opções envolvem o uso da tecnologia ReRam (conhecida popularmente como memresistores) e o desenvolvimento de chips programáveis, capazes de realizar operações de forma mais especializada. Porém, a maioria das apostas para o futuro da tecnologia se concentra em um elemento conhecido como grafeno.

Lei de Moore: estamos presenciando uma lentidão na evolução das CPUs? (Fonte da imagem: Reprodução/SammyHub)

Constituído por átomos de carbono arranjados em padrões hexagonais, o material se mostra um substituto perfeito para o silício. Entre suas vantagens, estão uma condução elétrica mais eficiente, a possibilidade de utilizá-lo em escala ainda menor e o fato de que ele consome uma quantidade ínfima de energia.

Embora seja conhecido desde a década de 70, somente a partir de 2004 é que as pesquisas do elemento realmente começaram a ser feitas de forma intensa. Infelizmente, o estágio atual de desenvolvimento da tecnologia ainda se mostra bastante rudimentar, o que significa que produzir chips com o material ainda se mostra algo muito dispendioso e um pouco difícil de aplicar em escala comercial — situação que lembra bastante o início dos processadores feitos com silício.

 

Evolução que deve continuar

Mesmo que o potencial da Lei de Moore esteja chegando a seu final, isso não significa que o mundo da tecnologia deva parar de evoluir. Tal como nós rimos de nossos pais e avós que ficavam abismados com o poder dos primeiros computadores e dependiam de disquetes para armazenar dados, nossos filhos e netos provavelmente vão achar estranho o fato de nos surpreendermos com smartphones e ainda dependermos tanto de discos rígidos para armazenar dados.

 

Fonte: MemeBurn, PC World, SemiAccurate, Phys.org, CNET, TechSpot

Criado boneco de metal líquido, tipo Exterminador do Futuro

Redação do Site Inovação Tecnológica - 10/07/2013

Exterminador do Futuro? Criado boneco de metal líquidoA tecnologia de metais líquidos deverá ser útil para conectar componentes eletrônicos em chips 3D. [Imagem: Michael Dickey]

 

Ainda não é nenhum Exterminador do Futuro, mas está pronto o primeiro boneco de metal líquido, que fica de pé, sem se "derramar", a temperatura ambiente.

Como é fácil de prever, o boneco foi construído com a ajuda da técnica de impressão 3D.

"É difícil criar estruturas de líquidos, porque os líquidos gostam de formar gotas. Mas descobrimos que uma liga de metal líquido de gálio e índio reage com o oxigênio do ar a temperatura ambiente para formar uma 'pele', que permite que o metal líquido se estruture para manter suas formas," explicou o Dr. Michael Dickey, da Universidade da Carolina do Sul, nos Estados Unidos.

A equipe de Dickey tem uma longa lista de realização no campo dos metais líquidos, incluindo uma memória biomecatrônica, antenas semilíquidas, fios metálicos que se esticam mais que borracha e até um origami que se dobra automaticamente sob ação da luz.

Só que, desta vez, a ideia veio de um estudante de graduação, que procurou a equipe com a ideia.

Segundo o Dr. Dickey, o projeto não teria sido realizado sem a participação de Collin Ladd: "Ele ajudou a desenvolver o conceito e literalmente criou essa tecnologia juntando peças sobressalentes que ele próprio encontrou."

Será que isso quer dizer que um robô tipo Exterminador do Futuro possa sair de alguma oficina de garagem?

Provavelmente não. E, antes de pensar em fazer robôs morfologicamente ativos, os pesquisadores afirmam que a tecnologia de metais líquidos deverá ser útil para conectar componentes eletrônicos em chips 3D.

Enquanto é relativamente fácil moldar conexões metálicas no plano, estruturas de metal líquido que se mantenham em qualquer posição poderão viabilizar a construção de fios que se moldam para alcançar componentes acima e abaixo.

Bibliografia:
3-D Printing of Free Standing Liquid Metal Microstructures
Collin Ladd, Ju-Hee So, John Muth, Michael D. Dickey
Advanced Materials
Vol.: Article first published online
DOI: 10.1002/adma.201301400

terça-feira, 9 de julho de 2013

Célula solar produz dois elétrons para cada fóton

Redação do Site Inovação Tecnológica - 09/07/2013

Célula solar produz dois elétrons para cada fóton

A aparente mágica foi possível graças a um processo quântico chamado fissão de singletos, que emerge em semicondutores orgânicos. [Imagem: Daniel Congreve et al./Science]

 

Em uma célula solar tradicional, formadas pelas chamadas junções semicondutoras, cada fóton que chega produz um elétron, que é capturado na forma de eletricidade.

Fazendo os cálculos, chega-se ao chamado limite de eficiência de Shockley-Queisser, que estabelece que a eficiência na conversão luz-eletricidade desses componentes nunca passará dos 34% - isso no caso de uma otimização ideal.

Mas Daniel Congreve e seus colegas do MIT, nos Estados Unidos, deram um jeito de superar esse limite.

Eles desenvolveram uma célula solar feita com um um material semicondutor orgânico, chamado pentaceno, que gera não um, mas dois elétrons por fóton incidente.

Com isto, eles obtiveram uma eficiência na geração de energia elétrica acima dos 100%.

Fissão de singletos

A aparente mágica foi possível graças a um processo quântico chamado fissão de singletos, que emerge em alguns semicondutores orgânicos.

Já se sabia que o material usado era capaz de produzir dois excitons a partir de um único fóton - um exciton é um par formado por um elétron e seu correlato positivo, a lacuna.

A grande novidade foi incorporar essa geração de excitons dentro de um componente fotovoltaico, o que o tornou capaz de gerar mais de um elétron por fóton.

Na nova célula solar, a fissão de singletos transforma os fótons singletos, ou excitons, em dois estados tripleto, cada um com metade da energia do estado singleto inicial.

Apesar do esquema "dois elétrons para cada fóton", a eficiência global da célula solar experimental ainda é baixa - menos de 2%.

Isto porque o processo aproveita uma faixa de comprimentos de onda muito estreita, perdendo a maior parte da luz.

Contudo, os pesquisadores se mostraram otimistas em que a fissão de singletos possa ser usada para aumentar a eficiências das células solares orgânicas tradicionais, que podem ser muito baratas, flexíveis e transparentes, mas ainda perdem em rendimento para as tradicionais células solares de silício.

 

Bibliografia:
External Quantum Efficiency Above 100% in a Singlet-Exciton-Fission-Based Organic Photovoltaic Cell
Daniel N. Congreve, Jiye Lee, Nicholas J. Thompson, Eric Hontz, Shane R. Yost, Philip D. Reusswig, Matthias E. Bahlke, Sebastian Reineke, Troy Van Voorhis, Marc A. Baldo
Science
Vol.: 340 no. 6130 pp. 334-337
DOI: 10.1126/science.1232994

segunda-feira, 8 de julho de 2013

Por que os microchips são feitos de silício?

Além de ser um material abundante e relativamente barato, propriedades de semicondutor fazem deste um dos materiais mais eficientes para a composição dos chips.

Por Douglas Ciriaco em 8 de Julho de 2013

Por que os microchips são feitos de silício?Silício, o coração do mundo eletrônico. (Fonte da imagem: Reprodução/Wikimedia Commons)

O silício é considerado o coração do mundo eletrônico, o que não é nenhum exagero. Esse material está presente em praticamente todos os dispositivos do gênero e dá nome inclusive ao local onde se concentram companhias envolvidas no desenvolvimento tecnológico, o Vale do Silício, na Califórnia, Estados Unidos.

Este elemento químico é um semimetal que, à temperatura ambiente, é encontrado em estado sólido. Ele é abundante na natureza e, além de sua presença nos eletrônicos, aparece também na composição de vidro, granito, argila e, é claro, silicone.

Entretanto, você já deve ter se perguntado sobre os motivos que levaram o silício a “triunfar” diante de outros metais e ser o mais usado na fabricação de microchips. Nós vamos responder isso agora e, indo além, vamos falar um pouco sobre alguns materiais apontados como o seu substituto no futuro.

 

Isolante e semicondutor

Em uma resposta rápida, podemos afirmar sem pestanejar: o silício é importante por causa da possibilidade de transformá-lo em um semicondutor. Um semicondutor é responsável por levar energia de forma parcial em um microchip, estando presente em basicamente todos os componentes eletrônicos da atualidade.

Em sua forma pura, o silício é um isolante, contudo, após sofrer um processo chamado de dopagem eletrônica, ele se torna um semicondutor e serve perfeitamente aos propósitos da eletrônica na atualidade. A dopagem consiste em adicionar impurezas metálicas (como índio ou fósforo) a um elemento químico para dar a ele propriedades de semicondução.

Por que os microchips são feitos de silício?Circuito eletrônico. (Fonte da imagem: Reprodução/Wikimedia Commons)

Além disso, nem só de semicondutores vive um microchip, mas também de isolantes. Como o silício pode apresentar ambas as características, dependo apenas da manipulação que sofre no processo de concepção de um chip, seu uso se torna ainda mais indicado para a composição de microchips.

 

Barato e fácil de achar

Indo além das possibilidades apresentadas pelo silício de se tornar um semicondutor competente, outro motivo pelo seu amplo uso na atualidade está na abundância deste material na natureza e na facilidade com que pode ser extraído.

Segundo o site Hyper Physics, aproximadamente 28% da crosta terrestre é composta de silício. E extraí-lo da areia, material no qual ele também é abundante, não é um processo complicado. Além disso, o custo para a fabricação de componentes a partir do silício é outra vantagem apresentada por ele em relação a outros elementos químicos.

 

O futuro dos circuitos eletrônicos

Grafeno

Devido à necessidade do uso de circuitos eletrônicos cada vez menores, o silício pode acabar se tornando um obstáculo. Assim sendo, cientistas do mundo todo procuram alternativas a ele e um dos nomes mais prováveis para substituí-lo é o grafeno.

Quanto menor é um ambiente, mais instáveis se tornam os elétrons — e com o silício não é diferente. O grafeno, material criado a partir do grafite, apresenta propriedades quânticas mais apropriadas para esse tipo de manipulação, apresentando-se como grande candidato a ser o substituto do silício.

Molibdenite

Entretanto, o grafeno não é o único apontado como alternativa ao silício em um futuro breve. Outra opção é o molibdenite, um mineral abundante na natureza com características de semicondução. Isso permite a ele ser eficiente na substituição do silício na criação de circuitos eletrônicos.

Por que os microchips são feitos de silício?Molibdenite é um dos possíveis substitutos do silício. (Fonte da imagem: Reprodução/Wikimedia Commons)

Além de ser menos volumoso, este mineral permite uma eficiência energética 100 mil vezes melhor quando um equipamento está em modo de espera em relação ao silício. Quanto ao próprio grafeno, o molibdenite permite maior movimentação de elétrons e, consequentemente, maior controle sobre o comportamento elétrico do circuito.

Siliceno

Uma placa de um átomo de espessura feita a partir do silício pode ser também a saída para o futuro (ou seja, não é de fato uma alternativa ao semimetal). Naturalmente, o silício não tem propriedades que permitem a ele ser transformado em uma placa assim, mas nesse caso ele é manipulado junto com cerâmica e prata.

O siliceno já começou a dar seus primeiros passos em laboratórios universitários no último ano, mas ainda não passou das linhas de pesquisa. Assim como o molibdenite, é provável que demore muito para que um circuito composto com siliceno chegue ao mercado.

Háfnio

O háfnio é um material que já foi usado pela Intel como componente básico na construção de paredes dielétricas de transístores de um de seus processadores. No início de 2007, a companhia anunciou que o uso deste material permitiria a criação de microchips menores e mais rápidos.

Ainda em 2007, a Intel investiu US$ 3 bilhões em uma fábrica para a manufatura de um grande volume de microprocessadores de 45 nanômetros usando o háfnio. A empresa mantém uma página especial em seu site na qual exibe informações mais detalhadas sobre o seu trabalho com este material.

Fonte: How It Works, CCMR, Hyper Phisics, New York Times, Intel

Brasil desenvolve tecnologia inédita para fabricar fibra de carbono

Com informações da Agência Brasil - 08/07/2013

Brasil desenvolve tecnologia inédita para fabricar fibra de carbono

A grande novidade da pesquisa brasileira é a matéria-prima usada para obter as fibras de carbono, o piche de petróleo, o resíduo do processamento do óleo, praticamente sem valor comercial.[Imagem: Agência Brasil]
 
 
O Brasil desenvolveu uma tecnologia inédita com fibra de carbono, mais barata e tão resistente quanto às comercializadas no mercado internacional.

A pesquisa foi desenvolvida pelo Exército Brasileiro em parceria com a Petrobras.

Muito usada na indústria da aeronáutica e automobilística a fibra de carbono diminui o peso dos materiais sem perder a resistência.

Mas a grande novidade da pesquisa brasileira é a matéria-prima usada para obter as fibras de carbono - o piche de petróleo.

A fibra de carbono de piche já é produzida comercialmente no Japão e nos EUA, mas a partir do piche de alcatrão ou sintético (substâncias químicas puras), e com o preço de comercialização variando entre US$ 50 e US$ 1 mil o quilograma.

O alto custo faz com que o material, que substitui sobretudo o aço e alumínio, seja mais usado em veículos de luxo, carros de Fórmula-1, aviões e foguetes.

De acordo com o gerente do Projeto Carbono, do Centro Tecnológico do Exército (CTEx), Major Alexandre Taschetto, a vantagem da invenção brasileira é que os derivados do petróleo - ou "fundo do barril de petróleo" - não têm mercado significativo, o que ajuda a baratear a fibra de carbono brasileira e viabilizar o uso em larga escala.

"Avaliamos que a fibra de carbono de piche de petróleo brasileira pode custar entre US$ 10 a US$ 15 por quilo. A indústria automobilística avalia que, se o custo da fibra estiver abaixo de US$15 por quilo, já compensa substituir o aço por fibra em maiores quantidades", explicou o major.

Taschetto explicou ainda que, para o Exército, a nova tecnologia também é muito útil na fabricação de materiais mais leves para os soldados, "desde equipamentos individuais, como capacete, armamento leve, como pistola e fuzil, até armamento pesado, como metralhadora, morteiro, além de peças para viaturas mais leves".

A produção em escala industrial do material ainda está em estudos pela Petrobras.
O produto produzido em escala semi-industrial será apresentado no Congresso Mundial de Pesquisadores da Área de Carbono (Carbon 2013), entre os dias 15 e 19 de julho, no Rio de Janeiro.

Computadores quânticos já são realidade, admitem cientistas

Redação do Site Inovação Tecnológica - 08/07/2013

Computadores quânticos já são realidade, admitem cientistas
Atualmente, a D-Wave já vende sistemas equipados com a versão 2.0 do seu processador quântico, chamado Vesuvius, que possui 512 qubits. [Imagem: D-Wave]


Como sempre acontece, os mais puristas estão tendo que ceder às evidências experimentais.
Mais um estudo independente concluiu que o processador da D-Wave realmente opera com base em fundamentos da mecânica quântica.
Ou seja, os computadores quânticos deixaram de ser uma promessa futurística e se tornaram realidade, já podendo ser comprados no mercado.
Quando a empresa canadense lançou o D-Wave One, anunciando-o como o primeiro computador quântico a chegar ao mercado, vários físicos afirmaram que um processador quântico usando qubits codificados magneticamente em loops supercondutores estava em algum ponto numa escala que ia de uma impossibilidade a um engodo.
Quando a máquina começou a funcionar, outros mais cautelosos afirmaram que a arquitetura do processador era interessante, mas não dependia de fenômenos quânticos.


Recozimento quântico

Diferentemente dos experimentos realizados em computação quântica pelos cientistas acadêmicos, o processador da D-Wave usa uma abordagem conhecida como adiabática, explorando um mecanismo chamado termalização quântica (ou recozimento quântico, do inglês quantum annealing).
Ele foi construído com as mesmas técnicas empregadas na fabricação dos processadores eletrônicos tradicionais, mas usa bobinas de nióbio supercondutoras, em vez de semicondutores.
Agora, uma equipe da Universidade do Sul da Califórnia, nos Estados Unidos, atestou que a mecânica quântica desempenha um papel essencial no funcionamento da parte quântica do chip.
Em 2011, uma equipe da universidade canadense da Colúmbia Britânica já havia igualmente concluído que o processador quântico da D-Wave é realmente quântico.

"Usando um problema teste específico, envolvendo oito qubits, verificamos que o processador D-Wave realiza cálculos de otimização, isto é, encontra as soluções de menor energia, utilizando um procedimento que é consistente com o recozimento quântico e é inconsistente com as previsões do recozimento clássico," disse Daniel Lidar, coordenador da equipe que realizou a avaliação.


Computadores quânticos já são realidade, admitem cientistas
Esquema do qubit do processador quântico adiabático, formado por uma bobina supercondutora de nióbio. As setas indicam os estados de spin que codificam as informações como 0 e 1 - ao contrário dos computadores eletrônicos, esses dois valores podem existir ao mesmo tempo no qubit. [Imagem: D-Wave]
 
 
Processador quântico D-Wave

O processador da D-Wave é híbrido. Ele é capaz de executar cálculos seguindo algoritmos quânticos, mas também executa o processamento clássico dos computadores tradicionais.
O teste concentrou-se em um subconjunto do processador formado por 128 qubits, dos quais 108 são funcionais, ou seja, disponíveis para cálculos.
A avaliação foi feita no modelo original do computador, que está instalado na própria universidade.
Atualmente, a D-Wave já vende sistemas equipados com a versão 2.0 do seu processador quântico, chamado Vesuvius, que possui 512 qubits. A equipe planeja agora testar o novo chip.
Tanto a NASA, quanto o Google, já têm planos de usar o computador quântico D-Wave, que já resolveu problemas do enovelamento de proteínas e já enfrentou um PC cara a cara, vencendo fácil: