sábado, 17 de dezembro de 2011

Por que celulares e tablets não precisam de cooler?

Por Jonathan D. Machado, 25 de Novembro de 2011

Entenda por que os aparelhos portáteis são tão úteis quanto os computadores de mesa e, mesmo assim, não têm qualquer cooler interno.

Há tempos que smartphones e tablets deixaram de ser itens de luxo para se tornarem aparelhos indispensáveis para muitos brasileiros, e não por acaso. Afinal, estes gadgets podem ser tão úteis quanto notebooks e computadores de mesa, com um bom poder de processamento e dezenas de sensores que os tornam verdadeiros canivetes suíços digitais.

Smartphones modernos são como computadores portáteis, mas sem cooler (Fonte da imagem: Divulgação Samsung)

 

Apesar de toda essa tecnologia que cabe no bolso, um detalhe sobre esses gadgets passa despercebido para muitos usuários: você não vê nenhuma ventoinha neles, diferente do que acontece com seus primos maiores.

O Tecmundo preparou esta matéria que vai ajudar você a entender melhor o motivo de não haver aberturas por onde o ar quente é soprado para fora nos tablets e smartphones. Confira!

 

Energia gera calor

Para entender os motivos da eficiência na manutenção da temperatura dos portáteis, primeiro precisamos entender o que faz os computadores maiores precisarem de tantos coolers. A primeira diferença notada entre os dois mundos é o espaço que eles ocupam. Claro, não é o tamanho maior que faz os desktops serem mais quentes, mas você logo verá que a relação é bastante grande.

Desktops e a maioria dos notebooks ainda são muito dependentes de componentes mecânicos para operar, como leitores de CD e discos rígidos que têm várias partes móveis. Diferente de circuitos eletrônicos, a miniaturização de mecanismos físicos é muito mais difícil, fazendo o patamar mínimo para o tamanho deles ser bem mais alto. Tablets e smartphones confiam apenas em circuitos puramente eletrônicos para quase todas as suas funções.

Interior de um HD (Fonte da imagem: Divulgação Samsung)

 

Movimentar partes móveis é um trabalho energeticamente custoso, o que explica o tamanho maior de um dos componentes que mais gera calor nos computadores: fontes de energia. As fontes de alimentação são as responsáveis por modular a corrente alternada da tomada e transformá-las nas diferentes correntes contínuas que alimentam os componentes do computador.

Quanto maior a variabilidade e exigência energética dos componentes, mais capacitores, transistores e mosfets a fonte precisa, todos gerando sua própria parcela de calor. Em suma, é possível afirmar que o primeiro motivo que faz os desktops e notebooks ficarem mais quentes é a maior quantidade de energia correndo dentro deles.

Assim como nas CPUs, todas as fontes precisam de ventoinhas (Fonte da imagem: Divulgação XFX)

 

Nos portáteis, a fonte está quase completamente ausente, já que são alimentados por baterias que armazenam a energia na tensão e modulação certa. A necessidade de uma fonte que fica entre o gadget e a tomada da parede ainda existe para os momentos em que o aparelho é carregado, apesar de ser totalmente externa.

É importante notar também que, quanto mais difícil for fabricar um componente, mais caro ele fica. Por isso, os fabricantes não investem tanto na miniaturização e eficiência energética de notebooks e, principalmente, desktops, porque essa não é uma necessidade primária para o mercado.

 

Arquitetura diferenciada

Outro motivo que faz os gadgets exigirem menos energia para operar é a arquitetura mais especializada. Notebooks e desktops são feitos para serem robustos e altamente escalonáveis, sempre tentando manter a compatibilidade com o maior número de componentes possíveis.

Placa-mãe de um desktop (direita) comparada à de um iPad

 

Isso é ainda mais evidente em computadores mais “hardcore”, com placa-mãe com mais de dez conectores USB, meia dúzia de SATAs, duas interfaces de rede, várias PCIs, slots de memória extra e muitos outros conectores. Manter suporte a todos estes equipamentos também aumenta o fluxo de energia entre as placas e chips controladores, contribuindo para o calor interno.

Já os tablets são altamente focados e não são projetados para dar suporte a quase nenhum componente extra além do que já está encaixado na placa principal. Dessa forma, os fabricantes podem limitar os tablets e smartphones a terem apenas uma motherboard que já inclui o processador, a memória RAM e demais controladores.

System-on-a-chip TEGRA3: CPU, GPU, ponte norte, ponte sul e controlador de memória (Fonte da imagem: Divulgação NVIDIA)

 

Toda essa especialização e controle sobre os diferentes componentes do gadget é um prato cheio para a prática de se unir o maior número possível de controladores dentro de um único circuito integrado, os chamados system on a chip. Novamente, reduzir o número de CIs diminui o consumo energético e, consequentemente, a produção de calor.

 

Menores e mais eficientes

Por último, mas não menos importante, está o fato de que a exigência de processamento para os dispositivos móveis é muito menor. Por mais poderoso que um iPad ou tablet com a última versão do Android possa parecer, dificilmente ele poderia rodar (tranquilamente) um aplicativo do nível do Microsoft Word 2010, com todas as suas centenas de ferramentas e dependências.

Afinal, gadgets portáteis são destinados para aplicações portáteis, com poucas informações aparecendo simultaneamente em uma tela bem menor do que a de um notebook ou desktop. Somando isso ao fato de que o sistema operacional também é mais simplificado, o resultado é um desempenho satisfatório mesmo com o hardware menos poderoso.

Outro fator que diminui muito a produção de calor é a arquitetura do componente que normalmente é o que mais esquenta: o processador. As CPUs dos tablets são feitas para abranger o maior número possível de funções com o mínimo de transístores, o que contribui muito para a economia de energia.

A baixa emissão de calor de todos estes componentes modernos permite que apenas dissipadores passivos sejam o suficiente para arrefecer o aparelho, eliminando a necessidade de ventoinhas mecânicas.

 

A bateria agradece

Perceba que quase todas as vantagens dos tablets e smartphones que foram citadas até agora receberam ênfase primária em sua eficiência energética, depois no calor gerado. Essa abordagem não ocorreu por acaso, afinal, quanto menos energia ele consumir, mais tempo vai durar a bateria do gadget, além de mantê-lo frio por mais tempo.

Placa principal de um iPad (Fonte da imagem: Divulgação BricoJapan)

 

Tamanha é a preocupação com o consumo de energia dos portáteis que os fabricantes têm optado em usar apenas componentes de alta eficiência não só em processadores e unidades de armazenamento, mas no aparelho como um todo. Basta olhar novamente para a placa principal do iPad (acima) para perceber que capacitores de alumínio (aqueles redondos) deram lugar a alguns poucos capacitores de tântalo e muitos microchips de silício.

Além disso, as próprias ventoinhas são componentes mecânicos que precisam consumir energia para funcionar, consequentemente, o próprio dispositivo usado para arrefecer o aparelho é um agente que contribuí com o calor, algo completamente indesejado.

Fonte: Tecmundo

O2 Pursuit: moto que funciona com ar comprimido passa fácil dos 100 km/h

Por Nilton Kleina, 16 de Dezembro de 2011

Veículo é potente e aposta em energia limpa para conquistar aventureiros.

(Fonte da imagem: TwoWheelsBlog)

 

Enquanto todos os veículos por aí funcionam com álcool, gasolina, hidrogênio ou eletricidade, a moto O2 Pursuit é única. Movida a ar comprimido, ela é uma das grandes apostas para o mercado no futuro – e não fica atrás em desempenho de muito veículo que despeja carbono por aí.

A motocicleta tem um design bastante simples e sem muitos detalhes. O veículo é capaz de atingir até 140 km/h e tem um tanque com capacidade para 18 litros para armazenar o ar. Como o projeto inicial foi feito por um estudante de design da RMIT University, o chassi é baseado em um modelo já existente, no caso a Yamaha WR250F.

De acordo com o TwoWheelsBlog, um protótipo foi apresentado em 2010 e venceu oMelbourne Design Award. Agora, a Benstead está produzindo um modelo para a prática de off-road (trajetos sem alfato e com obstáculos naturais), mas ainda está fazendo testes e não pensa em produzi-las em larga escala por enquanto.

Fonte: Tecmundo

sexta-feira, 16 de dezembro de 2011

Óculos convencionais podem ser transformados em telas de vídeo

Por Douglas Ciriaco, 15 de Dezembro de 2011

Dispositivo recebe sinais de vídeo de iPhone e permite reprodução HD em óculos normais.

Lumus tranforma óculos em telas de vídeo em HD. (Fonte da imagem: TechCrunch)

 

A Lumus apresentou nesta semana um dispositivo que transforma óculos convencionais em telas para projeção de vídeos em alta definição. O aparelho vai acoplado na lateral das lentes e está conectado a um iPhone. Assim, ele recebe e transmite o sinal enviado pelo smartphone para exibir um vídeo de até 720p.

De forma resumida, o que o dispositivo faz é enviar e refratar a luz das lentes, oferecendo uma experiência mais luminosa e alinhada. Conforme relato publicado no TechCrunch por um redator que teve contato com os óculos, a experiência é impressionante, pois cada uma das telas trabalha de forma independente, permitindo exibições em 3D em alta definição. Tudo isso sem prejudicar as lentes, através das quais ainda é possível enxergar.

Visualmente falando, a parte inconveniente fica pelos dispositivos nada discretos que a invenção adiciona aos óculos. Reduzir o tamanho dos receptores e, quem sabe, trabalhar em um método para recebimento de dados sem fio podem ser os próximos desafios para melhor ainda mais este ótimo trabalho da Lumus.

Além disso, a fabricante pretende dar novos usos ao aparelho, indo além da transmissão de vídeos. Um dos objetivos é aprimorar o dispositivo para navegação de GPS para motoristas. O aparelho deve ser apresentado na Consumer Electronics Show (CES) do próximo ano.

 

Fonte: Tecmundo

quinta-feira, 15 de dezembro de 2011

Ciência corre para encontrar substituto do silício

Por The New York Times, 15/12/2011 - 08h53

Califórnia - Num bagunçado laboratório de produção de chips no campus de Stanford, Max Shulaker está produzindo à mão os menores circuitos de computador do mundo.

Shulaker, estudante de engenharia elétrica, está ajudando a abrir o caminho de um extraordinário processo de manufatura personalizado: fazer protótipos de um novo tipo de circuito semicondutor que um dia pode vir a ser a base dos supercomputadores mais rápidos do mundo _ sem mencionar os menores e mais econômicos eletrônicos.

 

Se a nova tecnologia se mostrar factível, vai impedir uma crise que ameaça deter mais de cinco décadas de progresso dos fabricantes de chips, que agora podem produzir rotineiramente circuitos menores do que um comprimento de onda de luz para criar computadores ainda mais poderosos.

Acontece que até as ondas de luz têm limites. Numa indústria famosa por invenções radicais e engenhosas, os projetistas têm a urgência premente de achar novas formas para fazer circuitos menores, mais velozes e baratos.

Neste ano a Intel, a maior fabricante mundial de chips, apresentou o transistor 3D que empurra um pilar fino da superfície do silício, num esforço para acomodar bilhões de chaves minúsculas num único microprocessador.

Essa abordagem é controversa; o desafio não é apenas espremer mais chaves, mas fazê-las ligar e desligar de forma rápida e limpa, e muita gente do setor acredita haver meios menos drásticos de conseguir isso.

E seja qual for a abordagem que se mostrar mais eficiente, existe um consenso crescente entre engenheiros e executivos da indústria de que os dias do silício estão contados. Surge no horizonte um universo de fabricação ainda menor, os nanoeletrônicos, que será caracterizado pela capacidade de construir circuitos em escala molecular.

Assim, em universidades e laboratórios empresariais do mundo inteiro, os pesquisadores estão tentando desenvolver a próxima geração das tecnologias de produção de chips.

Shulaker é membro do Robust Systems Group, em Stanford, liderado por Subhasish Mitra, ex-engenheiro da Intel. A nova chave que ele e outros pesquisadores estudantes estão fazendo se chama transistores de efeito de campo de nanotubo de carbono (CNFET, na sigla em inglês).

Para produzir os protótipos de chave, Shulaker primeiro faz crescer quimicamente bilhões de nanotubos de carbono _ cada um com espessura de 12 átomos _ numa superfície de quartzo. Ele os cobre com uma película ultrafina de ouro e depois usa um pedaço de fita _ feito um removedor de bolinhas de roupa _ para coletá-los manualmente e transferi-los suavemente a uma bolacha de silício.

A diferença é que, pela primeira vez, os circuitos não são gravados com ondas de luz; em vez disso, ao menos em parte, eles se "automontam". Os fios ultrafinos feitos com nanotubos de carbono são fixados por meio de um processo químico que é a primeira etapa para produzir um circuito de computador.

O resultado são nanocircuitos muito menores, que usam muito menos energia que os circuitos de computador mais avançados de hoje em dia, feitos com silício.

Com o método de gravação por luz, a menor parte de um semicondutor tem atualmente 32 nanômetros, e a nanotecnologia é uma abordagem em que tanto a Intel quanto a IBM depositam altas esperanças quando as peças do semicondutor tiverem sete nanômetros _ o que já pode acontecer em 2017.

"Estamos explorando isso muito a sério", disse Supratik Guha, diretor de ciência física do laboratório de pesquisa Thomas J. Watson da IBM. "Sentimos que, conseguindo colocar nanotubos de carbono a poucos nanômetros de distância, eles terão um desempenho superior ao silício."

A ideia de reduzir circuitos eletrônicos remonta pelo menos a 1960, quando um jovem engenheiro elétrico chamado Douglas Engelbart falou numa conferência sobre rádio e técnica eletrônica na Filadélfia. Engelbart teve a ideia de que reduzir o circuito básico dos primeiros computadores digitais poderia levar a uma redução drástica de energia.

"Rapaz, teremos algumas surpresas por aí", ele disse à plateia.

A declaração se revelou um juízo modesto.

Uma década depois, Gordon Moore, então químico da Fairchild Semiconductor, formalizou a capacidade de uma nova técnica chamada fotolitografia para reduzir componentes, dizendo que ela poderia ser feita a intervalos regulares e prevendo que o método seria exponencial _ dobrando o número de transistores que poderiam ser colocados num microchip todo ano.

A Lei de Moore, como veio a ser chamada, só era um pouco otimista: a duplicação se deu a cada 18 meses, mais ou menos, durante quase cinco décadas. Hoje em dia, vários bilhões de transistores podem caber num único chip, e a resultante era dos microeletrônicos transformou o mundo, estendendo-se virtualmente a todo aspecto da existência humana _ dos agricultores de subsistência africanos que agora podem receber os preços do mercado por mensagem de texto aos supercomputadores capazes de simular explosões nucleares e prever mudanças climáticas.

Só que, a cada nova geração de tecnologia, os obstáculos se tornaram mais imponentes e o custo para suplantá-los está subindo, não caindo. Por exemplo, a Taiwan Semiconductor Manufacturing Company, um dos maiores fabricantes de chips do mundo, espera gastar quase US$ 10 bilhões em sua nova fábrica.

Além disso, à medida que os circuitos de computador CMOS padrão acolhem mais e mais transistores, eles costumam deixar eletricidade vazar, gerando calor em excesso.

Os sinais de alerta começaram há uma década, quando Patrick P. Gelsinger, então diretor de tecnologia da Intel, avisou que, se a tendência continuasse, os chips com microprocessadores chegariam à temperatura da superfície do Sol em 2011. Para impedir isso, a empresa deu a chamada "guinada rápida para a direita", ganhando velocidade ao acrescentar recursos paralelos em vez de aumentar a velocidade de clock dos chips.

Todavia, mesmo essa abordagem tem limites. Neste ano, pesquisadores da Universidade de Washington e a Microsoft alertaram sobre o que chamaram de "silício negro". Com tantos processadores num único chip, fica impraticável fornecer energia para todos eles ao mesmo tempo. Assim, alguns transistores ficam sem energia _ "negros", no jargão do setor.

Os novos limites são particularmente intimidadores para projetistas de supercomputadores, que estão buscando construir um sistema em "escala exa" _ mil vezes a velocidade dos computadores mais velozes de hoje em dia _ até 2019. Usando componentes de hoje, isso exigiria de dez milhões a cem milhões de processadores _ comparados a quase um milhão agora _ e consumiria mais de um bilhão de watts.

Na conferência anual de supercomputação em Seattle, no mês passado, Jen-Hsun Huang, CEO da Nvidia, fabricante de chips de aceleração gráfica usados em videogames e computadores, alertou para o fato de que, enquanto o desempenho da supercomputação melhorou um milhão de vezes nas duas últimas décadas, a energia necessária para usar um computador havia aumentando apenas 40 vezes.

Essa taxa de crescimento havia sido prevista por Robert H. Dennard, engenheiro elétrico da IBM que inventou o chip de memória de acesso aleatório dinâmico (DRAM). Contudo, diante do problema crescente de vazamento de eletricidade, o grande benefício, que oferecia um aumento de desempenho constante de oito vezes por watt, chegou a seu limite.

"O impacto dessa pequena análise é dramático ao longo do tempo", disse Huang. "É fundamental para nossa indústria _ é a nossa gravidade."

A empresa de Huang, que começou no Vale do Silício fazendo placas de vídeo para videogames 3D e recentemente começou a oferecer um programa para otimizar processadores em aplicações científicas e de engenharia, reflete tendências amplas na indústria do computador.

Até a década de 1990, os sistemas de computação de ponta começaram como aplicações militares e corporativas. Desde então, a tecnologia foi cada vez mais levada de baixo para cima. A enorme economia de escala oferecida por produtos eletrônicos de consumo determinou que vários dos supercomputadores mais velozes fossem agora construídos com componentes criados para consumidores finais.

Na conferência de supercomputação deste ano, por exemplo, pesquisadores do Centro de Supercomputação de Barcelona, Espanha, anunciaram que estavam planejando um sistema baseado num novo chip da Nvidia que combina processadores gráficos com o microprocessador ARM largamente usado em smartphones.

Todavia, combinar processadores gráficos, microprocessadores e outros componentes em chips integrados é só um tapa-buraco. Segundo especialistas, dentro de poucos anos, os transistores CMOS convencionais não terão mais capacidade de serem reduzidos no ritmo da Lei de Moore.

Aqui em Stanford, Mitra afirma que um sistema baseado em nanotubos de carbono pode superar em grande medida a atual tecnologia de transistor 3D da Intel. Na verdade, talvez seja possível empilhar várias camadas dessas chaves de carbono, criando circuitos tridimensionais de verdade.

Só que ele reconhece que a tecnologia do nanotubo de carbono "ainda tem seus problemas".

Outras tecnologias também podem ser concorrentes na loteria dos nanoeletrônicos.

Pesquisadores do HP Labs disseram que estão perto de comercializar uma nova tecnologia de semicondutor baseada num elemento de circuito chamado "memristor", que pode substituir transistores, inicialmente num chip de memória que pode oferecer uma alternativa às memórias Flash e DRAM.

Os pesquisadores haviam anunciado no periódico "The Proceedings of the National Academy of Sciences" que haviam inventado um novo método para armazenar e recuperar informações de um amplo conjunto tridimensional de memristores. Potencialmente, o esquema poderia liberar os projetistas para empilhar milhares de chaves em muitos andares, permitindo uma nova classe de equipamentos de computação ultradensos mesmo depois que a redução bidimensional chegar aos limites fundamentais.

Durante uma palestra recente em Stanford, Stan Williams, físico que está comandando os trabalhos da HP, afirmou que o grupo estava se concentrando num novo tipo de material semicondutor, o dióxido de titânio, que poderia rivalizar com o silício.

"Basta dizer que não é um futuro longínquo. Isso não vai demorar nem dez anos."

Williams afirmou que o memristor poderia ter significativas vantagens de tamanho e energia em relação aos transistores convencionais usados em equipamentos lógicos, como microprocessadores, que precisam estar sempre energizados para manter a informação. Em contraste, a tecnologia da HP não é volátil _ é necessário aplicar energia para mudar o estado da chave e ler seu valor.

Além disso, a exemplo do nanotubo de carbono, ele se presta a estruturas tridimensionais.

"A comunidade está correndo atrás disso há 30 anos."

Fonte: Info

Acenda a luz em vez de trocar a bateria

Redação do Site Inovação Tecnológica - 15/12/2011

Acenda a luz em vez de trocar a bateria

O material biocompatível pode ser implantado, gerando energia para recarregar as baterias de implantes médicos. [Imagem: Miyako et al./Wiley]

 

Energia através da pele

Marca-passos, desfibriladores e outros implantes médicos precisam de energia para funcionar.

Mas eles precisam ter suas bateriastrocadas periodicamente, o que exige novas cirurgias, com todos os riscos associados.

Agora, cientistas japoneses criaram um conversor de energia implantável que produz eletricidade ao ser iluminado pela luz de um laser.

Segundo Eijiro Miyako, do Instituto de Tecnologias Industriais Avançadas do Japão, o laser de baixa potência pode ser disparado através da pele com total segurança.

Esse procedimento, não-invasivo e sem riscos para o paciente, pode ser feito tão logo haja sinais de que as baterias dos implantes médicos precisem de uma recarga.

 

Geração de energia pelo corpo

Os marca-passos não são os únicos equipamentos bioeletrônicos em uso.

Há também os chamados "marca-passos da dor", que aliviam dores crônicas, neuroestimuladores para enviar sinais diretamente para a medula óssea e bombas para liberação automática de medicamentos, incluindo insulina para diabéticos.

E há muitos mais em desenvolvimento, um trabalho frequentemente limitado pela durabilidade das baterias.

Há uma convenção tácita de que as baterias dos implantes médicos devam durar pelo menos 10 anos, o que, por sua vez, limita a funcionalidade e o desempenho desses implantes.

Há alternativas às baterias, como biocélulas que produzem energia a partir da glicose do corpo, dínamos acionados pelos músculos e até eletricidade sem fios.

Mas nenhuma delas é tão prática e controlável quanto o novo conversor acionado por laser.

 

Luz, calor e eletricidade

O conversor é composto por nanotubos de carbono incorporados em uma matriz de silicone. Os nanotubos absorvem a luz do laser, convertendo-a para calor.

Esse calor é então usado para gerar eletricidade por meio do efeito Seebeck: em um circuito elétrico feito com dois condutores diferentes, uma diferença de temperatura entre os dois gera uma pequena corrente elétrica.

Como somente a parte do dispositivo que é iluminada pelo laser se aquece, gera-se a necessária diferença de temperatura.

Como os nanotubos de carbono absorvem bem a luz no comprimento de onda que consegue atravessar a pele, o dispositivo não precisa ter mais do que meio centímetro, o que viabiliza seu implante sob a pele.

Bibliografia:
A Photo-Thermal-Electrical Converter Based On Carbon Nanotubes for Bioelectronic Applications
Eijiro Miyako, Chie Hosokawa, Masami Kojima, Masako Yudasaka, Ryoji Funahashi, Isao Oishi, Yoshihisa Hagihara, Mototada Shichiri, Mizuki Takashima, Keiko Nishio, Yasukazu Yoshida
Angewandte Chemie International Edition
Vol.: 50, 1 - 6
DOI: 10.1002/anie.201106136

Fonte:

quarta-feira, 14 de dezembro de 2011

Sua internet pode ficar mais barata

Por Durval Ramos Junior, 14 de Dezembro de 2011

Deputados sugerem redução dos impostos na internet banda larga brasileira. Medida pretende popularizar acesso à rede no país.

 

 

A internet pode ficar mais barata no Brasil. Ao menos é essa a sugestão feita pelos deputados da Câmara que participam da subcomissão do Programa Nacional de Banda Larga (PNBL) como forma de universalizar o acesso à rede. Segundo eles, isso pode ser possível caso os impostos sobre a conexão sejam reduzidos, o que seria refletido no valor final que chega ao consumidor.

 

De acordo com o relatório apresentado pelo parlamentar Newton Lima (PT-SP), outra medida para baratear o custo da internet de alta velocidade no país é usar verba do Fundo de Universalização das Telecomunicações para custear as operações. Ele também sugere que o Fórum Brasil Conectado seja ressuscitado para que Estado e empresas de telecomunicação encontrem formas de expandir o acesso à rede nas cinco regiões brasileiras.

Fonte: Tecmundo

Conheça quatro mitos sobre o funcionamento do cérebro humano

Andrew Luck-Baker, Da Rádio 4 da BBC,  11/11/2011 - 07:34 (Brasília) 09:34 GMT
Cérebo. SPL
'Usamos muito mais do que 10% do cérebro', diz especialista
O cérebro humano é um dos organismos mais complexos do universo e apesar dos esforços dos cientistas, a massa cinzenta que habita nossas cabeças ainda guarda muitos mistérios.
Nos parágrafos a seguir, especialistas ouvidos pela BBC tentam, porém, romper com alguns mitos e inverdades a respeito do cérebro humano e do seu funcionamento.
 

"Usamos apenas 10% de nosso cérebro"

Foi na década de 1970, quando estava na escola, que ouvi dizer, pela primeira vez, que nós usamos apenas 10% dos nossos cérebros.
"Que incrível", pensei. "Talvez haja uma maneira de conseguir acessar aqueles 90% de capacidade cerebral não utilizada. E o que não poderia ser feito com toda a minha massa cinzenta em ação?"
A ideia é absurda. Hoje, avanços em técnicas de mapeamento da atividade cerebral podem provar isso.
"(Exames) funcionais de imagem demonstraram que há poucas partes do cérebro que não podem ser ativadas por algo", disse a professora Sophie Scott, do Institute of Cognitive Science do University College, London.
Mesmo fazendo algo simples, como fechando nossas mãos, usamos muito mais do que 10% do cérebro. Um exame funcional revela que vastas quantidades de células do cérebro entram em ação enquanto planejam e iniciam a contração dos músculos nos dedos e na palma.
 

"O cérebro tem um lado 'lógico' e um lado 'criativo'"

Anatomicamente, o cérebro está dividido em duas metades - o hemisfério esquerdo e o direito. Existe uma certa divisão de trabalho entre elas.
"Existem grandes diferenças entre os lados esquerdo e direito do cérebro", diz Scott.
"Mas não é o que as pessoas querem dizer quando usam esses termos no discurso comum".
Lendo livros de auto-ajuda e cursos de administração de empresas, você fica com uma noção de que os dois hemisférios são entidades separadas.
O esquerdo tende a ser mostrado como a morada da lógica e da racionalidade. O direito tende a ser descrito como a fonte da intuição e da criatividade. Portanto, se você é uma pessoa lógica, usa mais o lado esquerdo. Se você é do tipo sensível e artístico, usa mais o lado direito.
De acordo com o mito, todos nós seríamos mais bem sucedidos e realizados se aprendêssemos a explorar o potencial total de ambos os hemisférios.
Scott diz que há diferenças na forma como indivíduos lidam com problemas e refletem sobre o mundo, mas isso não tem nada a ver com as diferentes relações de poder entre os dois hemisférios de seu cérebro.
"Algumas pessoas têm ótima capacidade de imaginação visual. Algumas têm boa imaginação auditiva. Existem muitas variações na forma como recebemos informações e as processamos.
Cérebro. SPL
Diferente do mito, os dois hemisférios do cérebro trabalham em conjunto, e não separados
"Mas reduzir isso a cérebro esquerdo 'lógico' e cérebro direito 'criativo' não reflete o que vemos no funcionamento do cérebro. Além disso, isso sugere que você poderia estar usando um hemisfério mais do que o outro e não é assim que funciona".
Os dois hemisférios se comunicam e trabalham juntos por meio de uma rede complexa de cabos fibrosos conhecida como o corpo caloso, ela explica. Eles são complementares e trabalham juntos.
 

"Lua cheia influi comportamento"

Segundo a crença popular, a lua cheia está associada à insanidade - daí viria a palavra lunático.
Entretanto, quando psicólogos e estatísticos estudaram o assunto, não conseguiram a influência da Lua sobre o cérebro humano e o comportamento.
Ou seja, não existe evidência de que haja uma relação entre a ocorrência da lua cheia e acontecimentos como assaltos, prisões, suicídios, chamadas para números de emergência, internações psiquiátricas, envenenamentos e acidentes de automóvel.
Eric Chudler, responsável por vários estudos sobre o assunto, disse: "A maioria das informações - e houve muitos estudos - indica que não existe uma associação entre a fase da Lua e quaisquer desses comportamentos anormais".
Muitos dos que acreditam no mito da lua cheia são policiais ou profissionais de saúde, profissionais que frequentemente presenciam acontecimentos perturbadores.
Chudler sugere que quando esses eventos traumáticos ocorrem, pessoas nessas profissões estão mais inclinadas a notar lua cheia brilhando no céu do que as mais modestas luas crescentes ou meias luas.
Como resultado, eles apenas fazem associações entre fase da Lua e incidentes anômalos quando a Lua está em sua fase mais óbvia e simbolicamente significativa.
 

"Ouvir Mozart torna você mais inteligente"

O compositor austríaco Wolfgang Amadeus Mozart é central a uma teoria que floresceu na década de 1990 e que levou muitos a acreditar que tocar peças do músico para crianças melhoraria o desenvolvimento de seus cérebros, tornando-as mais inteligentes.
Muitas vezes, mitos são criados com base em fatos reais. Este em particular teve origem em um estudo publicado pela revista científica Nature em 1993.
A pesquisa descreveu um experimento no qual estudantes de uma universidade na Califórnia realizaram uma série de tarefas.
Os voluntários que ouviram uma peça de Mozart antes de fazer os testes se saíram um pouco melhor do que os que ouviram músicas para relaxamento ou não ouviram nada.
O efeito positivo da sonata de Mozart sobre o desempenho dos estudantes desapareceu após cerca de 15 minutos.
Dois anos mais tarde, a mídia havia transformado as observações do estudo em uma teoria segundo a qual tocar Mozart para crianças jovens melhorava sua inteligência.
Empresas começaram a vender CDs do gênio austríaco a famílias com crianças. Em 1998, nos Estados Unidos, o Estado da Geórgia distribuiu CDs de Mozart para mães com bebês recém-nascidos.
Alguns criaram teorias de que as estruturas musicais das composições de Mozart exerciam uma influência biológica sobre as conexões nervosas do cérebro.
Em estudos posteriores, a verdade acabou se mostrando bem mais prosaica:
Especialistas concluíram que qualquer música estimulante tocada antes de uma série de exercícios mentais torna você mais alerta e entusiasmado, então seu desempenho melhora.
Fonte: BBC

Arma laser pode entrar em operação na polícia do Reino Unido

Por Jonathan D. Machado, 14 de Dezembro de 2011

O dispositivo que pode cegar temporariamente uma multidão e iria substituir outros métodos de contenção a manifestantes.

Esboço do armamento laser (Fonte da imagem: Divulgação BBC)

 

As forças policiais do Reino Unido colocaram em fase de testes nesta semana um dispositivo a laser que poderia deixar antiquado os canhões de água e até os tasers como armas não letais. A possível adoção do novo dispositivo veio em resposta às manifestações civis ocorridas em agosto por todo a nação, deixando o país em uma situação caótica.

O armamento não letal foi desenvolvido pelas forças especiais da Marinha Real e tem a capacidade de projetar um feixe de luz de 3 metros de altura que poderia cegar toda uma multidão temporariamente, à uma distância máxima de 500 metros. Originalmente, o canhão laser foi concebido para combater piratas na Somália.

É esperado que o dispositivo passe por vários testes nas mãos da polícia britânica durante alguns meses antes que possa ser adotado. Também é preciso aferir se nenhum efeito danoso permanente possa ocorrer além da cegueira temporária. O preço unitário também deve ser avaliado, considerando que cada aparelho custaria U$ 40 mil para os cofres públicos.

Fonte: Tecmundo

Que tal uma memória RAM de 64 GB na sua máquina?

Por Fernando Daquino, 13 de Dezembro de 2011

G. Skill lança os kits de memória RAM quad-channel mais potentes do mundo.

(Fonte da imagem: G. Skill)

 

A G.Skill anunciou três novos modelos de alta performance para a sua linha RipjawsZ de memórias RAM. Os recém-anunciados produtos constituem as memórias quad-channel mais potentes do mercado, desenvolvidas especificamente para a plataforma Intel X79 e processadores Intel LGA2011 Sandy Bridge-E. Confira abaixo as especificações:

[RipjawsZ] F3-19200CL10Q2-64GBZHD (8Gx8)

  • Tipo de memória: DDR3;
  • Chipset: Intel X79;
  • Latência: 10-12-12-31-2N;
  • Capacidade: 64 GB (8 GB x 8);
  • Frequência: 2.133 MHz;
  • Voltagem: 1,65 Volts;
  • Arquitetura: 40 mm;
  • DIMM: 240 pinos.

[RipjawsZ] F3-17000CL9Q2-32GBZH (4Gx8)

  • Tipo de memória: DDR3;
  • Chipset: Intel X79;
  • Latência: 9-11-10-28-2N;
  • Capacidade: 32 GB (8 GB x 4);
  • Frequência: 2.400 MHz;
  • Voltagem: 1,65 Volts;
  • Arquitetura: 40 mm;
  • DIMM: 240 pinos.

[RipjawsZ] F3-14900CL9Q-16GBZL (4Gx4)

  • Tipo de memória: DDR3;
  • Chipset: Intel X79;
  • Latência: 9-10-9-28-2N;
  • Capacidade: 16 GB (4 GB x 4);
  • Frequência: 2.500 MHz;
  • Voltagem: 1,5 Volts;
  • Arquitetura: 40 mm;
  • DIMM: 240 pinos.

Todos esses modelos possuem garantia vitalícia. O preço não foi informado pela empresa, mas rumores indicam que o modelo mais potente (com 64 GB) está sendo vendido por míseros 3.199€ (R$ 7.737).

Fonte: Tecmundo

segunda-feira, 12 de dezembro de 2011

Primeiro processador quântico é produzido na Inglaterra

Por Renan Hamann, 12 de Dezembro de 2011

Cientistas conseguiram criar o primeiro processador com cálculos quânticos reprogramáveis.

Pesquisadores e engenheiros da Universidade de Bristol (Inglaterra) conseguiram montar o primeiro protótipo funcional de um processador quântico. Mais do que isso: ele é o primeiro chip reprogramável de multiproposta, ou seja, pode ser modificado para atender a diferentes tipos de demanda dos usuários.

 

O processador de Bristol foi criado com dióxido de silício, permitindo a conexão direta entre vários fótons do mesmo chip – em esquema de enredamento. De acordo com a programação dos eletrodos, os estados quânticos são produzidos para desempenhar as funções ordenadas. Este é um dos primeiros passos concretos em direção à computação quântica.

Fonte: Tecmundo

10 falhas do mundo da tecnologia em 2011

Vinicius Aguiari, de info, Justin Sullivan/Getty Images

 

Das redes sociais ao mundo dos smartphones, Info selecionou dez casos para serem esquecidos em 2012

Mark Zuckerberg, do Facebook

Assim como outros setores da economia, o segmento tecnológico não escapou de alguns fiascos em 2011. Das redes sociais ao mundo dos smartphones, selecionamos dez casos para serem esquecidos em 2012. Confira abaixo:

1 – A invasão da PSN

Registrada no mês de abril, a invasão da Playstation Network colocou em cheque toda a segurança da troca de dados online e do comércio eletrônico. No total, os crackers roubaram informações de cerca de 77 milhões de usuários, a maioria japoneses, europeus e americanos. A Sony foi criticada por anunciar a invasão somente dois dias depois. A PSN ficou fora do ar por duas semanas. Essa foi uma das maiores ações criminosas já registradas na web. Anualmente, o serviço gera cerca de 500 milhões de dólares em receitas para a Sony.


2 – O atraso da Timeline do Facebook

Anunciado em setembro à toque de caixa e prometida para ser disponibilizada “nas próximas semanas”, a nova interface do Facebook gerou grande expectativa nos usuários. Porém, somente pessoas que criaram uma conta de desenvolvedor conseguiram acessá-la. A migração começou apenas esta semana, na Nova Zelândia, em sistema de testes. A grande maioria dos usuários do Facebook deve virar o ano sem ver a cara da Timeline.

3 – A prisão domiciliar de Julian Assange

Assange passou de herói a vilão em 2010. Logo após divulgar uma série de documentos secretos de embaixadas dos Estados Unidos, por meio de seu site WikiLeaks, o autraliano foi acusado por duas mulheres suecas de violência sexual. Assange nega os crimes e diz que as acusações são uma manobra política para tirá-lo de circulação. Com isso, ele teve passar todo o ano em prisão domiciliar, em uma mansão, em Diss, cidade localizada a 146 km de Londres. Atualmente, ele luta na Suprema Corte britânica para não ser extraditado para a Suécia.

 

4 – O tablet da HP

Apresentado ao mercado em janeiro e lançado em julho, o Slate teve sua produção cancelada em agosto devido à baixa procura. Para queimar os estoques, a empresa anunciou que venderia o produto por cem dólares, e as vendas dispararam. Resultado: a HP decidiu produzir mais um lote. Na sequência, a Amazon lançou o Kindle Fire por 199 dólares, que se tornou o segundo tablet mais vendido nos Estados Unidos. Em sua biografia, Steve Jobs lamentou o fato. “Eles faziam bons produtos e perderam o foco. Não quero que aconteça isso com a Apple”, afirmou.

 

5 – A não divisão da Netflix

Após acumular perdas, a Netflix decidiu separar suas divisões de streaming e de DVDs. O anúncio foi feito em setembro. “Precisamos deixar cada um crescer e operar separadamente”, afirmou o CEO, Reed Hastings. Porém a novidade foi mal recebida pelos clientes, que teriam de pagar duas assinaturas. Menos de um mês depois, a empresa voltou atrás e desistiu da separação. Mesmo assim, não assim ilesa do episódio. Em busca de novos mercados, a Netflix se lançou na América Latina e na Inglaterra.

 

6 – Falha na bateria do iPhone 4S

Parece que de nada valeu o Antenagate para a Apple, em 2010. Um mês após ter lançado o iPhone 4S, a Apple reconheceu, em novembro deste ano, que a bateria do aparelho tinha uma falha e que durava menos tempo. Apesar de a empresa não entrar em detalhes, uma das possíveis causas seria o novo sistema de notificações do iOS. A Apple prometeu corrigir o problema com uma atualização do iOS, porém, segundo alguns usuários, o consumo ficou mais alto ainda.

 

7 – A rede social do Twitpic

Em agosto, o Twitter anunciou que iria lançar um serviço para a publicação de fotos. O criador do Twitpic, Noah Everett, não gostou da novidade e dias após ele apresentou o Heello, para concorrer com o Twitter. Como previsto, o serviço não decolou, o serviço de fotos do Twitter tem sido bem-sucedido e Everett deve estar à procura de uma nova ideia para uma startup.

 

8 – Google Wave

Apresentado em maio de 2009 como o sucessor do e-mail, o serviço nunca emplacou entre os usuários. Como forma de reduzir custos, o Google incluiu o Wave em um pacote, junto com outros seis produtos, que foram descontinuados pela empresa. A decisão foi tomada por Larry Page após queixas de investidores em relação à alta dos gastos da empresa.

 

9 – Meego, da Nokia, não resistiu

Desenvolvido em parceria com a Intel, o sistema operacional para dispositivos móveis foi anunciado em fevereiro de 2010. Porém, ele foi deixado de lado, em fevereiro deste ano, quando a Nokia anunciou a parceria com a Microsoft e adoção do Windows Phone 7. Outras empresas como a LG cogitaram adotar o sistema, porém, mas uma vez ele foi deixado de lado em benefício do Android e WP7.

 

10 – Windows Phone 7 não vendeu

O sistema operacional para smartphones e tablets foi lançado em outubro de 2010, como resposta ao Android, do Google, ao iOS, da Apple, principalmente. Porém, um ano depois, a sua participação de mercado é de apenas 1,7%, segundo o Gartner, índice bem abaixo das expectativas de Steve Ballmer. Apesar disso, o mesmo Gartner afirma que o OS estará apenas atrás do Android em participação de mercado até 2015. Samsung, HTC, LG e Nokia são algumas das empresas que já o adotaram em seus aparelhos.

Fonte: Exame

Google Chrome é o navegador mais seguro do mercado

Por Thiago Szymanski, 11 de Dezembro de 2011

Internet Explorer aparece logo atrás em segundo, sendo que o Firefox decepciona.

E a briga continua.

Quando um estudo sobre navegadores é financiado pela Google e tem seus resultados divulgados ao público, não é surpresa que o vencedor seja o Chrome. Contudo, o surpreendente fica por conta da terceira posição do Firefox, atrás do Internet Explorer.

O estudo, conduzido pela Accuvant Labs, analisou o nível de segurança de cada navegador, definindo um ranking de acordo com certos conceitos. O interessante é notar que na conclusão do estudo, a empresa cita que: “Tanto o Google Chrome quanto o Internet Explorerpossuem tecnologias de defesa eficazes e de ponta, enquanto o Mozilla Firefox está muito atrás deles”.

Quadro comparativo retirado do estudo.

 

Quanto às atualizações, o Chrome também é o vencedor. O programa recebe um patch a cada 53 dias em média, contra 158 dias do Firefox e 214 do Internet Explorer. Dessa forma o navegador da Google corrige vulnerabilidades mais rapidamente.

Mas mesmo considerando que o estudo tenha sido objetivo, o fato de ele ter sido financiado pela Google pode piorar ainda mais a relação da empresa com a Mozilla. Recentemente, a Google já informou que ainda não sabe se irá renovar o contrato de parceria com a Mozilla para fazer do seu sistema de buscas o padrão do Firefox.

O estudo completo, com mais de 100 páginas, pode ser acessado aqui. Acompanhe também um comparativo feito por nós do Tecmundo, mostrando como cada aplicativo se sai no dia a dia.

Fonte: Tecmundo