sábado, 30 de abril de 2011

O Futuro dos Processadores Quânticos

Por Carlos E. Morimoto em 8 de agosto de 2007 às 09h21

Introdução

Os processadores Quânticos parecem ser mesmo o futuro da computação. A arquitetura atual, que consiste em construir processadores usando transístores, fatalmente chegará ao seu limite dentro de poucos anos. Será necessária então uma arquitetura mais eficiente. Por que não substituir os transístores por átomos? Os processadores Quânticos tem potencial para serem eficientes ao ponto de realizarem em poucos segundos o que os processadores atuais não poderiam nem em milhões de anos.

O porquê dos processadores Quânticos

Realmente, os projetistas de microprocessadores vem fazendo um grande trabalho. Nas três últimas décadas, desde o aparecimento do Intel 4004, o primeiro microprocessador do mundo, tivemos um aumento absurdo na velocidade de processamento. Para se ter uma idéia, o i8088, o processador usado no XT, lançado em 79, tinha um poder de processamento estimado em apenas 0.25 megaflop, ou seja, apenas 250.000 operações por segundo. Um Pentium 100 já processa 200 megaflops, 200 milhões de operações, enquanto um Athlon de 1.1 GHz processa quase 10 gigaflops, 40 mil vezes mais rápido que o 8088.

O problema é que todos os processadores atuais tem uma limitação em comum, são compostos por transístores. A solução para produzir chips cada vez mais rápidos tem sido diminuir cada vez mais o tamanho dos transístores que os compõe. Os primeiros transístores, que surgiram na década de 60, eram mais ou menos do tamanho da cabeça de um fósforo, enquanto os atuais medem apenas 0.18 mícron (1 mícron = 0.001 milímetro). Porém, estamos nos aproximando dos limites físicos da matéria, para continuarem avançando, será preciso abandonar o uso de transístores e partir para alguma estrutura mais eficiente. O futuro dos processadores parece depender mesmo dos processadores quânticos.

Até algum tempo atrás, não se acreditava que seria possível produzir transístores medindo menos que 0.15 mícron, que já são realidade. A Intel surpreendeu ao divulgar planos de se produzir chips com transístores de 0.07 mícron até 2005. Pode ser que ainda consigam produzir transístores de 0.05 ou quem sabe 0.03 mícron, mas seria impossível ir além disso. Pra se ter uma idéia, a 0.07 mícron cada gate, ou seja, cada um dos três filamentos que compõe cada transístor tem o equivalente a apenas 3 átomos de ouro de espessura! Seria realmente um milagre conseguir transístores de 0.03, onde cada filamento teria apenas o equivalente a um único átomo de ouro espessura, o que corresponde a alguns poucos átomos de silício, mas seria fisicamente impossível ir muito atém disso.
A tecnologia mais promissora para substituir os transístores ainda são os famosos processadores Quânticos.

Como funcionam

A idéia de usar átomos para processar dados não é nova, existem pesquisas neste sentido desde o início da década de 80, mas eram apenas teorias vagas, que apenas atualmente começam a tomar forma.

Num processador quântico, temos átomos ao invés de transístores. Ao invés de bits temos bits quânticos, ou qubits. A idéia fundamental é que num átomo, a rotação de cada elétron corresponde a um pequeno movimento magnético, que pode ser controlado caso o átomo seja colocado sobre uma superfície magnética suficientemente sensível

Uma peculiaridade interessante é que enquanto um transístor permite apenas dois estados, ou seja, ligado ou desligado, cada qubit possui três estados diferentes. Dois estados são determinados pela rotação dos elétrons (horário ou anti-horário), enquanto o terceiro é uma característica bastante peculiar dentro do mundo quântico, onde os elétrons podem girar simultâneamente nos dois sentidos. Sim, parece estranho, e é por isso que existem tantos cientitas pesquisando isso, mas de qualquer forma, combinado com os dois estados anteriores temos um total de 4 estados possíveis, o que permite que cada qubit processe ou armazene dois bits simultaneamente.

Isto permite ampliar exponencialmente a capacidade dos processadores quânticos, já que dois qubis correspondem a 4 bits, 3 qubits correspondem a 8 bits e 5 qubits correspondem a 32 bits. 10 qubits seriam suficientes para 1024 bits, enquanto 20 correspondem a mais de um milhão. Esta pode ser a grande chave para aumentar de forma inimaginável tanto a potência dos processadores quanto a capacidade dos dispositivos de armazenamento de memória. Não estou falando de processadores operando a 100 ou 500 GHz, mas de computadores capazes de resolver em poucos segundos cálculos que um processador atual demoraria milhões de anos para resolver. Seria potência suficiente para construir um mainframe capaz de calcular todas as variáveis possíveis de surgimento de vida em um planeta ao longo de bilhões de anos, por exemplo :-)

Aplicações

O brutal poder de processamento que pode ser atingido pelos processadores Quânticos seria extremamente útil tanto para pesquisas científicas, onde naturalmente estes ultra-computadores iriam debutar, quanto para aplicações comerciais de realidade virtual e inteligência artificial, que sem dúvida serão as modas deste século. Os jogos poderiam ser suficientemente reais para conter vários personagens que realmente interagissem com o jogador, conversando (ou sabe-se lá o que mais :-), e agindo de acordo com as ações do jogador, como num RPG quase real. Um computador quântico sozinho poderia controlar em tempo real centenas destes personagens. Reconhecimento de voz e gestos já seria algo trivial.

Sem dúvida, teríamos gigantescos avanços em praticamente todos os campos, finalmente poderíamos ter códigos de encriptação realmente seguros, pesquisas em gigantescos bancos de dados usando algoritmos inteligentes e traços de inteligência artificial poderiam ser feitas quase instantaneamente, a transmissão de dados poderia alcançar velocidades da ordem de vários Terabytes (ou Petabytes) por segundo usando fibras ópticas de alta densidade e roteadores quânticos, capazes de lidar com esta quantidade de informação. Seria o suficiente para a Internet transformar-se num mundo virtual, onde as pessoas possam encarnar avatars e se relacionar com voz, gestos e até toque, como no mundo real. Seria uma evolução dos chats atuais.

A grande pergunta é quando. Ninguém sabe com certeza o quão rápido as pesquisas nesta área poderão avançar. Pode demorar cem anos para vermos estas aplicações que descrevi, ou pode demorar apenas duas ou três décadas. Como é um campo muito novo, não se sabem de onde podem surgir as soluções para os enormes problemas que ainda dificultam a vida dos pesquisadores.

Como funcionam

Os primeiros computadores quânticos já são realidade, a IBM por exemplo anunciou seu primeiro chip Quântico no início deste ano (2001), na 12º Conferência anual na universidade de Palo Alto. Ainda é um projeto bastante rudimentar, possui apenas 5 qubits, trabalha a apenas 215 Hz, e necessita de um aparato gigantesco de equipamentos para funcionar, mas já mostra que é realmente possível produzir processadores Quânticos. Veja um diagrama do computador na figura abaixo:
gdh1

Neste diagrama podemos ver que o chip é na verdade uma molécula. Os cinco átomos verde claro são os que realmente tem função, enquanto os demais servem apenas para estabiliza-los. Como vimos anteriormente, cada qubit é capaz de processar 2 bits de dados por vez, 5 qubits correspondem a 32 bits. Sim, com apenas 5 átomos temos um processador de 32 bits funcional.

O primeiro problema nesta experiência, e em todas as experiências com processadores quânticos usados atualmente, é como manter esta molécula estável. A solução usada atualmente é conservá-la numa solução altamente resfriada, numa temperatura próxima do zero absoluto. Este sistema porém é incrivelmente caro. Para tornarem-se viáveis comercialmente, os computadores quânticos teriam que superar esta limitação, com modelos que pudessem operar à temperatura ambiente.

O segundo problema é como manipular os átomos que compõe a molécula. Um átomo pode mudar de estado numa velocidade surpreendente, mas um átomo sozinho não tem como adivinhar quais estados queremos que ele assuma. Para manipular átomos, precisamos usar partículas ainda menores que eles. A solução encontrada pelo projetistas da IBM foi usar radiação, num sistema semelhante à ressonância magnética que temos nos hospitais, porém muito mais preciso. Este sistema possui dois problemas, primeiro é o fato de ser muito caro, um aparelho destes não sai por menos de 5 milhões de dólares. O segundo problema é o fato da técnica ser muito lenta, o que justifica o fato do protótipo da IBM operar a apenas 215 Hz, milhões de vezes mais lentamente que qualquer processador atual, que já estão na casa dos Gigahertz. Mais um obstáculo que precisa ser superando antes dos Quânticos tornarem-se viáveis comercialmente.

Novas esperanças

Como vimos, os processadores Quânticos experimentais desenvolvidos até agora são incrivelmente lentos, algo normal para uma tecnologia emergente, mas o pior, precisam de equipamentos incrivelmente sofisticados, e caros para funcionar. Nada parecido com um processador Intel ou AMD que pode ser facilmente encapsulado e trabalha à temperatura ambiente, amparado por um simples cooler.

Os protótipos Quânticos atuais utilizam aparelhos de ressonância magnética nucleares para manipular os estados dos átomos e a (ou as) moléculas precisam ser mantidas a temperaturas próximas do zero absoluto para manterem-se estáveis. Apesar de ajudar os cientistas a estudar a mecânica quântica, um sistema assim jamais seria viável economicamente.

Atualmente o desenvolvimento dos processadores quânticos vem ganhando impulso. As primeiras experiências tinham como objetivo manipular os elétrons, isto provou-se muito problemático, pois os elétrons, por sua pequena massa e pela sua exposição, são extremamente susceptíveis a qualquer influência externa. Surgiu então a idéia de manipular os núcleos dos átomos, o que torna o processo bem mais simples, já que o núcleo é maior e está relativamente isolado do meio externo graças à barreira de elétrons em torno dele.

Mas isto foi apenas parte da solução do problema. Pois de qualquer modo ainda resta desenvolver algum tipo de tecnologia que permita manipular núcleos atômicos. A primeira safra de protótipos utiliza ressonância magnética para isto, uma tecnologia extremamente cara, mas já existe gente desenvolvendo meios bem mais simples de fazer isso.

Os cientistas do laboratório nacional de Los Alamos, nos EUA, divulgaram experiências usando um sistema óptico para manipular prótons. A idéia da nova técnica é que os prótons podem ser usados tanto na forma de partículas (a fim de interagir com os átomos que compõe o sistema quântico), quanto na forma de onda, podendo ser transportados através de um sistema óptico.

Usando a nova técnica, os prótons recebem a função de manipular os átomos que compõe o processador quântico. Por ser uma partícula, um próton pode ser "arremessado" contra o qubit, alterando com o impacto seu movimento. Da mesma forma, um próton pode ser arremessado de forma a ricochetear no qubit. Desta forma o próton é que tem sua trajetória alterada.

A grande sacada é que este próton poderia ser recuperado usando um foto detector, que detectaria o próton na forma de onda, e não de partícula. Calculando a trajetória do próton, é possível recuperar o dado gravado no qubit.

Um problema que surgiu durante as experiências foi o fato deste sistema ser susceptível a um grande número de erros. Para isto os pesquisadores vêm trabalhando em algoritmos de correção de erros, o que permitiria tornar este sistema confiável.

Com tudo o que vem sendo feito é possível que os computadores quânticos tornem-se viáveis muito antes do que se vem esperando. A quinze anos os computadores quânticos eram considerados apenas coisa de ficção científica. Hoje já existem alguns protótipos em funcionamento. A pergunta agora é quando estes sistemas irão tornar-se viáveis. Avanços como o que vimos podem ser a resposta :-)

 

Fonte: Hardware

sexta-feira, 29 de abril de 2011

Programa Nacional de Banda Larga não deve cumprir meta de 2011

Número de cidades será menor do que o estipulado devido a cortes no orçamento. Mudanças no projeto devem acontecer.

Ainda estamos na primeira metade de 2011, mas o Plano Nacional de Banda Larga (PNBL) já não deve cumprir sua meta inicial. Segundo a Agência Brasil, o presidente da Telebrás, Rogério Santanna, afirmou que o número de cidades atingidas pelo projeto até o final do ano – recentemente reduzido de 1.163 para 800 municípios – pode cair ainda mais. O motivo seria o corte de gastos, que acabou afetando parte da verba destinada ao PNBL.

Outro obstáculo para o início da implantação é o atraso na assinatura de um contrato do Governo Federal com a Petrobras e a Eletrobras relativo ao uso de fibras óticas públicas para possibilitar a transmissão nos municípios escolhidos.

A expectativa, segundo o Ministério das Comunicações, é que o dinheiro retirado agora volte a ser injetado no projeto nos próximos anos para que o objetivo seguinte seja cumprido com folga: atingir 4.278 cidades até 2014. Vale lembrar ainda que, apesar do fracasso aparente do PNBL, osacessos à banda larga fixa e móvel vêm crescendo no país.

Além disso, haveria uma pressão por parte das companhias telefônicas para que o PNBL não fosse implantando em tantas localidades. O motivo seria a alta disseminação de softwares que permitem uma comunicação tão eficiente quanto o telefone sem nenhum custo, como o Skype.

Fonte: Tecmundo

Nanotubos de carbono vão parar na tela da sua TV

Redação do Site Inovação Tecnológica - 29/04/2011

Nanotubos de carbono vão parar na tela da sua TV

O pequeno CN-VOLET emite luz forte e brilhante, gastando uma fração da energia das atuais telas de LED. [Imagem: Science/AAAS]

Indeciso entre uma TV de LCD, plasma ou LED?

Se você não se decidir logo, poderá se defrontar com uma gama de opções ainda maior num futuro próximo.

Um grupo de pesquisadores norte-americanos prevê que muito brevemente as telas de nanotubos de carbono deverão se tornar a mais nova opção em telas de alta definição, com alta qualidade de imagem e menor consumo de energia.

Telas de OLEDs

O novo estudo mostrou que ostransistores feitos de nanotubos de carbono consomem menos energia do que os transistores de silício, mesmo mantendo os níveis de brilho alcançados com os componentes atuais.

São os transistores que controlam a emissão de luz dos pixels individuais da tela.

O achado dá novo impulso aos esforços que visam tornar as telas de LEDs orgânicos, ou OLEDs, mais duráveis e mais eficientes energeticamente.

Os OLEDs já estão se tornando uma tecnologia interessante para a produção de telas de alto brilho, que equipam telefones celulares, TVs e monitores de computador.

No atual estágio, eles são rápidos, leves e consomem menos energia do que, por exemplo, a tradicional tecnologia LCD.

Contudo, ainda exigem altas tensões para funcionar - eventualmente, a única limitação para que ainda não tenham se tornado a tecnologia preferida dos fabricantes.

Nanotubos de carbono vão parar na tela da sua TV

Esquema do pixel feito com um transístor de nanotubos, chamado CN-VOLET - carbon nanotube enabled vertical organic light-emitting transistor, transístor emissor de luz orgânico vertical otimizado por nanotubos de carbono. [Imagem: McCarthy et al./Science]

Transistores de nanotubos de carbono

Agora, Mitchell McCarthy e seus colegas mostraram que os transistores de nanotubos de carbono são uma alternativa promissora para resolver essa deficiência.

A maioria das telas de LEDs orgânicos tem a mesma base: um transístor de filme fino feito de silício. O transístor alimenta um sanduíche de materiais orgânicos encapsulados por dois eletrodos metálicos.

Os transistores injetam corrente elétrica, por meio dos eletrodos, em suas respectivas pilhas de materiais orgânicos, que emitem os brilhantes feixes de luz que podem ser vistos na tela - os pixels.

Os pesquisadores chamaram seu novo transístor de CN-VOLET - carbon nanotube enabled vertical organic light-emitting transistor, transístor emissor de luz orgânico vertical otimizado por nanotubos de carbono.

Dissipação de potência

Para fazerem seu trabalho, os transistores precisam ser alimentados com uma determinada tensão.

O que os pesquisadores demonstraram agora é que os transistores de nanotubos de carbono precisam de uma tensão menor - medida em volts - para transmitirem sua corrente - medida em miliamperes.

E eles fazem isto sem comprometer o brilho emitido pela seção ativa do LED - medido em candelas por área.

Levando em conta todas essas medições, chega-se a um indicador, chamado dissipação de potência parasita, que mede, em termos gerais, a energia que o componente desperdiça para fazer seu trabalho.

Enquanto um OLED tradicional desperdiça entre 51 e 53% da energia que recebe, o CN-VOLET perde apenas 6% dessa energia.

Com isto, será possível construir telas com o mesmo brilho obtido hoje, consumindo menos energia.

Bibliografia:
Low-Voltage, Low-Power, Organic Light-Emitting Transistors for Active Matrix Displays
M. A. McCarthy, B. Liu, E. P. Donoghue, I. Kravchenko, D. Y. Kim, F. So, A. G. Rinzler
Science
29 April 2011
Vol.: 332, pp 570-573
DOI: 10.1126/science.1203052

Fonte: Inovação Tecnológica

quinta-feira, 28 de abril de 2011

As portas para o mundo USB 3.0

Comtac lança uma série de periféricos para fazer upgrade, e tirar proveito da nova tecnologia

28 de Abril de 2011 | 17:04h

comtac

Ouvimos falar da tecnologia USB 3.0 há algum tempo. As placas-mãe e notebooks mais novos já começam a vir com algumas portas seguindo esse padrão.  Mas a grande maioria que está nas lojas ainda está na geração 2.0, fora todo o parque instalado. A grande diferença de uma para outra é a velocidade. Enquanto a especificada para o padrão 2.0 é de 480 Mbps, a 3.0 atinge velocidades até 10 vezes maiores: 4,8 Gbps.

Para que as máquinas antigas possam tirar proveito do novo conceito, a Comtac traz diversos periféricos. O mais importante deles é uma pequena placa com padrão PCI que acrescenta duas conexões USB 3.0 para desktops. É, literalmente, a porta de entrada para esse mundo.

Nela podem ser conectados outros acessórios que a Comtac traz para complementar a linha, como o case para discos externos que existem tanto no formato 2,5 polegadas para HDs, normalmente usados em notebooks, ou então um case onde o HD fica à mostra (meio anti-estético) para discos de desktops. Ambos precisam de uma alimentação extra que pode vir por meio de outra porta USB ou de uma fonte de energia externa.

Para verificar a real eficiência do 3.0, pusemos na bancada um desktop com a placa da Comtac e pen drives nos padrões 2.0 e 3.0. Usamos alguns arquivos grandes, onde as diferenças podem ser melhor percebidas. Em um pen drive 2.0 na porta 2.0, o tempo de transferência foi de 138 segundos. Já na tecnologia 3.0, a diferença foi de mais de cinco vezes, passando para 27,5 segundos. Está longe da teoria (10x), mas já é uma melhora significativa. Esses valores variam de acordo com o tamanho do arquivo de testes. Para arquivos menores, esse ganho tende a ser menor.

O custo para entrar no mundo 3.0 não é muito alto. A placa custa R$ 94,00. Já os cases para HD de notebook e desktop custam R$ 127,00 e R$ 165,00, respectivamente.

Fonte: Olhardigital

Toyota investe em abastecimento sem fio para carros elétricos

Tecnologia desenvolvida pela companhia americana WiTricity pode facilitar e agilizar o processo para 'recarregamento' do veículos

28 de Abril de 2011 | 16:49h

Carro elétrico carregado por wireless

A WiTricity anunciou nesta quarta-feira (28/4) que assinou um acordo com a montadora Toyota para o desenvolvimento de um carregador wireless para carros elétricos da companhia, como o Prius. A pequena empresa baseada em Massachusetts é responsável pelo desenvolvimento da tecnologia que permite a transmissão de eletricidade sem fio entre dispositivos.

Com a tecnologia, a Toyota espera tornar o carregamento dos carros mais práticos. Bastaria que o usuário estacionasse ao lado de um ponto de recarga e aguardasse o abastecimento, sem a necessidade de nenhuma conexão entre fios.

Diferente de outros métodos de indução elétrica, o sistema desenvolvido pela WiTricity não requer qualquer tipo de contato entre e a fonte de energia e o dispositivo a ser carregado. Através de um emissor de ressonância magnética a eletricidade seria transferida para um receptor instalado no carro. Segundo a companhia, a energia pode ser transferida sem dificuldades através de obstáculos como paredes.

A Toyota não é a primeira montadora a se interessar em tecnologias para o carregamento sem fios em carros elétricos. Em janeiro do ano passado, a General Motors anunciou uma parceria com a Powermat em uma apresentação durante a Consumer Electronics Show (CES).

Fonte: Olhardigital

Ar-condicionado solar não consome eletricidade

Mônica Pileggi - Agência Fapesp - 28/04/2011

Arquitetura bioclimática: Ar-condicionado solar

O ar-condicionado natural se baseia no chamado "efeito chaminé": no interior da estrutura, o ar aquecido se torna mais leve e tende a subir, aspirando o ar dos ambientes e substituindo-o pelo ar exterior.[Imagem: Ag.Fapesp]

Morar em um país como o Brasil, onde cada região possui um clima diferente, pode ser bom para uns e ruim para outros.

Um estudo realizado na Universidade Federal de São Carlos (UFSCar), sobre chaminés solares, no entanto, pode ajudar a refrescar quem vive em áreas mais quentes.

Chaminé solar

A chaminé solar desenvolvida pelo professor Maurício Roriz e seus orientandos Fernando Sá Cavalcante e Letícia de Oliveira Neves, adota o mesmo princípio de um aquecedor solar de água e pode ser instalada para estimular a ventilação natural em residências ou escritórios.

"A chaminé funciona como um coletor solar: os raios solares atravessam um vidro e aquecem uma placa metálica preta, situada abaixo dele. Aquecida, a placa emite calor, mas em frequência diferente da que vem do sol e para a qual o vidro é opaco. Assim, o calor entra, mas não consegue sair", explica Roriz.

Nos coletores solares convencionais a água se aquece ao circular em tubos que passam sob a placa quente. "Na chaminé solar, em vez de água passa o ar", disse.

Esse ar-condicionado natural se baseia no chamado "efeito chaminé": no interior da estrutura, o ar aquecido se torna mais leve e tende a subir, aspirando o ar dos ambientes e substituindo-o pelo ar exterior, mais puro e geralmente mais confortável, particularmente nos climas típicos do Brasil.

"Trata-se, portanto, de um processo de ventilação provocado por diferenças de temperatura e de pressão, sendo muito eficiente para promover o conforto térmico nas horas quentes, mesmo em áreas urbanas densamente ocupadas, onde os obstáculos impedem o aproveitamento da ação direta do vento", comentou Roriz.

Modernos, quentes e com alto consumo de energia

Por uma conjugação de diversos fatores, as cidades se tornam cada vez menos confortáveis, provocando as chamadas ilhas urbanas de calor.

"Além dos obstáculos à ventilação natural, as áreas com pavimentação impermeável crescem, invadindo os espaços onde havia parques, bosques e jardins, cuja vegetação contribuiria significativamente para amenizar o clima", disse o pesquisador.

De modo geral, os edifícios também não são projetados e construídos de modo a favorecer os processos naturais de promoção do conforto térmico. O uso indiscriminado do vidro, sem o devido sombreamento, transforma a edificação em um verdadeiro coletor solar.

"Tentando se proteger, o usuário fecha cortinas, interrompendo a ventilação natural e escurecendo o ambiente. Então, acende lâmpadas, que também geram calor, assim como os outros equipamentos elétricos que usamos em nossos escritórios e residências. Desse círculo vicioso resultam desconforto e desperdício de energia", disse Roriz.

Arquitetura bioclimática

Segundo ele, existem diversas técnicas e estratégias, denominadas bioclimáticas, que poderiam contribuir para elevar a qualidade dos edifícios, mas que ainda são pouco conhecidas e aplicadas no Brasil.

A chaminé solar é uma das técnicas da arquitetura bioclimática, assim como as coberturas "verdes" (uso de vegetação sobre as coberturas das edificações), a refrigeração evaporativa (sistema natural de resfriamento baseado na evaporação da água) e a inércia térmica do solo e dos sistemas construtivos (que guarda o calor nas horas quentes para combater o frio das madrugadas, ou vice-versa).

Essas técnicas têm como objetivo contribuir com a preservação do meio ambiente e a eficiência energética do ambiente construído, obtidas por meio do uso racional dos recursos naturais, além de proporcionar o conforto térmico aos ocupantes das edificações.

De acordo com Roriz, é possível construir edifícios confortáveis sem condicionador de ar, aproveitando a ventilação natural. "Os condicionadores convencionais de ar ressecam o ambiente e prejudicam o sistema respiratório humano, além de impactarem negativamente o meio ambiente. A chaminé solar proporciona ventilação, sem consumir eletricidade e sem agredir a natureza", afirmou.

Como um dos resultados da pesquisa, o professor desenvolveu um software, chamado Chaminé, que calcula a ventilação provocada por diferentes situações de uma chaminé solar, contém dados climáticos de mais de 300 cidades de todo o país e pode ser baixado gratuitamente no endereço www.roriz.eng.br/download_6.html.

Fonte: Inovação Tecnológica

Você gostaria de ter um disco rígido de urânio?

Redação do Site Inovação Tecnológica - 28/04/2011

Você gostaria de ter um disco rígido de urânio?

Modelo do ímã molecular, formado por átomos de urânio interligados por moléculas de tolueno.[Imagem: Stephen Liddle]

Ímã molecular

Cientistas sintetizaram um ímã molecular - um magneto formado por uma única molécula - com grande potencial para uso em uma nova geração de dispositivos de armazenamento de dados de alta densidade.

O mais inusitado da descoberta é que a molécula magnética é um diurânio, ou seja, ela é formada por dois átomos de urânio.

"Este trabalho é entusiasmante porque sugere uma nova forma de gerar magnetismo molecular e lança algumas luzes sobre comportamentos do urânio que ainda não são bem compreendidos," diz Steve Liddle, da Universidade de Nottingham, na Grã-Bretanha.

Este ímã de molécula única tem potencial para aumentar a densidade de armazenamento de dados em centenas, ou mesmo milhares de vezes, em relação aos dispositivos atuais.

Molécula magnética

Os discos rígidos de computador armazenam os bits em pequenos aglomerados de material magnético, chamados domínios magnéticos, imantados num ou noutro sentido para indicar os 0s e 1s.

Quanto menor forem esses magnetos, mais informação pode ser armazenada por área. E quanto mais informação por área, mais rapidamente ela pode ser lida e escrita.

Enquanto os domínios dos materiais magnéticos convencionais têm seu magnetismo gerado por uma ordenação dos momentos magnéticos de suas inúmeras partículas, um ímã molecular apresenta uma magnetização intrínseca, originária da própria característica da molécula.

Com isto, os ímãs moleculares representam uma alternativa muito promissora para aumentar a densidade de armazenamento de dados porque os bits poderiam ser gravados em espaços exatamente do tamanho da molécula.

Você gostaria de ter um disco rígido de urânio?

Os pesquisadores afirmam que o subproduto do enriquecimento do urânio resulta em moléculas cujo componente radioativo foi eliminado. [Imagem: U.Nottingham]

Disco rígido de urânio?

Embora ter um disco rígido à base de urânio em seu computador possa parecer algo preocupante para sua saúde, os pesquisadores afirmam que o subproduto do enriquecimento do urânio resulta em moléculas cujo componente radioativo foi eliminado.

Liddle e seus colegas demonstraram que dois ou mais desses átomos, unidos por pontes de tolueno, apresentam um comportamento magnético em baixas temperaturas.

"Neste estágio ainda é cedo para dizer onde esta pesquisa irá levar, mas ímãs de molécula única têm sido objeto de pesquisas intensas por causa de suas potenciais aplicações no aumento da capacidade de armazenamento de informações e em técnicas de computação de alto desempenho, como no processamento quântico de informações e na spintrônica," diz Liddle.

Lantanídeos

Mas o comportamento magnético observado no urânio pode também apontar para o uso de materiais mais "amenos", sobretudo na série dos lantanídeos.

"As propriedades inerentes do urânio o colocam entre os materiais de transição popularmente pesquisados e os lantanídeos, e isto significa que ele apresenta o melhor dos dois mundos," diz o pesquisador.

Antes que um disco rígido de urânio se torne realidade, porém, os pesquisadores terão que descobrir como fazer o ímã molecular funcionar em temperatura ambiente, além de fazê-lo funcionar em sistemas polimetálicos.

Bibliografia:
A delocalized arene-bridged diuranium single-molecule magnet
David P. Mills, Fabrizio Moro, Jonathan McMaster, Joris van Slageren, William Lewis, Alexander J. Blake, Stephen T. Liddle
Nature Chemistry
17 April 2011
Vol.: Published online
DOI: 10.1038/nchem.1028

Fonte: Inovação Tecnológica

quarta-feira, 27 de abril de 2011

Hardware – O dicionário de A a Z

Sacie sua fome de conhecimento, veja em ordem alfabética os principais termos sobre hardware.

Como muitos devem saber, os computadores são divididos em duas áreas básicas: hardware e software. Na área dos softwares, há poucos termos que sejam totalmente desconhecidos pela maioria.

Agora quando o assunto é hardware, muitos usuários têm dúvidas. O Baixaki resolveu montar um “dicionário” exclusivo sobre hardware, justamente para auxiliar você, que é novato na informática.

Nosso dicionário foi atualizado em 2010, todavia aos poucos ele será incrementado para que você sempre esteja atualizado e familiarizado com os diversos termos e siglas que fazem parte do hardware dos computadores.

Navegar pelo dicionário é muito simples, basta escolher a palavra no índice abaixo:

Índice

AGP
AMR
Arquitetura
ATX
Barramento

Barramento de memória
Bios
Buffer
BUS
Cache

Chipset
Clock
CMOS
Cooler
CPU

DDR
Drive
Driver
Firmware
Fonte

Frequência
FSB
Gabinete
GDDR
GPU

Hardware
HD
I/O
IDE
Interface de memória

Jumper
Largura de Banda
Latência
Led
Memória RAM

Modem
Northbridge
Onboard
Offboard
PATA

PCI
PCI-Express
Placa-mãe
Placa de rede
Placa de som

Placa de vídeo
Processador
RAM-CMOS
SATA
Slot

Socket
Southbridge
Taxa de transferência
Transistor

AGP: o termo é utilizado para definir o antigo padrão de encaixe das placas de vídeo. O AGP era bem mais lento que o PCI-Express, mas trata-se de um slot que ainda está presente em muitos computadores.

Um zoom no AGP

AMR: a sigla significa Audio Modem Riser e fisicamente o AMR é um slot de expansão utilizado para conectar placas de modem, rede ou áudio. Em computadores mais antigos (como o Intel Pentium III, Intel Pentium IV, AMD Duron e AMD Athlon), o slot era ocupado por um modem onboard — apesar de que poderia ser removido quando necessário.

Modem e Slot AMR

Arquitetura: é o conjunto de desenhos e especificações (teóricas) por trás do hardware. Normalmente os processadores possuem arquiteturas diferenciadas, sendo que cada uma trabalha com padrões específicos. Todo o funcionamento de uma CPU (ou de outro componente de hardware) depende de uma arquitetura bem organizada. Vale lembrar que o termo também é utilizado para definir especificações de software.

ATX: é um padrão criado para organizar as conexões de entrada e saídas da placa-mãe. Normalmente é comum utilizar o termo ao referir-se ao gabinete, que possui um chassi apropriado para tais placas. Para você compreender melhor, basta notar o posicionamento das portas na parte traseira do seu gabinete (possivelmente ele deve utilizar o padrão ATX). O padrão anterior era o AT e foi substituído devido ao acréscimo de novas conexões nas placas-mãe.

Barramento: é o agrupamento de vias de comunicação entre diferentes componentes de hardware. Por exemplo: para o processador efetuar comunicação com a memória, ele deve utilizar o barramento para enviar (ou receber) os dados. Sendo assim, todo o tráfego de dados, endereços e sinais de controle acontece pelo barramento. Normalmente os barramentos possuem um desempenho medido em bits (quantidade de informações que pode ser enviada simultaneamente). Os valores podem ser: 8 bits, 16, 32, 64 ou mais.

As vias conectam um chip ao outro

Barramento de memória (Interface de memória): número representado em bits que faz referência à quantidade de bits que pode ser transmitida simultaneamente entre a memória (principal ou da placa de vídeo) e outros componentes (de um mesmo dispositivo ou externos) de hardware.

BIOS: fisicamente falando, a BIOS é uma memória acoplada na placa-mãe (veja RAM-CMOS para saber mais). Virtualmente falando, ela é um programinha com instruções básicas e fundamentais para o funcionamento dos demais componentes do computador.

Dois modelos de BIOS

Buffer: pequena quantidade de memória reservada para armazenar dados temporariamente. Comumente a “memória buffer” está presente em dispositivos de hardware para evitar problemas durante a escrita ou leitura de dados. Em geral, os gravadores de DVD (assim como CD e Blu-ray) e os discos rígidos contam com uma região da memória reservada para tal atividade, justamente para não acontecerem erros durante uma operação.

BUS: termo americano utilizado para fazer referência ao barramento (leia a definição do termo Barramento para saber mais).

Cache: é uma memória presente em diversos componentes de hardware. As memórias cache mais conhecidas são as do processador e da placa-mãe. A memória cache sempre tem um tamanho (este medido em KB ou MB) reduzido, pois ela tem como principal função fazer um intermédio entre dois itens quaisquer de uma forma mais rápida. A memória cache, geralmente, armazena dados importantes ou que sejam utilizados constantemente, isso agiliza muito o processamento de dados e você obtém resultados mais rápidos.

Chipset: é um componente presente na placa-mãe de suma importância. Normalmente em placas-mãe com componentes onboard, o chipset desenvolve um papel ainda mais importante. Ele é responsável por controlar a placa de vídeo, rede e som onboard. Evidentemente ele tem muitas outras funções, como centralizar dados e criar pontes de comunicação entre componentes.

Chipset VIA - Um dos mais famosos

Clock: é a velocidade (frequência) em que cada componente funciona. O clock é especificado em MHz (MegaHertz) ou Ghz (GigaHertz). Para mais detalhes confira a definição de “Frequência”.

CMOS: em inglês significa complementary metal-oxide-semiconductor, traduzindo: semicondutor metal-óxido complementar. Basicamente o CMOS é uma tecnologia utilizada na fabricação de circuitos integrados (CI), responsáveis por controlar os detalhes mais básicos dos componentes de hardware.

Cooler: o cooler, na verdade, não serve para calcular ou realizar alguma tarefa diretamente relacionada aos softwares. Esta peça é apenas um componente que serve para refrigerar o CPU (processador). Atualmente há diversos tipos de coolers, porém o mais comum é o ventilador.

Cooler - Dissipador e ventoinha

CPU: A CPU (Central Process Unit– Unidade Central de Processamento), também conhecida como processador, é o principal item de hardware do computador. Ela é responsável por calcular e realizar as tarefas determinadas pelo usuário.

Um CPU da Intel

DDR: é o termo básico para fazer referência ao tipo de memória presente nos computadores atuais. Atualmente há três tipos de memória DDR no mercado: a DDR, a DDR2, e a DDR3 (esta última mais recente e ainda rara de ser encontrada). O significado da enorme sigla DDR SDRAM é: memória de acesso aleatório dinâmica síncrona de dupla taxa de transferência.

DDR - Um pente de memória no padrão DDR

Drive: são as famosas unidades de leitura (e em alguns casos também gravação) de CDs, DVDs, disquetes e outros tipos de mídias removíveis.

Dois drives - Um gravador de CD e outro de DVD

Driver: o driver não é necessariamente uma parte dos componentes de hardware, mas ele deve estar nesta lista, porque ele é o responsável pela comunicação entre hardware e software.

Firmware: não podemos considerar o firmware como uma parte de hardware, porém ele é de extrema importância nesta lista. Na realidade, o firmware é um software presente em um chip de memória, sendo que sua função é armazenar as principais instruções para o hardware. Atualmente, a maioria dos dispositivos eletrônicos possui um firmware que geralmente pode ser atualizado conforme a necessidade.

Fonte: é a responsável por fornecer energia a todos os demais itens do computador. Ela transforma a energia e então distribui aos demais componentes.

Fonte - Ela fornece energia para tudo

Frequência: todo componente do computador trabalha em uma velocidade específica, sendo esta especificada em GHz ou MHz. A frequência define a quantidade de ciclos por segundo que o processador consegue realizar, de modo que a cada ciclo é possível realizar um número de contas.

FSB: o Front Side Bus, conhecido como barramento frontal, é o responsável por efetuar a comunicação (transferir dados) entre o processador e a Northbridge (ponte norte).

Gabinete: o gabinete é o que você vê por fora. A caixa onde será colocado todos os componentes internamente e após fechada protege todos os itens de hardware.

Gabinete - O exterior do computador

GDDR: memória específica para placas de vídeo. A abreviação GDDR vem de Graphics Double Data Rate e seu funcionamento é muito semelhante ao da memória DDR comum. Vale lembrar que a memória GDDR também é do tipo RAM, ou seja, de acesso aleatório. Existem diversas versões desta memória, as quais trabalham com tensões diferentes. Atualmente é comum encontrar placas com memórias GDDR3, GDDR4 e GDDR5.

GPU: é a unidade de processamento gráfico. GPUs são encontradas apenas em placas de vídeo.

GPU da GeForce 6600GT

Hardware: toda a parte física em informática é chamada de hardware, enquanto toda a parte virtual é chamada de software.

HD: o HD — também conhecido como disco rígido — é o item responsável pelo armazenamento de dados permanentes (ou a longo prazo). O HD é o local onde será mantido o sistema operacional, os seus documentos e todos os arquivos que você imaginar. Ao contrário de outros componentes, o HD dificilmente perde dados por não receber energia constantemente, ele pode ficar meses ou até anos sem ser conectado a uma fonte de energia e ainda sim terá os dados armazenados.

HD - Ele armazena arquivos permanentemente

I/O: do inglês Input/Output (entrada/saída), o termo I/O é frequentemente utilizado na informática para fazer referência aos diversos dados de entrada e saída. Na parte de hardware, o termo I/O é comum para citar componentes de entrada (teclado, mouse, dispositivos USB e outros) e saída (monitor, impressora e outros).

IDE: é a sigla utilizada para fazer referência a discos de armazenamento do tipo paralelo (Parallel ATA). Além disso, o termo é usado para indicar o nome do conector (e encaixe) deste tipo de HD.

IDE - Conectores de HDs do tipo ATA são conectados aqui

Jumper: são pequenas peças responsáveis por definir algum parâmetro manual. Por exemplo: em alguns HDs você pode utilizar um jumper para limitar a capacidade do HD, de modo que ele utilize apenas metade da velocidade.

Foto de três jumpers

Largura de banda (Taxa de transferência): é a quantidade de dados que pode ser escrita ou lida na memória (ou que trafega entre outros componentes de hardware) em determinado intervalo de tempo. A taxa de transferência é representada em MB/s ou GB/s, variando conforme a memória em questão.

Latência: apesar de não ser um componente de hardware, a latência está totalmente ligada às memórias, o que requer sua presença nesta lista. O termo é utilizado para especificar o tempo que a memória leva para acessar determinado dado. Existem diversos tipos de latência na memória, sendo que quanto menor o tempo de latência (atraso), mais rápido a memória responderá e enviará dados aos demais componentes de hardware.

Led: é um componente muito pequeno, responsável por indicar se o computador está ligado ou desligado. Atualmente há leds de diversas cores e intensidades luminosas, sendo que agora eles são utilizados até mesmo para indicar se a placa-mãe está recebendo energia ou se algum conector não está encaixado incorretamente.

Leds de diferentes cores estão presentes nos gabinetes atuais

Memória RAM: é um item fundamental na configuração de um computador, pois é a peça que será responsável por armazenar dados temporariamente enquanto o processador efetua cálculos diversos.

Modem: é o componente responsável por conectar você com a internet — ou era, pois atualmente a placa de rede está substituindo o modem. Há modems tanto para internet discada quanto para internet ADSL.

Northbridge (Memory Controller Hub): é um chip presente na placa-mãe que tem como função principal controlar os dados da memória e efetuar a comunicação entre processador, placa de vídeo e a própria memória. O Northbridge (ponte norte) é um dos componentes que integram o chipset e fazem toda a mágica do hardware acontecer.

Northbridge da VIA

Onboard: é a palavra utilizada para definir qualquer placa (de vídeo, rede, som, modem) que já venha acoplada na própria placa-mãe.

Offboard: placas que sejam conectadas em algum slot da placa-mãe são chamadas de placas offboard. Elas têm esse nome justamente porque não fazem parte da placa-mãe.

PATA: o termo significa “Parallel Advanced Technology Attachment”, algo como: tecnologia avançada de anexo em paralelo. O termo PATA é utilizado ao fazer referência ao tipo de disco rígido utilizado. Os discos com interface (conexão) PATA são mais antigos e usam cabos de 80 vias (alguns usavam cabos com 40 vias), sendo que eles são mais largos do que os cabos do atual padrão SATA.

Paralelo ATA

PCI: o PCI é, sem dúvida, o slot que mais perdurou ao longo da história da informática. Ele é um padrão um tanto lento, mas até hoje serve para trabalhar com placas que exijam pouca velocidade.

PCI-Express: o PCI-Express é uma espécie de slot, sendo que ele é um dos mais recentes padrões nas placas-mãe. O PCI-Express é o sucessor do PCI e tem a capacidade de transmitir dados em altíssima velocidade.

PCI-Express - Muito mais rápido que o AGP
Legenda: A imagem acima foi capturada pelo fotógrafo Clemens PFEIFFER, Vienna.

Placa-mãe: é a responsável por unir tudo. É nela que você coloca o processador, a memória, o HD e demais placas externas. As placas-mãe possuem várias especificações, sendo que cada uma trabalha com um tipo de processador específico.

Placa-mãe - Conecte tudo nela

Placa de rede: é responsável por efetuar a ligação do computador em uma rede qualquer, seja ela interna (rede LAN) ou externa (rede WAN). É por meio da placa de rede que você tem acesso à internet banda larga.

Placa de som: é o componente responsável por transformar os arquivos de som (MP3, WAV e quaisquer outros arquivos) em ondas sonoras que serão transmitidas pelas caixas acústicas.

Placa de Som da Creative - Uma das mais caras e de melhor qualidade

Placa de vídeo: É a peça que tem a função de calcular toda a parte gráfica em jogos e vídeos. Evidentemente, é a placa de vídeo que realiza o trabalho de enviar qualquer imagem para o monitor. As atuais placas de vídeo utilizam o slot PCI-Express da placa-mãe.

Uma placa de vídeo de última geração da ATI

Processador: Veja descrição de CPU. As placas de vídeo também trazem seus próprios processadores, para saber mais leia o que é GPU.

Um processador da AMD voltado ao mercado de servidores

RAM-CMOS: é a memória BIOS propriamente dita. Enquanto a BIOS faz referência ao software, a RAM-CMOS é a parte física onde os dados principais (para funcionamento básico dos itens de hardware) do computador são armazenados.

SATA: o termo significa “Serial Advanced Technology Attachment”, algo como: tecnologia avançada de anexo em série. O padrão SATA é usado para fazer referência aos discos rígidos que são comercializados atualmente. O cabo SATA é bem mais fino que o do tipo PATA e os dados são enviados em série, o que torna a máquina mais veloz.

SATA - Novo padrão para os HDs

Slot: o slot é qualquer espaço vazio na placa-mãe que seja específico para a adição de novas placas. O slot também é chamado de encaixe, pois é nele que você deve encaixar outras placas.

Slots mais comuns nas placas-mãe atuais
Legenda: A imagem do Slot PCI-Express foi capturada pelo fotógrafo Clemens PFEIFFER, Vienna

Socket: espaço destinado à instalação do processador. O socket (em português o termo é soquete) é diferente conforme a placa-mãe e o modelo do processador. Os sockets possuem diversos buracos para que os pinos do processador possam fazer contato com a placa-mãe. Vale frisar que Intel e AMD possuem diferentes tipos de socket.

Processador AMD e seu respectivo socket

Southbridge (I/O Controller Hub): chip responsável por controlar as placas conectadas aos slots PCI e os componentes onboard (como a placa de vídeo) da placa-mãe. O Southbridge é parte integrante do chipset, mas ao contrário do Northbrige, este chip não faz comunicação direta com o processador.

Southbridge da VIA

Transistor: um dos principais componentes da eletrônica é também fundamental para o funcionamento geral dos diversos componentes do computador. Os transistores estão presentes em processadores (onde há milhões deles), placas de vídeo, placas-mãe e em quase todas as partes físicas do PC.

Fonte: Tecmundo

O que tem dentro do seu computador?

Simplificamos as coisas. Descubra o que é cada componente dentro do gabinete e conheça as respectivas funcionalidades.

Utilizar computadores tornou-se uma tarefa corriqueira e muito divertida. Enquanto o PC está estável e apresentando bons resultados, ficamos muito contentes. Porém, quando um problema aparece, a preocupação toma conta. E só de pensar que o defeito pode ser nas peças do computador, já bate um desespero.

Muitos usuários pensam em nunca abrir o computador. Alguns têm medo de encontrar um mundo novo. Outros simplesmente preferem não mexer para evitar quaisquer problemas. Seja como for, conhecer a parte física da sua máquina pode ser importante. Para os curiosos pode ser até interessante, afinal, são diversos componentes eletrônicos que fazem uma mágica para você acessar a web e realizar outras tarefas.

O artigo de hoje é dedicado a todos que nunca abriram um gabinete e, também, para os usuários que desejam relembrar algumas informações importantes sobre hardware. Agora que você já visualizou nosso infográfico, vamos às explicações prolongadas.

Gabinete

Pode parecer esquisito abordar o gabinete como parte do hardware. Contudo, esse componente é essencial para comportar os demais itens. Além de armazenar as placas, discos e demais peças, o gabinete possibilita a organização dos cabos e serve como um local para resfriamento do hardware.

Gabinete

Normalmente o gabinete é fabricado com metais de alta resistência mecânica, ou seja, um material bem duro para evitar danos às peças que estão no interior. Todavia, existem modelos com acabamento em acrílico, plástico e outros materiais.

Um erro recorrente, e inclusive normal, é chamar o gabinete de CPU. Na realidade, ele armazena a CPU, mas está longe de ser uma. É preciso sempre ter em mente que o gabinete não tem qualquer função eletrônica, enquanto o processador (CPU) é um item “pensante”.

Placa-mãe

A placa-mãe só não é o principal componente do computador porque não é ela quem executa os programas. Todavia ela é a peça que une todos os demais itens de hardware, o que a torna essencial para o funcionamento da máquina.

Quando você abre o gabinete, não é possível visualizar a placa-mãe por completo, porque ela está oculta embaixo de outros componentes. Como você pode ver na imagem acima, as placas-mãe possuem um formato retangular e uma enormidade de pequenas peças visíveis a olho nu.

A placa-mãe

A placa-mãe possui espaços próprios para encaixar o processador, os módulos de memória, placas extras e diversos cabos. Além disso, ela conta com furos próprios para que, com o uso de parafusos, seja possível fixá-la ao gabinete.

Por ocupar grande espaço, fica quase impossível não notar que seu PC possui uma placa-mãe. Ela possui alguns componentes que chamam a atenção, como é o caso do chipset (um item metálico com formato quadrado que fica próximo dos locais para encaixe de placas extras) e dos conectores que ficam visíveis na parte traseira do gabinete.

Processador

O processador é o item mais importante da máquina. A maioria dos computadores nem sequer liga sem a presença de uma Unidade Central de Processamento (Central Process Unit ou CPU). Uma CPU possui formato retangular e possui milhões de pequenas peças minúsculas.

Em um primeiro instante, você não conseguirá visualizar o processador dentro do gabinete. Ele fica embaixo do dissipador e do cooler. O dissipador é um componente metálico de tamanho avantajado que, como o próprio nome diz, serve para dissipar o calor. Já o cooler é a ventoinha que fica em cima do dissipador e que tem como função retirar o ar quente da CPU.

Dissipador e Cooler

(Fonte da imagem: Reprodução/Wikimedia Commons - Autor: Mike Babcock)

A CPU se comunica com os demais componentes de hardware através das ligações na placa-mãe. Para poder executar os programas e jogos, o processador deve receber dados da memória RAM, trocar informações com o chipset e enviar ordens para outros componentes.

Embaixo do processador há diversos pinos metálicos, os quais fazem a ligação com a placa-mãe. A quantidade de pinos varia conforme o modelo da CPU. Cada fabricante opta por um padrão diferente, até porque a arquitetura interna dos processadores exige mudanças na parte externa.

Pinos do processador

(Fonte da imagem: Reprodução/Wikimedia Commons - Autor: Mike Babcock)

Memória RAM

A memória RAM não é, necessariamente, apenas um item. Em muitos computadores ela pode ser composta por dois, três ou mais módulos. Muitas pessoas têm o costume de usar a palavra “pente” para se referir ao módulo, isso ocorre porque, de certa forma, o formato lembra um pouco.

Módulos de memória RAM

As memórias RAM são retangulares e têm a largura bem maior do que a altura. Elas são instaladas na placa-mãe e ficam próximas do processador. Os dados que ficam armazenados nela são temporários e essenciais para que a CPU acesse os processos em execução com alta velocidade.

HD

HD é a abreviatura para Hard Disk. Essa palavra significa disco rígido, nome comumente utilizado para fazer referência ao componente que armazena as pastas e arquivos. É no HD que fica instalado o sistema operacional, os programas e os jogos.

Além disso, o disco rígido guarda os vídeos, as músicas e as imagens do usuário. Diferente da memória RAM, o disco rígido não armazena os dados temporariamente. Todas as informações presentes no HD ficam nele até que o usuário dê uma ordem para exclui-las.

HD

Fisicamente falando, o HD é um componente de formato retangular. Ele é pesado e possui em seu interior discos de metal, os quais mantêm os dados gravados. O HD é um dos poucos componentes mecânicos do computador, o que limita sua vida útil e faz com que ele consuma mais energia.

Nos computadores mais recentes, os HDs estão sendo substituídos por SSDs. Esses novos drives armazenam os dados em chips eletrônicos, detalhe que possibilita maior velocidade para leitura e gravação dos dados. Os SSDs ainda não possuem tanta capacidade de armazenamento como os HDs, no entanto, estão em constante evolução e devem substituir os discos rígidos dentro de alguns anos.

Slots PCI

Como citado anteriormente, as placas-mãe possuem espaços para a instalação de placas complementares. Tais espaços são conhecidos como slots. Atualmente existem dois padrões de slots: o PCI e o PCI-Express. O padrão PCI é o mais antigo e possibilita que o usuário instale placas de rede, de som, de modem, de captura e muitas outras.

Slots PCI

(Fonte da imagem: Reprodução/Wikimedia Commons - Autor: Smial)

Antigamente existiam placas de vídeo para o padrão PCI, porém com a evolução do padrão, essas placas pararam de ser fabricadas para esse tipo de slot. As atuais placas-mãe possuem poucos slots PCI, justamente porque os componentes com esse tipo de encaixe estão saindo de linha.

O slot PCI é mais lento que o PCI-Express, entretanto, a velocidade de transmissão de dados e de operação nesse slot é suficiente para quase todas as placas suportadas. Apesar disso, o abandono desse padrão será inevitável, pois o PCI-Express suporta os mesmos tipos de placa e oferece alta velocidade.

Slots PCI-Express

O PCI-Express é um tipo de slot mais recente, que vem para substituir o PCI. Ele possui muitas diferenças nos contatos metálicos, fato notável logo pelo tipo de encaixe. Ele até parece o slot PCI invertido com alguns contatos a mais.

Slots PCI-Express

(Fonte da imagem: Reprodução/Wikimedia Commons - Autor: Smial)

Como supracitado, o slot PCI-Express é o que há de mais atual para a utilização de placas complementares. As placas mais comuns para o padrão PCI-Express são as placas de vídeo. Elas conseguem trabalhar em alta velocidade graças ao modo de funcionamento do PCI-Express.

Outro detalhe que diferencia o padrão PCI-Express é a trava de segurança. Tal detalhe é fundamental para que as placas de vídeo sejam devidamente fixadas. Fisicamente, os slots PCI-Express são idênticos, todavia existem diferentes modelos, os quais podem ser identificados nos manuais das placas-mãe.

Placa de vídeo

As placas de vídeo são instaladas nos slots PCI-Express. Contudo, pode ser que seu computador não tenha uma placa gráfica instalada. Isso não quer dizer que ele não tem capacidade para processar elementos gráficos, mas indica que sua máquina não possui um item de hardware especializado para o processamento de elementos tridimensionais.

Placa de vídeo da AMD

Computadores sem placa de vídeo do tipo “offboard” (fora da placa) trazem um chip gráfico embutido na placa-mãe. Essas placas de vídeo discretas são chamadas de placas de vídeo “onboard” (na placa). A diferença entre esses dois tipos está no desempenho, que nas placas onboard é extremamente limitado.

Caso seu PC tenha uma placa de vídeo offboard, você facilmente irá identificá-la pelo enorme espaço que ela ocupa. Placas de vídeo offboard de desempenho razoável não necessitam de alimentação extra. Já as mais robustas trazem uma conexão exclusiva para o fornecimento de energia.

Fonte

Se o seu computador não é muito recente, é provável que a fonte de alimentação dele esteja instalada na parte superior. A fonte é uma caixa metálica, a qual fica conectada a uma tomada (por meio de um cabo ligado na parte de fora do gabinete) e interligada com os demais dispositivos de hardware.

Fonte de alimentação

A função da fonte de alimentação é receber a energia elétrica da tomada e transformá-la para que os componentes de hardware possam funcionar de maneira apropriada. Para tanto, ela conta com diversos transformadores e componentes elétricos, que terão como principal tarefa a redução dos 110 V (volts) da tomada para valores compatíveis (5 V e 12 V) com os itens de hardware.

Drive ótico

O último item de hardware é o drive ótico. Esse componente normalmente fica no topo do gabinete e sua função é ler discos de filmes, jogos, músicas, programas e dados em geral. Existem diversos tipos de drives óticos, mas no geral os modelos são divididos em três classes: drives de CD, drives de DVD e drives de Blu-ray.

Drive de DVD

(Fonte da imagem: Reprodução/Wikimedia Commons - Autor: Qurren)

Os drives que leem CDs não são capazes de reproduzirem outros tipos de mídia. Já os modelos que suportam DVD são compatíveis com CDs, todavia não podem trabalhar com Blu-rays. E os drives de Blu-ray são os mais avançados, capazes de executarem CDs, DVDs e Blu-rays. Há ainda dispositivos para gravação de mídias, os quais são classificados de forma idêntica.

Máquinas complexas ao extremo

Nosso artigo acaba por aqui, porém esperamos que você tenha gostado das explicações. Como você deve ter notado, todas as informações foram bem simplificadas para atingir todos os que não tinham conhecimento aprofundado no assunto.

Esperamos que nosso artigo tenha despertado a sua curiosidade e que você busque mais informações sobre a parte de hardware do computador que, apesar de complexa, pode ser fascinante. Fique à vontade para comentar e até uma próxima!

Fonte: Tecmundo – Veja Infográfico na página

terça-feira, 26 de abril de 2011

Já vale a pena instalar o Windows 7 na versão 64 bits?

Confira os motivos que levarão a versão de 64 bits ao completo domínio do mercado.

Ao baixar programas pelo Baixaki, você já deve ter se deparado com um informe solicitando que seja identificado se o seu computador é de 32 ou 64 bits. A escolha errada do formato do sistema operacional pode gerar a incompatibilidade do software baixado com o hardware do PC.

Mas qual a diferença dessas versões do SO? O que interfere na escolha da versão mais adequada para uma máquina? Com a popularização do Windows 7, vale a pena optar pela versão de 64 bits? O Tecmundo responde tudo isso para você.

Qual a diferença de 32 para 64 bits?

As versões de 32 e 64 bits possuem arquiteturas diferentes – e isso muda muita coisa! Essa estrutura diferenciada faz com que essas versões tenham capacidades de processamento distintas, ou seja, existem restrições quanto ao uso dos sistemas operacionais com determinados processadores.

Ao contrário do que muitos usuários imaginam, os bits do processador não representam a sua velocidade, mas a quantidade de dados que é transferida em cada ciclo. Assim, quanto maior a quantidade de bits do sistema operacional, maior será a exigência da memória RAM.

O sistema operacional com 32 bits (também identificado como x86) reconhece no máximo 3 GB de memória RAM. Isso significa que PCs com hardware superior a esse devem usar a versão do SO com 64 bits para acessar e utilizar toda a memória instalada.

Em suma: para você saber se pode utilizar o Windows de 64 bits (podendo ser representado como x64) com efetividade, basta verificar se o processador do seu computador é compatível com tal arquitetura e utiliza mais de 3 GB de memória RAM.

Vale lembrar que uma versão do SO de 32 bits pode rodar em uma máquina que possua arquitetura de 64 bits. Todavia, o contrário não é possível, ou seja, executar um sistema x64 em um PC com suporte apenas a 32 bits.

Não sabe qual a versão do Windows instalada no seu computador? Clique aqui e descubra se a sua máquina é de 32 ou 64 bits.

O problema da compatibilidade

Até aqui, vimos que a arquitetura dos processadores e a quantidade de memória RAM são as primeiras configurações a serem avaliadas no momento da decisão para a adoção do sistema operacional de 64 bits.

Entretanto, existem outros fatores que influenciam na adaptação da mudança de um SO x86 para x64. A compatibilidade de periféricos, demais componentes de hardware e softwares usuais pode ser motivo de muita dor de cabeça, ocasionando de pequenas falhas na execução de comandos ao não funcionamento do PC.

Por exemplo, os drivers que permitem o correto funcionamento de alguns componentes da máquina, como da placa gráfica e de áudio, são específicos para cada versão de sistema operacional.

Assim, será preciso reinstalar os drivers específicos para que esses componentes trabalhem com o Windows de 64 bits. Esses pacotes de dados, geralmente, podem ser encontrados nos sites dos fabricantes de cada componente. Algumas empresas não costumam lançar drivers atualizados, fato que pode se tornar um enorme problema para os consumidores.

A Microsoft oferece o Centro de Compatibilidade do Windows 7 para que os usuários informem-se sobre as compatibilidades do seu mais recente sistema operacional. O aplicativo Windows 7 Upgrade Advisor é uma alternativa para saber se o seu computador possui hardware compatível com o Windows 7. Outra opção para obter informações da sua máquina é o CPU-Z. Confira qual desses recursos satisfaz melhor as suas necessidades.

A nova realidade

Processadores de 64 bits compatíveis com o Windows existem desde 2003. Entretanto, outros componentes de hardware adaptáveis a essa arquitetura precisaram de alguns anos para se popularizarem. Com o suporte de hardware já avançado, muitos usuários sofriam com a incompatibilidade de softwares, tornando a adoção da versão x64 duvidosa para a maioria das pessoas.

Contudo, a realidade agora é bem diferente. As configurações mínimas dos computadores comercializados atualmente já alcançam as exigências mínimas da arquitetura de 64 bits. Podemos facilmente encontrar máquinas com 4 GB de memória RAM, e as famílias de processadores mais novas têm potência suficiente para aguentar a operação dessa versão de SO.

A maioria dos softwares usuais dos usuários (mensageiros instantâneos, editores de texto ou imagem, navegadores e players multimídia, por exemplo) já conta com versões para sistemas operacionais x64, o que elimina mais um fator limitante para a escolha desse tipo de sistema.

Na hora de decidir

O Windows 7 foi projetado com base na arquitetura 64 bits, oferecendo um desempenho otimizado ao ser usado em sua versão x64, logo que tem acesso a toda a memória RAM instalada no PC – característica que é restringida a 3 GB de RAM na versão de 32 bits.

Se você utiliza softwares mais pesados (como editores de vídeos, bancos de dados e suítes de programação), a quantidade de memória RAM e a velocidade com que os bits são transferidos e interpretados podem ser determinantes para um desempenho aprimorado no seu trabalho. Nesse caso, o Windows 7 de 64 bits é uma boa escolha, já que essa versão pode usufruir de quantidades maiores de memória RAM e executar pacotes de dados com maior rapidez.

Por outro lado, se sua máquina não conta com o hardware adequado ou se você usa um software específico que tenha apenas compatibilidade com o SO de 32 bits, é possível que a mudança de arquitetura gere falhas na execução de atividades comuns.

Portanto, antes de instalar o Windows 7 x64 no seu PC, lembre-se de:

  • Verificar se o processador da máquina suporta a arquitetura 64 bits;
  • Avaliar se a quantidade de memória necessária na sua rotina virtual exige mais que 3 GB de RAM;
  • Verificar a compatibilidade de todos os softwares usados com a versão x64 do sistema operacional;
  • Conferir se os componentes de hardware possuem drivers compatíveis disponíveis; e
  • Identificar se algum programa instalado possui recursos adicionais para a versão 64 bits que você deseja usufruir (é possível conferir esse tipo de vantagem nas opções avançadas de execução dos aplicativos).

Fonte: Tecmundo