Páginas

sexta-feira, 29 de abril de 2011

A história dos Computadores - Parte I

Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos atrás.

Por este motivo, desenvolvemos este artigo, que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em 4 partes e irá abordar temas diversos como ábaco: máquina de pascal, lógica de Boole, computadores mainframes, Steve Jobs, Bill Gates, entre vários outros.

Para começar, vamos falar sobre uma forma de calcular muito simples mas que também foi muito útil nas culturas antigas: o ábaco.

Ábaco, a primeira calculadora da história
Muitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia-a-dia, principalmente nas áreas de comercio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela, que contém pequenas bolas que realizam a contagem.

Seu primeiro registro é datado no ano de 5500 a.c., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão, etc. Cada um destes povos possui uma versão de específica desta máquina, entretanto, preservando a sua essência original. Seu nome roma antiga era "Calculus", termo de onde a palavra cálcuo foi derivada.

O fato deste instrumento ter sido difundido entre todas estas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com os sistemas de contagens utilizados no cotidiano fossem implementados de forma mais prática.

Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que padrão.

Régua de Cálculo

Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do renascimento necessitavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638, depois de Cristo, um padre inglês chamado William Oughtred , criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.

Até este momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e as deu o nome de logaritmos. Após, disso, multiplicar valores se tornou uma tarefa mais simples.

O mecanismo do William era consistido de um régua que já possuía uma boa quantidade de valores pré-calculados, organizados em forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.

Máquina de Pascal

Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pre-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado da primeira calculadora mecânica da história, a máquina de Pascal.

Seu funcionamento era baseado no uso de rodas interligadas, que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, ela não foi muito bem acolhida na época.

Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que pascal não tinha conseguido, criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada.

O Advento da programação funcional

Em todas as máquinas e mecanismos mostrados na parte 1, as operações já estavam previamente programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área.

A indústria de Jaquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo este problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.

Tal mecanismo foi chamado como Tear Programável, pois aceitava cartões perfuráveis com entrada do sistema. Desta maneira, Jaquard perfurava o cartão com a desenho desejado, e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas foram influenciados pelo Tear, incluindo o que vamos explicar logo abaixo.

A Máquina de Diferenças e o Engenho Analítico

No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até o exato momento, no ramo do cálculo eletrônico. O seu autor, Charles Babbage, afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos), de forma muito simples. Este projeto possuía o nome de Máquina de Diferenças.

Houve um grande boom na época por causa disso, pois as ideias aplicadas no projeto estavam muito a frente do seu tempo. Por causa de limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.

Após um período, no ano de 1837, Babbage lançou uma nova máquina, chamado de Engenho Analítico (Máquina Analítica). Ela aproveitava todos os conceitos do Tear Programável, como o uso dos cartões. Além disso, instruções e comandos também poderiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.

Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de limitações técnicas e financeiras. Simplesmente a tecnologia existente não era avançada o suficiente para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande, que muitas de suas idéias são usadas até hoje.

A Teoria de Boole

Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Boole desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1.

Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “O” representava o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos(bits) para a representação. Por exemplo:
• 00 – desligado
• 01 – carga baixa
• 10 – carga moderada
• 11 – carga alta

Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando, usa a teoria de Boole de forma prática.

Máquina de Hollerith

O conceito de cartões desenvolvidos na máquina de Tear Programável também foi muito útil para a realização do censo de 1890, nos estados unidos. Nessa ocasião, Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de computação dos dados computados.

Ao invés da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo, idade, os agentes do censo perfuravam estas opções nos cartões. Uma vez os dados coletados, o processo de computação da informação demorou aproximadamente 1/3 do comum. Foi praticamente uma revolução na maneira de se coletar dados.

Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.

Computadores Pré-modernos

Na primeira metade do século XX, várias computadores mecânicos foram desenvolvidos, sendo que com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.

A segunda guerra mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas cada vez mais estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre os projetos desenvolvidos neste período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.

Sendo uma das figuras mais importantes da computação, Allan Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos através de computadores. Para aqueles que apresentavam solução, foi criada a famosa teoria da “Máquina de Turing”, que através de um número finito de operações, resolvia problemas computacionais de diversas ordens diferentes. A máquina de Turing foi colocada em prática através do Computador Colosssus, citado acima.

A história dos Processadores

Descubra a evolução dos processadores desde o início até os dias de hoje.

O processador é o principal componente do computador, visto que todos os programas são executados através dele. Fazendo uma analogia, a CPU é como se fosse o coração da máquina, pois se ela parar de funcionar, todo o resto para junto. Toda a tecnologia existente nos novos processadores não foi criada do nada, mas sim desenvolvida durante várias décadas. Em outras palavras, muitos recursos existentes na CPU do seu PC já eram utilizados dez, vinte anos atrás.

Por esse motivo, neste artigo vamos fazer uma viagem pelo tempo, observando a evolução dos processadores desde sua origem até os dias de hoje. Começando, vamos abordar o período que não existiam processadores propriamente ditos como conhecemos hoje.

Período anterior ao processador

Como o conceito de processadores somente surgiu em 1970, os computadores das décadas anteriores (40, 50 e 60) utilizavam formas primitivas de processamento comparadas com as atuais Por exemplo, em uma máquina como o Eniac (lançado em 1945), que possuía quilômetros de fios e cabos espalhados por todo lado, os programas não eram executados em um mesmo local. Na verdade, para executar operações diferentes, era necessário trocar cabos manualmente entre conectores distintos. Grande parte do processamento era executado por válvulas e transistores muito primitivos.


No ano de 1960, a IBM lançou o seu “IBM 7030 Stretch”, considerado como o primeiro computador totalmente processado através de transístores, no lugar das válvulas. Seguindo a tecnologia "Batch" , seu usuário poderia incorporar funcionalidades “prontas” ao processador, por meio de circuitos impressos específicos. Por isso ,era muito comum que unidades de processamento fossem compostas de vários componentes físicos.

Com o IBM 360, em 1964, os processadores passaram a usar o conceito de “circuito integrado”, interligando várias operações em um mesmo circuito. Entretanto, eles ainda eram compostos por várias peças distintas, mas em um número muito menor comparado com o 7030 Stretch.

Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si. Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados em um único chip de silício.

Geração Pré-x86

O Intel 4004 foi o primeiro processador lançado um único chip de silício. Ele trabalhava com 4 bits, sendo desenvolvido para o uso em calculadoras, operando com o clock máximo de 0.78 Mhz. Esta CPU calculava até 92.000 instruções por segundo ( ou seja, cada instrução gastava 11 microssegundos) . Já em 1974, o 4040 foi lançado também pela Intel, sucedendo o 4004. Em valores absolutos, como o clock e o número de instruções calculadas, ambos modelos possuíam desempenhos semelhantes, contudo, o 4040 incorporou novas tecnologias, como Interrupção de Hardware, aumento significativo do conjunto de instruções e do número de registradores.

Com o sucesso do 4004, a mesma empresa desenvolveu o processador 8008 no ano de 1972, semelhante ao modelo anterior, mas que agora trabalhava com instruções de 8 bits. Seu clock trabalhava na frequência de 0.8 Mhz. Em 1974, a Intel lançou o 8080, que trabalhava com operações de 16 bits usando instruções de 8 bits, com o clock em 2 Mhz, valor bastante alto para época.

A arquitetura x86

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para uma boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançou 5 Mhz, utilizando instruções reais de 16 bits, o dobro que suas versões concorrentes.

Pouco tempo depois, o 8088 foi lançado, possuindo o barramento externo com 8 bits, ao contrário dos 16 bits do 8086, assim, tornando-o mais barato. Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, utilizados em software embarcado. Em 1982, o capacidade de processamento chegou ao patamar de 8 Mhz, através do Intel 80286, que posteriormente atingiu 25 Mhz em modelos similares da AMD, causando um fenômeno na época.

Versão X86-32

Como seu nome sugere, x86-32 é arquitetura x86 para 32 bits, utilizada até hoje nos computadores. Em outras palavras, todo processador de 32 bits vendido atualmente roda sobre a arquitetura x86-32 (os de 64 bits rodam sobre a x86-64).

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com 40 Mhz e 100 Mhz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução seja executada ao mesmo tempo no PC.
Para o 80486, existiram diversas versões, sendo que cada uma delas possuiam pequenas diferenças entre si. Por exemplo, o 486DX era o top de linha da época enquanto o 486SX era uma versão baixo custo.

A guerra entre Intel e AMD

A série de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da super escalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 Mhz, o qual chegou a atingir 200 Mhz com o tempo.
Em 1995, a Intel lançava o Pentium Pro, que possuía uma série de melhoramentos em relação ao seu antecessor. Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original.


Dois anos depois, o Pentium II foi lançado, atingindo a marca de 450 Mhz. Nesta mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo ambas empresas travaram uma espécie de “corrida armamentista”, como o objetivo de ver quem conseguia o maior desempenho e valor de clock.

A corrida por desempenho a lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o clock dos processadores dobrava a cada 18 meses. Tal afirmação foi conhecida como a Lei de Moore, a qual foi verdadeira durante anos, principalmente no final da década de 90. Sempre que uma empresa lançava um modelo, meses depois a outra lançava outro que o superava. Isso ficou bastante evidente nos anos de 1999 e 2000, quando o Pentium 3 e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores que 1 Ghz, superou o Pentium 3.
A reviravolta da Intel veio com o lançamento do Pentium 4 em 2001, que trabalhava com até com 2 Ghz, voltando ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD) também disputavam fortemente o lugar mais alto no ranking do processador B mais vendido.

A era multi-core e o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foram diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0.13 micrometros) e numerosos (120 milhões) que tornou-se muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.
A principal solução para este problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionar de maneira eficiente, é possível trabalhar com quase o dobro do clock. Por exemplo, um processador dual core 1.5 Ghz poderia ter um desempenho semelhante a um single-core de 3 Ghz. Existe um componente chamado escalonador, que determina em qual dos núcleos uma tarefa qualquer será executada. Como o escalonador demora um certo tempo nesta decisão, é quase impossível atingir o dobro de desempenho na prática.

Com o advento do multicore, a lei de Moore caiu por água abaixo, visto que já não era mais possível aumentar a frequência do processador como antes.

O Advento 64 bits

No começo desta década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que somente 4 GB de memória RAM poderiam ser endereçados com essa quantidade de dígitos. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.


Ambas empresas desenvolveram suas próprias arquiteturas 64 bits, contudo, somente o projeto da AMD (x86-64 AMD64) foi vitorioso, enquanto que o desenvolvido pela Intel (IA-64) foi malsucedido. O principal fato para isso ter acontecido foi porque a AMD evoluiu o AMD64 diretamente do x86-32, enquanto que a Intel tentou criar o projeto direto do zero.

Visto esse acontecimento, as empresas em questão criaram um acordo no uso destas arquiteturas, onde a AMD licenciou a Intel para o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 (imagem acima) foi um dos maiores representantes desta arquitetura.


Processadores Intel: Quais as diferenças entre os modelos vendidos atualmente?
A fabricante número um de processadores do mundo disponibiliza sete modelos principais de CPUs com múltiplos núcleos. Talvez você já tenha visto nomes como “Dual Core”, “Core2Duo”, “Core2Quad” ou “Core i7”, no entanto pode ser que você não tenha a mínima idéia das diferenças reais entre eles.
A princípio é fácil perceber que um “Dual Core” possui dois núcleos, mas então o que o “Core2Duo” traz de diferente? Abaixo você vai conferir descrições sobre cada processador, porém este artigo visa apenas descrever as configurações internas de cada um e mostrar o tipo de tarefa que cada um desses CPUs foi designado, por isso não espere uma tabela comparativa com preços e indicações de qual é o melhor.
Pentium D
Lembra dos antigos Pentium 4? Pois é, o Pentium D é a junção de dois processadores Pentium 4. Muitos usuários pensam que o Pentium D é um processador de núcleo duplo excelente, porém a história é um pouco diferente. Assim como acontecia com o Pentium 4, tudo se repetiu no Pentium D.
A Intel precisava colocar dois núcleos com uma freqüência muito alta para conseguir um bom desempenho. A memória cache dos Pentium D é razoavelmente suficiente, porém como a Intel parou de investir neste tipo de CPU, atualmente os valores de memória e até a própria velocidade destes processadores não proporcionam bons resultados em games e aplicativos pesados.
Pentium Extreme Edition
Pelo nome não parece, mas os tais Pentium Extreme Edition são processadores de duplo núcleo também. A diferença entre estes e os Pentium D é, basicamente, que o Extreme Edition é um processador com dois Pentium 4 Extreme Edition trabalhando em conjunto. Com um desempenho um pouco melhor, algumas tecnologias a mais que auxiliam no trabalho pesado, este processador ganhou pouca fama, pois logo foi substituído por outros modelos.
O Pentium 4 Extreme Edition trabalhava com a tecnologia HT (a qual simulava dois processadores num só), a qual permitia um ganho de até 30% em múltiplas tarefas. Como o Pentium Extreme Edition é uma evolução, ele traz dois núcleos que operam com a tecnologia HT. Sendo assim, os dois núcleos do Pentium Extreme Edition simulam dois núcleos virtuais, de modo que o processador disponibiliza quatro núcleos para o sistema.

Core 2 Duo
Atualmente os Core 2 Duo estão entre os processadores mais cobiçados para jogos. Se comparado com os antigos processadores de dois núcleos da empresa, os novos Core 2 Duo mostram uma superioridade incrível. O grande motivo da diferença em desempenho é o novo sistema de núcleo da Intel.
Os antigos Pentium D trabalhavam com uma linha de processamento idêntica a dos Pentium 4, já os tais Core 2 Duo funcionam com a nova tecnologia Core. Com uma freqüência (velocidade) mais baixa, um pouco mais de memória interna, modos mais eficiente de compartilhamento de recursos e alguns outros detalhes, os Core 2 Duo são os processadores mais potentes no ramo dos Dual Core.
O Intel Core 2 Duo é indicado para jogos de última geração, edição de imagem e vídeo, programas matemáticos ou de engenharia e tarefas que requisitem alto processamento. Há vários modelos, sendo que os mais fortes não são viáveis para quem procura montar um PC econômico.

Pentium Dual Core
O Pentium Dual Core surgiu praticamente na mesma época do Core 2 Duo. Tendo a arquitetura (sistema interno de peças) baseada no Core 2 Duo, o Pentium Dual Core trouxe apenas algumas limitações. O tão falado FSB (barramento frontal) tem velocidade menor, a memória interna (cache) do processador é menor e os modelos disponíveis trazem clocks (velocidades) mais baixos.
Para o usuário que procura apenas navegar na internet e realizar tarefas simples, este processador pode ser uma excelente escolha, visto que a relação custo-benefício dele é uma das melhores quando se fala em processadores Intel de duplo núcleo.

Core 2 Quad
Descendentes dos Core 2 Duo, os novos Core 2 Quad nada mais são do que processadores com quatro núcleos e um sistema interno muito semelhante aos seus antecessores. Ainda novos no mercado, os Core 2 Quad apresentam desempenho relativamente alto, porém em algumas tarefas eles perdem para os Dual Core.

O grande problema nos “Quad Core” (termo adotado para falar a respeito de qualquer processador de quatro núcleos) é a falta de programas aptos a trabalhar com os quatro núcleos. Além disso, o custo destes processadores ainda não é ideal para os usuários domésticos.

Core 2 Extreme Quad Core
Apesar da grande performance apresentada pelos Core 2 Quad, a Intel conseguiu criar um processador quase idêntico com maior velocidade. Apresentando dois modelos com a velocidade de clock superior, a Intel criou estes processadores especificamente para gamers e usuários fanáticos por overclock.

A relação custo-benefício é péssima, pois custam quase o dobro dos Core 2 Quad e não fornecem o dobro de desempenho. Em jogos há um pequeno ganho de desempenho, mas nada extraordinário que valha realmente a pena.
Vale ressaltar que há processadores Core 2 Extreme de dois e quatro núcleos. Ao comprar um Core 2 Extreme é importante averiguar se o processador é de dois ou quatro núcleos, pois enganos acontecem e você pode acabar pagando por um processador Quad Core e levar um Dual Core, muito cuidado!

A última palavra em tecnologia é o Core i7. A nova linha de processadores da Intel opera com quatro núcleos, velocidade semelhante a dos Core 2 Quad e quantidade de memória cache parecida. As mudanças são diversas, começando pelo suporte de memória DDR3 e abrangendo até o modo de comunicação com os outros itens do PC.

O novo Intel Core i7 traz a tecnologia HT, a qual simula múltiplos núcleos e tende a aumentar o desempenho significativamente para aplicações que trabalhem com a divisão de processamento. Segundo o site da Intel, estes novos processadores podem simular até oito núcleos, isso se o sistema operacional for compatível com a tecnologia.
Como estes processadores são lançamento, o preço deles é astronômico (dificilmente encontra-se um processador dessa linha por menos de mil reais), sendo indicado apenas para entusiastas e pessoas com muito dinheiro. A performance do Core i7 é sem dúvida superior a qualquer outro processador, no entanto talvez não seja uma boa idéia comprar estes processadores agora, visto que não há programas que exijam tamanho poder de processamento.