Tecnologia

História dos Computadores

A disputa pelo título de primeiro computador do mundo é acirrada. Isto porque devemos levar em consideração que os precursores dos primeiros computadores eram máquinas mecânicas. Aos poucos, com a utilização de eletricidade com chaves mecânicas e eletromagnéticas, chegou-se à utilização de computadores eletro-mecânicos. Mas aí está o ponto. As máquinas puramente mecânicas são ou não são computadores ? E as eletro-mecânicas ? Podemos considerá-las, pois, computadores ?

O que podemos considerar como primeiro computador do mundo foi desenvolvido no MIT (Massachussetts Institute of Tecnology) em 1931 por Vannevar Bush. Era analógico e possuía parte mecânicas, tendo sido construído para resolver equações diferenciais simples. Na verdade era mais uma calculadora do que qualquer outra coisa.

Porém, a utilização de elementos analógicos era problemática, pois uma variável pode assumir qualquer valor de -a + – como ocorre realmente na natureza. Isto significa que qualquer tipo de ruído, seja qual for a origem, irá inevitavelmente alterar as variáveis e interferir nos dados apresentados. Para que isto fosse contornado, precisava-se diminuir o número de variações que cada variável poderia assumir. Só que, para isto, toda base que estava sendo utilizada teria que ser totalmente descartada ! E foi exatamente o que aconteceu.

Uma outra base numérica passou a ser utilizada – a binária. Nesta base só existem dois algarismos, “0” ou “1”, ao contrário do sistema decimal, aonde temos dez algarismos, de “0” a “9”. Esta base numérica já era conhecida e já possuía sistemas de subtração, adição, multiplicação e divisão, após pesquisa de Francis Bacon por volta de 1623 e posteriormente Gottfried Wilhelm Leibniz a partir de 1679.

Artigos relacionados

Quando criada, tal base numérica não despertou tanto interesse. Porém, todo este sistema numérico serviria como uma luva para o desenvolvimento de computadores, agora não mais analógicos, mas sim digitais (a origem da palavra digital vem justamente do fato de ao invés de nos basearmos em uma álgebra convencional de 10 algarismos, como em nossas mãos, baseamo-nos agora em somente dois algarismos – “0” e “1” – contado com um só dedo, ou seja, um só dígito). Neste caso, cada variável poderia assumir somente dois valores: “0” e “1”. Qualquer valor diferente destes seria completamente descartado, eliminando-se o problema do ruído. Fora isto, a lógica digital é muito mais simples, já que baseia-se em variáveis que assumem duas atitudes, ao invés de infinitas.

A base binária em si não serviria de muita coisa se o matemático inglês George Boole não tivesse criado em 1854 toda uma lógica binária, que complementaria a base binária. Com esta lógica foi possível a criação de portas lógicas, o elemento básico para a criação de computadores. Complementando o simples “sim” e “não”, “ligado” e “desligado”, etc que os números “1” e “0” poderiam representar, Boole criou condições especiais, a partir de “verdadeiro” e “falso” que tais números também poderiam representar, juntando a base binária à tradicional teoria dos conjuntos – como a condição “E” para a interseção de dois conjuntos e “OU” para a união de dois conjuntos. Com isto teremos condições suficientes para criar um circuito lógico, um circuito capaz de reagir de acordo com dados entrados, ou seja, dar uma resposta de acordo com a entrada, de uma maneira pré-definida. Como exemplo banal de um circuito lógico poderíamos citar uma calculadora, que é capaz de dar a resposta de uma conta após termos entrado os valores. Desta maneira, a matemática utilizada em circuitos lógicos digitais é chamada de álgebra booleana.

Já em 1937, Howard Aiken desenvolveu o que veio a ser o primeiro computador eletromecânico do mundo: o MARK I, apoiado pela IBM (International Business Machines) e pela marinha americana, que o custearam. Para que você visualize o tamanho, o MARK I media dezoito metros de comprimento, por dois metros e meio de altura.

O projeto do primeiro computador eletrônico do mundo foi o ABC (Atanasoff Berry Computer). Iniciado em 1937, seu criador não conseguiu concluí-lo, tendo abandonado completamente o projeto no ano de 1942. Foi o primeiro computador a utilizar válvulas termoiônicas.

Com a chegada da II Guerra Mundial e conseqüente avanço da eletro-eletrônica, os Serviços Secretos de diversos países queriam construir seus computadores, principalmente para serem utilizados na codificação de mensagens. De um lado, a Alemanha de Hitler construiu em 1941 o Z3. Do lado dos Aliados, a Inglaterra construiu um computador capaz de decifrar as mensagens utilizadas pelos países do eixo, codificadas pelo próprio Z3. Em 1943 foram produzidos dez Colossus, o nome que este computador recebeu. Como o próprio nome sugere, possuía dimensões gigantescas, cerca de 1.500 válvulas e era capaz de processar cerca de 5.000 caracteres por segundo. A válvula é um componente que trabalha com tensões elétricas relativamente altas e é basicamente térmico. Portanto, o mais comum era alguma válvula se queimar dentro de pouco minutos, fora o super aquecimento que as instalações do computador sofriam.

A Guerra fez com que todos percebessem que a hora da criação de tais máquinas tinha chegado. No mesmo ano da criação do Colossus foi iniciado o projeto do ENIAC (Electronic Numeric Integrator And Calculator), o primeiro computador à válvulas dos Estados Unidos, terminado somente após a guerra (1946), também para uso basicamente militar – como cálculo de trajetória de mísseis. Alan Turing, o mesmo criador do Colossus, ajudou neste projeto. O ENIAC tinha cerca de 18.000 válvulas, sendo que de dois em dois minutos uma válvula se queimava ! O ENIAC era tão colossal quanto qualquer outro computador desta época. Ou mais ainda ! Ocupava uma área de 170 metros quadrados e pesava 30 toneladas. Sua (então) “incrível” performance foi há muito superada por qualquer calculadora de bolso !

A partir de 1945, um novo marco foi colocado na história dos computadores com John von Neumann, Arthur Burks e Herman Goldstine. Para se ter uma idéia, a programação do ENIAC era toda feita através de ligação de cabos em conectores, o que demorava literalmente semanas. As idéias de von Neumann – que são utilizadas até hoje – fizeram com que os computadores pudessem ser programados através de programas, rotinas de manipulação de dados que se utilizam de instruções próprias do computador.

A partir das idéias de von Neumann e sua equipe, os primeiros computadores a utilizarem conceito de programas foram criados: o EDSAC (Electronic Delay Storage Automatic Computer) e o EDVAC (Electronic Discrete Variable Automatic Computer), em 1949. Os computadores passaram a diminuir bastante de tamanho.

Mas, além do tamanho de gigantesco, essas colossais máquinas eram todas frutas das mais diversas pesquisas de um mercado eminente. Ou seja, quem operava tais máquinas eram os próprios criadores para um público muito restrito. O primeiro computador a ser produzido em escala comercial foi o UNIVAC (Universal Automated Computer), pelos mesmos criadores do ENIAC. O primeiro UNIVAC ficou pronto em 1951.

A IBM passa a dominar o mercado de computadores ao construir seus computadores em escala comercial, com o lançamento do IBM 701 em 1953 e, principalmente, do IBM 650 em 1954. Este último vendeu mais de mil unidades, um sucesso absoluto de vendas, e que veio refletir a real necessidade que o mundo teria no uso de computadores.

A partir da criação da técnica de circuito impresso, em 1957, os computadores puderam diminuir um pouco mais de tamanho. As placas de circuito impresso são utilizadas na ligação elétrica entre os diversos componentes existentes em um circuito eletrônico. Antes, todas estas ligações eram feitas através de suportes e fios, o que acarretava mau-contato e instabilidade. Com o circuito impresso estas ligações são feitas em uma placa rígida, bastante estável e apresentando muito menos problemas de contato, sem contar que os componentes ficam melhor fixados. Nesse mesmo ano é desenvolvida a linguagem FORTRAN (Formula Translator), a primeira linguagem de alto nível para computadores.

O primeiro transistor foi criado em 1947, mas seu uso comercial só ocorreu a partir do final da década de 50. Os transistores vieram a substituir as válvulas. Por ser um componente baseado na tecnologia dos semicondutores – elementos com propriedades físicas especiais, tal como o germânio e o silício – o transistor é considerado um “componente do estado sólido” e possui a grande vantagem de não se aquecer como as válvulas nem muito menos quebrar por choque físico, além de ser fisicamente muito menor. Gradativamente as válvulas passaram a ser substituídas por transistores, fazendo com que a maioria dos equipamentos eletrônicos – e leia-se aí os computadores – passassem a ocupar um menor espaço físico, esquentando menos e consumindo menos corrente elétrica. Os primeiros computadores a se utilizarem totalmente de transistores foram o IBM 1401 e IBM 7094 que juntos, venderam mais de 10.000 unidades, reafirmando mais uma vez a demanda por um indústria mundial de computadores. Outros computadores como os da DEC (Digital Equipment Corporation) foram de muitíssima importância. A série de computadores da DEC recebiam o nome PDP, sendo o PDP-1 lançado em 1959. E em 1963 a DEC criou o primeiro minicomputador, o PDP-5.

Em 1962 foram usados pela primeira vez discos magnéticos para o armazenamento de informações, no computador Atlas. Na época, além de serem gigantescos, os computadores usavam imensas unidades de fita magnética para o armazenamento de informações para uso posterior, além de sistemas de cartões perfurados, onde as informações que você queria passar para o computador eram marcadas através de perfurações feitas em cartões para a posterior leitura pelos computadores – processo extremamente demorado. Obviamente tais discos magnéticos ainda estavam longe de serem parecidos com os discos magnéticos como conhecemos hoje em dia.

Um fato importantíssimo favoreceu a criação dos circuitos integrados e o desenvolvimento da computação em geral, na década de 60: A Corrida Espacial. O governo Americano investiu bilhões de dólares em pesquisas, para que os americanos fossem os primeiros a chegarem ao espaço. A criação de um pólo de pesquisas avançadas – a ARPA (Advanced Research Projects Agency) – fez com que surgissem vários conceitos que foram empregados e que refletem direta e indiretamente tudo o que há no mundo da informática hoje. Entre eles podemos destacar a interação homem-máquina – tendo como conseqüências como a criação dos video-games – e redes descentralizadas de computadores – possibilitando a criação de redes globais de computadores como a Internet, que hoje conhecemos tão bem. Neste ponto havia a necessidade de serem criados instrumentos confiáveis e, principalmente, que ocupassem pouco espaço físico. Deste modo, em 1963 começou a produção dos primeiros circuitos integrados, com a junção de vários transistores em um só componente, colocando um circuito relativamente grande dentro de uma só pastilha de silício.

Um dos primeiros computadores a utilizar circuitos integrados foi o IBM/360, lançado em 1964. Avançadíssimo para a época, fez com que todos os outros computadores fossem considerados totalmente obsoletos, fazendo com que a IBM vendesse mais de 30.000 computadores deste.

Mas não só a ARPA era um grande centro de pesquisas na década de sessenta: Outros centros, como o MIT (Massachusetts Institute of Technology) e o SRI (Standford Research Institute) trabalhavam em pesquisas de interação homem-máquina e foram de grandíssima importância para a base do que hoje é a micro-informática tal qual a conhecemos, por apresentarem propostas como dispositivos indicadores – o que hoje conhecemos por mouse – e interligação de computadores entre si para a troca de informações – a rede Ethernet tal qual conhecemos hoje. Mais importante ainda foi o PARC (Palo Alto Research Center), criado pela Xerox em 1970. Neste centro foi desenvolvida toda a base da comunicação visual que seria utilizada por computadores dali por diante – através de uma interface gráfica, usando componentes em forma de ícones, janelas e a estrutura WYSIWYG (What You See Is What You Get – O que você vê é o que você obtém), que mostra na tela seu trabalho exatamente da maneira como sairá impresso. A Xerox, apesar de possuir toda essa tecnologia já na década de setenta, não estava interessada na utilização da mesma em computadores pessoais – os microcomputadores. Todas as grandes empresas estavam interessadas somente no mercado dos computadores de grande porte, para serem implantados em empresas. Não tinham a visão de pessoas usando computadores em suas casas também. Essa tecnologia foi empregada basicamente nos computadores Altos e, mais tarde, no Star, criados logicamente pela própria Xerox.

Um passo maior ainda foi dado quando foi desenvolvida, em 1971, a tecnologia LSI (Large Scale Integration), que permitiu a junção de vários circuitos integrados em um só, dando origem aos microprocessadores. Os microprocessadores são circuitos integrados que permitem ser programados a fim de que executem uma determinada tarefa. A empresa americana Intel foi a responsável pela criação dos primeiros microprocessadores, o 4004, que manipulava palavras binárias de 4 bits (cada algarismo binário – cada “0” e cada “1” presente em uma palavra binária – é chamado de bit – Binary Digit. Ao conjunto de quatro bits damos o nome de Nibble.) e o 8008, no ano seguinte, que manipulava palavras binárias de 8 bits (Ao conjunto de oito bits damos o nome de byte).

As revistas de eletrônica na época começaram a publicar projetos de circuitos para estes microprocessadores e, de um destes projetos, surgiu o primeiro microcomputador comercial, o Altair 8800, que era vendido sob a forma de Kit.

A Intel lança em seguida o primeiro microprocessador “de verdade”, o 8080. Outra empresa, a Motorola, lança o microprocessador 6800, para concorrer com a Intel. E, ao mesmo tempo, diversos outros fabricantes de circuitos integrados começaram a desenvolver seus próprios microprocessadores, porém adotando as mesmas características do 8080, ou seja, manipulação de palavras binárias de 8 bits e acesso a até 64 KB de memória (memória é o local de onde e para onde o microprocessador recolhe os dados a serem processados ou já processados. Como este microprocessador manipula dados de 8 em 8 bits, ou seja, de byte em byte, usamos a unidade byte (B) para representar a capacidade de memória máxima. Kilo (K), que em decimal representa 103, ou seja, 1000, em binário representa 210, ou 1024. Dizer que um microprocessador acessa um máximo de 64 KB significa dizer, portanto, que tal microprocessador pode acessar até 65536 lugares diferentes para guardar ou buscar um dado de 8 bits). Entre as empresas que criaram seus próprios microprocessadores estavam a National Semiconductor, a Signestics, a Advanced Micro Devices e a MOS Technology. A MOS Technology desenvolveu o microprocessador 6500, mas ele era tão parecido com o 6800 que ele sofreu uma revisão e foi relançado como 6502.

Durante este período os microcomputadores eram desenvolvidos basicamente por hobbystas e para hobbystas – pessoas fanáticas por eletrônica – como forma de “brincarem” com os novos componentes que estavam sendo lançados no mercado pelos fabricantes, como por exemplo o já citado Altair 8800. Mas o presidente da canadense Commodore, Jack Tramiel, acreditava na potencialidade comercial destas máquinas e de seu uso como hobby também por pessoas não intimamente tão ligadas à eletrônica. Em 1976 a Commodore fabricava somente máquinas de calcular e outros utensílios para escritório e estava à beira da falência. Mas a crença de Jack Tramiel, principalmente no microprocessador 6502, era maior. Ele chamou Chuck Peddle, que já havia trabalhado anteriormente na MOS Technology e na Motorola (portanto ele era um dos “pais” do 6800 e do 6502) para trabalhar num projeto de microcomputador pessoal comercial para a Commodore. Assim foi criado e lançado o primeiro microcomputador pessoal do mundo, o PET 2001 (Personal Electronic Transactor), que justamente visava um público não-hobbista. Logicamente, a Commodore saiu do buraco.

Um dos clubes de hobbistas que existia na época era o Homebrew Computer Club, do qual faziam parte Steve Wozniak, que trabalhava na HP e Steve Jobs, que trabalhava na Atari. Eles desenvolveram um microcomputador baseado no microprocessador 6502, não pela sua versatilidade, mas sim pelo preço. Em 1976 os microprocessadores mais versáteis, como o próprio 6800 e o 8080, custavam centenas de dólares, enquanto o 6502 custava “somente” 20 dólares. Eles levaram o projeto à HP, que não se interessou. Decididos, resolveram produzir eles mesmos o tal microcomputador, batizado de Apple. O Apple foi criado para ser utilizado e vendido para hobbistas e cerca de 175 foram vendidos, com um enorme sucesso no meio. Logo em seguida, vendo que o caminho era este, eles projetaram o Apple II, desta vez com uma visão real de mercado. O projeto estava pronto, eles só precisavam do dinheiro. Eles venderam tudo o que tinham, se juntaram a Mike Markkula, que entrou na sociedade porque tinha o dinheiro que eles precisavam, e assim começou a grande história dos microcomputadores pessoais. O Apple II foi o primeiro microcomputador pessoal com unidade de disco flexível e projetado para atender tanto ao mercado pessoal como profissional.

A Tandy, uma das grandes empresas norte-americanas do ramo da eletrônica, também não queria ficar de fora. Vendo que a Apple e a Commodore cresciam assustadoramente, começou a desenvolver o seu TRS-80 (Tandy Radio Shack). A Tandy iria comercializar o seu TRS-80 pela sua cadeia de lojas de produtos eletrônicos, a Radio Shack, se não a maior, uma das maiores redes de lojas de produtos eletro-eletrônicos nos Estados Unidos até hoje. O TRS-80 era baseado em um novo microprocessador: o Z-80. O Z-80 é um microprocessador desenvolvido pela Zilog, baseado no 8080 da Intel.

E foi criado, logicamente, o primeiro sistema operacional, um programa que permitiria o acesso a unidades de disco magnético por parte dos microcomputadores. Este sistema operacional, o CP/M (Control Program / Microcomputers), criado por Gary Kildall através de sua empresa, a Digital Research, foi escrito somente para microcomputadores baseados nos microprocessadores 8080 e 8085 – além de anunciar para breve o CP/M-86, para microcomputadores baseados no microprocessador 8086 – todos da Intel; e no microprocessador Z-80, da Zilog. A conseqüência direta disto foi a adoção desta linha de microprocessadores por todos os fabricantes de microcomputadores que queriam ter unidades de disco flexível em suas máquinas. A Apple teve que, então, criar seu próprio sistema operacional para o Apple II. Além de operar sistemas, os microcomputadores precisavam de uma linguagem na qual as pessoas pudessem escrever seus programas. A escolha mais lógica foi a linguagem BASIC. Bill Gates criou a Microsoft, e desenvolveu um interpretador de BASIC em ROM para ser colocado em microcomputadores.

A Sinclair, empresa do gênio inglês Sir Clive Sinclair, resolve entrar no mercado do microcomputadores e em 1980 lança o primeiro microcomputador barato: o ZX-80. Ele custava menos de 150 dólares, barato até mesmo para os padrões de hoje (comparativamente, um sistema Apple II “completo” custava na época algo em torno de 2.000 dólares). O ZX-80, baseado no Z-80, no ano seguinte foi melhorado e lançado o ZX-81, que possuía apenas 4 circuitos integrados (um Z-80, uma EPROM, uma memória RAM e um Custom Chip, que reunia todos os circuitos integrados “convencionais” que eram utilizados no ZX-80)! Isto é que é integração de componentes ! Logo depois foi lançado o ZX-Spectrum, com cores e sons, com mais memória e possibilidade de conexão a micro-disk-drives. Por esta e por outras (como, por exemplo, a invenção da TV de bolso), Sir Clive Sinclair ganhou o título de Sir da Coroa Britânica.

Neste meio tempo em que a IBM ainda não havia se decidido a entrar no mercado dos microcomputadores pessoais, a Apple lança diversos periféricos para seu Apple II, como pranchetas gráficas, impressoras e outras centenas de produtos. E o mercado de software cresce assustadoramente, tornando o Apple II um dos micro com mais Softwares produzidos até hoje. Foi lançado também a SoftCard, placa com um co-processador Z-80, para que o Apple II pudesse ter acesso a todos os programas escritos sob o sistema operacional CP/M. E o Apple II tornou-se um dos microcomputadores mais vendidos em todo o mundo. A Apple lança também o Apple III, que não teve o menor sucesso, mas lançou a unidade de disco rígido para microcomputadores pessoais. Os modelos “campeões de venda” da Commodore foram lançados: O VIC-20 e o Commodore 64, e a Tandy lançou os modelos II e III do seu TRS-80, além do TRS-80 Color, que tinha cores e o Pocket, que era portátil. A Atari resolveu entrar também no mercado dos microcomputadores pessoais com o seu Atari 400 e depois o 800.

Neste mesmo período começou a haver um fato interessante, responsável pela popularização dos microcomputadores por todo o mundo: Os Tigres Asiáticos. O surgimento de clones, principalmente de Apple e TRS-80, produzidos no extremo oriente (Taiwan, Singapura, Macao, Hong-Kong, etc.), popularizou a venda mundial destes micros. Ainda não existia uma lei de patentes internacional e tanto a Apple como a Tandy, no caso, divulgavam todos os detalhes técnicos de suas máquinas. Por terem uma metodologia de fazer máquinas “abertas”, com componentes “baratos” que eram fabricados no próprio extremo oriente, para uso nos Estados Unidos, pois a mão de obra nos países do terceiro mundo é muito mais barata, tal fato acabava influenciando diretamente no preço. Além disso, os Tigres Asiáticos não cobravam por toda a pesquisa e desenvolvimento tecnológicos que consumiu muito dinheiro ao longo dos anos dos fabricantes originais americanos, nem pagavam royalties às empresas que criaram tais microcomputadores. Mas não só os Tigres Asiáticos foram responsáveis por isto. Aqui mesmo no Brasil tivemos um exemplo típico disto, em uma época de reserva de mercado e falsa produção tecnológica nacional. Em 1984 existia no mercado cerca de 20 “similares” do Apple II: nomes como Craft II, AP-II, Elppa II, Maxxi, Spectrum, Exato, etc. eram muito comuns.

A IBM, que inicialmente não teve interesse em microcomputadores pessoais – ela preferia continuar produzindo computadores de médio e grande portes – finalmente resolveu, em 1981, entrar nesse mercado, vendo que estava crescendo assustadoramente e era a única que poderia desbancar a supremacia da Apple – pois tinha nome, tecnologia e dinheiro. Mesmo assim o direcionamento e a estratégia de marketing continuava em torno dos computadores de grande porte. O que a IBM queria era colocar microcomputadores pessoais na casa das pessoas de modo que na hora da decisão da compra de um grande computador para empresas, a maioria das pessoas associasse a idéia de computador à IBM, por já possuir um microcomputador IBM em casa.

Persuadida pela Microsoft, a IBM decidiu utilizar a linha de microprocessadores da Intel, encabeçada pelo 8086, em sua linha de microcomputadores. O principal avanço do 8086 em relação ao 8080 era a manipulação de números binários não mais de 8 bits, mas sim de 16 bits, além da possibilidade de endereçamento direto a 1 MB de memória (Mega (M), que em decimal representa 106, ou seja, 1.000.000, em binário representa 220, ou 1.048.576). Não deu certo. Todos os circuitos periféricos de apoio ao microprocessador estavam trabalhando com o padrão de 8 bits. Imagine. Teria que ser criado todo um padrão por causa de um novo microprocessador ? Isto significaria mais tempo de projeto e, principalmente, que mais caro ele se tornaria. A IBM chegou a usar o microprocessador 8086 depois em alguns modelos do seu PS/2 (Personal System 2). A Intel acaba se convencendo do fracasso em tentar mudar o padrão de 8 bits para 16 bits e lança o microprocessador 8088, que era simplesmente o 8086 compatibilizado com o meio externo: o 8088 é exatamente um 8086, trabalhando também com 16 bits, mas só internamente – externamente ele manipula os 16 bits como dois blocos de oito bits.

Finalmente, em 1981 a IBM lança o seu IBM-PC. Como o lançamento do CP/M-86 anunciado “para breve” demorou muito, então a Seattle Computer – uma das empresas que estavam entrando no mercado na época e havia lançado um microcomputador baseado no 8086 – resolveu ela mesmo desenvolver um sistema operacional para o seu microcomputador, chamando-o de QDOS. A Microsoft gostou e comprou todos os direitos sobre o QDOS, rebatizando-o de MS-DOS, e possuiu muita semelhança com o antigo CP/M. Assim, o IBM PC é lançado junto com seu sistema operacional próprio, o MS-DOS 1.0 da Microsoft. Em 1983 a IBM lança o seu IBM PC XT (Extended Tecnology), agora com disco rígido (de incríveis 5 ou 10 MB) e uma nova versão do seu DOS, a 2.0.

Claro que a IBM não dispunha dos anos de vantagem no mercado dos microcomputadores que a Apple já acumulava. Quando ela começou a desenvolver um produto sobre o qual não tinha o menor conhecimento, a Apple já estava em outro nível. Em 1979 a Apple começou a desenvolver outro microcomputador, o Lisa, baseado em tudo aquilo que Steve Jobs tinha visto em sua visita ao PARC: a interface gráfica.

Através de uma interface gráfica, o microcomputador torna-se mais amigável. Funções antes disponíveis somente através de comandos complicados e de difícil memorização passaram a ser utilizadas através de símbolos (ou ícones) disponíveis na tela. Para imprimir um documento escrito em um processador de textos, bastava apontar o símbolo que representava o texto e “arrastá-lo” e “soltá-lo” sobre o símbolo de uma impressora presente na tela.

Assim rompia-se uma barreira imposta por todos os outros microcomputadores: a dificuldade de utilização, que para o Lisa, era um passado remoto. Ninguém precisava ser um expert em computação para mexer no Lisa. Todos os comandos entrados eram em forma de ícones gráficos, e o Lisa vinha com um periférico estranho: o mouse, que permitia a entrada de dados em simples movimentos. Isso facilitava ainda mais o uso por quem nunca tinha visto um computador pela frente, passando a ser cada vez mais adotado. O Lisa utilizava-se do microprocessador 68000 da Motorola, que trabalha internamente com 32 bits, mas externamente com 16 bits (mais ou menos como acontece com o 8086/8088). Lançado no mercado em 1983, o único inconveniente era seu alto preço.

Paralelamente ao projeto do Lisa a Apple trabalhava em outro projeto: O MacIntosh, criado para ser um “Lisa para se ter em casa”. Lançado em 1984, a Apple obteve um sucesso estrondoso com o seu MacIntosh, partindo em outra direção, descartando um futuro maior para a linha Apple II. O próprio Steve Wozniak, pai do Apple II, se afasta da Apple nesta época por não concordar com o fim de um futuro para a linha Apple II.

A IBM lança o seu IBM PC AT (Advanced Technology) no mesmo ano em que a Apple lança o seu MacIntosh e, logicamente, a MicrosOFt lança uma nova versão de seu MS-DOS, a 3.0 e a 3.1. Baseado agora no microprocessador de 16 bits reais, o 80286, a IBM conseguiu projetar um microcomputador que operasse com palavras de 16 bits tanto interna como externamente, sem perder a compatibilidade com os periféricos e circuitos de apoio já existentes.

E a Apple continuava em disparado na frente. O seu MacIntosh era muito mais avançado – e adotado – do que o AT da IBM. O Mac tinha uma resolução gráfica muito maior, trabalhava com sons digitalizados, muito mais rápido e mais fácil de usar. A interface gráfica não necessitava de conhecimentos de “computês” por parte do usuário, permitindo, assim, que fosse amplamente adotado por pessoas que nunca tinham visto um microcomputador na vida – o processo de aprendizado era muito mais rápido. E isto fez o sucesso do MacIntosh: um microcomputador que qualquer um aprendia facilmente como operar por causa da sua interface gráfica com o usuário.

Após três anos de sucessivos adiamentos, a MicrosOFt lançou um “ambiente operacional” gráfico para a linha IBM PC – o Windows – teoricamente uma interface gráfica similar ao do MacIntosh. Assim, aquelas pessoas que iriam escolher o MacIntosh pela sua facilidade de uso podiam agora escolher entre o MacIntosh e um micro com padrão IBM. Na verdade o Windows acabou ficando muito aquém da interface gráfica da Apple, devido a diversas limitações de hardware e software da linha IBM PC.

Na verdade, a idéia principal era conseguir convencer a todos os fabricantes de software que desenvolver softwares para um ambiente gráfico era muito mais fácil e poderíamos ter em uma mesma tela vários programas diferentes compartilhando uma mesma área, com a possibilidade de intercâmbio total de dados entre eles – o que não acontecia nos pacotes integrados que existiam na época e como acontecia no MacIntosh. Não só a microsoft criou um ambiente operacional gráfico. O próprio atraso da microsoft em lançar o Windows fez com que diversos outros fabricantes de software criassem seus próprios ambientes gráficos, tais como o DESQ (Quaterdeck) – que foi re-desenvolvido e lançado depois como DESQView – o VisiOn (VisiCorp), o TopView (IBM) e o GEM (Digital Research). Destes, o mais parecido com o que realmente era para ser um ambiente operacional gráfico era o GEM. Tão parecido com a interface gráfica do próprio MacIntosh que a Apple ameaçou processar a Digital Research, que decidiu, então, redesenhá-lo. Diversos fabricantes de hardware decidiram incluir em seus projetos um ambiente operacional gráfico. E desses todos o que estava pronto e mais estável era o GEM. A própria Atari, por exemplo, incluiu o GEM na memória permanente (ROM – Read Only Memory / Memória de Leitura Somente) de seus microcomputadores Atari ST.

Toda essa história de ambiente gráfico tentando fazer com que os microcomputadores ficassem parecidos com o MacIntosh foi – e ainda é – um grande “bum” entre os fabricantes de software. Todos apreciaram a idéia. Menos, é claro, a Apple. A ameaça de um processo movido pela Apple sobre todos estes fabricantes foi muito grande. No caso da Digital Research, ela mesmo tomou a iniciativa de redesenhar a interface gráfica de seu GEM. A HP também estava sofrendo por causa de seu recém-lançado ambiente gráfico, o New Wave. O argumento utilizado pela HP foi muito simples: “Baseamos nosso ambiente gráfico no Windows.”. Porém a microsoft não cedeu. Não redesenharia o seu Windows. A Apple processou a microsoft e, logicamente, não ganhou. Pois quem criou toda comunicação visual gráfica não foi nem a Apple nem a microsoft… Foram os pesquisadores do PARC, que pertencia a Xerox, como já vimos.

Atualmente para a linha IBM PC possuímos somente duas interfaces gráficas realmente parecidas com a interface gráfica proposta pela Apple: a interface gráfica do sistema operacional OS/2 da IBM e a do sistema operacional Windows 95 da Microsoft. Para se ter uma idéia, somente 11 anos depois do lançamento do Macintosh a Microsoft conseguiu lançar um produto com interface gráfica similar.

A Commodore lança outros microcomputadores, como o Commodore 128 e já em 1985 o Amiga 1000, baseado também no microprocessador 68000 e posteriormente nos seus sucessores, 68020, 68030 e 68040 (Amiga 2000, 3000 e 4000). O MacIntosh também utiliza estes microprocessadores mais modernos em seus últimos modelos. A estrutura do Amiga é muito interessante: ao invés de possuir um só microprocessador, ele possui vários co-processadores para diversas tarefas. Isto significa um grande aumento de performance do microcomputador em si, pois agora o microprocessador pode se “preocupar” com outras ocupações, já que há quem se “preocupe” com diversas tarefas que antes eram função dele. E assim como o MacIntosh, por basear-se em microprocessadores da Motorola – que são microprocessadores com instruções baseadas no acesso em memória, ao contrário da linha seguida pela Intel – o Amiga possui um grande campo de atuação nas áreas de computação gráfica, edição de vídeo e edição musical, que são campos onde o rápido e eficiente acesso à memória são fatores fundamentais, devido à grande quantidade de informações a serem processadas e que estão, logicamente, armazenadas em uma área de memória. Não só o Amiga e o MacIntosh, mas todo e qualquer computador dedicado exclusivamente à esta área utiliza microprocessadores da Motorola, exatamente pelos motivos apresentados.

A Microsoft tenta criar um novo padrão de micros: o MSX (microsoft Extended), na verdade um projeto para tentar compatibilizar tudo o que existia para micros – já que havia diversos micros com diversos “padrões” – com o apoio total de diversas grandes empresas de Hardware, como a Sony, a Mitsubishi, a Toshiba, a Fuji, entre outras (como você pode ver, um pool formado basicamente por empresas japonesas), permitindo que diversos periféricos de “ponta” estivessem disponíveis ao usuário comum, tais como aparelhos de CD para o armazenamento de informações. Mesmo lançando diversas implementações, como o MSX 2, apoiado por empresas de “peso” e disponibilizando ao público comum recursos avançados – que era exatamente o mesmo marketing da Commodore em relação ao Amiga – este projeto simplesmente não deu certo. Primeiro porque o padrão MSX foi imediatamente visto somente como um “brinquedo”, um video-game “de luxo”, já que seu marketing mostrava basicamente este lado da utilização de microcomputadores que seguiam o padrão MSX. E segundo, podemos creditar isto ao surgimento de um novo padrão: o padrão IBM. A microsoft errou ao achar que todos iriam se desfazer de seus microcomputadores para aderir a algum microcomputador que utilizasse o padrão MSX e que todos, a partir daquele momento, só iriam utilizar o padrão MSX. A idéia de se ter um novo padrão a ser adotado torna-se um fiasco no momento em que não permite a necessária mudança gradual para ele.

A IBM não se importou muito, como a Apple, em relação aos Tigres Asiáticos, pois, na realidade, começaram a ser criadas leis internacionais de patentes. E o que aconteceu, na verdade, foi o surgimento de diversos fabricantes, agora não mais especializados em “clonar” os micros da IBM, mas CRIAR micros que utilizem o mesmo PADRÃO. Assim sendo, surgiram diversos periféricos e diversos microcomputadores, CADA UM COM SUAS CARACTERÍSTICAS PARTICULARES, criando no mercado dos microcomputadores uma disputa sadia. Desse modo houve uma enxurrada de micros compatíveis com o padrão IBM, tornando-se, nos nossos dias, a linha ou padrão “oficial” de microcomputadores.

Esperava-se que a IBM lançasse um microcomputador revolucionário para a utilização do novo microprocessador da Intel: o 80386, um microprocessador de 32 bits que segue a linha iniciada com o 8086. No entanto, optou ao invés de continuar com sua linha IBM PC – cuja principal característica era a arquitetura aberta – começar uma nova linha de microcomputadores, chamada PS/2 (Personal System 2), que possuía arquitetura fechada e proprietária. Nesta época a Compaq começou a despontar com o novo maior fabricante mundial de microcomputadores, por liderar fabricantes à construção de microcomputadores que utilizassem arquitetura aberta e seguissem o padrão IBM PC original. Com isto, definiu-se claramente o que se estabilizaria nos anos seguintes: a luta pela arquitetura aberta e real padronização mundial do padrão IBM PC.

O mesmo ocorreu com o lançamento de novos microprocessadores da família Intel, como o 80486, Pentium e Pentium Pro (P6). Apesar de diversos fabricantes tradicionais como a própria IBM construirem microcomputadores com arquitetura fechada, a maioria dos fabricantes independentes optou por seguir uma arquitetura aberta, sendo o padrão IBM PC nitidamente definido e estabilizado. Com isto ganhamos todos nós: apesar de contruídos por diversos fabricantes, todos os microcomputadores que seguem esta arquitetura são compatíveis entre si, não só pelo ponto de vista dos programas (softwares), mas principalmente da sua construção física (hardware).