Ao contrário do que muitas pessoas pensam ahistoria dos computadores e da informática começou a milhares de anos atrás e é uma historia bem longa, por este motivo acredito que são necessárias diversas de horas de estudo para que possamos realmente compreender como esta historia se desenvolveu.
Dgo isto porque há muito tempo venho estudando ahistoria dos computadores e da informática para a criação deste curso e só depois de meses de muito estudo comecei a compreende-la.
Por que estudar a historia dos computadores e da informática
Quando na escola me lembro que um dia um aluno da minha sala perguntou para nosso professor:
“Por que estudar história? Historia só fala de coisas do passado!”
O professor estava nos ensinando sobre a historia do Brasil e parou para responder a pergunta do nosso amigo, em minha opinião é uma das respostas mais inteligentes que já ouvi em minha vida!
“Devemos estudar o passado para entendermos o presente e criarmos o futuro”
Naquele dia esta resposta não fez muito sentido para mim, mas com o passar do tempo tudo comecei a entender! Como posso compreender algo que não conheço sua historia ou usá-lo bem se não sei suas funcionalidades mais básicas? Hoje para mim este conceito de conhecer o passado para entender o presente e criar o futuro faz todo sentido e sempre que possível faço uso dele!
Agora você entende por que deve estudar a historia dos computadores e da informática?
Definições para COMPUTADORES e INFORMÁTICA
Computador
Segundo o WIKIPÉDIA um computador é uma máquina capaz de variados tipos de tratamento automático de informações ou processamento de dados. Exemplos de computadores incluem o ábaco, a calculadora, o computador analógico e o computador digital.
Informática
Ainda segundo o WIKIPÉDIA em português, a palavra informática é formada pela junção das palavrasinformação + automática. Pode dizer-se que informática é a ciência que estuda o processamento automático da informação por meio do computador. Há uma linha de pensamento que conduz o termo “informática” à junção dos conceitos “informação” e “matemática”. A computação seria o meio tecnológico que possibilitou unir insumos informacionais com as ciências matemáticas.
Como você pode perceber a informática é um meio de usufruirmos de um computador e um computador é um meio para que possamos aplicar a informática. Ambos são conceitos complexos que você compreenderá com o tempo!
A história dos computadores
Como já dito acima a historia dos computadores e da informática começou a milhares de anos atrás com a criação do ábaco.
Ábaco
Um ábaco pode ser considerado uma máquina bem simples destinada a realizar cálculos simples do dia a dia. Seu primeiro registro é de 5500 a.c., pelos povos que constituíam a Mesopotâmia.
O ábaco também foi usado pelos babilônios, egípcios, gregos, romanos,indianos, chineses, japoneses, etc. Cada um destes povos criaram seus ábacos usando suas próprias culturas, porem mantendo o foco na realização de cálculos da maneira mais simples e eficiente possível!
Mas um Ábaco é um computador?
O principal objetivo de um computador é fornecer informações de forma automática sejam elas números ou dados, por este motivo maquinas muito antigas são consideradas computadores (tire da sua cabeça que um computador tem que ser como este que você esta usando agora). Sendo assim um ábaco como todas as outras maquinas de calcular são consideradas computadores.
Régua de Cálculos
Seguindo a linha de evolução das maquinas de calcular em 1638 nos deparamos com a Régua de Cálculos criado por William Oughtred com base nas pesquisas de John Napier.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada .
A invenção de William Oughtred era basicamente uma régua que possuía uma grande quantidade de valores pré-calculados, organizados de forma que os resultados fossem mostrados automaticamente por uma espécie de ponteiro que indicava o resultado do cálculo desejado.
Máquina de Pascal
Apesar da Régua de Cálculo de William Oughtred ser muito útil, os números presentes nela eram pre-definidos, o que impossibilitava a realização de cálculos com números que não estivessem na nela.
A primeira máquina de calcular de verdade foi construída por Ediin, sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.
O começo da programação funcional
Em todos as maquinas mostradas acima, as operações são pré-programadas e não é possível inserir novas funções. No entanto em 1801, o costureiro Joseph Marie Jacquard criou um sistema super interessante para solucionar este problema!
A indústria Joseph Marie Jacquard atuava no ramo de desenhos em tecidos, isto ocupava muito tempo e demandava trabalho manual. Para economizar tempo e mão de obra, Joseph criou a primeira máquina realmente programável, que recortava tecidos de forma automática.
Tal invenção ganhou o nome de Tear Programável, pois aceitava cartões perfuráveis. Desta maneira, Jaquard perfurava o cartão com a desenho desejado, e a máquina o reproduzia no tecido. Desde então, muitos esquemas foram influenciados pelo Tear, incluindo o que vamos explicar logo abaixo.
Em 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até o momento, no ramo dos cálculo. Charles Babbage (criador da invenção), afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos), de forma muito simples. Este projeto ganhou o nome de Máquina de Diferenças.
Esta maquina criou grande alvoroço na época, pois as idéias aplicadas no projeto estavam muito a frente do seu tempo. Devido à limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.
Mais de uma década depois, em 1837, Charles Babbage lançou uma nova máquina, chamada de Engenho Analítico (Máquina Analítica). Ela usava todos os conceitos do Tear Programável, como o uso dos cartões. Além disso, instruções e comandos também poderiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.
A Teoria de Boole
Em 1847 o matemático George Boole (considerado o pai da lógica moderna) desenvolveu um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1
Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “O” representava o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos(bits) para a representação. Por exemplo:
- 00 – desligado
- 01 – carga baixa
- 10 – carga moderada
- 11 – carga alta
Todo o sistema lógico dos computadores atuais, inclusive que você está usando agora, usam a teoria de Boole de forma prática.
Máquina de Hollerith
O conceito de cartões perfuráveis desenvolvidos por Joseph Marie Jacquard também foi muito útil para a realização do censo de 1890, nos estados unidos. Nessa ocasião, Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de computação dos dados computados.
Ao invés de usar uma caneta para marcar opções para perguntas como sexo, idade, os agentes do censo perfuravam estas opções nos cartões. Uma vez os dados coletados, o processo de computação da informação demorou 1/3 do geralmente demorava. Foi uma revolução na maneira de coletar dados.
Aproveitando que sua máquina fez, Hollerith fundou sua própria empresa, a Tabulation Machine Company, em 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.
Computadores Pré-modernos
Na primeira metade do século XX, várias computadores mecânicos foram desenvolvidos e com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.
A segunda guerra mundial foi um grande incentivo no desenvolvimento dos computadores, visto que as máquinas cada vez mais estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre os projetos desenvolvidos neste período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.
Sendo uma das figuras mais importantes da computação, Allan Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos através dos computadores.
Para aqueles que apresentavam solução, foi criada a famosa teoria da “Máquina de Turing”, que através de um número finito de operações, resolvia problemas computacionais de diversas ordens diferentes. A máquina de Turing foi colocada em prática através do Computador Colosssus.
A computação moderna pode ser definida pelo uso de computadores digitais, computadores que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações:
Primeira Geração (1946 – 1959)
A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. Normalmente, todos os programas eram escritos diretamente na linguagem de máquina. Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC, que foi a famosa de todas.
ENIAC
Em 1946, ocorreu uma revolução no mundo da computação, com o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de 1000 vezes mais rápida que qualquer outra que existia na época.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:
1. Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.
2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e
3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, nasceu o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de Von Neumann.
Para divulgar essa idéia, Von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvido em uma chuva de processos, mas já estava criado o computador moderno.
Segunda Geração (1959 – 1964)
Na segunda geração, houve a substituição das válvulas eletrônicas por transistores, o que diminuiu em muito tamanho do hardware (peças). A tecnologia de circuitos impressos também foi criada, evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias:
Supercomputadores e Mini-Computadores
IBM 7030
O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com o ENIAC, podendo ocupar somente uma sala comum. Utilizado por grandes companhias, custando em torno de 13 milhões de dólares na época.
O Strech executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Desta maneira, um novo patamar de velocidade nas realizações de cálculos foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis.
Diversas linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade Muitos Mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.
PDP-8 foi um dos mini-computadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais básica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares). Eram menores do que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no cômodo.
Terceira geração (1964 – 1970)
Os computadores desta geração ficaram conhecidos pelo uso de circuitos integrados, ou seja, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se tornaram mais velozes, com um número maior de funcionalidades. O preço também diminuiu consideravelmente.
Um dos principais exemplos da Terceira geração é o IBM 360/91, lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos para a época, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel.
O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual.
No final deste período, houve um preocupação com a falta de qualidade nos desenvolvimento de softwares, visto que grande parte das empresas estavam só focadas no hardware.
Quarta geração (1970 até hoje)
A quarta geração é conhecida pelo inicio dos microprocessadores e computadores pessoais, com redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas agora. Os circuitos acabaram se tornado ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.
Altair 8800
O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido comocomputador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.
Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita.
Vendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que ainda faltava algo no projeto: Apesar de suas funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns.
Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC (Personal Computer).
Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma idéia.
Seguindo a mesma linha, com os computadores Lisa (1983) e Macintosh(1984), foram os primeiros a usarem o Mouse e possuírem a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PC tiveram um sucesso estrondoso, vendendo um número enorme de máquinas.
Hoje em dia (07/03/2011) a arquitetura dos computadores não sofreram mudanças drásticas como na antiguidade, no entanto podemos citar como principais evoluções dos computadores nos últimos tempos a capacidade de processamento e armazenamento de dados, além claro da mobilidade que a cada dia se torna mais importante.
Legal copy paste do tec mundo
ResponderExcluirhttp://www.tecmundo.com.br/tecnologia-da-informacao/1697-a-historia-dos-computadores-e-da-computacao.htm
ResponderExcluirPra quem quer a fonte!!!