Conceito de Computador
O termo
computador (palavra com origem no latim computare, que em
português significa 'calcular') é a base em que assenta a
informática e designa uma unidade funcional programável, composta por uma
ou mais unidades de processamento e por equipamento periférico,
controlada por meio de programas armazenados na sua memória interna e
que é capaz de efectuar cálculos complexos, incluindo várias operações
aritméticas ou lógicas, a partir de instruções básicas de um utilizador,
mas sem intervenção humana durante a sua execução.
Arquitectura (ou modelo) Eckert-Mauchly
Apesar da extraordinária evolução que os
computadores conheceram desde o seu surgimento na década de 1940, a
grande maioria continua ainda a respeitar a arquitetura Eckert-Mauchly
(proposta por John von Neumann e posteriormente desenvolvida por John
Presper Eckert e John William Mauchly), a qual indica quatro secções
principais num computador:
. uma unidade lógica e aritmética
(Arithmetic Logic Unit – ULA) que consiste num circuito digital que
realiza operações lógicas e aritméticas e representa a parte central de
processamento do computador (o CPU).
. uma unidade de controlo que controla
todas as operações no exterior do CPU bem como pelas instruções para o
correto funcionamento do CPU.
. uma memória (sequência de células
numeradas para armazenamento de dados, onde cada uma é uma unidade de
informação conhecida como bit ou dígito binário).
. dispositivos de entrada e saída tais
como o teclado, o rato, o scanner, câmara fotográfica ou de
vídeio, o monitor, a impressora, o videoprojetor, entre muitos outros.
Todas estas partes encontram-se
interligadas por um grupo de cabos denominados barramentos.
História dos Computadores
(por Ricardo Martins)
O computador como o conhecemos hoje teve
início no século XIX com a máquina analítica do professor Charles
Babbage. A estrutura básica dos computadores de hoje são baseados nessa
máquina.
De um modo geral, os computadores podem
ser classificados em gerações em que cada uma durou um certo período de
tempo e deu-nos uma versão melhorada ou uma melhoria para o computador
já existente.
A primeira geração (1943-1958): A
principal característica que define esta geração de computadores foi a
utilização de tubos de vácuo como componentes internos. Os tubos de
vácuos tinham geralmente cerca de 5-10 centímetros de comprimento e como
eram precisos muitos, os computadores eram muito grandes, caros e
avariavam com facilidade caso um tubo falhasse. Esta geração é muitas
vezes descrita como o início da comercialização dos computadores com a
entrega do UNIVAC I para uma empresa governamental de censos dos Estados
Unidos da América. Esta geração durou até ao fim da década de 1950
embora alguns computadores tenham permanecido ativos muito mais tempo.
A segunda geração (1959-1964): Em meados
da década de 1950 a Bell Labs desenvolveu o transístor. Os transístores
foram capazes de realizar muitas das mesmas tarefas que os tubos de
vácuo, mas tinham apenas uma fração do tamanho. O primeiro computador
com transístores foi produzido em 1959. Os transístores permitiram que o
tamanho dos computadores fosse reduzido, que fossem mais rápidos, mais
confiáveis e consumissem menos energia elétrica. A outra melhoria desta
geração foi o desenvolvimento de linguagens de programação. Duas
linguagens desenvolvidas durante esta geração (Fortran e Cobol) ainda
estão em uso hoje, embora de forma muito mais desenvolvida.
A terceira geração (1965-1970): Em 1965, o
primeiro circuito integrado foi desenvolvido. Os computadores que usavam
transístores em breve seriam substituídos. Mais uma vez, uma das
principais vantagens foi o tamanho, tornando os computadores mais
poderosos e ao mesmo tempo mais pequenos e baratos. Tornou-se assim,
acessível a um público maior. Uma vantagem dos computadores serem mais
pequenos foi que os sinais elétricos tinham que viajar uma distância
menor e por isso a velocidade dos computadores aumentou. Outra
característica deste período é que o software do computador tornou-se
muito mais poderosa e flexível e, pela primeira vez mais de um programa
poderia utilizar os recursos do computador ao mesmo tempo
(multi-tarefa). A maioria das linguagens de programação usadas hoje em
dia são muitas vezes referidas como línguas de 3GL (3ª geração) embora
algumas delas foram criadas durante a 2ª geração.
A quarta geração (1971-presente): O limite
entre a terceira e a quarta geração não é muito clara. Em 1970, milhares
de circuitos integrados foram colocados num um único chip de silício.
Este desenvolvimento voltou a aumentar o desempenho do computador,
especialmente a velocidade e confiabilidade, enquanto o tamanho e o
custo voltou a ser reduzido. Em 1975, a empresa americana Very Large
Scale Integration (VLSI) levou o processo um passo em frente. Os
processadores centrais dos computadores poderiam ser construídos num
único chip. O microcomputador nasceu. Durante este período da quarta
geração de novas linguagens foram criadas. Essas línguas usam uma
linguagem muito parecida com a linguagem natural. Muitas linguagens de
base de dados podem ser descritas como de 4GL. Estas, são mais fáceis de
aprender que as 3GL.
A quinta geração (o futuro): Os principais
objetivos dos computadores desta geração são que incorporem as
características de inteligência artificial, sistemas especialistas e
linguagem natural. O objetivo será produzir máquinas capazes de executar
tarefas de forma semelhante aos humanos, de aprender e de interagir com
os seres humanos em linguagem natural, e de preferência que use tanto o
reconhecimento de voz como o de saída de voz
|
Procure outros termos na nossa enciclopédia
|
|