Este artigo é patrocinado por: «A sua instituição aqui» |
Conceito de Computador
O termo computador (palavra com origem no latim computare, que em português significa ‘calcular’) é a base em que assenta a informática e designa uma unidade funcional programável, composta por uma ou mais unidades de processamento e por equipamento periférico, controlada por meio de programas armazenados na sua memória interna e que é capaz de efectuar cálculos complexos, incluindo várias operações aritméticas ou lógicas, a partir de instruções básicas de um utilizador, mas sem intervenção humana durante a sua execução.
Arquitectura (ou modelo) Eckert-Mauchly
Apesar da extraordinária evolução que os computadores conheceram desde o seu surgimento na década de 1940, a grande maioria continua ainda a respeitar a arquitetura Eckert-Mauchly (proposta por John von Neumann e posteriormente desenvolvida por John Presper Eckert e John William Mauchly), a qual indica quatro secções principais num computador:
- uma unidade lógica e aritmética (Arithmetic Logic Unit – ULA) que consiste num circuito digital que realiza operações lógicas e aritméticas e representa a parte central de processamento do computador (o CPU).
- uma unidade de controlo que controla todas as operações no exterior do CPU bem como pelas instruções para o correto funcionamento do CPU.
- uma memória (sequência de células numeradas para armazenamento de dados, onde cada uma é uma unidade de informação conhecida como bit ou dígito binário).
- dispositivos de entrada e saída tais como o teclado, o rato, o scanner, câmara fotográfica ou de vídeio, o monitor, a impressora, o videoprojetor, entre muitos outros.
Todas estas partes encontram-se interligadas por um grupo de cabos denominados barramentos.
História dos Computadores
(por Ricardo Martins)
O computador como o conhecemos hoje teve início no século XIX com a máquina analítica do professor Charles Babbage. A estrutura básica dos computadores de hoje são baseados nessa máquina.
De um modo geral, os computadores podem ser classificados em gerações em que cada uma durou um certo período de tempo e deu-nos uma versão melhorada ou uma melhoria para o computador já existente.
A primeira geração (1943–1958): A principal característica que define esta geração de computadores foi a utilização de tubos de vácuo como componentes internos. Os tubos de vácuo tinham geralmente cerca de 5-10 centímetros de comprimento e como eram precisos muitos, os computadores eram muito grandes, caros e avariavam com facilidade caso um tubo falhasse. Esta geração é muitas vezes descrita como o início da comercialização dos computadores com a entrega do UNIVAC I para uma empresa governamental de censos dos Estados Unidos da América. Esta geração durou até ao fim da década de 1950 embora alguns computadores tenham permanecido ativos muito mais tempo.
A segunda geração (1959-1964): Em meados da década de 1950 a Bell Labs desenvolveu o transístor. Os transístores foram capazes de realizar muitas das mesmas tarefas que os tubos de vácuo, mas tinham apenas uma fração do tamanho. O primeiro computador com transístores foi produzido em 1959. Os transístores permitiram que o tamanho dos computadores fosse reduzido, que fossem mais rápidos, mais confiáveis e consumissem menos energia elétrica. A outra melhoria desta geração foi o desenvolvimento de linguagens de programação. Duas linguagens desenvolvidas durante esta geração (Fortran e Cobol) ainda estão em uso hoje, embora de forma muito mais desenvolvida.
A terceira geração (1965–1970): Em 1965, o primeiro circuito integrado foi desenvolvido. Os computadores que usavam transístores em breve seriam substituídos. Mais uma vez, uma das principais vantagens foi o tamanho, tornando os computadores mais poderosos e ao mesmo tempo mais pequenos e baratos. Tornou-se assim, acessível a um público maior. Uma vantagem dos computadores serem mais pequenos foi que os sinais elétricos tinham que viajar uma distância menor e por isso a velocidade dos computadores aumentou. Outra característica deste período é que o software do computador tornou-se muito mais poderosa e flexível e, pela primeira vez mais de um programa poderia utilizar os recursos do computador ao mesmo tempo (multi-tarefa). A maioria das linguagens de programação usadas hoje em dia são muitas vezes referidas como línguas de 3GL (3ª geração) embora algumas delas foram criadas durante a 2ª geração.
A quarta geração (1971-presente): O limite entre a terceira e a quarta geração não é muito clara. Em 1970, milhares de circuitos integrados foram colocados num um único chip de silício. Este desenvolvimento voltou a aumentar o desempenho do computador, especialmente a velocidade e confiabilidade, enquanto o tamanho e o custo voltou a ser reduzido. Em 1975, a empresa americana Very Large Scale Integration (VLSI) levou o processo um passo em frente. Os processadores centrais dos computadores poderiam ser construídos num único chip. O microcomputador nasceu. Durante este período da quarta geração de novas linguagens foram criadas. Essas línguas usam uma linguagem muito parecida com a linguagem natural. Muitas linguagens de base de dados podem ser descritas como de 4GL. Estas, são mais fáceis de aprender que as 3GL.
A quinta geração (o futuro): Os principais objetivos dos computadores desta geração são que incorporem as características de inteligência artificial, sistemas especialistas e linguagem natural. O objetivo será produzir máquinas capazes de executar tarefas de forma semelhante aos humanos, de aprender e de interagir com os seres humanos em linguagem natural, e de preferência que use tanto o reconhecimento de voz como o de saída de voz