









Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
A história da tecnologia de processamento de dados, desde as primeiras calculadoras mecânicas do século xvii até as máquinas de turing e o nascimento da informática moderna. Através deste texto, é possível conhecer os pioneiros da área, como charles xavier thomas de colmar e rené laennec, e os avanços tecnológicos que levaram à criação dos primeiros computadores, como as máquinas de babbage e hollerith. Além disso, é discutido o papel fundamental da teoria de boole na teoria de computadores e o desenvolvimento dos primeiros sistemas operacionais para microcomputadores, como ms-dos e windows.
Tipologia: Notas de estudo
1 / 16
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Um dos principais objetivos da tecnologia é transferir os trabalhos pesados e cansativo para dispositivos e ferramentas criadas pelo homem. Uma dessas tarefas é a de realizar cálculos, que cresceu em complexidade à medida que a sociedade humana se tornou também mais complexa. Dispositivos de cálculos já existem há muitos séculos. Desde 500a.C. já se utilizava o ábaco. Por meio do ábaco se faziam diretamente somas e subtrações. A partir do século XVII, com a invenção dos logaritmos foi possível criar a régua de cálculo, instrumento que foi recentemente substituído pelas calculadoras de bolso.
Com o progresso da. mecânica, no renascimento, foi possível criar a primeira maquina de calcular mecânica, em 1642, na França, pelo filósofo e matemático Blaise Pascal. Essa máquina funcionava por meio de catracas e engrenagens que integraram a maioria das calculadoras mecânicas por 300 anos. A máquina de Pascal realizava somente somas e subtrações. Em 1694, Leibnitz, matemático alemão, construiu uma máquina de calcular capaz de realizar soma; subtração, divisão, multiplicação e raiz quadrada. As máquinas de Pascal e Leibnitz não obtiveram sucesso comercial pelo fato de serem costruídas artesanalmente e devido a complexidade de operação para a época. A atual tecnologia de processamento de dados nasceu destas calculadoras e da automação da indústria, iniciada no século XVII. Nessa época, a indústria já havia alcançado um razoável grau de complexidade, principalmente a indústria de tecelagem, com a fabricação de tecidos de luxo. Em 1725 criou-se a técnica da fita perfurada, para automação dos teares. Os teares de fita perfurada utilizavam uma fita com orifícios em determinadas posições, que permitiam ou não a passagem da agulha. Foi então que surgiu a primeira técnica de programação. Para alterar o padrão de tecido bastava trocar a fita perfurada. Em 1805, o francês Joseph J. Jacquard aperfeiçoou o tear automático, passando a utilizar cartões perfurados. Os cartões eram fornecidos automaticamente em sequência à máquina determinando o padrão do tecido. Na técnica de cartões perfurados, o elemento básico de informação pode assumir dois estados: com furo e sem furo. Esse tipo de linguagem foi posteriormente denominada Linguagem Binária. Na Linguagem Binária, para representar os dois valores possíveis de informação adotam-se os algarismos: 0 e 1. Baseando-se na tecnologia desenvolvida por Jacquard, o inglês Charles Babbage passou a automatizar cálculos matemáticos. Em 1822, ele apresentou o primeiro modelo de sua máquina diferencial. Após a construção dessa máquina, Babbage se propôs a criar uma máquina muito mais poderosa e de aplicação mais geral. Concebeu então a máquina analítica, o verdadeiro computador mecânico. A máquina analítica possuía as seguintes características: a)Capacidade de armazenamento de 1000 números; b)Capacidade de tomar decisões; c)Uso de alarme sonoro; d)Saída dc resultados em placa de cobre para posterior impressão; e)Operar com energia à vapor. A parte da máquina que realizaria as operações foi denominada
Paralelamente ao desenvolvimento das máquinas mecânicas, surgiu o conceito de processamento automático de dados. Para realização do censo de 1890, nos EUA, o governo americano abriu concorrência pública para o processamento dos dados, a qual foi vencida por Hermann Hollerith e seu Sistema Elétrico de Tabulacão O sistema de Hollerith utilizava cartões perfurados para entrar com os dados numéricos a máquina utilizando um sistema elétrico. Com o sistema de Hollerith o censo foi tabulado em apenas dois anos. A partir daí, muitas máquinas dessas passaram a ser utilizadas para auxiliar o processo administrativo. A empresa de Hollerith, após várias fusões e mudanças transformou-se na International Business Machine (IBM), que hoje é uma das maiores fabricantes de computadores do mundo. Substituindo as partes mecânicas por componentes elétricos, foi construído na Bell Laboratories em 1940 uma máquina calculadora digital denominada computador complexo, que utilizava relés para representar os números internamente, Com essa máquina foi possível a primeira operação de computador por linha telefônica entre duas cidades. O criador da máquina, Claude Shannon, fez pela primeira vez uma discussão teórica sobre os dígitos binários, os quais denominou BITs (Blnary digiTs).
As máquinas com relés já eram verdadeiros computadores na moderna concepção da palavra, mas apresentavam baixa velocidade de processamento grande complexidade, alto custo e baixa confiabilidade Essas características foram melhoradas com a introdução das Válvulas a vácuo (substituindo os relés). Durante a 2ª Guerra Mundial, foi desenvolvido na Universidade da Pensilvânia o primeiro computador a válvula, o ENIAC (Eletronic Numerical Integrator and Computer) por John W. Mauchly e J. Presper Eckert. Ele tinha 10m X 15m, pesava 30 (trinta) toneladas, continha 18. válvulas, 70.000 resistores, 10.000 capacitores, 6.000 Interruptores e consumia 150.000W de eletricidade. Sobre o ENIAC há um fato curioso: a máquina parava de funcionar quase que diariamente, por defeito em uma de suas válvulas. Um dia, no entanto, foi mais dificil detectar o problema. Depois de muita procura, descobriu-se que um inseto entrara em um dos circuitos, provocando um curto circuito. À partir daí a palavra Bug (inseto) passou a pertencer ao vocabulário de informática, como sinônimo de erro ou falha. No ENIAC a entrada de dados era feita por meio de cartões perfurados. Por exemplo, se ele fosse utilizado para processar uma folha de pagamento de uma empresa, os nomes dos funcionários, seus salários, etc, seriam colocados na máquina por meio de cartões perfurados, No entanto, as operações que deveriam ser realizadas eram definidas na sua própria construção fisica, isto é, nos seus circuitos elétricos. Por esse motivo a programação desse computador era extremamente trabalhosa e dificil, pois era feita por meio de cabos, interruptores, etc. Em 1946, John Von Neumann, Arthur W. Burks e Hermann H. Goldstine publicaram um artigo lançando algumas idéias que viriam a revolucionar totalmente a concepção dos computadores, criando o tipo de máquina utilizado até hoje. Uma dessas idéias foi a adoção do sistema binário de numeração, pois o mesmo facilitava a representação dos dados eletricamente. Outra idéia tratava da forma como a máquina receberia instruções para processar dados. Surgiu a programação como atualmente existe, o computador seria capaz de realizar todas as operações que seriam selecionadas por meio de instruções que formariam o programa, que ficaria armazenado na mesma memória que os dados. A arquitetura idealizada por Von Neumann ficou conhecida como ARQUITETURA DE VON NEUMANN e é utilizada até hoje nos computadores. Memória
Dispositivos de Entrada CPU Dispositivos de Saída
Em 1947 os cientistas de Bell Laboratories criaram o transistor, que iniciou uma profunda revolução tecnológica. O transistor desempenhava as mesmas funções da válvula, ocupando um volume centena de vezes menor e consumindo muito menos energia. Os primeiros computadores a utilizar somente transistores foram o IBM 7090, Univac III entre outros. Em 1958, surgiu nos laboratórios da Texas Instruments o primeiro circuito integrado. Os circuitos integrados, também chamados circuitos monolíticos, são conjuntos de transistores, resistores e capacitores gerados a partir de uma única base, o chip. Os primeiros circuitos integrados continham algumas dezenas de componentes num chip. Hoje, consegue-se colocar milhões de componentes num único chip. Ano Nome da tecnologia N° de componentespor chip
1960
SSI (Small Scale Integration - integração em pequena escala)
Até 100
1966
MSI (Medium Scale Integration - integração em média escala)
Até 1000
1969
LSI (Large Scale Integration - integração em grande escala)
Até 10000
1975
VLSI (Very Large Scale Integration - integração em escala muito grande)
Acima de 1000
Os aparelhos eletrônicos construídos com circuitos integrados levaram a uma verdadeira revolução tecnológica a partir da década de 60. Um dos resultados mais notáveis dessa inovação foi a possibilidade de produzir equipamentos eletrônicos miniaturizados, com pequeno volume e pequeno peso. As viagens espaciais dessa época, que culminaram com a ida do homem à Lua, foram resultado dessa miniaturização.
Intel 4004 -Chip de 4 bits (1971) 8008 -Primeiro chip de 8 bits (1972) 8080 -Microprocessador de 8 bits (1976) 8086 -Microprocessador de 16 bits (1978) 8088 -Microprocessador de 8 bits (1978) 8087 -Primeiro coprocessador numérico (1980) 80286-Microprocessador de 16 bits de alta performance (1982) lntel 386 -Microprocessador de 32bits (1982) lntel 486 DX -Microprocessador de 32 bits com coprocessador numérico embutido (1989) Intel 486 DX2 - Microprocessador de 32 bits (1992) Pentium - Microprocessador de 32 bits (1993) Intel 486 DX4 - Microprocessador de 32 bits (1993) Pentium PRO - Microprocessador de 32 bits (1995) Pentium MMX - Microprocessador de 32 bits com instruções multimídia (1995) Pentium II - Microprocessador de 32 bits (1997) Celeron - Microprocessador de 32 bits de baixo custo (1998) Pentium III - Microprocessador de 32 bits (1999) Pentium 4 - Microprocessador de 32 bits (2001) Pentium D – Microprocessador com dois núcleos (2005) Core 2 Duo – Microprocessador totalmente concebido para dois núcleos (2006) Core 2 Quad – Microprocessador de quatro núcleos (2006) Core i3 (2009) Core i5 (2009) Core i7 (2009)
AMD K5 - Microprocessador de 32 bits (199?) K6 - Microprocessador de 32 bits (1997) K6-2 - Microprocessador de 32 bits com funções 3DNow (1998) K6-3 -Microprocessador de 32 bits (1999) Athlon - Microprocessador de 32 bits (1999) Duron - Microprocessador de 32 bits de baixo custo (2000) Athlon XP - Microprocessador de 32 bits (2001) Athlon 64 –Microprocessador de 64 bits compatível com arquitetura x86 (2003) Semprom – Microprocessador de baixo custo (2004) Athlon 64 X2 – Microprocessador de 64 bits com dois núcleos (2005) Phenon – Microprocessador de 64 bits (X2, X3 e X4) (2007) Phenon II – (2008) Bulldozer – (2011)
A partir do InteI 386, outros fabricantes passaram a competir com a Intel de forma mais acirrada, tanto em preço quanto em desempenho. Hoje em dia a maior competição entre os fabricantes de microprocessador ocorre entre a Intel e a AMD. Outros fabricantes como Cyrix (hoje Via) e IDT também participam do mercado porém com menor expressão.
Utilizado há séculos pelo homem, utiliza dez símbolos para representação numérica: 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Criado pela facilidade de contar utilizando os dedos da mão.
Utilizado internamente pelos computadores, utiliza dois símbolos para representação numérica: 0 e 1. Adotado pela facilidade de representação elétrica.
Utilizado pelos usuários/técnicos de computador, utiliza dezesseis símbolos diferentes para representação numérica: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F
Exercícios:
Transforme os números decimais abaixo para o sistema binário:
a) 15 b) 17 c) 18 d) 31 e) 39 f) 44 g) 49 h) 67 i) 75 j) 78 k) 79 l) 86 m) 89
n) 99 o) 117 p) 138 q) 146 r) 154 s) 162 t) 169 u) 175 v) 199 w) 215 x) 217 y) 226 z) 254
Exercícios:
Transforme os números binários abaixo para o sistema decimal:
a) 10101 b) 11011 c) 11101 d) 100001 e) 100110 f) 101110 g) 110101
h) 110110 i) 111000 j) 1000101 k) 1011011 l) 1100110 m) 1110001 n) 1111000
Exercícios
Exercícios g) 4C o) AA
Não existem critérios científicos que possam definir com precisão o que é um microcomputador ou diferenciá-lo de um mini ou um mainframe. Um microcomputador é um computador de pequeno porte que possui algumas características como:
A memória do computador pode ser dividida em: ROM : Read Only Memory é a memória permanente do computador. Nela ficam armazenados os comandos básicos da máquina que vão permitir que ela ligue, ative discos, envie informações ao monitor de vídeo, etc. RAM : Random Access Memory é a memória de trabalho da máquina. É nela que ficam armazenados os programas e os dados enquanto o micro está ligado. Possui este nome devido ao fato de que suas informações podem ser acessadas, utilizando somente o endereço. Antigamente as memórias eram sequenciais e para serem acessadas era necessário ler toda a memória até chegar na informação desejada.
Atualmente é o principal periférico de entrada do computador. Possui teclas dispostas como uma máquina de escrever e mais algumas teclas de controle.
Os monitores CRT (Cathode Ray Tube) utilizam ainda os mesmos princípios criados em 1897 por Ferdinand Braun. O tubo de imagem é essencialmente um tubo de vidro com gargalo estreito, que fica na parte interior do monitor e que se alarga até formar uma base que é a área visualizada pelo usuário. No interior dessa tela existem matrizes de fósforo nas cores vermelha, verde e azul (RGB:Red, Green and Blue). Os pixels são formados pelos trios RGB, que são bombardeados por um feixe de elétrons que acende o fósforo formando o ponto colorido. Esses pontos são bombardeados periódicamente para que se mantenham acesos, esse tempo de re-bombardeamento é chamado refresh rate (taxa de atualização) e quanto maior essa taxa melhor a qualidade da imagem exibida, diminuindo a possibilidade do efeito flicker (efeito causado pelo enfraquecimento do brilho de uma série de pontos que dá a impressão de que a imagem está tremendo). Para bombardear as faixas de trios RGB pode ser adotada uma forma entrelaçada (que não acende todas as faixas ao mesmo tempo) o que permite resoluções maiores porém com maior possibilidade de flicker. Atualmente a maioria dos fabricantes não tem utilizado esta forma entrelaçada.Outro ponto que influencia na qualidade da imagem exibida é o dot pitch que é a distância diagonal entre os pontos de fósforo da mesma cor.
Dot pitch
Atualmente outros tipos de monitores estão passando a ser utilizados, visto que os monitores CRT geram radiações que prejudicam nossos olhos (para diminuir essas radiações é recomendado utilizar filtros de tela e menos brilho). Entre os novos monitores os monitores LCD (monitores de cristal líquido) são os mais utilizados por serem os mais adequados à maioria das aplicações. As telas LCD se baseiam em uma tecnologia que produz imagens sobre uma superfície plana composta por cristal líquido e filtros coloridos. Descoberto em 1888, o cristal líquido é uma substância cujas moléculas que podem ser alinhadas quando sujeitas a campos elétricos, algo parecido com o que acontece com fragmentos de metal quando se aproximam de um imã. No caso dos monitores, quando alinhado apropriadamente, o cristal líquido permite a passagem da luz, para que a imagem seja gerada.Cada pixel é formado por três células de cristal líquido, cada uma delas, barradas por filtros vermelho, verde ou azul. Ao passar por essas células filtradas, a luz produz as cores que são vistas nas telas LCD.
Os discos e fitas magnéticas utilizam o mesmo processo de gravação e leitura utilizado nas fitas K7. As fitas magnéticas possuem uma boa capacidade de armazenamento e grande portabilidade sendo utilizadas principalmente para backups, seu grande inconveniente é a necessidade de serem lidas e gravadas sequencialmente (como as fitas K7) o que diminui muito a sua velocidade de acesso aos dados. Os discos magnéticos existem nas versões floppy (flexível) ou hard (rigido), os discos flexíveis também conhecidos como disquetes possuem grande portabilidade, porém pequeno espaço de armazenamento. Já os discos rígidos são
de 8 bits requer um barramento de dados de 8 linhas para transmitir dados de 8 bits em paralelo. Semelhantemente, um microprocessador de 64 bits necessita de um barramento de dados de 64 linhas para transmitir dados de 64 bits em paralelo. Se o barramento de dados para um microprocessador de 64 bits fosse formado por 8 linhas, seriam necessárias oito transmissões sucessivas, tornando mais lento o sistema. O Barramento de Dados é bi-direcional, isto é, pode transmitir em ambas as direções.
O Barramento de Endereço (Address Bus) é usado para selecionar a origem ou destino de sinais transmitidos num dos outros barramentos ou numa de suas linhas. Ele conduz endereços. Uma função típica do Barramento de Endereço é selecionar um registrador num dos dispositivos do sistema que é usado como a fonte ou o destino do dado. O Barramento de Controle (Control Bus) sincroniza as atividades do sistema. Ele conduz o status e a informação de controle de/para o Microprocessador. Para um Barramento de Controle ser formado, ao menos 10 (geralmente são mais) linhas de controle são necessárias. Os Barramentos são implementados como linhas de comunicação reais. Eles podem ser posicionados como parte do circuito no próprio Chip (Barramentos internos) ou podem servir de comunicação externa entre os Chips (Barramentos externos). Os barramentos externos podem ser expandidos para facilitar a conexão de dispositivos especiais. Um projeto eficiente de barramentos é crucial para a velocidade do sistema