Historia de la Informática3
Download
Report
Transcript Historia de la Informática3
Historia de la Informática
1936-1960
1936
Alan Turing
Formalizó el concepto de
algortimo
al
intentar
entender desde un punto de
vista matemático el concepto
de operaciones computables,
que
implican
que
un
determinado aparato de
cómputo tiene la capacidad
de leer unas instrucciones y
adoptar en respuesta un
estado específico.
Máquina de Turing
Dispositivo
que
manipula
símbolos sobre una tira de cinta
de acuerdo a una tabla de reglas.
Puede ser adaptada para simular
la lógica de cualquier algoritmo
de computador y es muy útil en
la explicación del funcionamiento
de un CPU dentro de un
computador.
1940
Samuel Williams y George
Stibitz
Completaron
en
los
laboratorios
Bell
una
calculadora
que
podía
manejar número complejos.
Calculadora sumadora
electromecánica
1941
Konrad Zuse
Zuse había experimentado con el
sistema
binario
(en
papel)
redescubriendo la lógica booleana.
Pensó que todos los cómputos se
podían reducir a operaciones
binarias, por lo que decidió construir
una
máquina
completamente
binaria.
Z3
Fue la primera máquina
programable y
completamente automática
basada en el sistema binario.
1942
John Vincent Atanasoff y
Clifford Edward Berry
Completaron
una
calculadora para resolver
sistemas de ecuaciones
lineales simultáneas.
ABC (Atanasoff Berry
Computer)
Implementó 3 conceptos clave:
Uso del sistema binario
Funcionamiento electrónico
Computación separada del
almacenamiento.
1943
Ejército británico
El quipo de expertos,
dirigidos por Alan Turing,
construyeron la Colossus
en Bletchley Park. Fue un
proyecto ultra-secreto.
Colossus
Basada en la máquina de Turing,
constaba en 1.500 tubos de vacío y
funcionaba con targetas perforadas.
Su función fue descifrar los mensajes
alemanes durante la Segunda Guerra
Mundial, que era codificados con
otra máquina, la Enigma.
1944
Howard H. Aiken
Mark I (IBM Automatic Sequence
Controlled Calculator)
Un equipo de la Universidad de
Tenía 760.000 ruedas y 800 kilómetros de cable.
Harvard, dirigido por Aiken,
diseña y construye el primer
ordenador electromecánico con
la subvención de IBM.
Se basaba en la máquina analítica de Charles
Babbage.
La salida podía ser en papel (en lugar de tarjetas
perforadas) ya que podía conectarse a una
máquina de escribir eléctrica.
1945
Vannevar Bush
Ideó una máquina capaz de
almacenar y encontrar gran
cantidad de información
acelerando el “tedioso y lento”
proceso de consulta.
Memex
Esta máquina permitiría almacenar
información, recuperarla, proyectarla en
una pantalla y a través de un proyector,
escribir notas y comentarios en cada
microficha e imprimir los artículos
deseados.
Nunca fue materializada.
1946
Universidad de Pennsylvania
ENIAC
La máquina fue creada para el ejército estadounidense. Su
funcionamiento era completamente electrónico. Ocupaba un sótano
entero de la universidad, tenía más de 18.000 tubos de vacío,
consumía 200kW de electricidad y elevaba la temperatura del local a
50º, por lo que requería todo un sistema de aire acondicionad. Tenía
la capacidad de realizar 5.000 operaciones aritméticas/segundo.
1947
John Bardeen, Walter H.
Brattain y William Shockley
Inventaron en los Laboratorios Bell
un dispositivo que actúa como un
interruptor, permitiéndole llevar a
cabo cualquier operación lógica o
matemática.
Transistor
Es un pequeño dispositivo electrónico
hecho
a
base
de
material
semiconductor (silicio) que actúa como
un interruptor: cierra o abre un circuito
generando impulsos eléctricos. También
se utiliza como amplificador de señales.
1949
Jay Forrestern y Norm
Taylor
Memoria de núcleos
magnéticos
los tubos de Estas memorias aseguraban más
efectividad que los tubos de
vacío en su computadora
vacío y mayor rapidez de puesta
en marcha (tan sólo 9
Whirlwind por un tipo de
microsegundos). Era capaz de
memoria
de
núcleos
realizar 40.000 operaciones por
magnéticos: la RAM.
segundo.
Reemplazaron
1950
Alan Turing
Expone un artículo que describe su
“Test de Turing”, explorando el
desarrollo natural y potencial de la
inteligencia humana y de las
computadoras y la comunicación
entre ambas. Se basa en la premisa
de que, si una computadora se
comporta de manera inteligente,
debe ser inteligente.
Prueba de Turing
Consiste en un desafío en el que un humano y
una computadora son situados en una
habitación separados de otro humano
interlocutor (juez). El juez deberá realizar
preguntas que los dos “concursantes” deberán
responder. El objetivo es identificar, en base a
sus respuestas, cual de ellos es humano y cuál
no.
1951
John Mauchly y John
Presper Eckert
Fueron
ingenieros
estadounidenses que crearon
la computadora UNIVAC para
el censo de 1951.
UNIVAC
Compuesta por 5.000 tubos de
vacío, podía ejecutar 1.000
cálculos/segundo, procesando
los dígitos en serie. La salida
podía ser magnética o por
impresora.
1952
Claude E. Shannon
Sienta los fundamentos matemáticos
de la revolución tecnológica con la
publicación del artículo “una teoría
matemática de la comunicación”.
Desarrolló el primer ratón virtual
capaz de salir de un laberinto.
Teoría de la información
Disciplina científica que estudia la
información y todo lo relacionado con
ella.
Una información compleja es una
sucesión de unidades básicas (1 y 0).
1953
IBM
Se amplía el uso del lenguaje
ensamblador para la programación.
Se crean memorias de núcleos
magnéticos.
Esto hace que IBM fabrique su
primera computadora a escala
industrial.
RENFE adquirió una de estas
computadoras para la gestión de la
vías ferroviarias en 1959.
IBM 650
Estaba constituida por la consola,
la unidad de alimentación, el
lector de tarjetas y el perforador.
Pesaba en su totalidad 2250 Kg. y
costaba medio millón de dólares.
Aunque se podía alquilar por
3.500$ al mes.
1954
Microcomputadora PET-32
Esta computadora, junto a un
emulador VICE de GNU/Linux fue
la primera en mostrar un
lenguaje de programación en
BASIC (Beginner’s All-purpose
Symbolic Instruction Code)
Lenguaje de programación
Es un lenguaje diseñado para describir el
conjunto de acciones consecutivas que un
equipo informático debe ejecutar.
El lenguaje utilizado por el procesador se
denomina lenguaje máquina y para poder
comprender el lenguaje humano (y
viceversa) utiliza lenguajes intermediarios.
1956
Dartmouth
John McCarthy dio una conferencia en
la Universidad de Dartmouth sobre
computadoras, procesamiento del
lenguaje natural, redes neuronales,
teoría de la computación, abstracción
y creatividad. Así nació el concepto de
Inteligencia Artificial y sus primeros
estudios.
Inteligencia Artificial
Es la capacidad de razonar de un
agente no vivo. John McCarthy,
acuñó el término en 1956, la definió:
"Es la ciencia e ingenio de hacer
máquinas
inteligentes,
especialmente
programas
de
cómputo inteligentes."
1957
IBM
Pone a la venta la primera impresora de
matriz de puntos.
1958
Jack S. Kilby
Este ingeniero construyó el
primer circuito integrado, un
dispositivo de germanio que
integraba seis transistores
en una misma base
semiconductora.
Circuito integrado
1958
A.R.P.A.
La Advanced Research Projects Agency
de Norteamérica, durante la Guerra
Fría, manifestó la necesidad de
desarrollar un sistema militar de
comunicaciones
para
continuar
operando aunque sus nodos de
comunicación fueran destruidos. Así
nace ARPANET.
ARPANET
Comenzó como una red privada de
intercomunicación militar que más
tarde pasó a interconectar varias
Universidades de EEUU. A día de
hoy, esta tecnología es de uso
mundial, lo que conocemos como
Internet.
1960
COBOL y ALGOL
COBOL: Primer lenguaje de
programación de alto nivel
transportable entre modelos
diferentes de computadoras.
ALGOL: Primer lenguaje de
programación estructurado y
orientado
a
los
procedimientos.
Teoría de compilador
Los
compiladores
son
programas o herramientas
encargadas de compilar.
Toma un texto (código
fuente) escrito en lenguaje
de alto nivel y lo traduce a
un lenguaje comprensible
para la computadora (código
objeto).