31 de enero de 2011

Computador Harvard Mark I | “IBM Automatic Sequence Controlled Calculator” (ASCC)

El IBM Automatic Sequence Controlled Calculator (ASCC), más conocido como Harvard Mark I o Mark I, fue el primer ordenador electromecánico, construido en la Universidad de Harvard por Howard H. Aiken en 1944, con la subvención de IBM. Tenía 760.000 ruedas y 800 kilómetros de cable, y se basaba en la máquina analítica de Charles Babbage.

El computador Mark I empleaba señales electromagnéticas para mover las partes mecánicas. Esta máquina era lenta (tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos no se podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico de proyectiles.

Funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado.

IBM Harvard Mark I Computer

 

Características de la Mark I

La Mark I era una máquina digna de admirar, pues sus longitudes eran grandiosas, medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, pesaba aproximadamente unas cinco toneladas. Pero lo más impresionante fueron unas cubiertas de cristal que dejaban que se admirara toda la maquinaria de su interior.

La Mark I recibía sus secuencias de instrucciones (programas) y sus datos a través de lectoras de cinta perforada de papel y los números se transferían de un registro a otro por medio de señales eléctricas. Tal vez por eso no deba sorprendernos que a pesar de medir sólo 15 metros de largo, el cableado interno de la Mark I tenía una longitud de más de 800 kilómetros, con más de tres millones de conexiones. Los resultados producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de tarjetas, en la más pura tradición de IBM.

Aunque tenía componentes electromecánicos era una máquina automática eléctrica. Era capaz de realizar 5 operaciones aritméticas (suma, resta, multiplicación, división y referencia a resultados anteriores). Su interior estaba compuesto por 750.000 piezas de diferentes variedades (ruedas rotatorias para los registros, relevadores...).

Estaba compuesta de más de 1.400 interruptores rotatorios de diez posiciones en el frente de la máquina para visualizar los valores de los registros constantes que se le introducían. Pero además de los registros constantes la máquina contenía 72 registros mecánicos. Cada unos de los registros mecánicos era capaz de almacenar 23 dígitos, los dígitos que se usaban para el signo era un 0 para signo positivo y un 9 para el signo negativo.

La posición de la coma decimal estaba fija durante la solución de un problema, pero podía ajustarse previamente de manera que estuviera entre dos dígitos cualquiera. La máquina contaba también con mecanismos que permitían efectuar cálculos de doble precisión (46 decimales), mediante la unión de dos registros, en una forma análoga a la Máquina Analítica de Babbage.

 

Funcionamiento de la Mark I

La Mark I se programaba recibiendo sus secuencias de instrucciones a través de una cinta de papel, en la cual iban perforadas las instrucciones y números que se transferían de un registro a otro por medio de señales eléctricas.

Cuando la máquina estaba en funcionamiento el ruido que producía era similar al que haría un habitación llena de personas mecanografiando de forma sincronizada. El tiempo mínimo de transferencia de un número de un registro a otro y en realizar cada una de sus operaciones básicas (resta, suma, multiplicación y división) era de 0,3 segundos. Aunque la división y la multiplicación eran más lentas.

La capacidad de modificación de la secuencia de instrucciones con base en los resultados producidos durante el proceso de cálculo era pequeño. La máquina podía escoger de varios algoritmos para la ejecución de cierto cálculo. Sin embargo, para cambiar de una secuencia de instrucciones a otra era costoso, ya que la máquina se tenía que detener y que los operarios cambiaran la cinta de control. Por tanto, se considera que la Mark I no tiene realmente saltos incondicionales.

Aunque, posteriormente se le agregó lo que fue llamado Mecanismo Subsidiario de Secuencia (era capaz de definir hasta 10 subrutinas, cada una de las cuales podía tener un máximo de 22 instrucciones), que estaba compuesto de tres tablones de conexiones que se acompañaban de tres lectoras de cinta de papel. Y se pudo afirmar que la Mark I, podía transferir el control entre cualquiera de las lectoras, dependiendo del contenido de los registros.

 

Fuente: Wikipedia

Ver también:

 

  • Computadora Atanasoff Berry Computer - (ABC)
  • Computadora Zuse Z3
  • Historia de la computación
  • Seguir leyendo...

    26 de enero de 2011

    Computadora Atanasoff Berry Computer - (ABC)

    El Atanasoff Berry Computer (ABC) fue el primer computador electrónico y digital automático. Fue construido por el Dr. John Vincent Atanasoff con la ayuda de Clifford Edward Berry entre 1937 y 1942 en la 'Iowa State University', que entonces recibía el nombre de 'Iowa State College'.

    Innovaciones del ABC

    Esta máquina, decididamente revolucionaria, aportó diversas innovaciones en el campo de la computación: un sistema binario para la aritmética, memoria regenerativa y distinción entre la memoria y las funciones de el primer computador moderno en utilizar aritmética en binario y usar circuitos electrónicos, que hoy en día se utilizan en todos los computadores.

    En binario se utilizan dos símbolos, 0 y 1, para representar valores numéricos. Más específicamente, el binario es una notación matemática en base dos. Debido a su relación directa con los circuitos electrónicos, el sistema binario se usa internamente en casi todos los ordenadores actuales. El computador fue el primero en implementar tres conceptos claves presentes en los ordenadores modernos:

    1. Uso del sistema binario para representar todos los números y datos.
    2. Realizaba todas las operaciones usando la electrónica en lugar de ruedas,
    3. La computación estaba separada del sistema de almacenamiento o memoria.

    Además usaba memoria regenerativa, del mismo modo que la DRAM de los ordenadores actuales. No era un computador de almacenamiento, lo que la distingue de las máquinas más tardías y de uso general como el ENIAC (1949), el EDVAC (1949), los diseños de la Universidad de Manchester o los que Alan Turing realizó en el 'National Physical Laboratory'.

    Atanasoff Berry Computer - ABC

     

    Desarrollo

    El ABC fue construido en el sótano de la 'Iowa State University', que entonces se llamaba 'Iowa State College'. El proceso duró dos años debido a la falta de fondos. Los fondos iniciales fueron aportados por el departamento de agronomía. El resto de la financiación corrió a cargo de la 'Research Corporation of America', en Nueva York.

    La primera demostración del prototipo, que sumaba o restaba dos registros de veinticinco bits usando un bit de acarreo, se realizó en noviembre de 1939. La máquina pesaba más de 320 kg. Contenía aproximadamente 1.6 km de cable, 280 tubos de vacío y ocupaba como una mesa de despacho.

    Estaba diseñado para solucionar sistemas de ecuaciones lineales con 29 incógnitas. Este tipo de problema era muy típico en la física e ingeniería de aquella época. El sistema era alimentado con dos ecuaciones lineales con 29 incógnitas y una constante, y eliminaba una de las variables.

    El proceso se repetía con el resto de ecuaciones, resultado un sistema de ecuaciones con una variable menos. El proceso de repetía de nuevo para eliminar otra variable. El sistema tenía un error cada 100.000 cálculos, lo que en la práctica le impedía resolver los sistema de ecuaciones.

    En retrospectiva, una solución, que se podría haber adoptado con la tecnología disponible en aquella época, sería añadir un bit de paridad a cada número cuando era escrito. El problema no fue resuelto porque Atanasoff abandonó la universidad para colaborar con el ejército durante la Segunda Guerra Mundial.

     

    Arquitectura de la ABC

    Panel de Control

    Numerosos controles manuales proporcionan al usuario la capacidad de programar operaciones en la máquina. La sección de control está constituida por una mezcla de transmisores electromecánicos y tubos de vacío electrónicos.

    Representación numérica

    EL ABC se diseñó para resolver problemas de álgebra lineal con una alta precisión y velocidad. El requisito de alta velocidad condujo al uso del almacenaje electrónico y la conmutación, dado que los métodos mecánicos de las calculadoras existentes en aquella época eran centenares de veces más lentos que los métodos electrónicos. La alta precisión requerida eliminó el uso de los métodos analógicos, que se limitan a dos o tres dígitos decimales de exactitud.

    Atanasoff determinó que una máquina binaria sería más veloz, eficiente y simple que una máquina decimal que procurase imitar la aritmética académica en base diez. Fue el primero en reconocer el valor de las representaciones binarias de los números, a las que él llamaba “abacus elements”.

    A pesar de algunas tentativas en el diseño de calculadoras numéricas electrónicas no binarias, toda la historia de la computación se ha basado en el funcionamiento en modo binario en el nivel más bajo del hardware. Los traductores de decimal a binario fueron agregados al ABC para facilitar la entrada inicial y salida final de los datos.

    Atanasoff se decidió por una representación basada en cincuenta bits de mantisa más un bit de signo. Esta representación proporciona una exactitud de quince decimales. Medio siglo después del diseño y construcción del ABC el comité del IEEE estandarizó un formato de representación de números basado en un bit de signo, cincuenta y dos bits de mantisa y once bits de exponente. Por tanto podemos considerar al ABC como una computadora de doble precisión, con una representación de los números excepcionalmente similar a la de las arquitecturas actuales.

    Memoria Principal

    El ABC usaba almacenamiento dinámico para su memoria principal. Al igual que las memorias RAM actuales, requería de un período de refresco para recordar su estado binario. Atanasoff consideró el uso de distintas tecnologías para la construcción de la memoria principal tales como memoria magnética, tubos de vacío y condensadores para guardar cada bit de memoria. Finalmente la relación entre el coste por bit y el rendimiento le hizo decidirse por el uso de condensadores.

    La memoria principal estaba formada por los tambores CA (“Counter Abaci”) y KA (“Keyboard Abaci”.) Los tambores CA y KA son idénticos. Disponen de treinta y dos bandas a lo largo de la longitud del tambor. Cada banda dispone de sesenta posiciones físicas, de las cuales cincuenta contienen condensadores montados radialmente alrededor del tambor. Cada condensador almacena un bit y cada banda es un elemento del vector. Las dos bandas adicionales son repuestos para el caso del fallo de un condensador.

    Los términos “counter” y “keyboard” son reminiscencias de los conceptos originales de las máquinas sumadoras mecánicas, en las cuales una unidad sumadora controla el total acumulado, y los valores introducidos a través del teclado o “keyboard” son sumados o restados a esta cantidad.

    En la actualidad, la memoria dinámica basada en condensadores impresos sobre chips de silicio continúa ofreciendo la mejor relación entre coste y rendimiento. Esta memoria estaba organizada en dos bancos de treinta y dos palabras cada uno. Dos de estas palabras eran repuestos. Como cada palabra precisaba de cincuenta bits de mantisa más uno de sigo, la capacidad total de almacenamiento era de tres mil doscientos sesenta y cuatro bits. Los bancos eran usados como registros por la unidad aritmética. Cada banco de registros residía en un cilindro distinto.

    Aritmética paralela

    En términos modernos el ABC se puede describir como un procesador vectorial de series de bits. Un vector de treinta elementos es procesado en paralelo. Cada elemento es una palabra de cincuenta bits que es procesada secuencialmente. La operación básica del ABC era una multiplicación paralela. En cada ciclo de reloj de un segundo la computadora podía realizar treinta sumas o restas simultáneas, por lo que es considerado como el primer computador vectorial.

    La multiplicación se basaba en un algoritmo de suma desplazamiento que avanzaba por las filas de la matriz del sistema de ecuaciones sumando cada fila a la siguiente. Para completar una operación se requerían dieciséis ciclos de un segundo cada uno.

    Teniendo en cuenta que los vectores o matrices de entrada estaban compuestos por treinta palabras, la velocidad de cómputo del ABC era de sesenta operaciones, treinta operaciones de suma más otras treinta de desplazamiento, en dieciséis segundos, o lo que es lo mismo 3.75 operaciones/segundo.

    Los elementos de la arquitectura encargados de realizar las sumas y restas eran los ASMs (“Add-Subtract Mechanisms”.) Estos mecanismos, que eran totalmente electrónicos, recibían dos bits y un acarreo de entrada y devolvían el bit de resultado y el acarreo de salida.

    Tambor de estado (“Carry Drum”)

    Mantiene el estado actual del bit del vector cuando este se está procesando. Hay un bit de estado (“carry bit”) por cada elemento del vector, es decir, treinta bits de estado.

    Tambor de temporización (“Timing Drum”)

    Este elemento de la arquitectura es el encargado de generar diversas señales de control. El tiempo que se tarda en recorrer las diez posiciones físicas sin condensador de los tambores de memoria se utiliza para labores de control.

    Tambor de conversión (“Conversion Drum”)

    Funciona como una ROM que contiene las representaciones binarias de los números decimales. El tambor de conversión se utiliza durante la entrada de los datos (de base 10 a base 2) y salida de datos (base 2 a base 10.)

    Memoria secundaria

    Está formada por un grabador y un lector de tarjetas en base dos (“Base-2 Reader and Punch”) Las computadoras antiguas se asocian a los lectores de tarjetas mecánicos y a las cintas de papel perforadas.

    Sin embargo el diseño del ABC fue muy avanzado a su época en cada uno de los aspectos de su arquitectura. La memoria secundaria usaba medios eléctricos para leer y escribir los datos. El medio de grabación era tarjetas, pero los agujeros se hacían eléctricamente mediante un rayo de cinco mil voltios. Después eran leídos usando un voltaje muy inferior y a una velocidad muy superior a los sesenta bits por segundo que proporcionaban los medios mecánicos de su época.

    El diseño paralelo de este dispositivo permitía que tiras de treinta bits fueran leídas y escritas simultáneamente. La velocidad de transferencia era de mil ochocientos bits por segundo. Esta velocidad es superior a la que empleaban los computadores personales de principios de los ochenta para leer cintas de cassette, y fue considerada suficiente para satisfacer las necesidades de cálculo del ABC.

    El diseño de los antiguos computadores permitía que los números fueran leídos, procesados y escritos simultáneamente. En la actualidad las operaciones de entrada/salida se solapan con el proceso de la CPU.

    Periféricos de entrada y salida de datos

    El lector de base diez es empleado para la introducción de los datos. Para dicha entrada de datos se emplean tarjetas en base-10 de ochenta columnas estándar de IBM. Se lee de forma paralela un banco de cinco coeficientes. Los quince dígitos que componen los coeficientes se leen secuencialmente comenzando con el más significativo. Los datos de salida se muestran a través de un display en base 10 de quince dígitos.

    Sincronización del sistema

    Todos los tambores del sistema exceptuando el de estado (“carry drum”) rotan a sesenta revoluciones por minuto, es decir, dan una vuelta en un segundo. En cada revolución se realiza una operación de vector. Como cada tambor posee sesenta posibles posiciones de memoria, la velocidad máxima de transferencia es de sesenta bits por segundo.

    Si leemos sesenta bits por rotación, el tambor de estado deberá rotar a 3600 RPM. En la práctica es preferible no alcanzar estas velocidades, y realmente rota a 900 RPM. Hay cuatro contactos por cada bit de estado conectados a un condensador.

    Diagrama de la  Atanasoff Berry Computer.GIF

    La lucha por la patente

    Presper Eckert y John Mauchly fueron los primeros en patentar un computador digital, el ENIAC. Mauchly examinó el ingenio de Atanasoff y Berry en junio de 1941, y se piensa que esta visita influyó en su trabajo posterior. En el juicio de Sperry Rand contra Honeywell se revocó la patente del ENIAC al ser considerado una derivación del ABC.

    El juicio comenzó en 1967 y el veredicto se dictaminó el 19 de octubre de 1973. No hubo apelación. La visita que Mauchly realizó a Atanasoff fue la base del veredicto. Atanasoff fue generoso al decir, "hay suficiente crédito para todos en la invención y desarrollo del computador digital".

    Eckert y Mauchly han sido considerados históricamente los padres del computador moderno, aunque historiadores y expertos están de acuerdo ahora en que el ABC fue el primero. Atanasoff fue ampliamente reconocido en vida. El 13 de noviembre de 1990 fue galardonado con la 'National Medal of Technology' por el presidente George H. W. Bush, en una ceremonia celebrada en la Casa Blanca.

     

    Destrucción de la máquina. Réplica moderna

    El ABC fue finalmente desmontado cuando la universidad convirtió el sótano en que se encontraba en laboratorios. La mayor parte de sus piezas fueron eliminadas. En 1997, un grupo de investigadores del 'Ames Laboratory', sito en el campus de la 'Iowa State', finalizó la construcción de una réplica de la computadora, con un coste de 350.000 dólares.

    Esta réplica disipó favorablemente cualquier duda sobre si el ABC podía desarrollar las funciones para las que fue diseñado. El nuevo ABC está en exposición permanente en el vestíbulo del 'Durham Center for Computation and Communication' en la 'Iowa State University'.

     

    Fuente: Wikipedia

    Ver también:

  • Computadora Zuse Z3
  • Historia de la computación
  • Seguir leyendo...

    20 de enero de 2011

    Computadora Zuse Z3

    La computadora Z3, creada por Konrad Zuse en 1941, fue la primera máquina programable y completamente automática, características usadas para definir a un computador.

    El Z3, de tecnología electromecánica, estaba construido con 2300 relés, tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con aritmética en coma flotante puramente binaria.

    La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín). El Z3 original fue destruido en 1943 durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 Raúl Rojas demostró que el Z3 es Turing completo.

    En 1967, Zuse KG había construido un total de 251 computadoras. Ese mismo año Zuse sugirió que el universo en sí mismo es una retícula de computadoras (Física computacional), publicando esta hipótesis en 1969 en su libro Rechnender Raum.

    Computadora Zuse Z3

     

    Relaciones entre el Z3 y otras computadoras

    La siguiente lista sitúa el Z3 en el contexto de la época:

    1). Al contrario que el primer ordenador no-programable creado por Wilhelm Schickard en 1623, el Z3 de 1941 era programable.

    2). El éxito de Zuse suele ser atribuido a su uso del sistema binario. Este sistema fue inventado unos 300 años antes por Gottfried Leibniz, y posteriormente usado por George Boole para desarrollar su álgebra booleana. En 1937, Claude Shannon introdujo la idea de implementar el álgebra booleana mediante relés electrónicos en un documento sobre diseño de circuitos digitales. Sin embargo, fue Zuse el que unió todo esto e hizo que funcionara.

    3). El primer diseño de un computador controlado por programa fue realizado por Charles Babbage a mediados del siglo XIX. Este diseño, sin embargo, no pudo llevarse a cabo en aquellos momentos, supuestamente porque era decimal y por lo tanto muy complicado, no binario y simple como el Z3. No obstante, en 1991, la máquina diferencial de Babbage fue construida según sus planes originales, y funcionó correctamente. Si la amiga de Babbage, Ada Lovelace, fue la primera programadora teórica, escribiendo programas para una máquina que no existía, entonces Zuse fue el primer programador práctico.

    4). El ENIAC fue completado 4 años después que el Z3. Mientras que el ENIAC usaba válvulas de vacío y el Z3 usaba relés, el ENIAC todavía era decimal y el Z3 era binario. Hasta 1948, programar el ENIAC significaba volver a soldar los cables; mientras, el Z3 leía los programas de tarjetas perforadas. Hoy en día los computadores están basados en transistores en vez de válvulas o relés, pero su arquitectura interna es más parecida al Z3 que al ENIAC.

    5). El Z3 necesitaba una cinta externa para almacenar los programas. El Manchester Baby de 1948 y el EDSAC de 1949 fueron los primeros computadores del mundo con programas almacenados internamente, implementando un concepto frecuentemente atribuido a un artículo presentado en 1945 por John von Neumann y sus compañeros. Sin embargo, una patente de Zuse de 1936 ya mencionaba la idea, pero fue rechazada.

    6). Relación entre el Z3 y el concepto teórico de la máquina universal de Turing: era posible construir bucles en el Z3, pero no había ninguna instrucción de salto condicional (aunque hubiera sido sencillo añadir una). No obstante, hay una manera de implementar una máquina de Turing en un Z3 (asumiendo una capacidad de almacenamiento infinita), como fue demostrado en 1998. Es una manera extraña, pero la propia máquina de Turing es extraña, estando diseñada para ser simple y universal, no eficiente.

    Desde un punto de vista práctico es mucho más importante el hecho de que el Z3 proporcionaba un juego de instrucciones bastante útil para las aplicaciones de los ingenieros de los años 40. De hecho, Zuse era un ingeniero que construyó sus computadores para que les facilitasen su trabajo.

    Fuente: Wikipedia

    Ver también:

  • Historia de la computación
  • Seguir leyendo...

    13 de enero de 2011

    Historia de la computación

    La computadora u ordenador, no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Muchos fueron los descubrimientos e inventos que se sucedieron durante siglos, que se concatenaron para posibilitar la creación de  los sistemas modernos de computación que hoy conocemos. Entre los principales hechos fundacionales de la computación, se destacan los siguientes:

    Siglo XVII

    • El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea.

    1617

    • Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones". Los Huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.

    1623

    • La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.

    1624

    • La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.

    1642

    • Blaise Pascal inventa la Pascalina en 1645. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.

    La Pascalina (Blaise Pascal - 1645)

    1666

    • La primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la Pascalina, este aparato no tenía avance automático de columnas.

    1673

    • La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried Leibniz. El aparato era una partida de la Pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.

     

    Siglo XVIII

    1769

    • El Jugador de Ajedrez Autómata, "El Turco", fue inventado por el Barón Wolfgang von Kempelen, un noble húngaro. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí, era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.

    1777

    • Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.

     

    Siglo XIX

    1801

    • El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.

    1820

    • La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.

    1822

    • Charles Babbage completó su Artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El Artefacto de la Diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".

    1837

    • Fue inicialmente descrita la máquina analítica de Charles Babbage. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.

    1843

    • Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.

    1854

    • El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y,o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.

    1869

    • La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.

    1878

    • Un comité de la Asociación Británica para el avance de la ciencia recomendó no construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del gobierno.
    • Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un americano.

    1879

    • A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.

    1884

    • Dorr Felt desarrolló su Comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.

    1893

    • La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron.

     

    Siglo XX

    1906

    • El primer tubo de vacío fue inventado por el estadounidense, Lee De Forest. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.

    1919

    • El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.

    1924

    • Walther Bothe construyó una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.

    1925

    • Se fundan los laboratorios Bell.

    1930

    • Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.

    1931

    • Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.

    1936

    • Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.

    1940

    • Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora que podía manejar números complejos.

    1941

    • La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.

    1942

    • John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").

    1944

    • Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.

    1945

    • El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
    • Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.

    1946

    ENIAC

    ENIAC (1946)

    • Se construye en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.

    1947

    • Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley.

    1949

    • Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.

    1950

    • Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.

    1951

    • Comienza a operar la EDVAC, (Electronic Discrete Variable Automatic Computer) a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
    • Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I. (UNIVersal Automatic Computer I)
    • El Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.

    1952

    • Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.

    1953

    • IBM fabricó su primera computadora escala industrial, la IBM 650
    • Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
    • Se crean memorias a base de magnetismo (conocidas como memorias de núcleos).

    1954

    • Se desarrolla el lenguaje de programación de alto nivel FORTRAN.

    1956

    • Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
    • Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.

    1957

    • Es puesta a la venta por parte de IBM la primera impresora de matriz de puntos.

    1958

    • Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
    • El primer circuito integrado se construyó por Jack S. Kilby.
    • La organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.

    1960

    • Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
    • Aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.
    • Se crea el primer compilador de computador.
    • C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.

    1961

    • Kenneth Iverson inventa el lenguaje de programación APL en IBM.
    • Aparece el concepto de paginación de memoria, descrito por T. Kilburn y D. J. Howart.

    1962

    • Los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT.
    • El primer compilador auto contenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT.
    • Un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
    • El estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!.

    1963

    • Un comité Industria-Gobierno define el código estándar de caracteres ASCII.
    • El primer minicomputador comercialmente exitoso es distribuido por DEC (Digital Equipment Corporation).

    1964

    • La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
    • Aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
    • Se desarrolla el lenguaje BASIC (el Dartmouth BASIC), John George Kemeny y Thomas Eugene Kurtz en el Dartmouth College

    1965

    • Gordon Moore publica la famosa Ley de Moore.
    • La lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos aproximados.
    • J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
    • Los algoritmos de exclusión mutua (sistemas operativos) fueron tratados por primera vez en los clásicos documentos de Dijkstra.

    1966

    • La mayoría de ideas y conceptos que existían sobre redes fueron aplicadas a ARPANET.
    • Aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.

    1967

    • Los primeros programas exitosos de ajedrez fueron desarrollados por Richard Greenblatt en el MIT.
    • Es inventado el diskette (disco flexible) en IBM por David Noble, bajo la dirección de Alan Shugart.

    1968

    • Robert Noyce y Gordon Moore fundan la corporación Intel.

    1969

    • El protocolo de comunicaciones NCP fue creado para controlar la red ARPANET.
    • La primera minicomputadora de 16-bit es distribuida por la Data General Corporation.
    • Se desarrolla en los laboratorios Bell el lenguaje de programación B cuyos aportes fueron mayoritariamente de Ken Thompson y Dennis Ritchie.
    • Nace el sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de empleados de dicho laboratorio, entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy.

    1970

    • El sistema UNICS, es renombrado como Unix.
    • El primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc.
    • Se publica el primer modelo de base de datos relacional, por E.F. Codd.
    • El profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.
    • Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400.
    • Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1Kbits).

    1971

    • Se presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
    • Ray Tomlinson crea el primer programa para enviar correo electrónico, como consecuencia, la arroba se usa por primera vez con fines informáticos.
    • Un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).
    • Texas Instruments vende la primera calculadora electrónica portátil.

    1972

    • Aparecen los disquetes de 5 1/4 pulgadas.
    • Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a una máquina IBM Serie 360 y fue llamado Creeper.
    • Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en los Laboratorios Bell.
    • Nolan Bushnell y Ted Dabney fundan la Atari.
    • Intel desarrolla y pone a la venta el procesador 8008.
    • El concepto de región crítica fue sugerido por C. A. R. Hoare y Per Brinch Hansen.

    1973

    • ARPA cambia su nombre por DARPA.

    1974

    • Es creado el protocolo TCP por Vint Cerf y Robert Kahn.
    • Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).
    • Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los derechos de autor (copyright) del CP/M.

    1975

    • En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
    • Se funda la empresa Microsoft.

    1976

    • Se funda la empresa Apple.

    1977

    • Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.

    1978

    • Se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).

    1979

    • Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc.
    • Aparece el juego Pacman creado por Toru Iwatani de la empresa Namco.

    1980

    • Surge el primer prototipo de Computadora de Instrucción Reducida (RISC), desarrollado por un grupo de investigación en IBM.
    • La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
    • Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32.

    1981

    IBM PC

    • Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
    • Se termina de definir el protocolo TCP/IP.
    • Apple presenta el primer computador personal que se vende a gran escala, el Apple II.
    • Sony crea los disquetes de 3 1/2 pulgadas.

    1982

    • La Asociación Internacional MIDI publica el MIDI.
    • Se funda Compaq Computer Corporation, una compañía de computadoras personales, por Rod Canion, Jim Harris y Bill Murto.

    1983

    • Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
    • Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable.
    • ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
    • Se anuncia públicamente el proyecto GNU iniciado por Richard Stallman.
    • Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup.
    • Nace el primer sistema operativo de Sun llamado SunOS.
    • Aparece el famoso Lotus 1-2-3, un programa de hoja de cálculo realizado por la compañía Lotus Software.
    • El sistema DNS consistía de 1000 hosts.
    • Se funda Borland.

    1984

    • IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares.
    • Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
    • Las compañías Philips y Sony crean los CD-Roms para computadores.
    • Se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
    • Aparece el lenguaje LaTeX para procesamiento de documentos.
    • Hewlett-Packard lanza su popular impresora LaserJet.
    • Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e infraestructuras para Internet.

    1985

    • Microsoft presenta el sistema operativo Windows 1.0.
    • Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
    • Bertrand Meyer crea el lenguaje de programación Eiffel.
    • Adobe crea el PostScript.
    • El ruso Alexey Pazhitnov crea el juego Tetris.

    Compaq Deskpro 286

    1986

    • ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.
    • Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
    • El lenguaje SQL es estandarizado por ANSI.
    • Aparece el programa de cálculo algebraico de computadora MathCad.
    • Se registra la primera patente base de codificación de lo que hoy conocemos como MP3.
    • Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.

    1987

    • Se desarrolla la primera versión del actual protocolo X11.
    • Larry Wall crea el lenguaje de programación Perl.
    • El proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler Collection".
    • Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC.

    1988

    • Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
    • Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
    • Aparece el primer documento que describe lo que hoy se conoce como firewalls.
    • Aparece el estándar XMS.

    1989

    • Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
    • T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads).

    1990

    • Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
    • Se construye el primer prototipo de procesador óptico en AT&T (Laboratorios de Bell).
    • Guido van Rossum crea el lenguaje de programación Python.

    1991

    • Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
    • Comienza a popularizarse la programación orientada a objetos.
    • Surge la primera versión del estándar Unicode.
    • Aparece la primera versión de Adobe Premiere.
    • Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los 90's en vender una PC de menos de $1,000. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.

    1992

    • Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
    • Microsoft lanza Windows 3.1.
    • Aparece la primera versión del sistema operativo Solaris.
    • GNU comienza a utilizar el núcleo Linux.

    1993

    • Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).
    • Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
    • Se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la tierra.

    1994

    • Marc Andreessen crea el famoso navegador web Netscape Navigator.
    • Es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.

    1995

    • Lanzamiento de Windows 95 por parte de Microsoft.
    • Aparece la primera versión de MySQL.
    • Inicia el desarrollo del servidor Apache.
    • La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
    • Se presenta públicamente el lenguaje de programación Ruby.
    • Se especifica la versión 1.5 del DVD, base actual del DVD.

    1996

    • Se crea Internet2, más veloz que la Internet original.
    • Se publica la primera versión del navegador web Opera.
    • Se inicia el proyecto KDE.
    • La tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.
    • Aparece la primera versión de SuperCollider.
    • Sabeer Bhatia y Jack Smith fundan HotMail.

    1997

    • Es creado reproductor multimedia Winamp, cuya distribución es realizada gratuitamente por la empresa estadounidense Nullsoft.
    • Aparece la primera versión pública de FlightGear.
    • Spencer Kimball y Peter Mattis crean la inicial librería GTK+.

    1998

    • La W3C publica la primera versión de XML.
    • Es lanzado al mercado el sistema Windows 98 por parte de Microsoft.
    • Compaq adquirió Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años 70 y principios de los 80. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos.
    • Larry Page y Sergey Brin fundan Google Inc.

    1999

    • Aparece el entorno de escritorio GNOME.
    • Se publica la primera versión de MSN Messenger.
    • Surge Mac OS 9.

     

    Siglo XXI

    2000

    • Es presentado el prototipo de computador cuántico construido por un equipo de investigadores de IBM.
    • Es lanzado el sistema operativo Windows 2000 por Microsoft.
    • Es lanzado el sistema operativo Windows Me por Microsoft.
    • Lanzamiento de Mac OS X.

    Windows Me

    2001

    • Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.
    • Se lanza el sistema operativo Windows XP por parte de Microsoft.

    2002

    • Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
    • Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.

    2005

    • Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.
    • Se lanza el programa Google Earth.
    • Lanzamiento de Windows XP Media Center Edition
    • Puesta en funcionamiento del supercomputador MareNostrum en el BSC.
    • Creación de YouTube.

    2006

    • Lanzamiento del sistema operativo de Microsoft Windows Vista
    • Entra en servicio el supercomputador Magerit perteneciente al CeSViMa.

    2007

    • La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.
    • La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5

    2008

    • Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.
    • Apple lanza el móvil más revolucionario de la historia en toda Europa y América, el iPhone 3G.
    • Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.
    • Lanzamiento del navegador Google Chrome.
    • Lanzamiento de KDE 4.0.
    • El supercomputador Roadrunner de IBM es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.

    2009

    • Debian GNU/Linux 5.0
    • KDE 4.2 RC
    • Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6
    • El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.

    2010

    • Se produce el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux.
    • IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz
    • Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.
    • Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz

     

    Fuente: Wikipedia

    Seguir leyendo...

    6 de enero de 2011

    La computadora: Definición y descripción de sus principales componentes

    Una computadora o computador (del inglés computer y este del latín computare -calcular), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil.
    Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador.

    Definición y componentes de una computadoraLa computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida.
     
    La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.

    La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.
     

    Arquitectura de una computadora

    A pesar de que las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John William Mauchly.

    La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:

    PC - Arquitectura de Von Neumann

    • La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
    • El procesador (también llamado Unidad central de procesamiento o CPU) consta de manera básica de los siguientes elementos:

    Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida.

    • La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
    • La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
    Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de Coma Flotante
    • Los dispositivos de Entrada/Salida sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.

     

    Periféricos y dispositivos auxiliares de la computadora

    Monitor

    Monitor de PCEl monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados, o los gráficos del procesamiento de una computadora. Existen varios tipos de monitores: los de tubo de rayos catódicos (o CRT), los de pantalla de plasma (PDP), los de pantalla de cristal líquido (o LCD), de paneles de diodos orgánicos de emisión de luz (OLED), o Láser-TV, entre otros.
    Teclado

    Teclado de PCUn teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados táctiles), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).
    Ratón

    Mouse MicrosoftEl mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de computadora de uso manual, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y.

    Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo o sobre un barnizado por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo, es recomendable el uso de alfombrillas.

    Impresora

    Impresora Canon S520 Jet PrinterUna impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable.

    Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interna (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Hoy en día se comercializan impresoras multifuncionales que aparte de sus funciones de impresora funcionan simultáneamente como fotocopiadora y escáner, siendo éste tipo de impresoras las más recurrentes en el mercado.

    Escáner

    ScannerEn informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital. Actualmente vienen unificadas con las impresoras formando Multifunciones
    Almacenamiento Secundario

    Disco duro abiertoEl disco duro es un sistema de grabación magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros se almacenan los datos del usuario. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos.

    Una Unidad de estado sólido es un sistema de memoria no volátil. Están formados por varios chips de memoria NAND Flash en su interior unidos a una controladora que gestiona todos los datos que se transfieren. Tienen una gran tendencia a suceder definitivamente a los discos duros mecánicos por su gran velocidad y tenacidad. Al no estar formadas por discos en ninguna de sus maneras, no se pueden categorizar como tal, aunque erróneamente se tienda a ello.

    Altavoces o parlantes

    Altavos de graves para PCLos altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.

    • Altavoces de las placas base: Las placas base suelen llevar un dispositivo que emite pitidos para indicar posibles errores o procesos.

     

    Otros conceptos y curiosidades acerca de la PC

    En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones.

    Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene con computadoras de más de un CPU, lo que da origen al multiprocesamiento.

    El sistema operativo es una especie de caja de herramientas lleno de utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

    En la actualidad se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.

    Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

    La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis.

    El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores.

    Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

    Al mismo tiempo, los pequeños computadores son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches.

    A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

    Actualmente, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.

    Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa.

    Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation.

    PC Táctil - GEDC0160

    Fuente: Wikipedia

    Seguir leyendo...