Reseña Historia de la
Informática Informática
La informática es una ciencia que estudia métodos, procesos, técnicas, con el fin de almacenar, procesar y transmitir información y datosen formato digital. La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, Internet y el teléfono móvil.
ORÍGENES
En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costos y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos,industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina, biología,física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes:
- Creación de nuevas especificaciones de trabajo
- Desarrollo e implementación de sistemas informáticos
- Sistematización de procesos
- Optimización de los métodos y sistemas informáticos existentes
- Facilita la automatización de datos
ORIGEN DE LA PALABRA INFORMATICA:
En 1957 Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar informatik con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua.[cita requerida]. En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada «Informatics General, Inc.». Dicha empresa guardó el nombre y persiguió a las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer science. La Association for Computing Machinery, la mayor organización de informáticos del mundo, se dirigió a Informatics General Inc. para poder utilizar la palabra informatics en lugar de computer machinery, pero la empresa se negó. Informatics General Inc. cesó sus actividades en 1985, pero para esa época el nombre de computer science estaba plenamente arraigado. Actualmente los angloparlantes utilizan el término computer science, traducido a veces como «Ciencias de la computación», para designar tanto el estudio científico como el aplicado; mientras que designan como information technology (o data processing, traducido a veces como «tecnologías de la información», al conjunto de tecnologías que permiten el tratamiento automatizado de información.
El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.
La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, etc.
En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.
El concepto de informática viene dado de la conjunción de dos palabras: Información y automática. En tanto que en inglés se habla de conceptos tales como Computer Science, Electronic Data Processing, etc..
Según la el Diccionario de la Real Academia Española RAE es el: "Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores".
Philippe Dreyfus
En 1962 se acuñó el nuevo término Informática. en origen Hispano.
En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada «Informatics General.
La palabra Informática fue creada en 1962; su expresión original era Informatique, dado que su país de origen era Francia y esta formado por una contracción de palabras Information y Automatique.
En el año 1968 el término fue adoptado en el mundo de habla hispana y su modificación derivó en INFORMATICAcomo contracción de las palabras Información Automática.
PIONEROS DE LA COMPUTACIÓN
- Creación de nuevas especificaciones de trabajo
- Desarrollo e implementación de sistemas informáticos
- Sistematización de procesos
- Optimización de los métodos y sistemas informáticos existentes
- Facilita la automatización de datos
En 1957 Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar informatik con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua.[cita requerida]. En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada «Informatics General, Inc.». Dicha empresa guardó el nombre y persiguió a las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer science. La Association for Computing Machinery, la mayor organización de informáticos del mundo, se dirigió a Informatics General Inc. para poder utilizar la palabra informatics en lugar de computer machinery, pero la empresa se negó. Informatics General Inc. cesó sus actividades en 1985, pero para esa época el nombre de computer science estaba plenamente arraigado. Actualmente los angloparlantes utilizan el término computer science, traducido a veces como «Ciencias de la computación», para designar tanto el estudio científico como el aplicado; mientras que designan como information technology (o data processing, traducido a veces como «tecnologías de la información», al conjunto de tecnologías que permiten el tratamiento automatizado de información.
PIONEROS DE LA COMPUTACIÓN
Leave a Comment
Gottfried Wilkelm von Leibniz (1646-1716). Cincuenta años después de que Pascal creara su calculadora mecánica, Von Leibniz construyó una máquina que podía multiplicar y dividir, sumar y restar.
Charles Babbage (1791-1871). Fue un hombre con una visión muy anticipada a su época. En 1833 Babbage propuso una máquina, la “máquina de diferencias”, que básicamente era una computadora mecánica. Si la tecnología de esa época hubiera estado en el nivel del genio de Babagge, él hubiera podido construir la primera computadora (¡hace más de 150 años¡).
Ada Auguste Byron, Condesa de Lovelance (1815-1852). Hija del poeta inglés, Lord Byron, Lovelace corrigió errores de la obra de Babbage, propuso el código binario en lugar del sistema decimal que usaba Babbage y escribió descripciones de sus planes para usar el sistema de tarjetas perforadas para entrada, salida y programación.
Herman Hollerith (1860-1929). Hollerith concibió las técnicas de tarjetas perforadas para el procesamiento de datos. En 1896 fundó que posteriormente se unieron para formar la IBM.
| |||||||||||||
Los Primeros Ordenadores
Analógicos:
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
2. Electrónicos:
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: elColossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC,Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J.Presper Eckeret y John Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo .Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF(0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.
Un grupo de ocho bits se denomina byte y cada uno contiene 256configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño delos conjuntos de instrucciones, continúa incrementándose.
Evoluciones Futuras
Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes.
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
2. Electrónicos:
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: elColossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC,Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J.Presper Eckeret y John Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática.
3. Digitales:
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo .Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF(0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.
Un grupo de ocho bits se denomina byte y cada uno contiene 256configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño delos conjuntos de instrucciones, continúa incrementándose.
Evoluciones Futuras
Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes.
| ||||||
HISTORIA DE LA COMPUTADORA
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.
Dos principios han coexistido con la humanidad en este tema. Uno es usar cosas para contar, ya sea los dedos, piedras, semillas, etc. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión.
Generaciones
1° Generación: Entre 1940 y 1952. Los ordenadores son de uso militar exclusivamente, son caros, enormes, complejos, y difíciles de operar. Además necesitan salas completas para ellos, amén de ventilación y temperatura reguladas.
La primera generación de computadoras abarca desde el año 1938 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina
Características:
Se llama tubo de vacío
- Estaban construidas con electrónica de válvulas.
- Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
- 1943 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos.
- 1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
- 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.
- 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas.
- 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.
2° Generación:
Entre 1952 a 1964. Aparece el transistor, que resulta ser una revolución total en la electrónica. De este modo aparecen los primeros ordenadores comerciales, que aún son enormes y aunque no tan complejos, siguen resultando excesivamente caros, con lo que su destino suele ser bancos o grandes multinacionales.
se llamó transistores
La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores.
Por eso, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son:
- Estaban construidas con la electrónica de transistores
- Se programaban con lenguajes de alto nivel
- 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramación también fue cambiada más tarde por el computador alemán Bastian Shuantiger
- 1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco magnético, el RAMAC (Random Access Method of Accounting and Control). Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de 10.000$ por megabyte.
- El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
- 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. Tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70.
- 1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales.
- 1962, Se desarrolla el primer juego de ordenador, llamado SpaceWars.
- DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.
- 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyó mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968.
3° Generación:
Entre 1964 y 1971. Aparecen los circuitos integrados, que permiten abaratar muchísimo los costes. Además, los sistemas operativos y los lenguajes de programación se vuelven más complejos y capaces. A pesar de todo siguen siendo demasiado caros y grandes.
Entre 1964 y 1971. Aparecen los circuitos integrados, que permiten abaratar muchísimo los costes. Además, los sistemas operativos y los lenguajes de programación se vuelven más complejos y capaces. A pesar de todo siguen siendo demasiado caros y grandes.
se llamo Circuitos Integrados
Características Principales
-Características Principales:
-Circuito integrado desarrollado en 1958 por Jack Kilbry.
-Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip).
-Menor consumo de energía.
-Apreciable reducción de espacio.
-Aumento de fiabilidad y flexibilidad.
-Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
-Generalización de lenguajes de programación de alto nivel.
-Compatibilidad para compartir software entre diversos equipos.
-Computadoras en Serie 360 IBM.
Teleproceso: Se instalan terminales remotas, que puedan acceder a la Computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc...
Multiprogramación: Computadora que pueda procesar varios Programas de manera simultánea.
Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente.
Renovación de periféricos.
Instrumentación del sistema.
Ampliación de aplicaciones: en Procesos Industriales, en la Educación, en el Hogar, Agricultura, Administración, Juegos, etc.
La minicomputadora.
4° Generación:
Entre 1971 y 1981. Aparece el microprocesador, que, a grandes grandes, integra gran parte de los componentes de los antiguos ordenadores en un solo chip. Ésto abarata aún más los costes y reduce los tamaños. Aparecen tímidamente los primeros ordenadores que, aunque no son personales, se dirigen al ámbito de las Pymes.
Entre 1971 y 1981. Aparece el microprocesador, que, a grandes grandes, integra gran parte de los componentes de los antiguos ordenadores en un solo chip. Ésto abarata aún más los costes y reduce los tamaños. Aparecen tímidamente los primeros ordenadores que, aunque no son personales, se dirigen al ámbito de las Pymes.
se llamó Microprocesador
Características Principales:
Microprocesador: Desarrollado por Intel Corporation a solicitud de una empresa Japonesa (1971).
El Microprocesador: Circuito Integrado que reúne en la placa de Silicio las principales funciones de la Computadora y que va montado en una estructura que facilita las múltiples conexiones con los restantes elementos.
-Se minimizan los circuitos, aumenta la capacidad de almacenamiento.
-Reducen el tiempo de respuesta.
-Gran expansión del uso de las Computadoras.
-Memorias electrónicas más rápidas.
-Sistemas de tratamiento de bases de datos.
-Generalización de las aplicaciones: innumerables y afectan prácticamente a todos los campos de la actividad humana: Medicina, Hogar, Comercio, Educación, Agricultura, Administración, Diseño, Ingeniería, etc...
-Multiproceso.
-Microcomputadora.
5° Generación: Desde 1981 hasta hoy. Se caracteriza por la aparición del ordenador personal (principal impulsor IBM), que, aunque comparativamente con el precio de los ordenadores actuales eran realmente caros, las familias pudientes sí podían permitirse comprar uno para tenerlo en casa. Desde entonces la informática se desarolló a un ritmo vertiginoso hasta que, en torno al año 2006 se ha reducido el ritmo en cuanto al aumento de capacidades.

se llamó La Rebotica
Características de la quinta Generación y la Inteligencia Artificial (1982 - Actualidad)
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.
Características Principales:
Mayor velocidad.
Mayor miniaturización de los elementos.
Aumenta la capacidad de memoria.
Multiprocesador (Procesadores interconectados).
Lenguaje Natural.
Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).
Máquinas activadas por la voz que pueden responder a palabras habladas en diversas lenguas y dialectos.
Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de lenguajes hablados y escritos.
Elaboración inteligente del saber y número tratamiento de datos.
Características de procesamiento similares a las secuencias de procesamiento Humano.
La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales: Los sistemas expertos, el lenguaje natural, la robótica y el reconocimiento de la voz. Estos aspectos se explican a continuación:
6º Generación:
Las redes de área mundial seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.
Desde 1900 hasta la actualidad somos partícipes de la sexta generación de computadoras: Una generación en la cual los ordenadores son más pequeños, versátiles y poseen, como herramienta indispensable, Internet.
En esta sexta generación de computadoras los ordenadores cuentan con arquitecturas paralelas que agilizan sus operaciones y facilitan el almacenamiento de información. La sexta generación de computadoras cuenta con invenciones que han revolucionado por completo el mercado de la tecnología informática.
En la actualidad los sistemas informáticos utilizan satélites, fibra óptica e inteligencia artificial, facilitando y permitiendo un amplio desarrollo en este campo.
La sexta generación de computadoras podría denominarse como la era de las computadoras basadas en redes neuronales artificiales o “cerebros artificiales”. Son computadoras que utilizan superconductores como materia prima para sus procesadores, lo cual les permite no derrochar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance es, aproximadamente, 30 veces la de un procesador de la misma frecuencia que utiliza metales comunes para su funcionamiento.
Todos los proyectos de esta sexta generación de computadoras aún están en desarrollo, y la única noticia que ha trascendido ha sido el uso de procesadores en paralelo, es decir, la división de tareas en múltiples unidades de procesamiento operando de manera simultánea. Además, se han incorporado chips de procesadores especializados en las tareas de video y sonido.
SEXTA GENERACIÓN DE COMPUTADORAS…
En esta sexta generación de computadoras se espera conseguir la imitación de los Sistemas Expertos, es decir, imitar el comportamiento de un profesional humano. Para lograr este objetivo se emplearán microcircuitos con inteligencia en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema.


Cabe mencionar que el objetivo de la inteligencia artificial no sólo es equipar las computadoras con inteligencia humana, sino que también con la capacidad de razonar para encontrar soluciones. Otra característica fundamental de la sexta generación de computadoras es la capacidad del ordenador para reconocer patrones y secuencias de procesamiento que haya encontrado previamente (programación Heurística). Dicha programación le permitirá a la computadora recordar resultados previos e incluirlos en el procesamiento.
La computadora aprenderá a partir de sus propias experiencias, es decir que utilizará sus datos originales para obtener la respuesta mediante el razonamiento y luego conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.
La base de la sexta generación de computadoras está en que los conocimientos recién adquiridos le servirán a la computadora como base para la próxima serie de soluciones.
Algunas características de la sexta generación de computadoras:
SEXTA GENERACIÓN (FUTURO)
• Las Computadoras Portátiles (Ladtops)
• Las Computadoras de Bolsillo (PDAs)
• Los Dispositivos Multimedia
• Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.)
• El Reconocimiento de voz y escritura
• Las Computadoras Ópticas (luz, sin calor, rápidas)
• Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas)
• La Mensajería y el Comercio Electrónico
• La Realidad Virtual
• Las Redes Inalámbricas (WiMax, WiFi, Bluetooth)
• El Súper Computo (Procesadores Paralelos Masivos)
• Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA)

Comienza el año 1999 donde popularizan las pantallas LCD 2 y hacen a un lado a los rayos catodicos, en donde se han dejado los DVD y los formatos de disco duro optico.
la generacion de almacenamiento de datos de alta densidad con una capacidad de almacenamiento que llega a los 50 GB, aunque se ha confirmado que esta lista puede recibir 16 capas de 400 GB.
La septima generacion en las computadoras ha llegado a reemplazar la tv y los equipos de sonido, ya que ha logrado un alcance digital por medio de la capacidad de los discos duros que esta avanzando tan rapidamente. en donde se convierte en un centro de entretenimiento.
La 7 generacion comienza en el año 1999 donde popularizan las pantallas plana lcd 2 y hacen a un lado a los rayos catodicos, en donde se han dejado los DVD y los formatos de disco duro optico.
la nueva generacion de almacenamiento de datos de alta densidad con una capacidad de almacenamiento que llega a las 50GB , aunque se ha confirmado que esta lista puede recibir 16 capas de 400 GB.
los celulares son la nueva herramienta importante que se utiliza hoy en día como HTC EVO 4G ocupando la intesidad de 4.3 pulgadas por procesador permitiendo grabar en HD en donde adquiera una camara frontal de 1.3 megapixeles,
el 20 de mayo del 2010, la septima generación en las computadoras ha llegado a remplazar la televisión y los equipos de sonido, ya que ha logrado una alcance digital por medio de la capacidad de los discos duros que esta avanzando tan rapidamente. en donde se convierte en un centro de entretenimiento.
Generacion 8:
Los dispositivos físicos y mecánicos van a desaparecer osea el disco duro y las tarjetas madre etc.
ya todo sera a base de nanotecnologia. Un disco duro esta limitado en velocidad al tener que estar escribiendo en placas. Pero las nuevas Seran orgánicas a base de impulsos electromagnéticos.
CLASIFICACIONES DE LAS COMPUTADORAS:
· Supercomputadoras
· Macrocomputadoras
· Minicomputadoras
· Microcomputadoras o PC´s
Supercomputadoras:
Una supercomputadora es el tipo de computadora más potente y más rápida que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, esto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:
1. Búsqueda y estudio de la energía y armas nucleares.
2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
3. El estudio y predicción de tornados.
4. El estudio y predicción del clima de cualquier parte del mundo.
5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo. Etc. Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año.
Macrocomputadoras o Mainframes:
Macrocomputadoras:
Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares.
De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.
De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las supercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.
Minicomputadoras:
En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento. Las Minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicación de multiusuario.
Microcomputadoras o PC´s
Microcomputadoras:
Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chic", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.
El término PC se deriva de que para el año de 1981, IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras, como la Macintosh ®, que no son compatibles con la IBM , pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Computadoras personales portátiles "Laptop" o "Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del monitor. Computadoras personales que están en una sola unidad compacta el monitor y el CPU.
Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display). Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las Minicomputadoras y las macrocomputadoras (por el procesamiento).
Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software en redes, la palabra "Workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local.
ELEMENTOS BÁSICOS DEL COMPUTADOR.
· Hardware:
· Entrada
· Procesamiento
· Almacenamiento Secundario
· Salida
Definición de Hardware:
Hardware son todos aquellos componentes físicos de una computadora, todo lo visible y tangible. El Hardware realiza las 4 actividades fundamentales: entrada, procesamiento, salida y almacenamiento secundario. Entrada Para ingresar los datos a la computadora, se utilizan diferentes dispositivos, por ejemplo: Teclado Dispositivo de entrada más comúnmente utilizado que encontramos en todos los equipos computacionales. El teclado se encuentra compuesto de 3 partes: teclas de función, teclas alfanuméricas y teclas numéricas.
Mouse:
Es el segundo dispositivo de entrada más utilizado. El mouse o ratón es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. Fue inventado por Douglas Engelbart y su nombre se deriva por su forma la cual se asemeja a la de un ratón.
Lápiz óptico:
Este dispositivo es muy parecido a una pluma ordinaria, pero conectada a un cordón eléctrico y que requiere de un software especial. Haciendo que la pluma toque el monitor el usuario puede elegir los comandos de las programas.
Tableta digitalizadora:
Es una superficie de dibujo con un medio de señalización que funciona como un lápiz. La tableta convierte los movimientos de este apuntador en datos digitalizados que pueden ser leídos por ciertos paquetes de cómputo. Los tamaños varían desde tamaño carta hasta la cubierta de un escritorio.
Entrada de voz (reconocimiento de voz):
Convierten la emisión vocal de una persona en señales digitales. La mayoría de estos programas tienen que ser "entrenados" para reconocer los comandos que el usuario da verbalmente. El reconocimiento de voz se usa en la profesión médica para permitir a los doctores compilar rápidamente reportes. Más de 300 sistemas Kurzweil Voicemed están instalados actualmente en más de 200 Hospitales en Estados Unidos. Este novedoso sistema de reconocimiento fónico utiliza tecnología de independencia del hablante. Esto significa que una computadora no tiene que ser entrenada para reconocer el lenguaje o tono de voz de una sola persona. Puede reconocer la misma palabra dicha por varios individuos.
Pantallas sensibles al tacto (Screen Touch):
Permiten dar comandos a la computadora tocando ciertas partes de la pantalla. Muy pocos programas de software trabajan con ellas y los usuarios se quejan de que las pantallas están muy lejos del teclado. Su aceptación ha sido muy reducida. Algunas tiendas departamentales emplean este tipo de tecnología para ayudar a los clientes a encontrar los bienes o servicios dentro de la tienda.
Lectores de código de barras: Son rastreadores que leen las barras verticales que conforman un código. Esto se conoce como Punto de Venta (PDV). Las tiendas de comestibles utilizan el código Universal de Productos (CUP ó UPC). Este código i identifica al producto y al mismo tiempo realiza el ticket descuenta de inventario y hará una orden de compra en caso de ser necesario. Algunos lectores están instalados en una superficie física y otros se operan manualmente.
Scanners:
Convierten texto, fotografías a color ó en Blanco y Negro a una forma que puede leer una computadora. Después esta imagen puede ser modificada, impresa y almacenada. Son capaces de digitalizar una página de gráficas en unos segundos y proporcionan una forma rápida, fácil y eficiente de ingresar información impresa en una computadora; también se puede ingresar información si se cuenta con un Software especial llamado OCR (Reconocimiento óptico de caracteres).
Procesamiento:
El CPU o UPC (Central Proccesor Unit) es el responsable de controlar el flujo de datos (Actividades de Entrada y Salida E/S) y de la ejecución de las instrucciones de los programas sobre los datos. Realiza todos los cálculos (suma, resta, multiplicación, división y compara números y caracteres). Es el "cerebro" de la computadora.
Se divide en 3 Componentes:
1. Unidad de Control (UC)
2. Unidad Aritmético/Lógica (UAL)
3. Área de almacenamiento primario (memoria)
Unidad de control:
Es en esencia la que gobierna todas las actividades de la computadora, así como el CPU es el cerebro de la computadora, se puede decir que la UC es el núcleo del CPU. Supervisa la ejecución de los programas Coordina y controla al sistema de cómputo, es decir, coordina actividades de E/S Determina que instrucción se debe ejecutar y pone a disposición los datos pedidos por la instrucción. Determina donde se almacenan los datos y los transfiere desde las posiciones donde están almacenados. Una vez ejecutada la instrucción la Unidad de Control debe determinar donde pondrá el resultado para salida ó para su uso posterior.
Unidad Aritmético/Lógica:
Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento. Tiene un registro muy importante conocido como: Acumulador ACC Al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL. Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamiento varias veces.
Área de almacenamiento Primario:
La memoria da al procesador almacenamiento temporal para programas y datos. Todos los programas y datos deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario (disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2 tipos de memoria primaria: ROM (read only memory), memoria de sólo lectura, en la cual se almacena ciertos programas e información que necesita la computadora las cuales están grabadas permanentemente y no pueden ser modificadas por el programador.
Las instrucciones básicas para arrancar una computadora están grabadas aquí y en algunas notebooks han grabado hojas de cálculo, basic, etc. RAM (Random Access memory), memoria de acceso aleatorio, la utiliza el usuario mediante sus programas, y es volátil. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que se están ejecutando en ese momento, los dato s resultados del procesamiento y los datos que se preparan para la salida.
Los datos proporcionados a la computadora permanecen en el almacenamiento primario hasta que se utilizan en el procesamiento. Durante el procesamiento, el almacenamiento primario almacena los datos intermedios y finales de todas las operaciones aritméticas y lógicas. El almacenamiento primario debe guardar también las instrucciones de los programas usados en el procesamiento. La memoria está subdividida en celdas individuales cada una de las cuales tiene una capacidad similar para almacenar datos.
Almacenamiento Secundario:
El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información:
1.- El almacenamiento Magnético.
2.-El almacenamiento Óptico. Algunos dispositivos combinan ambas tecnologías.
Dispositivos de almacenamiento magnético:
Almacenamiento Magnético
1.- Discos Flexibles
2.- Discos Duros
3.- Cintas Magnéticas o Cartuchos.
Almacenamiento Óptico:
La necesidad de mayores capacidades de almacenamiento han llevado a los fabricantes de hardware a una búsqueda continua de medios de almacenamiento alternativos y cuando no hay opciones, a mejorar tecnologías disponibles y desarrollar nuevas. Las técnicas de almacenamiento óptico hacen posible el uso de la localización precisa mediante rayos láser.
Leer información de un medio óptico es una tarea relativamente fácil, escribirla es otro asunto. El problema es la dificultad para modificar la superficie de un medio óptico, ya que los medios ópticos perforan físicamente la superficie para reflejar o dispersar la luz del láser.
Los principales dispositivos de almacenamiento óptico son:
1. - CD ROM. - CD Read Only Memory
2. - WORM. - Write Once, Read Many
Medios Magnéticos - Ópticos:
Estos medios combinan algunas de las mejores características de las tecnologías de grabación magnética y óptica. Un disco MO tiene la capacidad de un disco óptico, pero puede ser re-grabable con la facilidad de un disco magnético. Actualmente están disponibles en varios tamaños y capacidades. Salida
Los dispositivos de salida de una computadora es el hardware que se encarga de mandar una respuesta hacia el exterior de la computadora, como pueden ser: los monitores, impresoras, sistemas de sonido, módem. etc.
1.- Monitores:
El monitor ó pantalla de vídeo, es el dispositivo de salida más común. Hay algunos que forman parte del cuerpo de la computadora y otros están separados de la misma. Existen muchas formas de clasificar los monitores, la básica es en término de sus capacidades de color, pueden ser: Monocromáticos, despliegan sólo 2 colores, uno para el fondo y otro para la superficie. Los colores pueden ser blanco y negro, verde y negro ó ámbar y negro. Escala de Grises, un monitor a escala de grises es un tipo especial de monitor monocromático capaz de desplegar diferentes tonos de grises. Color: Los monitores de color pueden desplegar de 4 hasta 1 millón de colores diferentes.
Conforme ha avanzado la tecnología han surgido los diferentes modelos: TTL, Monocromático, muy pobre resolución, los primeros no tenían capacidad de graficar. CGA, Color Graphics Adapter, desplegaba 4 colores, con muy pobre resolución a comparación de los monitores actuales, hoy en día fuera del mercado. EGA, Enhanced Graphics Adapter, manejaba una mejor resolución que el CGA, de 640x350 pixeles. (Los pixeles son los puntos de luz con los que se forman los caracteres y gráficas en el monitor, mientras más pixeles mejor resolución). Desplegaban 64 colores. VGA, Vídeo Graphics Array, los hay monocromáticos y de color. Adecuados para ambiente gráfico por su alta resolución (640x480 pixeles), pueden llegar hasta 256,000 colores ó 64 tonalidades de gris dependiendo de la memoria destinada al dispositivo. PVGA, Súper Vídeo Graphics Array, maneja una resolución más alta (1,024x768), el número de colores desplegables varía dependiendo de la memoria, pero puede ser mayor que 1 millón de colores.
UVGA, Ultra Vídeo Graphics Array, Resolución de 1280 x 1024. La calidad de las imágenes que un monitor puede desplegar se define más por las capacidades de la Tarjeta controladora de vídeo, que por las del monitor mismo. El controlador de vídeo es un dispositivo intermediario entre el CPU y el monitor. El controlador contiene la memoria y otros circuitos electrónicos necesarios para enviar la información al monitor para que la despliegue en la pantalla.
2.- Impresoras:
Dispositivo que convierte la salida de la computadora en imágenes impresas. Las impresoras se pueden dividir en 2 tipos: las de impacto y las de no impacto.
IMPRESORAS DE IMPACTO:
Una impresora que utiliza un mecanismo de impresión que hace impactar la imagen del carácter en una cinta y sobre el papel. Las impresoras de línea, de matriz de punto y de rueda de margarita son ejemplos de impresoras de impacto. Impresora de Matriz de puntos, es la impresora más común. Tiene una cabeza de impresión movible con varias puntillas o agujas que al golpear la cinta entintada forman caracteres por medio de puntos en el papel, Mientras más agujas tenga la cabeza de impresión mejor será la calidad del resultado. Las hay de 10 y 15", las velocidades varían desde: 280 cps hasta 1,066 cps Impresoras de margarita; tiene la misma calidad de una máquina de escribir mediante un disco de impresión que contiene todos los caracteres, están de salida del mercado por lentas. Impresoras de Línea: Son impresoras de alta velocidad que imprimen una línea por vez. Generalmente se conectan a grandes computadoras y a Minicomputadoras. Las impresoras de línea imprimen una línea a la vez desde aproximadamente 100 a 5000 LPM.
IMPRESORAS SIN IMPACTO:
Hacen la impresión por diferentes métodos, pero no utilizan el impacto. Son menos ruidosas y con una calidad de impresión notoriamente mejor a las impresoras de impacto. Los métodos que utilizan son los siguientes: Térmicas: Imprimen de forma similar a la máquina de matriz, pero los caracteres son formados marcando puntos por quemadura de un papel especial. Vel. 80 cps. Los faxes trabajan con este método.
Impresora de inyección de tinta:
Emite pequeños chorros de tinta desde cartuchos desechables hacia el papel, las hay de color. Vel. De 4 a 7 ppm.
Electrofotográficas o Láser: Crean letras y gráficas mediante un proceso de fotocopiado. Un rayo láser traza los caracteres en un tambor fotosensible, después fija el tóner al papel utilizando calor. Muy alta calidad de resolución, velocidades de 4 a 18 ppm.
Definición
Clasificación Sistemas Operativos
Lenguajes de Programación S.
De uso general S. D e aplicación
Definición de Software:
El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibiera una educación instantánea; de pronto "sabe" cómo pensar y cómo operar. El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de cómputo. Distinguiéndose de los componentes físicos llamados hardware.
Comúnmente a los programas de computación se les llama software; el software asegura que el programa o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simplemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por sí solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware.
Clasificaciones del Software:
El software se clasifica en 4 diferentes Categorías: Sistemas Operativos, Lenguajes de Programación, Software de uso general, Software de Aplicación. (Algunos autores consideran la 3era y 4ta clasificación como una sola).
Sistemas Operativos:
El sistema operativo es el gestor y organizador de todas las actividades que realiza la computadora. Marca las pautas según las cuales se intercambia información entre la memoria central y la externa, y determina las operaciones elementales que puede realizar el procesador. El sistema operativo, debe ser cargado en la memoria central antes que ninguna otra información. Lenguajes de Programación Mediante los programas se indican a la computadora que tarea debe realizar y cómo efectuarla, pero para ello es preciso introducir estas órdenes en un lenguaje que el sistema pueda entender. En principio, el ordenador sólo entiende las instrucciones en código máquina, es decir, el específico de la computadora. Sin embargo, a partir de éstos se elaboran los llamados lenguajes de alto y bajo nivel.
Software de Uso General:
El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario (manual de referencia, plantillas de teclado y demás).
Software de aplicaciones:
El software de aplicación está diseñado y escrito para realizar tareas específicas personales, empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios.
El software de aplicación está diseñado y escrito para realizar tareas específicas personales, empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios.
Todas estas aplicaciones procesan datos (recepción de materiales) y generan información (registros de nómina). Para el usuario. Sistemas Operativos Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU , la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.
PIONEROS DELA INFORMATICA
RESEÑA HISTÓRICA
Se percibe mucho de Tecnología Informática, y de cómo ésta influye en el diario vivir. Se sabe que la tecnología está siendo innovada y reinventada día a día, lo cual hace de la vida más compleja a su vez más sencilla.
La importancia del estudio de la historia de la informática permite aprender del pasado y apreciar todo lo que hay detrás de lo que se tiene y lo que se hace para proyectarse al futuro. Para ello vale revisar a los personajes más importantes que revolucionaron este campo del conocimiento humano. Los pioneros de la informática permiten marcar la diferencia en la sociedad antigua y la actual. Y realizando una recopilación de las biografías de los personajes, muestran detalles importantes del surgimiento de la labor tecnológica que desarrollaron desde Al-Jwarizmi quien propone la construcción de los primeros algoritmos. Así, con el paso de los años se desarrollan máquinas lógicas y mecánicas automatizadas que evolucionan a las modernas computadoras digitales, que se clasifican por diferentes factores, como la economía, investigación, aplicación, orientación y solución de problemas diversos.
Blaise Pascal (1623-1662)

Nacido en Clermont (Francia) el 19 de junio de 1623, quedó huérfano de madre a los 3 años. En 1632 se trasladó a vivir a París. El padre de Pascal tenía unas opiniones poco ortodoxas sobre la educación, por lo que él se dedicaba a enseñar a su propio hijo. Unas de dichas opiniones era que Pascal no debía estudiar matemáticas, pero esto produjo en Pascal curiosidad que le llevó a estudiarlas a espaldas de supadre.
En 1639 la familia Pascal se trasladó a vivir a Rouen, donde habían destinado a su padre como recaudador de impuestos.
Para ayudar a su padre en su trabajo en 1642 Blaise Pascal inventa la llamada pascalina, Pascal inventó uno calculadora mecánica. Trabajó varios años en este proyecto hasta perfeccionarla, a la máquina se la conoció como la pascalina. Es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranajes. Se fabricaron varias versiones y Pascal en persona construyó al menos cincuentaejemplares.
El primer uso de la pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la pascalina estaba destinada básicamente a solucionar problemas de aritmética comercial. En honor a ello unode loslenguajes más populares lleva su nombre.
Gottfried Wilhelm Leibniz (1646-1716)
También conocido como barón Gottfried Wilhelm von Leibniz. Filósofo, matemático y estadista alemán, considerado como uno de los mayores intelectuales del siglo XVII. Nacido en Leipzig, se educó en las universidades de esta ciudad de Jena y de Altdorf. Desde 1666 (año en que fue premiado con un doctorado enleyes).
Leibniz fue considerado un genio universal por sus contemporáneos. Su obra aborda no sólo problemas matemáticos y filosofía, sino también teología, derecho,diplomacia, política, historia, filología y física
En 1673 se trasladó a París realizando constantes viajes a Inglaterra, en esa época fue cuando más se dedicó a estudiar matemáticas y ciencias. Fue cuando empezó a interesarse por la mecanización del cálculo como demuestran sus palabras: "Es despreciable que excelentes hombres pierdan horas trabajando como esclavos en las tareas de cálculo, las cuales podrían ser relegadas con toda seguridad acualquier otra persona si las máquinas fueran usadas".
Diseñó la máquina aritmética. Tomando las notas y dibujos originales de Pascal, mejoró la pascalina añadiendo la función de multiplicar. El funcionamiento de este multiplicador mecánico era también a base de ruedas y engranajes.
Charles Xavier
Charles Francis Xavier[1] (también llamadoProfesor X) es un personaje perteneciente alUniverso Marvel, uno de los mutantes más poderosos del mundo, fundador y líder de losX-Men y postulante del llamado sueño de Xavier. Fue creado por Stan Lee y Jack Kirbyy apareció por primera vez en el número 1 de la colección de cómics Uncanny X-Men vol. 1, en septiembre de 1963.
A lo largo de la mayoría de su historia Xavier es parapléjico (y durante la serie Wolverine y los X-Men esta inconsciente durante 21 años), aunque cuenta con la mente mutante más poderosa del mundo. Como telépata que es, Xavier puede leer, controlar e influir en la mente humana. Es un geniocientífico con una habilidad sobrehumana para absorber información, siendo además una autoridad líder en genética,mutación y poderes psiónicos.
Inventor estadounidense nacido en Nueva York, estudió en la Universidad de Columbia. Con el fin de buscar un método más rápido para calcular el censo estadounidense cuyo recuento en 1880 había durado más de 7 años también aplicó el concepto del telar de Jacquard a la informática.
Hollerith usó tarjetas para almacenar los datos de información y una máquina compilaba los resultados mecánicamente. Cada perforación sobre una tarjeta representaba un número y las combinaciones de dos perforaciones representaban una letra. En una tarjeta podían almacenarse 80 variables. En seis semanas el censo estuvo listo y además, las tarjetas se podían utilizar como un método para almacenar datos y evitar errores de cálculo. Con su lector de tarjetas perforadas se fundó la empresa Tabulating Machine Company que en 1924 se convirtió en IBM (International Business Machines Corporation). La calculadora de Hollerith mediante tarjetas perforadas, coincidió en el tiempo con la expansión de las máquinas de escribir Remington y los teléfonos de AT&T y Bell.
Vannevar Bush (1890-1974)

Nació en Everett (Massachusetts) y estudió en el TuftsCollege de la Universidad de Harvard y en el Instituto de Massachusetts de Tecnología (MIT), fue un niño enfermizo pero con un gran espíritu de superación. En la escuela ya demostraba su gran aptitud para las matemáticas. Ingresó en el TuftsCollege para estudiar ingeniería, sus estudios los pagó la mitad con una beca y la otra mitad trabajando como asistente en el departamento de matemáticas.
Durante la Primera Guerra Mundial, un grupo de científicos interesados en ayudar al gobierno norteamericano formó el
Consejo de Investigación Nacional (NRC), cuyo propósito era mejorar el armamento. Una de sus tareas fue el desarrollo de dispositivos para la detección de submarinos, que fue desarrollado por Bush a partir de 1917.
Al finalizar la guerra Bush volvió al MIT para dedicarse al desarrollo de computadoras. En 1927 desarrolló su primera máquina analógica para resolver sencillas ecuaciones. Bush continuó con sus ideas y así en 1930 desarrolló el Analizador Diferencial, un dispositivo mecánico para la resolución de ecuaciones diferenciales. En 1935, Bush desarrolló una segunda versión, cuyos componentes eran electromecánicos, y la entrada de instrucciones a través de tarjetas perforadas.
Durante la Segunda Guerra Mundial, Bush trabajó como consejero para el presidente de los EE.UU. Roosevelt, dentro de la investigación militar. En 1945, publicó un artículo titulado "Cómo podemos pensar", en donde describe un máquina teórica llamada "MEMEX", que se considera como la base teórica del hipertexto, el lenguaje de programación de Internet.
Alan MathisonTuring (1912 - 1954)
Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. A los 3 años tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente.
Enigma utilizada por los alemanes. En el deseo de obtener mejores máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en el Colossus, Turing recibió la Orden del Imperio Británico en 1946.
En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce como red neuronal. Abandonó la NLP en 1948. Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta máquina un lenguaje de programación basado en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy famosa la primera frase de este artículo: "Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?". Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener la capacidad de pensar. En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su honor, la Associationfor Computing Machinery, llama "TuringAward" a su premio más importante, el cual se otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación.
John Von Neumann (1903 - 1957)
Nació en Budapest (Hungría), su nombre verdadero es Margittai Neumann János (los húngaros colocan sus apellidos antes que el nombre), convirtiéndose en Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego se lo recortaron quedándose en Johann von Neumann, para finalmente conocérsele mundialmente como John Von Neumann, al llegar a EE.UU.

John von Neumann fue un niño prodigio, al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU, hacia 1943 von Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en aquellos años había numerosas computadoras en construcción, como por ejemplo la Mark I (Howard Aiken) o ComplexComputer (George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con John PresperEckert y John W. Mauchly). Una vez finalizada la construcción del ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de computación basado en las ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora más poderosa el EDVAC (ElectronicDiscrete Variable ArithmeticComputer). Pero hubo problemas legales con la titularidad de lo que hoy conocemos como Arquitectura de Von Neumann. Esto produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y Von Neumann regresó a Princeton con la idea de construir su propia computadora.
En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la computadora actual, conociéndose como "arquitectura de Von Neumann". Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo.
Claude Elwod Shannon (1916 - 2001)

Nació en Michigan (EE.UU), tras obtener los títulos en Matemáticas e Ingeniería en la universidad de Michigan, ingresó en el MIT (MassachussetInstitute of Technology) para continuar en sus estudios. Fue allí donde realizó una tesis con respecto el uso del álgebra de Boole para la construcción de máquinas lógicas. Investigador de los laboratorios Bell y profesor en el MIT y autor de la "Teoría matemática de la información" (1948), se le considera el padre de las comunicaciones digitales y de otras muchas aportaciones científicas en el campo de los ordenadores, las comunicaciones digitales y la inteligencia artificial, tales como la optimización en la transferencia de datos punto a punto, el ancho de banda, la compresión de datos para la transmisión de información digital, el uso de la lógica booleana para describir cómo una máquina recibe información, la criptografía, etc. Shannon fue el primero en identificar el bit como la unidad fundamental de datos y, por tanto, la unidad básica de la computación.
Entre sus inventos se encuentran desde un ratón mecánico capaz de aprender cómo se sale de un laberinto hasta una máquina de jugar al ajedrez precursora del famoso Deep Blue, la máquina que derrotó a Kasparov.
Norbert Wiener (1894 - 1964)
Nació en Columbia (EE.UU), fue un niño prodigio y a los 11 años ingresó en la universidad; estudió en las universidades de Cornell, Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en matemáticas con 19 años.
Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de mejorar las computadoras que había en aquella época, se encaminó hacia la comunicación de información y para ello en el desarrollo de los sistemas de redes.
Tras la guerra Wiener continuó contribuyendo con nuevas ideas en diversos campos, incluyendo la teoría de la predicción matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr, y Albert Einstein).
En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth, y empezó a investigar acerca de los robots y sistemas automáticos, sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en 1947, y que procede del griego "kybernetes" y que significa piloto. En 1948 publicó su obra "Cibernética: control y comunicación en el animal y en la máquina", en donde desarrolla toda la teoría de la cibernética.
Charles Babbage (1791 - 1871)
Nació en Teignmouth (Inglaterra), fue un niño enfermizo. Su padre era rico por lo que Babbage estudió en las mejores escuelas privadas. Enseguida mostró interés por las matemáticas. Antes de entrar en la universidad estudiaba en su casa con la ayuda de un tutor de Oxford, para así lograr el nivel universitario.
Así en 1810 ingresó en la Universidad de Cambridge. Charles Babbage cuya idea fue automatizar ciertas tareas repetitivas para que se ocuparan de ellas las máquinas y no los matemáticos.

En la década de 1820, Babbage comenzó a desarrollar su máquina diferencial, un aparato que podía realizar cálculos matemáticos sencillos. Aunque Babbage empezó a construir esta máquina, no pudo terminarla por falta de fondos. (Sin embargo, en 1991 unos científicos británicos que siguieron los dibujos y las especificaciones detalladas de Babbage, construyeron esa máquina diferencial: la máquina funcionaba a la perfección y hacía cálculos exactos con 31 dígitos, lo que demostraba que el diseño de Babbage era correcto.) En la década de 1830, comenzó a desarrollar su máquina analítica, que fue concebida para llevar a cabo cálculos más complicados, pero este aparato no se construyó nunca. El libro de Babbage, Tratado de economía de máquinas y de manufacturas (1832), inició el campo de estudio conocido actualmente como investigación operativa.
Al-Jwarizmi. (780 - 840)
MohammadIbn Musa abuDjafar Al-Jwarizmi nació alrededor del año 780 en Jwarizm (la actual Khiva, en Uzbekistán), en Asia central. Su fecha exacta de nacimiento y muerte no son conocidas con exactitud, pero se sabe que realizó sus trabajos bajo los califatos de al-Ma`mun y al-Mu'tasim en Bagdad, alrededor de los años 813 - 833 y probablemente murió en Bagdad alrededor del año 840. Su nombre significa Mohamed,hijo de Moisés, padre de Jafar, el de Jwarizmi.
Al-Jwarizmi fue matemático, astrónomo y geógrafo; se le considera el fundador de varias ramas de las matemáticas y el que usó por primera vez determinados conceptos básicos en esta ciencia. Sus ideas influenciaron en varios matemáticos medievales. Al-Jwarizmi es considerado el inventor del Álgebra, palabra que deriva de su libro Kitab al-Jabrwa-al-Muqabilah ("El Libro de las Ecuaciones y las Integrales"), que fue traducido al latín en el siglo XII. Esuna compilación de soluciones de ecuaciones, de geometría elemental y de métodos relacionados con cálculos comerciales y de herencias, además de sistematizar la resolución de ecuaciones cuadráticas. El trabajo está basado en la tradición matemática de Babilonia.
Su obra de Aritmética, traducida al latín como Algoritmi de numero Indorum, introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los algoritmos para calcular con él. En ella sintetizó los conocimientos griegos e hindúes aportando él sus propios descubrimientos. Explicó el uso del cero, desarrolló el sistema decimal, introdujo el sistema numeral Indio (ahora conocido como números árabes), desarrolló operaciones matemáticas entre ellas las operaciones con fracciones, perfeccionó la representación geométrica de las cónicas y entre otras muchas cosas más, desarrolló las tablas trigonométricas con la función seno.
Fue através de sus trabajos sobre el sistema decimal que se conoció en Europa la numeración arábiga, pero que como se ve es de origen hindú. También colaboró en hallar las medidas del volumen y del radio de la Tierra ordenado por Mamun al-Rashid. Las palabras guarismo (cifra, número) y algoritmo también provienen de su nombre.
El trabajo de Al-Jwarizmi permitió preservar y difundir el conocimiento de los griegos e indios. Rescató de los griegos la rigurosidad y de los indios la simplicidad. Sus libros son intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema decimal indio, un atrevimiento para su época, dado lo tradicional de la cultura árabe. La exposición clara de cómo calcular de una manera sistemática a través de algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico similar a un ábaco, más que con lápiz y papel, muestra la intuición y el poder de abstracción de Al-Jwarizmi. Hasta se preocupaba de reducir el número de operaciones necesarias en cada cálculo. Por esta razón, aunque no haya sido él el inventor del primer algoritmo, merece que este concepto esté asociado a su nombre. Al-Jwarizmi fue sin duda el primer pensador algorítmico.
Augusta Ada King, Condesa de Lovelace (1815-1842)
Ada Byron nació el 10 de diciembre de 1815. Hija del poeta Lord Byron, su madre hizo todo lo posible para que no siguiera los pasos de su padre por lo que desde pequeña la guió por el camino de las ciencias y las matemáticas.
Con 17 años Ada conoció a Mary Sormerville que la animó en sus estudios matemáticos. Durante una cena organizada por Sormerville en noviembre de 1834, Ada oyó a Charles Babbage hablar de sus ideas sobre la máquina analítica, y a partir de ahí surgió la colaboración entre ambos. Babbage
trabajó sobre este proyecto y realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en 1840, un matemático italiano llamado Menabreaescribió un artículo en francés sobre todo lo dicho por Babbage. Ada, que estaba casada desde 1843 con el Conde de Lovelace y era madre de 3 niños, tradujo este artículo, y cuando se lo enseñó a Babbage éste lesugirió que añadiera sus propias ideas. El resultado fue que las notas que añadió Ada eran tres veces más del artículo original. En dichas notas, que fueron publicadas en 1843, ella predijo que la máquina de Babbage podría ser usada tanto para un uso práctico como científico. Ada sugirió a Babbage escribir un "plan" para que la máquina calculase números de Bernoulli, este "plan" es considerado el primer "programa de ordenador", y por ello se considera a Ada el primer programador de la historia. Existe un lenguaje de programación desarrollado por el departamento de defensa de USA en 1979 que lleva su nombre: ADA Fue una mujer adelantada a su tiempo, que lamentablemente murió muy joven (con 37 años).
George Boole (1815 - 1864)
Boole fue un niño inteligente, y su primer interés fue hacia los idiomas, siendo capaz de dominar el latín completamente con 12 años. Aunque no había estudiado para ello, empezó dedicándose a la enseñanza siendo a los 16 años profesor auxiliar en un colegio. También pensó realizar la carrera eclesiástica, pero en 1835 decidió abrir su propio colegio y fue cuando empezó a estudiar matemáticas por su cuenta, estudiando los trabajos de Laplace y Lagrange. Se encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos para la resolución de ecuaciones diferenciales por el que recibió la medalla de la Real Sociedad Matemática de Londres.
En 1849 fue nombrado catedrático de matemáticas en el Queens College, donde ejerció la enseñanza el restode su vida. En 1854 publicó sus estudios sobre lasteorías matemáticas de lógica y probabilidad. Boole redujo la lógica a una álgebra sencilla, naciendo así lo que se conoce como álgebra booleana, la cual influyó en el desarrollo de la informática.
Boole murió a los 49 años por causa de una pulmonía. Aunque Boole tiene otros muchos estudios en el universo de las matemáticas sin duda alguna se le recordará por su álgebra, que fue un paso fundamental en el desarrollo de las computadoras.
Leonardo Torres Quevedo (1852 - 1936)
Nació en Santa Cruz de Iguña (Santander), fue el ingeniero español más reconocido. Gran científico, desarrolló numerosos inventos reconocidos internacionalmente, sobre todo en el campo de la automática, considerándosele como precursor de la informática.
En su juventud residió en Bilbao en donde en 1868 acaba sus estudios de Bachillerato marchándose a Paris durante dos años para continuar con sus estudios. En 1870 se trasladó, junto con su familia, a vivir a Madrid, y un año más tarde ingresó en la Escuela Oficial del Cuerpo de Ingenieros de Caminos, finalizando sus estudios en 1876. Al término de dichos estudios se dedicó a ejercer la ingeniería y a viajar por toda Europa adquiriendo más conocimientos. En 1885 regresó a
España iniciando así su gran trayectoria científica e inventiva.
En 1887 Torres Quevedo empezó la investigación y desarrollo de un trasbordador, realizando el primero en su propia casa. En 1907 construyó el primer trasbordador apto para el transporte humano, lo hizo en el Monte Ulía (San Sebastián). A partir de aquí construyó muchos otros, mediante la Sociedad de Estudios y Obras de Ingeniería de Bilbao, por ejemplo en Chamoix, o Río de Janeiro. Pero el más famoso fue el construido sobre las Cataratas del Niágara llamado "SpanishAerocar", que se inauguró en pruebas en 1916, siguiendo hoy en día en pleno funcionamiento.
En 1894 presentó a la Real Academia de Ciencias una memoria sobre las máquinas algebraicas, incorporando el diseño de una, que más adelante construyó. Una máquina analógica que resolvía ecuaciones algebraicas y para la que inventó un "husillo sin fin". En 1905 construyó el primer dirigible español, llamado el "España". En 1903, Torres Quevedo diseñó y construyó el primer aparato de radiocontrol del mundo, el telekino, presentándolo en la Academia de Ciencias de Paris.
Otros de los inventos de Torres Quevedo fueron los jugadores ajedrecistas, que se consideran como precursores de la inteligencia artificial.
Howard HathawayAiken (1900 - 1973)
Nació en Nueva Jersey (EE.UU), se crió en Indianápolis, donde estudió en Arsenal TechnicalSchool, graduándose en 1919. Tras ello estudió en la universidad de Wisconsin, en donde se especializó en electrónica. Mientras estudiaba estuvo trabajando como ingeniero operario en la Madison Gas and Electric Company desde 1919 a 1923. Se graduó como ingeniero electrónico en 1923. Tras esto trabajó en la Westinghouse Electric ManufacturingCompany, mientras se preparaba para su postgraduado en la universidad de Harvard, donde obtuvo su M.A. en 1937 y el Ph.D en física en 1939.Aiken permaneció en Harvard para enseñar matemáticas, primero como instructor de facultad (de 1939 a 1941) y después como profesor asociado.
En 1937, antes de la guerra, Aiken presentó el proyecto de construcción de una computadora, para el que obtuvo el apoyo de IBM. Así nació la MARK I (o IBM ASCC), terminada en 1944 con un coste de 250000$. Inmediatamente finalizada la marina de los EE.UU requisó tanto a la máquina como a su inventor para usarlos durante la Segunda GuerraMundial, Aiken alcanzó el grado de Comandante, y la MARK I se usó para el cálculo de las tablasnavales de Artillería. Además de la MARK I, Aiken construyó más computadoras: MARK II (1947), MARK III y MARK IV (1952).
Tras la guerra, en 1946, Aiken volvió a Harvard como profesor de matemáticas. Además, fue nombrado director de los nuevos laboratorios de informática de la universidad en 1947, Aikencontó con la colaboración de Grace Hooper, encargada de la programación de la MARK I. En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la ComputerSociety, por su contribución al desarrollo de las computadoras automáticas, y por la construcción de la MARK I.
Grace Murray Hopper (1906 - 1992)
Nació en Nueva York (EE.UU), desde muy pequeña demostró una gran aptitud para las ciencias y las matemáticas. Y tanto su abuelo como su padre siempre la animaron a que ella estudiara. También le atrajo mucho cualquier tipo de dispositivo mecánico, y así lo demuestra cuando con 7 años desarmó todos los relojes de su casa para ver si podía así entender su funcionamiento. En el colegio ya destacaba como alumna en matemáticas. En 1943 decidió unirse a las fuerzas armadas en plena Segunda Guerra Mundial, para lo cual tuvo que obtener un permiso especial. Asistió a laEscuela de cadetes navales para Mujeres, graduándose la primera de su clase en 1944 y obteniendo el rango de teniente.
Fue enviada a Harvard para trabajar en el Proyecto de Computación que dirigía el comandante Howard Aiken, la construcción de la Mark I. Tras el final de la Segunda Guerra Mundial Hooperquiso seguir en la Armada pero como ya había cumplido los 40 años en 1946 (el límite eran 38) fue rechazada permaneciendo en la reserva. Por lo que siguió en Harvard como Investigadora junto a Aiken. Desarrolló varias aplicaciones contables para la Mark I, que estaba siendo utilizada por una compañía de seguros. Permaneció en Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert - MauchlyCorporation en Filadelfia (compañía fundada por los inventores del ENIAC, Eckert y Mauchly), que en esos momentos estaban desarrollando las computadoras BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta su retiro en 1971. Allí fue donde Hopper realizó sus mayores contribuciones a la programación moderna. En 1952, desarrolló el primer compilador de la historia, llamado A-0, y en 1957 realizó el primer compilador para procesamiento de datos que usaba comandos en inglés, el B-0 (FLOWMATIC), cuya aplicación principal era el cálculo de nóminas. Tras su experiencia con FLOW-MATIC, Hopper pensó que podía crearse un lenguaje de programación que usara comandos en inglés y que sirviera para aplicaciones de negocios. La semilla de COBOL había sido sembrada, y 2 años después se creó el comité que diseño el famoso lenguaje. Aunque Hopper no tuvo un papel preponderante en el desarrollo del lenguaje, fue miembro del comité original para crearlo, y el FLOW-MATIC fue una influencia tan importante en el diseño de COBOL, que se considera a Hopper como su creadora.
Hopper permaneció en la reserva de la Armada hasta 1966, cuando tuvo que retirarse con el grado de Comandante, por haber alcanzado el límite de edad nuevamente. Pero este retiro duró poco ya que la Armada la volvió a llamar en 1967 para que estandarizara los lenguajes de alto nivel que usaban. Se reincorporó y permaneció en el servicio durante 19 años más. En 1986, Hopper se retiró de la Armada de manera definitiva, siendo en ese momento la oficial de más edad de la Armada de los EE.UU. Tras su retiro, se incorporó como asesora en Digital EquipmentCorporation, participando en foros industriales, dando unas 200 conferencias por año y participando en programas educativos hasta 1990, cuando la "increíble Grace", que era como la conocían sus amistades, se retiró definitivamente.
A lo largo de su vida, Hopper recibió numerosos reconocimientos, que incluyen más de 40 doctorados honoris causa, la Medalla Nacional de Tecnología, la Medalla WilburLucius Cross de Yale, el rango de Comodore en 1983 y el de contra-almirante en 1985.
John W. Mauchly (1907 - 1980)

Aunque consiguió una beca para estudiar ingeniería, se dedicó a estudiar física obteniendo el doctorado en 1932. En 1941, en plena Segunda Guerra Mundial, Mauchly recibió un cursillo sobre electrónica para utilizarla para la defensa (ejército) en la universidad de Pensylvania.Mauchly, empezó a desarrollar ideas para la construcción de computadoras, y fue entonces cuando John Eckert (que fue uno de sus instructores en el cursillo) se interesó por dichas ideas, y en 1943 se aprobó la construcción del computador ENIAC (en donde colaboró activamente Eckert), cuya función específica sería el cálculo de trayectorias de las bombas. Hasta 1946 no se terminó de construir. Mauchly y Eckert abandonaron la universidad de Pensylvania en 1946 fundando la empresa "Control Electrónico" (Eckert-MauchlyCorporation) . La compañía aérea Northrop les encargó la "Computadora Binaria Automática" (BINAC) construida en 1949. En el BINAC, los datos eran almacenados sobre cinta magnética en vez de en tarjetas perforadas. Otra de las computadoras queconstruyeron fue la "Computadora Universal Automática" (UNIVAC), que fue la primeracomputadora que se comercializó en EEUU (se vendieron 46 unidades). Pero Mauchly y Eckerteran mejores ingenieros que economistas por lo que su empresa fue absorbida por otra compañía.
En 1965 Mauchly abandonó la empresa. En 1966 recibió el premio concedido por la ComputerSociety por su aportación al desarrollo de las computadoras.
Vinton 'Vint' G. Cerf (1943 – Ac.)
Vinton 'Vint' G. Cerf es un científico de la computación estadounidense, considerado uno de los 'padres' de Internet. Nacido en Connecticut (Estados Unidos) en 1943, de origen judío, se graduó en matemáticas y ciencias de la computación en la Universidad de Stanford (1965). Durante su estancia posterior en la Universidad de California (UCLA) obtuvo la maestría en ciencias y el doctorado.
A principios de los años 70 comenzó a trabajar con Robert Kahnen el desarrollo de un conjunto de protocolos de comunicaciones para la red militar, financiado por la agencia gubernamental DARPA. El objetivo era crear una "red de redes" que permitiera interconectar las distintas redes del Departamento de Defensa de los Estados Unidos, todas ellas de diferentes tipos y que funcionaban con diferentes sistemas operativos, con independencia del tipo de conexión: radioenlaces, satélites y líneas telefónicas.
Las investigaciones, lideradas por VintonCerf, primero desde la Universidad de California (1967- 1972) y posteriormente desde la Universidad de Stanford (1972-1976), llevaron al diseño del conjunto de protocolos que hoy son conocidos como TCP/IP (Transmission Control Protocol/Internet Protocol), que fue presentado por VintonCerf y Robert Kahn en 1972).
Entre 1976 y 1982, trabajando en DARPA, fue pionero en el desarrollo de la transmisión por radio y satélite de paquetes, responsable del proyecto Internet y del programa de investigación de seguridad en la red.
Siempre preocupado por los problemas de conexión de redes, Cerf estableció en 1979 la Internet Configuration Control Board (que posteriormente se denominó Internet ActivitiesBoard), y fue su primer presidente.
Entre 1982 y 1986, Cerf diseñó el MCI MAIL, primer servicio comercial de correo electrónico que se conectaría a Internet. En 1992 fue uno de los fundadores de la Internet Society y su primer presidente. Actualmente VintonCerf es el vicepresidente mundial y Chief Internet Evangelist de Google, ocupación que compagina con el cargo de presidente del ICANN.
Jack St. Clair Kilby (1923 - 2005)
Jack St. Clair Kilby, nació el 8 de Noviembre de 1923 en Jefferson (Estados Unidos) y fue el padre de los microchips y la microelectrónica. Ingeniero Electrónico (Universidad de Illinois y master en la de Wisconsin), sus descubrimientos físicos y electrónicos, sentaron las bases de los procesadores de los ordenadores. En sus palabras, el nunca imaginó mientras avanzaba en sus descubrimientos, la magnitud de estos: “Yo creí entonces que el microprocesador sería importante, pero no podía imaginar en qué forma crecería la industria electrónica debido a él”. Por sus méritos, Kilby fue galardonado con el Premio Nóbel deFísica en el año 2000. Aunque parezca un dato normal y corriente, cabe recordar que Kilby recibió el Nóbel en Física sin ser físico. Cuenta la historia que el Instituto Tecnológico de Massachusetts rechazó a Kilby por sus bajas notas en matemática.
Las investigaciones las realizó bajo la responsabilidad de la empresa para la que trabajaba desde el año 1958, Texas Instruments. El microchip fue desarrollado un año más tarde, en 1959. Durante su carrera, Jack patentó más de 60 descubrimientos que fueronincorporados a la industria. Jack Kilby murió de cáncer un 23 de Junio de 2005, a los 81 años de edad. En el salón de la Fama de Inventores Estadounidenses, su retrato reposa junto al de Edison. Podemos citar par resumir su importancia en la informática, palabras de la Real Academia Sueca de Ciencias: “Sin Kilby, no hubiera podido ser posible el construir las computadoras personales que tenemos ahora”.
John Berners-Lee (1955- Ac.)
En marzo de 1989, Tim junto a un grupo de compañeros desarrolló la iniciativa de crear la World Wide Web, cuya idea principal era la creación de una red con contenidos de formato digital para compartirlos globalmente a través de Internet. Es decir, Tim Berners Lee no inventó Internet, sino que inventó una serie de protocolos y estándares para utilizar en cualquier red que, permitieron la popularización de Internet y específicamente de los navegadores y las páginas web.
Los principales conceptos que desarrolló Tim, con su equipo, son HTML, HTTP y URL. El primero, HyperTextMarkupLanguage (lenguaje de etíquetas de hipertexto), es el principal lenguaje de programación para el desarrollo de páginas web. A pesar de la creación de diversos lenguajes que se utilizan hoy en día, html, sigue siendo la base de cualquier sitio Web que se conozca.
Clarificando un poco lo explicado en el párrafo anterior. La internet no son solo las páginas web que se visita, sino que es una red de redes, una red de computadoras enorme, una red mundial que se comunica a través de ciertos protocolos que son los que se mencionó anteriormente (TCP, DNS, entre otros). Internet, es la evolución de Arpanet, una red creada por el departamento de defensa de los estados unidos, también, durante la década del 80. El padre de la Internet, Tim Berners-Lee, no tuvo nada que ver con la creación de Internet, sino con la creación de la World Wide Web que, permitió la masificación de Internet y la creación de nuevos contenidos. Por ello, se lo llama el padre de la Internet.
En el año 1991, fue puesto en línea el primer sitio web, en donde explicaban a la comunidad, de qué se trataba la World Wide Web, cómo poner un sitio en línea y cómo crear un servidor web, entre otras cosas. En el año 1994, Tim fundó el World Wide Web Consortium, organización que hasta el día de hoy, preside. Este consorcio, se encarga de definir estándares y recomendaciones para mantener la calidad en la Web. Hoy en día, cualquier página web bien diseñada, se preocupa por respetar los estándares de esta organización.
Linus Benedict Torvalds (1969 - Ac.)

LinusBenedictTorvalds (Helsinki, Finlandia, 28 de diciembre de 1969), es un ingeniero de software finlandés, es uno de los padres del Sistema Operativo libre más popular: GNU\Linux. Más específicamente, es el creador de la primera versión del núcleo (kernel) de Linux.
Torvalds se recibió en Ciencias de la Computación en la Universidad de Helsinky y desde sus épocas universitarias dedicó su carrera a la programación, y se especializó en el popular lenguaje de bajo nivel, C.
Durante la década del '80, Richard Stallman fundó el movimiento de Software Libre y comenzó, junto con otros programadores, el desarrollo de un Sistema Operativo que cumpla los principios del movimiento. Sin embargo, fue justamente LinusTorvalds quién aporto, en el año 1991, el componente fundamental de cualquier Sistema Operativo: el núcleo. Ese año fue el surgimiento de la primera versión de GNU/Linux. Explicado por el mismo Stallman, él fue el filósofo (y hasta quizás el Ingeniero) del movimiento, pero fue con la llegada de Linus, el arquitecto, que el proyecto pudo concretarse.
Alan Field Shugart (1930 –2006) 2005
Comenzó su carrera en IBM en 1951, en San José, California, reparando maquinas contable de tarjetas perforadas. Trabajó en el proyecto de IBM RAMAC 305 (del inglés Random Access Method of Accounting and Control) que permitía almacenar 5 millones de caracteres de datos. Dentro de los proyectos también fue partícipe del IBM 1301, un disco de 50 MB el cual fue la base para múltiples empresas de servicios. Llegó a ocupar posiciones de importancia hasta ser el Direct Access Storage Product Manager, responsable de los productos de almacenamiento; que era en ese momento en IBM uno de los negocios más provechosos. Entre los grupos que reportaba a Shugart, estaba el del grupo que inventó el disco flexible (floppy disk).
En 1956, IBM lanzó el IBM 350 RAMAC, el primer ordenador con disco duro. Fue el 4 de septiembre, y el apodo RAMAC proviene de Random Access Method of Accounting and Control (sistema de almacenamiento y control por acceso aleatorio). El disco duro de unos 61 centímetros permitía almacenar la friolera de 5 millones de caracteres de 7-bits (a elegir un carácter entre 128, 2^7) posibles), es decir, alrededor de 4.4 MB de información. El disco giraba a 1200 rpm (hoy en día lo hacen normalmente a 5.400 y 7200 rpm) y la velocidad de transferencia era de unos 8000 caracteres por segundo. El 350 RAMAC dejó de venderse en 1969 y actualmente se encuentra una unidad de este sistema en el museo de la historia de las computadoras de Mountain View, en California.
Tim Paterson (1956 –Ac.)
Tim Paterson es un ingeniero informático, que escribió el sistema operativo del MS-DOS. En 1980 cuando tenía 24 años, trabajaba en la empresa Seattle ComputerProducts donde creó un sistema operativo llamado 86-DOS. Sin embargo, durante las fases de desarrollo, el sistema era conocido como Quick and DirtyOperatingSystem. QDOS era una adaptación de CP/M al chip 8086 de Intel, aunque Tim Paterson siempre ha mantenido que su código era original. Por aquel entonces CP/M era el sistema operativo más común para los microcomputadores de 8 bits, existiendo un vacío en el área de sistemas operativos para chips de 16 bits. La empresa que comercializaba CP/M era Digital Research propiedad de Gary Kildall IBM comenzó a desarrollar su propia computadora personal que llamaría IBM PC en julio de 1980 y su primer prototipo de nombre código Acorn comenzaron a desarrollarlo en agosto. En 1981 IBM, tras fallar las negociaciones con Digital Research para la elaboración del sistema operativo (las razones son discutidas pero incluyen la tardanza de los Kildall en firmar una cláusula de confidencialidad con IBM) acordó con Microsoft que le proporcionaría un sistema operativo para su computadora.
El verdadero éxito de Bill Gates fue conseguir que el contrato con IBM le permitiese no sólo la venta del sistema operativo propio de la máquina, llamado PC-DOS, sino que además pudiese comercializar el sistema operativo para otros sistemas, con el nombre de MS-DOS. A Microsoft se le terminaba el plazo de entrega estipulado y no disponía aún del software, por lo cual Bill Gates y Paul Allen decidieron comprar los derechos (primero una licencia parcial y más tarde una licencia completa) del sistema creado por Tim Paterson y contrataron a éste (en mayo de 1981) para su adaptación al microprocesador usado en el IBM-PC, el 8088 de Intel. El resultado fue vendido como PC-DOS a IBM y más tarde comercializado como MS-DOS a los computadores clónicos que surgirían tras el éxito de IBM-PC.
Tim fue contratado por Microsoft en diversos periodos de su vida y trabajó en el desarrollo de Visual Basic. Algún tiempo después también recibió algunas acciones de la misma.
Bill Gates (1955 – Ac.)
Creó la empresa de software Microsoft el 4 de abril de 1975, siendo aún alumno en la Universidad Harvard. En 1976 abandonó la universidad y se trasladó a Albuquerque, sede de Altair, para pactar con esa empresa la cesión de un lenguaje paracomputadoras, el Basic, al 50% de las ventas. Al año siguiente, se enteró del éxito de la empresaApple y de que necesitaban un intérprete de Basic.
En 1980, se reunió con representantes de IBM en Seattle. Consiguió venderles el sistema operativo MS-DOS, aunque él aún no lo tenía y luego lo compró a muy bajo precio a un joven programador. IBM necesitaba ese sistema operativo para competir con Apple, razón por la cual la negociación era flexible. Microsoft quiso los derechos de licencia, mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó, considerando que lo que produciría dividendos sería el hardware y no el software. Unos días después, Microsoft compró los derechos de autor del QDOS a Tim Paterson, que trabajaba para la Seattle ComputerProducts, por 50.000 dólares, que vendió a IBM como MS-DOS (Microsoft DOS). Lo que llama poderosamente la atención fue que IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que se vendiera junto con un IBM-PC. Lo que pocas veces se ha dicho es que por esos tiempos la madre de Gates, Mary Maxwell, era directiva de la empresa UnitedWay conjuntamente con el CEO de IBM, John Opel.
Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente la interfaz gráfica y el "ratón" fueron desarrollados por Xerox PARC) en su ordenador Lisa, se propuso conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve Jobs, fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar sus hojas de cálculo y otros programas. Amenazaba con vender su material informático a IBM, con lo que obtuvo una alianza Apple-Microsoft. Microsoft obtuvo legalmente la tecnología del entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como directo competidor deMacintosh.
Richard Stallman (16/03/53 – Ac.)

Richard Matthew Stallman (nacido en Manhattan, Nueva York, 16 de marzo de 1953), con frecuencia abreviado como"rms", es un programador estadounidense y figura relevante del movimiento por el software libre en el mundo. Entre sus logros notables como programador incluyen la participación en el editor de texto GNU Emacs, el compilador GCC, y el depurador GDB, bajo la rúbrica del Proyecto GNU. Sin embargo, es principalmente conocido por el establecimiento de un marco de referencia moral, política y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución del software no libre o privativo. Es también inventor del concepto de copyleft (aunque no del término), un método para licenciar software de tal forma que su uso y modificación permanezcan siempre libres y queden en la comunidad.
Al anuncio inicial del proyecto GNU siguió, en 1985, la publicación del Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, al que denominó GNU (GNU No es Unix), pronunciado de forma parecida al ñu, en inglés (de ahí los dibujos-logotipos que lo representan). Poco tiempo después fundó laorganización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Inventó el concepto de copyleft, que fue utilizado en la Licencia Pública General GNU (conocida generalmente como la "GPL") en 1989. La mayor parte del sistema GNU, excepto el núcleo, se completó aproximadamente al mismo tiempo. En 1991, LinusTorvalds liberó el núcleo Linux bajo los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo GNU/Linux.
Steven Paul Jobs (San Francisco, California,24 de febrero de 1955 – Palo Alto, California, 5 de octubre de 2011), mejor conocido comoSteve Jobs, fue un empresario y magnate de los negocios del sector informático y de laindustria del entretenimiento estadounidense. Fue cofundador y presidente ejecutivo deApple Inc. y máximo accionista individual de The Walt Disney Compan.
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, en el garaje de su casa. Aupado por el éxito de su Apple IIJobs obtuvo una gran relevancia pública, siendo portada de Time en 1982. Contaba con 26 años y ya era millonario gracias a la exitosa salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. Su reacción fue innovar, o mejor dicho, implementar: a principios de 1984 su compañía lanzaba elMacintosh 128K, que fue el primer ordenador personal que se comercializó exitosamente que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Después de tener problemas con la cúpula directiva de la empresa que él mismo fundó, fue despedido de Apple Computer en 1985. Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año recibía la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando con este reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a la compañía, que se encontraba en graves dificultades financieras, y fue su director ejecutivo hasta el 24 de agosto de 2011.En ese verano Apple sobrepasó aExxon como la empresa con mayor capitalización del mundo.
Breve reseña historica de la informatica
















