sábado, 8 de junio de 2013

CRONOLOGIA

 

CRONOLOGÍA


Las computadoras no han nacido en los últimos años, en realidad el hombre siempre buscó tener dispositivos que le ayudaran a efectuar cálculos precisos y rápidos; una breve reseña histórica nos permitirá, comprender cómo llegamos a las computadoras actuales.
Los chinos hace más de 3000 años a. C. desarrollaron el ABACO, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenía un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha, como muestra la figura.
En el siglo X'VII, el creciente interés, en Europa, por las nuevas ciencias, tales como la astronomía y la navegación, impulsó a las mentes creativas a simplificar los cálculos. Habría costado años a los primeros científicos calcular la vasta cantidad de datos numéricos cuyos patrones estaban intentando descubrir. En 1614, el escocés John Napier anunció su descubrimiento de los logaritmos, permitiendo que los resultados de complicadas multiplicaciones se redujeran a un proceso de simple suma. Muy poco después, en los años 20 del mismo siglo, se inventó la regla de cálculo, basada en los principios matemáticos descubiertos por Napier.
PASCAL en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros que utilizan en la actualidad los automóviles. Pero ésta tenía algunos problemas con las sumas largas; pero en 1671 LEIBNITZ le agregó la posibilidad de: restar, sumar, multiplicar y dividir. Su máquina estaba formada Sobre ruedas dentadas, cada una de estas ruedas tenía diez dientes, éstos correspondían a los números de 0 al 9. Siendo el sistema de tal tipo que el paso de 9 a 0 daba lugar a un salto de la rueda.
Los conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras exigían intervención del operador, ya que éste debía escribir cada resultado parcial en una hoja de papel. Esto era sumamente largo y por lo tanto produce a errores en los informes
Otra evolución en esta historia fue la que realizó BABBAGE. Éste diseño y desarrollo la primera computadora de uso general. Fue un genio pero la Época no lo ayudó para poder terminar de construirla. Llamo a su descubrimiento "Máquina de las diferencias". En 1833 concibió una segunda máquina que le Llevó 20 años. Esta era capaz de realizar una suma en segundos y necesitaba un mínimo tiempo de atención del operador. A esta segunda máquina la llamó "Analítica". Leibniz aplicó la lógica y la materializó en su exitosa maquina de calcular.
En 1804, Joseph Jacquard empezó a utilizar un telar que se servía de tarjetas perforadas para controlar la creación de complejos diseños textiles, (La misma técnica se utilizaría posteriormente en pianolas y organillos, que empleaban" Tarjetas perforadas para copiar música de piano, tanto clásica como popular.
La primera operación de procesamiento de datos fue Lograda en 1890 por HERNAN HOLLERICH. Éste desarrolló un sistema mecánico para calcular y agrupar datos de censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el censo de población en Estados Unidos en donde se logró por primera vez, que los resultados fueran conocidos a los dos años y medio, mientras que el censo anterior se tardó siete años para conocer estos datos.
La primera mujer programadora fue ADA AUGUSTA BYRON (1815 - 1852) se interesó por los descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran filosofía.

LA PREHISTORIA DE LA ERA DE LA COMPUTACION

El hombre primitivo y su contabilidad incipiente
Desde que el hombre primitivo se convirtió en "homo sapiens sapiens" se inclinó por las estadísticas y las expresó en la forma de artes gráficas, creando una incipiente modalidad de cálculo. Graficaba la cantidad de animales que había cerca a su coto de caza y los guerreros de otros grupos nómades enemigos.
Una muestra muy conocida y evidente la constituye los restos arqueológicos, de arte rupestre, hallados en las famosas cuevas de Altamira en España, donde se conservan prácticamente intactas, pinturas de bizontes y caballos, entre otras, con una calidad artística digna de tiempos contemporáneos.
PRIMEROS AÑOS
3000 A.C.
Los primeros vestigios de cálculo realizado por medios artesanalmente mecánicos, por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC).
Los babilonios que habitaron en la antigua Mesopotamia, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" y que eran agrupadas en carriles de caña.
Más aún, en 1800 AC un matemático babilonio inventó los algoritmos que le permitieron resolver problemas de cálculo numérico. El intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo, permitieron que el invento de los babilonios, se transmitiesen a otros grupos culturales a través del tiempo, permitiendo de este modo que con los aportes respectivos, se mejorasen sus diseños.
El matemático e ingeniero persaMusa al-Juarismo(780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema.
3500 A.C. SE INVENTA EL ABACO (EN BABILONIA), PRIMERA MAQUINA PARA REALIZAR CALCULOS
EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo para calcular, basado en bolillas atravesadas por alambres. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre San-pan. El Abaco permite realizar sumar, restar, multiplicar y dividir.
Un ábaco es un objeto que sirve para facilitar cálculos sencillos (sumas, restas y multiplicaciones) y operaciones aritméticas. También es un cuadro de madera con barras paralelas por las que corren bolas movibles y que sirve para enseñar el cálculo. Su origen se remonta a la zona de Asia Menor, muchos años antes de nuestra era.

Etimología
El término "ábaco" es una palabra existente en varios idiomas, con diversos posibles orígenes etimológicos discutidos. En latín se empleaban los términos abacus y el plural respectivo, abaci. En la lengua griega se usaba abax o abakon, que significan "superficie plana" o "tabla". Otro probable origen es la palabra semíticaAbaq que significa "polvo". En la lengua Tamazigt (berber) aún hoy en algunos dialectos abaq significa semilla.
Definición
Es un instrumento de cálculo que utiliza cuentas que se deslizan a lo largo de una serie de alambres o barras de metal o madera fijadas a un marco para representar las unidades, decenas, centenas, unidades de millar, decenas de millar, centenas de millar, etcétera. Fue inventado en Asia menor, y es considerado el precursor de la calculadora digital moderna. Utilizado por mercaderes en la Edad Media a través de toda Europa y el mundo árabe, fue reemplazado en forma gradual por la aritmética basada en los números indo-árabes. Aunque poco usado en Europa después del siglo XVIII, todavía se emplea en Medio Oriente, Rusia, China, Japón y Corea.

1617JOHN NAPIER INVENTA SUS VARILLAS DE NUMERACION(O HUESOS DE NAPIER)
Transcurrieron 1300 años antes de que se inventase algún dispositivo vinculado al cálculo y es sólo entre los siglos XIV al XIX que se suceden una serie de eventos e importantes aportes, tal como veremos a continuación.
En 1617 justo antes de morir, el matemático escocésJohn Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
La numeración con varillas (chino tradicional: chino simplificado: pinyin: chóu) es el método de utilizar varillas pequeñas, que típicamente miden 3 - 14 cm, para cálculos en China, Japón, Corea y Vietnam. Son puestos horizontal o verticalmente para representar cualquier número y fracción.
Historia
Las varillas de numeración fueron utilizadas por los antiguos Chinos durante más de 2.000 años. En 1954, cerca de cuarenta varillas de numeración del periodo de los Reinos Combatientes fueron encontradas en la tumba Chǔ número 15 de Zuǒjiāgōngshān en Changsha, Hunan.
El uso de las varillas de numeración debe ser anterior a este. Laozi, quien probablemente vivía durante el siglo IV a. C., dijo que «un buen calculista no utiliza las varillas de numeración».Tras la aparición del ábaco, se abandonó el uso de las varillas de contar excepto en Japón, donde de la numeración con varillas se desarrolló una notación simbólica para el álgebra.
1621 INVENCION DE LA REGLA DE CÁLCULO.
La regla de cálculo es un instrumento de cálculo que dispone de varias escalas numéricas, para facilitar la rápida y cómoda realización de operaciones aritméticas complejas, como puedan ser multiplicaciones, divisiones, etc. A cambio de ello, no ofrece más que una precisión limitada. Su época de esplendor duró más de un siglo, el periodo comprendido entre la segunda mitad del siglo XIX y el primer cuarto del XX, aunque había sido inventada mucho antes. La regla de cálculo fue sustituida paulatinamente por las calculadoras y los ordenadores electrónicos conforme fueron avanzando los últimos decenios del siglo XX.
Las reglas de cálculo cayeron en desuso con la popularización de la computadora electrónica. En ingeniería, sucedió fundamentalmente con la aparición en el mercado del modelo HP-35 de Hewlett-Packard en 1972. Hacia 1980 había cesado prácticamente la producción de reglas de cálculo, aunque todavía siguen fabricándose instrumentos de este tipo en pequeñas cantidades para usos muy específicos en sectores industriales, de navegación marítima y aérea o para atender a un minoritario mercado de aficionados y coleccionistas.
La regla
La regla de cálculo consta de 3 partes, como puede apreciarse en la imagen, perteneciente a un modelo estudiantil corriente de finales del siglo XX.Hay en primer lugar, un soporte básico o cuerpo, generalmente paralelepipédico, que tiene una ranura longitudinal profunda en su parte central, lo que determina la aparición de dos sub-unidades, a saber, una regleta superior y otra inferior, más estrechas. En algunos modelos, como en el reproducido a la derecha, se trata efectivamente de dos piezas independientes, vinculadas entre sí rígidamente por abrazaderas situadas en sus extremos. Por la ranura central se desliza otra pieza en forma de regleta de menor tamaño, también llamada corredera.
1624 WILHELM SCHICKARD CONSTRUYE LA PRIMERA CALCULADORA MECANICA.
La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un reloj calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.
1639 BLAISE PASCAL INVENTA Y FABRICA UNA SUMADORA MECANICA LLAMADA PASCALINA

LA PASCALINA  el inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica.
Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranajes. Fue inventada por Blaise Pascal tras tres años de trabajo sobre la misma. Se fabricaron varias versiones y Pascal en persona construyó unos cincuenta ejemplares.
El primer uso de la Pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la Pascalina estaba destinada básicamente a solucionar problemas de aritmética comercial.En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
La Pascalina se construyó en variedades decimales y no-decimales, que existen actualmente en museos. El sistema de moneda francés contemporáneo era similar a las libras imperiales ("livres"), chelines ("sols") y peniques ("deniers"), que funcionaron en Gran Bretaña hasta los años 70.
1666SAMUEL MORLAND INVENTA LA PRIMERA MÁQUINA DE MULTIPLICAR EN LA CORTE DEL REY CARLOS II DE INGLATERRA. EL APARATO CONSTÓ DE UNA SERIE DE RUEDAS, CADA UNA DE LAS CUALES REPRESENTABA DECENAS, CENTENAS, ETC. UN ALFILER DE ACERO MOVÍA LOS DIALES PARA EJECUTAR LOS CÁLCULOS. A DIFERENCIA DE LA PASCALINA, ESTE APARATO NO TENÍA AVANCE AUTOMÁTICO DE COLUMNAS.
En 1657, Morland contrajo matrimonio con Suzanne de Milenilla, hija de un barón francés. Esto hizo que se fortaleciera la unión de Morland con Francia. Fue allí donde se le considera un experto en la construcción de dispositivos mecánicos. Sobre 1681 se le contrató como consultor para el sistema de suministro de agua de Versalles. Se sabe que era un espía del Rey Carlos II de Inglaterra, y que además llegó a salvarle la vida denuncia algún plan para acabar con él. Es por ello que cuando Carlos II retomó el poder, Morland fue un gran beneficiado ya que recibió muchos honores y se le concedió una pensión por sus servicios. Es en este instante y cuando se ve liberado de la necesidad de trabajar cuando, Morland, se dedica por completo a inventar dispositivos mecánicos. Algunas de sus invenciones son máquinas de cálculo, estufas portátiles de vapor o bombas para el agua.
Su máquina de múltiplicar, servía como ayuda para la multiplicación y división. Basa su funcionamiento en los mismos principios que lo hacen los huesos de John Napier. Constaba de una placa de bronce plana con una compuerta articulada perforada y varios puntos semi-circulares sobre los cuales podían colocarse discos planos.
Los discos eran simplemente una versión circular de los huesos de Napier con los productos colocados alrededor de su perímetro de tal forma que los dos dígitos de un número quedaban en los extremos opuestos de una diagonal. La máquina venía con 30 discos para efectuar multiplicaciones y 5 discos especiales adicionales (marcados con las letras Q/QQ) que se usaban para calcular raíces cuadradas y cúbicas.
1673   GOTTFRIED WILHELM LEIBNIZ DISEÑA Y CONSTRUYE UNA MÁQUINA MECÁNICA PARA REALIZAR CÁLCULOS ARITMÉTICOS. EL SISTEMA DISEÑADO POR LEIBNIZ SE USÓ EN AÑOS POSTERIORES PARA FABRICAR CALCULADORAS MECÁNICAS.
El matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito general. El aparato era una partida de la Pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.
1777 CHARLES MAHON INVENTA LA PRIMERA MÁQUINA LÓGICA, EL "DEMOSTRADOR LÓGICO". ERA UN APARATO DE BOLSILLO QUE RESOLVÍA SILOGISMOS TRADICIONALES Y PREGUNTAS ELEMENTALES DE PROBABILIDAD. MAHON ES EL PRECURSOR DE LOS COMPONENTES LÓGICOS EN COMPUTADORAS MODERNAS.
1800   TARJETAS PERFORADAS DE JACQUARD.
El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
La tarjeta perforada es una cartulina con unas determinaciones al estar perforadas, lo que supone un código binario. Estos fueron los primeros medios utilizados para ingresar información e instrucciones a un computador en los años 1960 y 1970.
Actualmente las tarjetas perforadas han caído en el reemplazo por medios magnéticos y ópticos de ingreso de información. Sin embargo, muchos de los dispositivos de almacenamiento actuales, como por ejemplo el CD-ROM también se basa en un método similar al usado por las tarjetas perforadas, aunque por supuesto los tamaños, velocidades de acceso y capacidad de los medios actuales no admiten comparación con las viejas tarjetas.
Historia
Las tarjetas perforadas fueron usadas por primera vez alrededor de 1725 por Basile Bouchon y Jean-Baptiste Falcon como una forma más robusta de los rollos de papel perforados usados en ese entonces para controlar telares textiles en Francia. Esta técnica fue enormemente mejorada por Joseph Marie Jacquard en su telar de Jacquard en 1801.
Charles Babbage lanzó la idea del uso de las tarjetas perforadas como un modo de controlar una calculadora mecánica que él mismo diseñó. Herman Hollerith desarrolló la tecnología de procesamiento de tarjetas perforadas de datos para el censo de los Estados Unidos de América de 1890 y fundó la compañía Tabulating Machine Company (1896) la cual fue una de las tres compañías que se unieron para formar la Computing Tabulating Recording Corporation (CTR), luego renombrada IBM.
1820 LA PRIMERA CALCULADORA DE PRODUCCIÓN MASIVA SE DISTRIBUYÓ POR CHARLES THOMAS DE COLMAR. ORIGINALMENTE SE LES VENDIÓ A CASAS DEL SEGURO PARISIENSES, EL ARITMÓMETRO DE COLMAR OPERABA USANDO UNA VARIACIÓN DE LA RUEDA DE LEIBNIZ. MÁS DE MIL ARITMÓMETROS SE VENDIERON Y EVENTUALMENTE RECIBIÓ UNA MEDALLA A LA EXHIBICIÓN INTERNACIONAL EN LONDRES EN 1862.
El aritmómetro (Arithmometer en inglés) o calculadora mecánica fue la evolución de la máquina calculadora construida por Leibniz en el año 1694.Esta máquina, a diferencia de las anteriores, era capaz de realizar las cuatro operaciones básicas (sumar, restar, multiplicar y dividir) de manera sencilla y sobre todo sin errores con resultados de hasta 12 cifras. Sus defectos eran que no podía ser programada para efectuar cálculos en sucesión y no era capaz de conservar en memoria un resultado parcial. Es importante puntualizar que estos defectos fueron resueltos con sucesivas revisiones de la máquina a lo largo del siglo XIX.
Es recordada por ser la primera calculadora comercial construida con verdadero éxito: fueron vendidos más de 1500 ejemplares (muchos para esa época) hasta casi 1930. La máquina fue desarrollada de manera que podía ser construida en serie con las nuevas técnicas mejoradas en la Revolución industrial, aunque el verdadero proceso industrial no empezó hasta 1850.
El aritmómetro fue un modelo a seguir en el siglo XIX; de hecho surgieron en ese periodo muchas imitaciones que seguían manteniendo el nombre de “aritmómetro”, que fue por tanto sinónimo de calculadora aritmética en esa época.Fue construido en 1820 y patentado el 18 de noviembre de ese mismo año (patente número 1420) por Charles Xavier Thomas de Colmar.
1822   CHARLES BABBAGE PRESENTA SU PROYECTO DE LA MÁQUINA EN DIFERENCIAS, PARA EVALUAR POLINOMIOS.
Charles Babbage completa su artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones poli nómicas mediante el método de las diferencias. El artefacto de la diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "artefacto analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático.
A partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas de calcular. Con la ayuda de la condesa Ada Byron, hija del poeta Lord Byron, desarrolla el concepto de 2 calculadoras mecánicas o "máquinas de números".
La primera de ellas, llamada la Máquina Diferencial era un dispositivo de 6 dígitos que resolvía ecuaciones polinómicas por el método diferencial. La segunda, denominada Máquina Analítica, que tampoco fue terminada, fue diseñada como un dispositivo de cómputo general.
Ambos equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas para poder ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero en la práctica las maquinarias y herramientas de fabricación de la época eran imprecisas y no pudieron construir las piezas con la necesaria exactitud.
Una máquina diferencial es una calculadora mecánica de propósito especial, diseñada para tabular funciones polinómicas. Puesto que las funciones logarítmicas y trigonométricas pueden ser aproximadas por polinomios, esta máquina es más general de lo que parece al principio.
Parte de la máquina diferencial, montada por el hijo de Babbage con piezas encontradas en el laboratorio de Babbage después de su muerte.Es un dispositivo de naturaleza mecánica para calcular e imprimir tablas de funciones. Más concretamente, calcula el valor numérico de una función polinómica sobre una progresión aritmética obteniendo una tabla de valores que se aproxima a la función real (basado en que cualquier función puede ser aproximada por polinomios).
1830   BABBAGE PRESENTA LAS BASES DE LA INFORMÁTICA EN SU PROYECTO DE LA MÁQUINA ANALÍTICA, QUE NUNCA SE LLEGÓ A CONSTRUIR.
La máquina analítica es el diseño de un computador moderno de uso general realizado por el profesor británico de matemáticasCharles Babbage, que representó un paso importante en la historia de la computación. Fue inicialmente descrita en 1816, aunque Babbage continuó refinando el diseño hasta su muerte en 1872.
La máquina no pudo ser construida debido a razones de índole político, hubo detractores por un posible uso de la máquina para fines bélicos. Computadores que fueran lógicamente comparables a la máquina analítica sólo pudieron ser construidos 100 años más tarde.
El primer intento de Charles Babbage para diseñar una máquina fue la máquina diferencial, que fue un computador diseñado específicamente para construir tablas de logaritmos y de funciones trigonométricas evaluando polinomios por aproximación. Si bien este proyecto no vio la luz por razones económicas y personales, Babbagecomprendió que parte de su trabajo podía ser aprovechado en el diseño de un computador de propósito general, de manera que inició el diseño de la máquina analítica.
La máquina analítica debía funcionar con un motor a vapor y hubiera tenido 30 metros de largo por 10 de ancho. Para la entrada de datos y programas había pensado utilizar tarjetas perforadas, que era un mecanismo ya utilizado en la época para dirigir diversos equipos mecánicos. La salida debía producirse por una impresora, un equipo de dibujo y una campana. La máquina debía también perforar tarjetas que podrían ser leídas posteriormente. La máquina analítica trabajaba con una aritmética de coma fija en base 10, poseía una memoria capaz de almacenar 1.000 números de 50 dígitos cada uno. Una unidad aritmética estaría encargada de realizar las operaciones aritméticas.
1837 CHARLES BABBAGE DESCRIBE LA MÁQUINA ANALÍTICA. ES EL DISEÑO DE UN COMPUTADOR MODERNO DE PROPÓSITO GENERAL. LA IDEA QUE TUVO CHARLES BABBAGE SOBRE UN COMPUTADOR NACIÓ DEBIDO A QUE LA ELABORACIÓN DE LAS TABLAS MATEMÁTICAS ERA UN PROCESO TEDIOSO Y MUY PROPENSO A ERRORES.
1843 ADA AUGUSTA LOVELACE SUGIRIÓ LA IDEA DE QUE LAS TARJETAS PERFORADAS SE ADAPTARAN DE MANERA QUE CAUSARAN QUE EL MOTOR DE BABBAGE REPITIERA CIERTAS OPERACIONES. DEBIDO A ESTA SUGERENCIA ALGUNOS CONSIDERAN A LADY LOVELACE LA PRIMERA PROGRAMADORA.
En lo que respecta a Babbage y Ada Byron sus proyectos quedaron frustrados. Sin embargo, los planos y modelos de ambas máquinas sirvieron como puntos referenciales de muchos de los conceptos de computación aplicados hoy en día y para muchos, Charles Babbage es considerado el padre de las computadoras.
A pesar de sus muchos logros y aportes a la ciencia, a través de su vida, la frustración de no poder llegar a construir exitosamente sus máquinas de calcular, principalmente por la falta de apoyo del gobierno, convirtió a Babagge en un hombre resentido y amargado hasta el dia de su muerte ocurrida en Londres el 18 de Octubre de 1871. La condesa Ada Byron (1815-1851) La primera programadora de la historia
Augusta Ada Byron, también llamada Lady Lovelace, fue uno de los personajes más pintorescos de la historia de la computación. Nació en Londres, el 10 de Diciembre de 1815 siendo hija del ilustre poeta inglés Lord Byron. Apenas 5 semanas después de nacida su madre Lady Byron, se separó de su esposo y obtuvo la custodia de su hija, encargándose de su crianza y educación por cuanto a ella le aterrorizaba la idea de que su hija acabase convirtiéndose en un poeta como su padre.
Lady Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó y se interesó sobre las ideas de Charles Babbage acerca de una nueva máquina de calcular. Ella intuyó que un proyecto de esa envergadura podría convertirse en una realidad y fue una de las pocas personas que creyó en la "universabilidad de las ideas", preconizada por Charles Babbage y decidió colaborar con él.
Ada Byron, es considerada la primera programadora de la era de la computación, ya que fue ella quien se hizo cargo del análisis y desarrollo de todo el trabajo del inventor y la programación de los cálculos a procesarse.
1854   GEORGE BOOLE DESARROLLA EL ÁLGEBRA QUE LLEVA SU NOMBRE: ÁLGEBRA BOOLEANA.
El lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
Álgebra de Boole (también llamada Retículas booleanas) en informática y matemática, es una estructura algebraica que esquematiza las operaciones lógicas Y, O , NO y Si (AND,OR,NOT,IF), así como el conjunto de operaciones unión, intersección y complemento.
Se denomina así en honor a George Boole (2 de noviembre de 1815 a 8 de diciembre de 1864), matemático inglés que fue el primero en definirla como parte de un sistema lógico en el año 1854, en su tratado En investigation of the laws of thought on which to found the mathematical theories of logic and probabilities. El álgebra de Boole fue un intento de utilizar las técnicas algebraicas para tratar expresiones de la lógica proposicional. En la actualidad, el álgebra de Boole se aplica de forma generalizada en el ámbito del diseño electrónico. Claude Shannon fue el primero en aplicarla en el diseño de circuitos de conmutación eléctrica biestables, en 1948.
1869 LA PRIMERA MÁQUINA LÓGICA EN USAR EL ÁLGEBRA DE BOOLE PARA RESOLVER PROBLEMAS MÁS RÁPIDO QUE HUMANOS, FUE INVENTADA POR WILLIAM STANLEY JEVONS. LA MÁQUINA, LLAMADA EL PIANO LÓGICO, USÓ UN ALFABETO DE CUATRO TÉRMINOS LÓGICOS PARA RESOLVER SILOGISMOS COMPLICADOS.
En 1866, lo que consideraba como el gran principio universal de todo razonamiento, amaneció sobre él y en 1869 publicó un esbozo de esa doctrina, bajo el título “The Substitución of Similar” (La Sustitución de Similares). Expresó el fundamento en su forma más simple de la siguiente manera: “Lo que es cierto de una cosa, es cierto tal y como es”. Trabajó en detalle sus diversas aplicaciones incluyendo el piano lógico, una computadora mecánica que diseñó y construyó en 1869.
Descripción
El piano lógico, llamado así por su parecido a los pianos verticales de la época, fue la primera máquina lógica que podía manejar el álgebra de Boole para la resolución de cuestiones lógicas. Fue creada por el científico William Stanley Jevons en 1869 y presentada al año siguiente ante la Royal Society.1
Utilizaba un alfabeto de cuatro términos para resolver un problema lógico con cierta complejidad en menos tiempo que el empleado por el cerebro humano. En el frente del piano estaban colocadas las letras que representan las 16 combinaciones posibles de cuatro términos y sus negaciones correspondientes. El teclado constaba de 21 teclas: ocho de ellas con letra desde el centro hacia la izquierda y otras ocho hacia la derecha. Las otras cinco son: para la igualdad (en el centro); para el punto final, para el punto y aparte; y dos para la disyunción no exclusiva (la conjunción no tiene signo2
Jevons consideraba que su máquina, si bien no tenía uso práctico, sí era valiosa didácticamente para demostrar la naturaleza del análisis lógico, y también proporcionaba una prueba convincente de la superioridad de la lógica booleana sobre la aristotélica; pero la exigencia metodológica de transcribir proposiciones en forma de ecuaciones la hizo innecesariamente complicada. A todo ello se le añade el hecho de que no hay procedimiento eficiente para transcribir a la máquina las proposiciones particulares (=algunos).
1878 RAMÓN VEREA, QUIEN VIVÍA EN LA CIUDAD DE NUEVA YORK, INVENTÓ UNA CALCULADORA CON UNA TABLA INTERNA DE MULTIPLICACIÓN; ESTO FUE MUCHO MÁS RÁPIDO QUE USAR ACARREOS U OTRO MÉTODO DIGITAL DE AQUEL TIEMPO. ÉL NO SE INTERESÓ EN PONER SU OBRA EN PRODUCCIÓN, SÓLO QUISO MOSTRAR QUE UN ESPAÑOL PODÍA INVENTAR TANTO COMO UN ESTADOUNIDENSE.
Este sistema permitía multiplicar dos números directamente, y no mediante sumas consecutivas. Aunque se denomine el sistema de León Bollée no fue este realmente, el inventor de esta técnica para multiplicar directamente, pues ésta se atribuye al escritor español Ramón Verea, quien en 1878 desarrolló un cilindro metálico de 10 lados, cada uno de los cuales tenía una columna de agujeros con 10 diámetros diferentes.
Este mecanismo era, a su vez, una versión mejorada del desarrollado por Edmund D. Barbour en 1872 para multiplicar productos parciales mediante la lectura de valores de una tabla escrita en relieve, en un sistema similar al Braille.
1884 DORR FELT DESARROLLÓ SU COMPTÓMETRO, EL CUAL FUE LA PRIMERA CALCULADORA QUE SE OPERABA CON SÓLO PRESIONAR TECLAS EN VEZ DE, POR EJEMPLO, DESLIZAR RUEDAS.
Un comtometer (comptómetro) es un tipo de máquina sumadora mecánica o electromecánica. El comptómetro fue el primer dispositivo de adición que funcionaba solamente por la acción de presionar teclas, que se disponían en un arreglo de columnas verticales y filas horizontales.
El término "comptometer" es, hablando estrictamente, un nombre comercial de Felt and Tarrant Manufacturing Company de Chicago, posteriormente Comptometer Corporation, pero fue usado extensamente como nombre genérico para esta clase de dispositivo. El diseño original fue patentado en 1887 por Dorr Felt, un ciudadano estadounidense.
Aunque estuvo diseñado sobre todo para sumar, también podían ser realizadas restas, multiplicaciones y divisiones. Comptómetros especiales con un variado arreglo de teclas, desde 30 hasta bastante más de 100 teclas, fueron producidos para una diversidad de propósitos, incluyendo cálculo de divisas, tiempo y medidas imperiales de peso.
En las manos de un operador experto, los comptómetros podían sumar números muy rápidamente, puesto que todos los dígitos de un número se podrían entrar simultáneamente usando tantos dedos como sea requerido, haciendo a los comptómetros mucho más rápidos de usar que una calculadora electrónica. Consecuentemente, en aplicaciones especializadas permanecieron en uso en cantidades limitadas hasta entrados los años 1990, pero a excepción de un puñado de máquinas, ahora todos han sido reemplazados por el uso de software de computadora.
1885   HERMAN HOLLERITH CONSTRUYE LA MÁQUINA CENSADORA O TABULADORA, QUE POR MEDIO DE TARJETAS PERFORADAS REDUCÍA EL TIEMPO AL REALIZAR EL CENSO.
Tabuladora es una de las primeras máquinas de aplicación en informática.En 1890 Herman Hollerith (1860-1929) había desarrollado un sistema de tarjetas perforadas eléctricas basado en la lógica deBoole, aplicándolo a una máquina tabuladora de su invención. La máquina de Hollerith se usó para tabular el censo de aquel año en los Estados Unidos, durando el proceso total no más de dos años y medio. Así, en 1896, Hollerith crea la Tabulating Machine Company, con la que pretendía comercializar su máquina. La fusión de esta empresa con otras dos, dio lugar, en 1924, a la International Business Machines Corporation (IBM).
1893 LA PRIMERA MÁQUINA EXITOSA DE MULTIPLICACIÓN AUTOMÁTICA SE DESARROLLÓ POR OTTO STEIGER. "EL MILLONARIO", COMO SE LE CONOCÍA, AUTOMATIZÓ LA INVENCIÓN DE LEIBNIZ DE 1673, Y FUE FABRICADO POR HANS W. EGLI DE ZURICH. ORIGINALMENTE HECHA PARA NEGOCIOS.
La ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron. Fue creada para realizar rápidamente las cuatro operaciones fundamentales, siendo un acontecimiento en el cálculo mecánico. Poseía una asombrosa velocidad al realizar multiplicaciones y divisiones frente a otras calculadoras de la época, ya que no las realiza mediante sumas sucesivas y restas sucesivas, cada dígito del multiplicador o del cociente se procesa mediante una sola vuelta de manivela que traslada automáticamente un espacio al mecanismo resultante.
Se utilizó para los grandes negocios y en algunas aplicaciones de cálculo científico. Esta máquina fue producida en serie entre 1895 y 1935 por el ingeniero suizo Hans W. Egli. Algunos modelos de esta máquina llegaron a pesar hasta 55 kg, y se estima que se vendieron en total unas 4.700 unidades.
1894   LEONARDO TORRES QUEVEDO PRESENTA SUMÁQUINA ALGEBRAICA.
1906: EL ESTADOUNIDENSE LEE DE FOREST INVENTA EL TUBO DE VACÍO. EL "AUDION", COMO SE LLAMABA, TENÍA TRES ELEMENTOS DENTRO DE UNA BOMBILLA DEL VIDRIO EVACUADA. LOS ELEMENTOS ERAN CAPACES DE HALLAR Y AMPLIFICAR SEÑALES DE RADIO RECIBIDAS DE UNA ANTENA. EL TUBO AL VACÍO ENCONTRARÍA USO EN VARIAS GENERACIONES TEMPRANAS DE 5 COMPUTADORAS, A COMIENZOS DE 1930.
El audión es la primera válvula electrónica de tipo triodo. Con ella se lograron las primeras amplificaciones electrónicas.El primer amplificador electrónico fue construido en 1906 por el inventor estadounidenseLee De Forest con ayuda de la primera versión de su invento: el audión. Pero fue en 1908 cuando De Forest inventó el triodo, al intentar descubrir un método para amplificar las ondas y al mismo tiempo, controlar el volumen del sonido. Dobló una fina tira de alambre de platino, a la que denominó "rejilla", nombre que perduró en las válvulas posteriores y la colocó entre el filamento y la placa. Después encerró todo el aparato en una bombilla de cristal.
1919LOS INVENTORES ESTADOUNIDENSES W. H. ECCLES Y F. W. JORDAN DESARROLLAN EL PRIMER CIRCUITO MULTIVIBRADOR O BIESTABLE (EN LÉXICO ELECTRÓNICO FLIP-FLOP).
El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bitbinario, estructura que utilizan las actuales computadoras.
Un biestable (flip-flop en inglés), es un multivibrador capaz de permanecer en uno de dos estados posibles durante un tiempo indefinido en ausencia de perturbaciones. Esta característica es ampliamente utilizada en electrónica digital para memorizar información. El paso de un estado a otro se realiza variando sus entradas. Dependiendo del tipo de dichas entradas los biestables se dividen en:
  • Asíncronos: sólo tienen entradas de control. El más empleado es el biestable RS.
  • Síncronos: además de las entradas de control posee una entrada de sincronismo o de reloj. Si las entradas de control dependen de la de sincronismo se denominan síncronas y en caso contrario asíncronas. Por lo general, las entradas de control asíncronas prevalecen sobre las síncronas.
La entrada de sincronismo puede ser activada por nivel (alto o bajo) o por flanco (de subida o de bajada). Dentro de los biestables síncronos activados por nivel están los tipos RS y D, y dentro de los activos por flancos los tipos JK, T y D.Los biestables se crearon para eliminar las deficiencias de los latches.
1930   VANNEVAR BUSH DISEÑA UNA MÁQUINA ANALÓGICA QUE RESOLVÍA ECUACIONES DIFERENCIALES: EL ANALIZADOR DIFERENCIAL UNA MÁQUINA DIFERENCIAL PARCIALMENTE ELECTRÓNICA, CAPAZ DE RESOLVER ECUACIONES DIFERENCIALES.
El Analizador diferencial (en inglés, Differential analyser) fue un computador analógico mecánico diseñado para solucionar ecuaciones diferenciales por integración, usando mecanismos de ruedas y discos para realizar la integración. Fue uno de los primeros dispositivos de computación avanzados en ser usados operacionalmente.
El analizador fue inventado en 1876 por James Thomson, hermano de Lord Kelvin. Una versión práctica fue primero construida por H. W. Nieman y Vannevar Bush comenzando en 1927 en el MIT. Ellos publicaron un informe detallado sobre el dispositivo en 1931. D. R. Hartree, de la Universidad de Mánchester, trajo el diseño a Inglaterra, donde construyó su primer modelo (con su estudiante, Arthur Porter) en 1934. Durante los cinco años siguientes fueron añadidos tres más: uno en la Universidad de Cambridge, en la Queen's University de Belfast, y en la Royal Aircraft Establishment en Farnborough.
En los Estados Unidos, los analizadores diferenciales fueron construidos en la base de la Fuerza Aérea Wright-Patterson y en el sótano la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pennsylvania a principios de los años 1940; el último fue usado extensivamente en la línea de montaje de las tablas de fuego de la artillería antes de la invención del ENIAC, que, de muchas maneras, fue modelado después del analizador diferencial. Algunos años más tarde, otro computador, el UTEC, fue construido en la Universidad de Toronto, pero aparece que vio poco o ningún de uso.
El analizador diferencial fue utilizado en el desarrollo de la Bomba de rebote, usada para atacar las represas hidroeléctricas alemanas durante la Segunda Guerra Mundial. Los analizadores diferenciales también han sido usados en el cálculo de la erosión del suelo por las autoridades de control de los ríos. Eventualmente se volvió obsoleto por las computadoras electrónicas analógicas y posteriormente por computadores digitales.
Más recientemente, la construcción de analizadores diferenciales usando piezas de Meccano se ha convertido en un proyecto popular entre los aficionados serios al hobby de Meccano. Un analizador diferencial es mostrado en operación en la película de 1956La Tierra vs. Los platillos voladores, y en la película de 1951Cuando los mundos chocan.
1936ALAN TURING DESCRIBE LA MÁQUINA DE TURING, LA CUAL FORMALIZA EL CONCEPTO DE ALGORITMO.
Una máquina de Turing (MT) es un modelo computacional que realiza una lectura/escritura de manera automática sobre una entrada llamada cinta, generando una salida en esta misma.Este modelo está formado por un alfabeto de entrada y uno de salida, un símbolo especial llamado blanco (normalmente b,  o 0), un conjunto de estados finitos y un conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una función de transición, que recibe un estado inicial y una cadena de caracteres (la cinta, la cual puede ser infinita) pertenecientes al alfabeto de entrada.
La máquina va leyendo una celda de la cinta en cada paso, borrando el símbolo en el que se encuentra posicionado su cabezal y escribiendo un nuevo símbolo perteneciente al alfabeto de salida, para luego desplazar el cabezal a la izquierda o a la derecha (solo una celda a la vez). Esto se repite según se indique en la función de transición, para finalmente detenerse en un estado final o de aceptación, representando así la salida.
1937   INICIO DE LA TEORÍA DE LA COMPUTABILIDAD CON LA DESCRIPCIÓN DE LA MÁQUINA DE TURING.
La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de la computabilidad se interesa a cuatro preguntas:
  • ¿Qué problemas puede resolver una máquina de Turing?
  • ¿Qué otros formalismos equivalen a las máquinas de Turing?
  • ¿Qué problemas requieren máquinas más poderosas?
  • ¿Qué problemas requieren máquinas menos poderosas?
La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen de diversos recursos en diversos tipos de máquina.
PRIMERA GENERACIÓN
La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.
En esta etapa las computadoras funcionaban con válvulas y se utilizaban exclusivamente en el ámbito científico o militar. La programación implicaba la modificación directa de los valores de los circuitos de las máquinas, con el consecuente gasto de tiempo y espacio.
Características:
  • Estaban construidas con electrónica de válvulas.
  • Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
1938   KONRAD ZUSE CONSTRUYE LA PRIMERA DE SUS COMPUTADORAS: LA Z1.
La Z1 es considerada una de las primeras máquinas programables del mundo. Fue creada por el ingeniero alemán Konrad Zuse en 1938.
Historia del computador
En los años en la industria de la computación tan sólo se podían encontrar ciertas calculadoras orientadas al comercio y muy primitivas. Matemáticos e ingenieros tenían que construir sus propias calculadoras. O más...
Zuse trabajaba en la industria de los aviones. Para los diseños de aviones se requerían constantes cálculos matemáticos que debían repetirse de acuerdo con unas variables. De esta manera surgió la necesidad de crear una máquina que repitiese los complejos cálculos y que los guardase en memoria para referencias futuras.
Entre 1936 y 1938, Konrad Zuse intentó construir la primera computadora, una calculadora mecánica basada en el sistema binario que operaba con electricidad y con la posibilidad de poder programarla, aunque de forma limitada. Hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo consiguió realizar un prototipo que recibió el nombre del Z1 y que nunca llegó a funcionar de forma correcta debido a la falta de perfeccionamiento en sus elementos mecánicos. Esta máquina fue financiada completamente con dinero privado (principalmente de familiares y amigos de Zuse, incluido él mismo) y fue creada en el apartamento de sus padres. El gobierno nazi nunca confió demasiado en los trabajos de Zuse y por ello obtuvo escaso apoyo.
La Z1 fue la predecesora de los modelos Z2 y Z3, creados por el mismo Zuse y en las que intentó subsanar los fallos que se encontraban en el modelo Z1. Ninguna de estas máquinas sobrevivió a la Segunda Guerra Mundial, fueron destruidas en el bombardeo de Berlín. Sin embargo, la obra de Zuse no se perdió completamente ya que podemos encontrar una reconstrucción de la Z1 en el Museo Técnico Alemán de Berlín (reconstruida por él mismo reutilizando piezas de la original), además de la computadora Z4, que fue construida años más tarde en Austria.
1939   GEORGE R. STIBITZ EMPIEZA EL DESARROLLO DE LA COMPLEX CALCULATOR.
En 1939, para realizar cálculos aritméticos con números complejos necesarios en trabajos de filtrado de señales, empezó la construcción de una máquina llamada Calculadora de Números Complejos ("Complex Number Calculator"), que completó el 8 de enero de 1940. En una demostración realizada en una conferencia de la Mathematical Society, celebrada el 11 de septiembre de 1940 en el Dartmouth College, Stibitz envió comandos a la computadora a través de una línea telefónica. Fue la primera vez en la historia que, de hecho, se usó una máquina computadora de forma remota a través de una conexión telefónica.
Como resultado de su actividad, se producen 4 calculadores que se designaron con los nombres de MARK-1, MARK-2, MARK-3 y MARK-4, este último, construido en el año de 1945, incorporaba algunos componentes electrónicos (válvulas electrónicas), pero en su mayor parte estaba construido a partir de elementos eléctricos (relevadores) y mecánicos.
1939   NACE LA Z2 DE ZUSE.
La computadora Z2, creada por Konrad Zuse durante la etapa (1938-1939), fue diseñada a partir de la Z1, ya que crear una máquina mecánica presentaba algunas dificultades, y a ésta se le añadieron relés telefónicos.
Fue ayudado por un amigo suyo Helmut Schreyer el cual trabajaba con relevadores electrónicos, y le pidió que le diseñara los circuitos para realizar las tres operaciones básicas, AND, OR y NOT, para así no diseñarse desde cero. Schereyer resolvió este problema sin ningún inconveniente mientras Zuse trabajaba en la parte lógica de los circuitos. Gracias a su trabajo en grupo, se pensó lograr una velocidad mil veces superior a la que se obtenía mediante máquinas de relevadores.
Características principales
La unidad numérica Z2 estaba construida con 800 relés, aunque todavía disponía de componentes mecánicos. Disponía de la misma memoria que la Z1, el mecanismo de control se basaba en un sistema de cinta de perforada y con la unidad aritmética utilizando 200 relevadores electromecánicos. Tenía una frecuencia de reloj de ~10 KHz y operaba con números de punto fijo.
Sus características eran muy similares a la Z1, y para Zuse fue un modelo experimental para probar el poder de la utilización de los relés telefónicos.y otro mecánico
1940   TESIS DE CLAUDE SHANNON SOBRE TEORÍA MATEMÁTICA DE LA COMUNICACIÓN.
La teoría de la información también conocida como teoría matemática de la comunicación(Mathematical Theory of Communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los 40. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información. La Teoría de la Información es una rama de la teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados.
1941   PRIMERA COMPUTADORA FUNCIONAL DEL MUNDO CONTROLADA POR PROGRAMAS, LA Z3 DE ZUSE.
La computadora Z3, creada por Konrad Zuse en 1941, fue la primera máquina programable y completamente automática, características usadas para definir a un computador.El Z3, de tecnología electromecánica, estaba construido con 2300 relés, tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con aritmética en coma flotante puramente binaria.
La máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín). El Z3 original fue destruido en 1943 durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 Raúl Rojas demostró que el Z3 es Turing completo.
EN 1967, ZUSE KG HABÍA CONSTRUIDO UN TOTAL DE 251 COMPUTADORAS. ESE MISMO AÑO ZUSE SUGIRIÓ QUE EL UNIVERSO EN SÍ MISMO ES UNA RETÍCULA DE COMPUTADORAS (FÍSICA COMPUTACIONAL), PUBLICANDO ESTA HIPÓTESIS EN 1969 EN SU LIBRO RECHNENDER RAUM.
1942   ATANASOFF DESARROLLA EL ABC, MÁQUINA ELECTRÓNICA DIGITAL PARA LA RESOLUCIÓN DE SISTEMAS LINEALES.
El Atanasoff Berry Computer (ABC) fue el primer computador electrónico y digital automático. Fue construido por el Dr. John Vincent Atanasoff con la ayuda de Clifford Edward Berry entre 1937 y 1942 en la 'Iowa State University', que entonces recibía el nombre de 'Iowa State College'.
Esta máquina, decididamente revolucionaria, aportó diversas innovaciones en el campo de la computación: un sistema binario para la aritmética, memoria regenerativa y distinción entre la memoria y las funciones de el primer computador moderno en utilizar aritmética en binario y usar circuitos electrónicos, que hoy en día se utilizan en todos los computadores. En binario se utilizan dos símbolos, 0 y 1, para representar valores numéricos. Más específicamente, el binario es una notación matemática en base dos. Debido a su relación directa con los circuitos electrónicos, el sistema binario se usa internamente en casi todos los ordenadores actuales. El computador fue el primero en implementar tres conceptos claves presentes en los ordenadores modernos:
  1. Uso del sistema binario para representar todos los números y datos.
  2. Realizaba todas las operaciones usando la electrónica en lugar de ruedas,
  3. La computación estaba separada del sistema de almacenamiento o memoria.
Además usaba memoria regenerativa, del mismo modo que la DRAM de los ordenadores actuales. No era un computador de almacenamiento, lo que la distingue de las máquinas más tardías y de uso general como el ENIAC (1949), el EDVAC (1949), los diseños de la Universidad de Manchester o los que Alan Turing realizó en el 'National Physical Laboratory'.
Esta máquina, decididamente revolucionaria, aportó diversas innovaciones en el campo de la computación: un sistema binario para la aritmética, memoria regenerativa y distinción entre la memoria y las funciones de el primer computador moderno en utilizar aritmética en binario y usar circuitos electrónicos, que hoy en día se utilizan en todos los computadores. En binario se utilizan dos símbolos, 0 y 1, para representar valores numéricos. Más específicamente, el binario es una notación matemática en base dos. Debido a su relación directa con los circuitos electrónicos, el sistema binario se usa internamente en casi todos los ordenadores actuales. El computador fue el primero en implementar tres conceptos claves presentes en los ordenadores modernos:
  1. Uso del sistema binario para representar todos los números y datos.
  2. Realizaba todas las operaciones usando la electrónica en lugar de ruedas,
  3. La computación estaba separada del sistema de almacenamiento o memoria.
1943   UN EQUIPO DIRIGIDO POR ALAN TURING CONSTRUYE EL COLOSSUS PARA DESCIFRAR LOS MENSAJES DEENIGMA.
Las máquinas Colossus fueron los primeros dispositivos calculadores electrónicos usados por los británicos para leer las comunicaciones cifradasalemanas durante la Segunda Guerra Mundial. Colossus fue uno de los primeros computadores digitales.
La máquina Colossus fue diseñada originalmente por Tommy Flowers en la Post Office Research Station (Estación de Investigación de la Oficina Postal), Dollis Hill. El prototipo, Colossus Mark I, entró en funcionamiento en Bletchley Park desde febrero de 1944. Una versión mejorada, el Colossus Mark II se instaló en junio de 1944, y se llegaron a construir unos diez Colossus hasta el final de la guerra.
Las máquinas Colossus se usaron para descifrar los mensajes cifrados, que se interceptaban de las comunicaciones de la Alemania Nazi, usando la máquina Lorenz SZ40/42. Colossus comparaba dos flujos de datos, contando cada coincidencia basada en una función programable booleana. El mensaje cifrado se leía a gran velocidad a través de una cinta de papel. El otro flujo de datos era generado internamente, y era una simulación electrónica de la máquina de Lorenz en varias combinaciones. Si el número de coincidencias para una combinación era superior a una cierta cantidad, la salida era escrita en una máquina de escribir eléctrica.
Una computadora Colossus Mark II. El panel inclinado de la izquierda se usaba para establecer el número de patrones de pines de Lorenz. La cinta transportadora de papel está en la derecha. Ubicación Gran Bretaña Instalación 1944
1943   SE EMPIEZA LA CONSTRUCCIÓN DEL ENIAC, POR JOHN W. MAUCHLY Y JOHN ECKERT.
ENIAC es un acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.
Se ha considerado a menudo la primera computadora electrónica de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.
La ENIAC fue construida en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly, ocupaba una superficie de 167 y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío que a su vez permitían realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, demoraba semanas de instalación manual.
La ENIAC elevaba la temperatura del local a 50 °C. Para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales telefónicas, de allí el concepto. Este trabajo podía demorar varios días dependiendo del cálculo a realizar.
1944   HOWARD HATHAWAY AIKEN TERMINA LA CONSTRUCCIÓN DE LA HARVARD MARK I.
El IBM Automatic Sequence Controlled Calculator (ASCC), más conocido como Harvard Mark I o Mark I, fue el primer ordenador electromecánico, construido en la Universidad de Harvard por Howard H. Aiken en 1944, con la subvención de IBM. Tenía 760.000 ruedas y 800 kilómetros de cable y se basaba en la máquina analítica de Charles Babbage.El computador Mark I empleaba señales electromagnéticas para mover las partes mecánicas. Esta máquina era lenta (tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos no se podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico de proyectiles.Funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado.
Características
La Mark I era una máquina digna de admirar, pues sus longitudes eran grandiosas, medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, pesaba aproximadamente unas cinco toneladas. Pero lo más impresionante fueron unas cubiertas de cristal que dejaban que se admirara toda la maquinaria de su interior.
La Mark I recibía sus secuencias de instrucciones (programas) y sus datos a través de lectoras de cinta perforada de papel y los números se transferían de un registro a otro por medio de señales eléctricas. Tal vez por eso no deba sorprendernos que a pesar de medir sólo 15 metros de largo, el cableado interno de la Mark I tenía una longitud de más de 800 kilómetros, con más de tres millones de conexiones. Los resultados producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de tarjetas, en la más pura tradición de IBM.
Aunque tenía componentes electromecánicos era una máquina automática eléctrica. Era capaz de realizar 5 operaciones aritméticas (suma, resta, multiplicación, división y referencia a resultados anteriores). Su interior estaba compuesto por 750.000 piezas de diferentes variedades (ruedas rotatorias para los registros, relevadores...).
Estaba compuesta de más de 1.400 interruptores rotatorios de diez posiciones en el frente de la máquina para visualizar los valores de los registros constantes que se le introducían. Pero además de los registros constantes la máquina contenía 72 registros mecánicos. Cada unos de los registros mecánicos era capaz de almacenar 23 dígitos, los dígitos que se usaban para el signo era un 0 para signo positivo y un 9 para el signo negativo.
La posición de la coma decimal estaba fija durante la solución de un problema, pero podía ajustarse previamente de manera que estuviera entre dos dígitos cualquiera. La máquina contaba también con mecanismos que permitían efectuar cálculos de doble precisión (46 decimales), mediante la unión de dos registros, en una forma análoga a la Máquina Analítica de Babbage.
1944   ZUSE TERMINA DE CONSTRUIR LA Z4.
La computadora Z4, diseñando por el ingeniero alemánKonrad Zuse y construida por su compañía Zuse KG entre 1941 y 1945, fue entregada a ETH Zürich en Suiza en septiembre de 1950. Fue la primera computadora en el mundo en ser vendida, venciendo a la británicaFerranti Mark I por cinco meses y a la UNIVAC I por diez meses.
Konrad Zuse, este investigador creó numerosas computadoras a lo largo de su vida; se dedicó plenamente a ello. Sus primeras máquinas fueron la Z1, Z2, Z3 y Z4. La Z4 fue terminada en 1944, aunque posteriormente fue retocada en numerosas ocasiones añadiéndole una unidad de lectura de tarjetas perforadas. Esta máquina era capaz de reproducir las tarjetas perforadas mediante instrucciones de la propia Z4, con lo que no era demasiado complicado programarla. Esta era una ventaja ya que era posible realizar copias de los programas para poder hacer correcciones.
La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados cálculos científicos. Era capaz de ejecutar 1000 instrucciones por hora. Estaba formada aproximadamente por 2200 relés, era capaz de realizar unas 11 multiplicaciones por segundo y tenía una memoria de 500 palabras de 32 bits. Pesaba unos 1000 kilogramos.
La entrada de datos era a través de un teclado decimal o a través de tarjetas perforadas, y la salida era por una máquina de escribir. Esta máquina fue utilizada hasta 1959 por multitud de instituciones. Actualmente se encuentra en el museo alemán de Munich.
1945               PRIMER "BUG" INFORMÁTICO.
Error de software
Grace Murray Hopper, licenciada en Física y destacada matemática que trabajó como programadora en el Mark II, pegó el insecto con cinta adhesiva en la bitácora (imagen) y se refirió a ella como "bicho" para describir la causa del problema.
Este incidente es erróneamente conocido por algunos como el origen de la utilización del término inglés "bug" (bicho) para indicar un problema en un aparato o sistema.12 En realidad, Thomas Alva Edison ya había utilizado "bug" en algunas anotaciones relacionadas con interferencias y mal funcionamiento. Grace lo asoció por primera vez a la informática, en este caso, relacionado a un insecto real. No obstante, durante los años 50 del Siglo XX, Grace también empleó el término "debug" al hablar de la depuración de errores en los códigos de programación. Los programas que ayudan a detección y eliminación de errores de programación de software son denominados depuradores (debuggers)
1946   NACE UNA DE LAS PRIMERAS COMPUTADORAS NO DISEÑADAS CON UN PROPÓSITO MILITAR: LA UNIVAC.
La UNIVAC I (UNIVersal Automatic Computer I, Computadora Automática Universal I) fue la primera computadora comercial fabricada en Estados Unidos. Fue diseñada principalmente por J. Presper Eckert y John William Mauchly, también autores de la segunda computadora electrónica estadounidense, la ENIAC. Durante los años previos a la aparición de sus sucesoras, la máquina fue simplemente conocida como "UNIVAC". Se donó a la universidad de Harvard y Pensilvania. Fue la primera computadora fabricada para un propósito no militar, desde el año 1951.
Historia
Las computadoras UsextoI fueron construidas por la división UNIVAC de Remington Rand (sucesora de la Eckert-Mauchly Computer Corporation, comprada por Rand en 1951). Su valor estaba entre 1 millón y 1 millón y medio de dólares, que actualizado seria de 6 millones y medio a 9 millones. Era una computadora que pesaba 16.000 libras (7.250 kg aproximadamente), estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25 MHz, tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se usaban normalmente.
El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (United States Census Bureau) el 31 de marzo de 1951 (60 años) y fue puesto en servicio el 14 de junio de ese año. El quinto, construido para la Comisión de Energía Atómica (United States Atomic Energy Commission) fue usado por la cadena de televisión CBS para predecir la elección presidencial estadounidense de 1952. Con una muestra de apenas el 1% de la población votante predijo correctamente que Eisenhower ganaría, algo que parecía imposible.
1947   NACE LA CIBERNÉTICA, VOCABLO DESIGNADO PORNORBERT WIENER, UNO DE SUS PADRES.
La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Tanto en sus orígenes como en su evolución, en la segunda mitad del siglo XX, la cibernética es igualmente aplicable a los sistemas físicos y sociales. Los sistemas complejos afectan y luego se adaptan a su ambiente externo; en términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentación y sus conceptos derivados.
Historia
La cibernética es una ciencia, nacida hacia 1942 e impulsada inicialmente por Norbert Wiener, que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”. En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. La cibernética dio gran impulso a la teoría de la información a mediados de los 60, la computadora digital sustituyó la analógica en la elaboración de imágenes electrónicas.
 En esos años aparecen la segunda generación de computadoras (con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación. En 1965 tuvo lugar en Stuttgart la exposición”Computer-graphik”. Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafs de Londres.
1948   NACE EL PROYECTO DE LA MANCHESTER MARK I EN DONDE ALAN TURING PARTICIPÓ ACTIVAMENTE.
La Manchester Mark 1 fue en un principio una máquina experimental a pequeña escala llamada "The baby", construida entre 1947 y 1948 en la Universidad de Mánchester, como continuación del Manchester Small-Scale Experimental Machine (SSEM), la primera computadora electrónica del mundo con programa almacenado en la misma máquina. Su diseño se pensó para demostrar el potencial que tendrían los programas almacenados en la computadora, por eso se considera la primera computadora que funcionaba con memoria RAM. Los trabajos comenzaron en agosto de 1948, y la primera versión entró en funcionamiento en abril de 1949, cuando un programa escrito para buscar números primos de Mersenne corrió durante nueve horas sin fallas en la noche del 16 al 17 de junio de 1949. El matemáticoAlan Turing se incorporó al proyecto en el año 1948, realizando un lenguaje de programación para la computadora.
Historia
En 1951, fue remplazada por una versión conocida como Ferranti Mark I, que surgió de la colaboración del equipo de la Universidad de Manchester y de los hermanos Ferranti que tenían una fábrica. La Ferranti Mark I fue de las primeras computadoras comerciales de la historia.
Características
Algunas de sus características fueron: una memoria principal (RAM) de 256 palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación estándar, como una suma, en 1.8 milisegundos y en cambio para realizar una multiplicación era mucho más lento, añadiéndole al tiempo de una operación estándar 0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era por medio de un sencillo teclado para almacenar directamente la información al computador; la salida para las comprobaciones era a través de un visualizador de tubos de rayos catódicos.
1948   LOS LABORATORIOS BELL CREAN EL MODEM.
Los Laboratorios Bell (en inglés: Bell Labs) son varios centros de investigación científica y tecnológica ubicados en más de diez países y que pertenecen a la empresa estadounidenseLucent Technologies, denominada también como Bell Labs Innovations, una división de (Alcatel-Lucent). Sus orígenes se remontan a los Laboratorios Telefónicos Bell, los cuales fueron fundados en el año de 1925 en el estado de Nueva Jersey por la empresa AT&T.
Durante muchos años los laboratorios manejaron uno de los presupuestos más elevados en el mundo de la investigación tecnológica a raíz del monopolio ejercido por AT&T en la industria telefónica estadounidense. Entre sus patentes y descubrimientos más importantes destacan la libreta de un solo uso, el transistor, el láser, la fibra óptica, la tecnología DSL, la telefonía móvil, los satélites de comunicaciones, el sistema operativoUnix y el lenguaje de programación C. Once de sus investigadores han ganado seis Premios Nobel.
En 1984, a raíz de la reestructuración de AT&T, una parte de los laboratorios se convirtió en la empresa Bellcore. El resto pasó a formar parte de Lucent Technologies en 1996 y posteriormente sus empleados fueron divididos entre los departamentos de investigación y desarrollo de las empresas AT&T Research y Lucent Technologies en los que un elevado tanto por ciento siguen alli, desempeñando su gran labor.
1949   LA COMPAÑÍA DE MAUCHLY Y ECKERT CONSTRUYE UNA "PEQUEÑA" COMPUTADORA: LA BINAC.
La Binac ( Eckert y Mauchly de la ECC Electronic Control Corporation con la Northrop Aircraft Company de Hawthorne en California, los cuales estaban desarrollando un misil secreto, llamado Snark. Para ello necesitaban una pequeña computadora que pudiese ser transportada en un avión, con la finalidad de guiar al misil Snark.
Características
Las especificaciones de la computadora eran:
  • Debía tener un volumen de menos de 0.60 metros cúbicos.
  • Debía pesar cuando mucho 318 kilogramos.
  • Debía operar con 117 volts, a 60 ó 400 ciclos.
La Binac cuyo costo se presupuestó en un principio en 100.000 dólares. La Northrop accedió pagar por adelantado 80.000 dólares, y se acordó que los 20.000 dólares restantes se liquidarían el 15 de mayo de 1948, que era la fecha programada para la entrega de la computadora. La Binac era un modelo experimental que de funcionar de forma correcta daría lugar a otra computadora aún más pequeña que se colocaría dentro del misil para guiarlo.
Contaba con dos procesadores de medidas 1.5 x 1.2 x 0.3 metros con 700 bulbos cada uno, con el fin de que estos se verificarán entre sí. Las instrucciones se procesaban en ambos procesadores, y luego se comparaban los resultados, si éstos eran iguales, se procedía a la siguiente instrocción, si eran diferentes se paraba la ejecución. La capacidad de memoria de cada procesador (implementada mediante líneas de retardo) era de 512 palabras de 31 bits cada una, y usaban el sistema binario. Sus dos unidades de potencia medían 0.45 × 0.45 × 1.2 metros cada una, y su consola para entrada de datos medía 0.90 × 0.60 × 0.90 metros.
La Binac podía efectuar 3.500 sumas o restas, o 1.000 multiplicaciones o divisiones por segundo. La velocidad de su reloj era de 1 Megahertz y la lógica de la máquina se implementó usando el entonces recientes diodos de germanio.
1950   ALAN TURING PUBLICA SU ARTÍCULO "COMPUTING MACHINERY AND INTELIGENCE".
SEGUNDA GENERACIÓNComputing machinery and intelligence, escrito por Alan Turing y publicado en 1950, es un artículo fundamental sobre el tema de la Inteligencia Artificial en el que fue introducido el concepto que ahora es llamadoCel Test de Turing.Este texto, concluye con la siguiente idea:«We can only see a short distance ahead, but we can see plenty there that needs to be done. »Que podríamos traducir por: «No podemos ver más que a corta distancia delante de nosotros, pero podemos ver claramente que hay mucho que hacer».


La segunda generación de los transistores reemplazó a las válvulas de vacío por los circuitos de las computadoras. Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son:
Las válvulas fueron sustituidas por los transmisores y se inician los sistemas operativos, es decir, las computadoras con una programación previa que interpretan las instrucciones mediante comandos introducidos por el usuario en un lenguaje de programación que las computadoras son capaces de traducir al lenguaje máquina.
1952   JOHN VON NEUMANN HACE REALIDAD SU SUEÑO: SE PONE EN MARCHA EL EDVAC.
La EDVAC (Electronic Discrete Variable Automatic Computer) por sus siglas en inglés, fue una de las primeras computadoras electrónicas. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de arquitectura para la mayoría de las computadoras modernas. El diseño de la EDVAC es considerado un éxito en la historia de la informática.
El diseño de la EDVAC fue desarrollado aún antes de que la ENIAC fuera puesta en marcha y tenía la intención de resolver muchos de los problemas encontrados en el diseño de la ENIAC. Así como la ENIAC, la EDVAC fue construida por el laboratorio de investigación de balística de Estados Unidos de la universidad de Pensilvania. A los diseñadores de la ENIAC, J. Presper Eckert y John William Mauchly se les unió el gran matemático John von Neumann. Un contrato para construirla fue firmado en abril de 1946 con un presupuesto inicial de 100.000 USD y el contrato llamó al aparato el Calculador Discreto Electrónico Automático Variable (Electronic Discrete Variable Automatic Calculator en inglés).
El costo de la EDVAC fue similar al de la ENIAC, justo por debajo de los 500.000 USD. La computadora fue diseñada para ser binaria con adición, sustracción y multiplicación automática y división programada. También poseería un verificador automático con capacidad para mil palabras (luego se estableció en 1.024). Físicamente la computadora fue construida de los siguientes componentes: Un lector-grabador de cinta magnética, una unidad de control con osciloscopio, una unidad para recibir instrucciones del control y la memoria y para dirigirlas a otras unidades, una unidad computacional para realizar operaciones aritméticas en un par de números a la vez y mandarlos a la memoria después de corroborarlo con otra unidad idéntica, un cronómetro, y una unidad de memoria dual.
Una preocupación importante en el diseño era balancear fiabilidad y economía. La EDVAC poseía físicamente casi 6.000 tubos de vacío y 12.000 diodos. Consumía 56 kilowatts de potencia. Cubría 45,5 m² de superficie y pesaba 7.850 kg. El personal operativo consistía de treinta personas para cada turno de ocho horas.
La EDVAC fue entregada al laboratorio militar en agosto de 1949 y después de varios ajustes, comenzó a operar hasta 1951. En 1960 corría por más de 20 horas diarias con lapsos sin error de 8 horas, en promedio. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético en 1954 y una unidad de aritmética de coma flotante en 1958.La EDVAC corrió hasta 1961 cuando fue r reemplazada por BRLESC. En su vida, demostró ser altamente confiable y productiva.
1952   EMPIEZA LA FABRICACIÓN INDUSTRIAL Y COMERCIALIZACIÓN DE ORDENADORES.
1956   CONFERENCIA DE DARTMOUTH, EN DONDE NACE LA INTELIGENCIA ARTIFICIAL.
En 1956 se dio el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsk y, Newell y Simón. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
Dartmouth College es una universidad privada ubicada en Hanover, Nuevo Hampshire (Estados Unidos). Pertenece a la Ivy League y es una de las nueve universidades americanas fundadas por los británicos antes de la Revolución Americana. Además de su tradicional programa de Jodenbreestraatpregrado en artes liberales, Dartmouth dispone de prestigiosas escuelas de posgrado en medicina, ingeniería y administración y dirección de empresas, así como 19 programas de posgrado en artes, humanidades y ciencias. Con un total de 5,848 alumnos, Dartmouth es la más pequeña de las universidades de la Ivy League.
Académicamente está catalogada como una de las mejores universidades del mundo; e incluso hay fuentes que la llegan a acreditar como la institución donde mejor se prepara a los estudiantes para el mundo exterior en términos de pregrados. Entre sus alumnos más reconocidos se encuentran los presidentes de compañías como Hasbro, IBM y General Electric. Por último, algunos estudios indican que las personas graduadas de Dartmouth College tienen un salario promedio más alto que los egresados en cualquier otra universidad de los Estados Unidos, incluidasHarvard, Stanford o Yale.
1960   Nace el primer lenguaje de programación de inteligencia artificial: el LISP.
El Lisp (o LISP) es una familia de lenguajes de programación de computadora de tipo multiparadigma con una larga historia y una sintaxis completamente entre paréntesis. Especificado originalmente en 1958 por John McCarthy y sus colaboradores en el Instituto Tecnológico de Massachusetts, el Lisp es el segundo más viejo lenguaje de programación de alto nivel de extenso uso hoy en día; solamente el FORTRAN es más viejo. Al igual que el FORTRAN, el Lisp ha cambiado mucho desde sus comienzos, y han existido un número de dialectos en su historia. Hoy, los dialectos Lisp de propósito general más ampliamente conocidos son el Common Lisp y el Scheme.
El Lisp fue creado originalmente como una notación matemática práctica para los programas de computadora, basada en el cálculo lambda de Alonzo Church. Se convirtió rápidamente en el lenguaje de programación favorito en la investigación de la inteligencia artificial (AI). Como uno de los primeros lenguajes de programación, el Lisp fue pionero en muchas ideas en ciencias de la computación, incluyendo las estructuras de datos de árbol, el manejo de almacenamiento automático, tipos dinámicos, y el compilador auto contenido.
El Lisp fue inventado por John McCarthy en 1958 mientras estaba en el Instituto Tecnológico de Massachusetts (MIT). McCarthy publicó su diseño en 1960 en un artículo de Communications of the ACM titulado "funciones recursivas de expresiones simbólicas y su cómputo por la máquina, parte I"1 (la "parte II" nunca fue publicada). Allí mostró que con algunos operadores simples y una notación para las funciones, uno puede construir un lenguaje turing completo para los algoritmos.
Desde 1955 ó 1956, el Information Processing Language fue el primer lenguaje de AI, y ya había incluido muchos de los conceptos, tales como proceso por lista y recursión, que vinieron a ser usados en el Lisp.
TERCERA GENERACIÓN
A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. Comienza a investigarse también programas y aplicaciones que facilitan las operaciones con las computadoras sin necesidad de conocer un lenguaje de programación.
EN 1965, IBM ANUNCIÓ EL PRIMER GRUPO DE MÁQUINAS CONSTRUIDAS CON CIRCUITOS INTEGRADOS, QUE RECIBIÓ EL NOMBRE DE SERIE EDGAR.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.Esto es lo que ocurrió en (1964-1971) que comprende de la Tercera generación de computadoras:
  • Menor consumo de energía
  • Apreciable reducción del espacio
  • Aumento de fiabilidad
  • Teleproceso
  • Multiprogramación
  • Renovación de periféricos
  • Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
  • Se calculó π (Número Pi) con 500.000 decimales
1964   IBM EMPIEZA A COMERCIALIZAR LOS 360.
Consola del operador de un System/360 Model 65, con válvula de registro, lámparas y switches (mitad de la fotografía), y arriba a la derecha, un interruptor de emergencia rojo.
El 360 fue el primero en usar microprogramación, y creó el concepto de arquitectura de familia. La familia del 360 consistió en 6 ordenadores que podían hacer uso del mismo software y los mismos periféricos. El sistema también hizo popular la computación remota, con terminales conectados a un servidor, por medio de una línea telefónica. Así mismo, es célebre por contar con el primer procesador en implementar el algoritmo de Tomasulo en su unidad de punto flotante.
El IBM 360 es uno de los primeros ordenadores comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o procesamiento de archivos. Se considera que la tercera generación de computadoras comenzó con su introducción. Fue el primer computador en ser atacado con un virus en la historia de la informática; y ese primer virus que atacó a esta máquina IBM Serie 360 (y reconocido como tal), fue el Creeper, creado en 1972
Introducción
El IBM S/360 (S/360) es un sistema de computación de la familia mainframe que IBM anunció el 7 de abril de 1964. Fue la primera familia de ordenadores diseñados para cubrir las aplicaciones independientemente de su tamaño o ambiente (científico, comercial). En el diseño se hizo una clara distinción entre la arquitectura e implementación, permitiendo a IBM sacar una serie de modelos compatibles a precios diferentes. Los modelos S/360 anunciados en 1964 variaban en velocidad de 0,034 MIPS a 1,700 MIPS (50 veces la velocidad) y entre 8 KB y 8 MB de memoria principal, aunque este último fue inusual. El 360 fue un gran éxito en el mercado, permitía a los clientes comprar un sistema más pequeño sabiendo que siempre podrían migrar hacia un sistema de mayor capacidad. Muchos consideran el diseño de este sistema como uno de los más importantes en la historia, ya que ha influido en el diseño de los ordenadores de años posteriores. El arquitecto jefe del S/360 fue Gene Amdahl.
1968   ROBERT NOYCE Y GORDON MOORE FUNDAN INTEL CORPORATION.
Intel Corporation es el mayor fabricante de circuitos integrados del mundo, según su cifra de negocio anual. La compañía es la creadora de la serie de procesadores x86, los procesadores más comúnmente encontrados en la mayoría de las computadoras personales. Intel fue fundada el 18 de julio de 1968 como Integrated Electronics Corporation (aunque un error común es el de que "Intel" viene de la palabra intelligence) por los pioneros en semiconductores Robert Noyce y Gordon Moore, y muchas veces asociados con la dirección ejecutiva y la visión de Andrew Grove.
Intel fue fundada en Mountain View (California) en 1968 por Gordon E. Moore (químico y físico, famoso por su "Ley de Moore") y Robert Noyce (físico y co-inventor del circuito integrado) cuando salieron de Fairchild Semiconductor. El tercer empleado de Intel fue Andy Grove,un ingeniero químico, que dirigió la compañía durante la mayor parte de los años 1980 y del período de alto crecimiento de los 1990.
Moore y Noyce inicialmente quisieron llamar a la compañía "Moore Noyce"., pero sonaba mal (ya que en inglés suena como More Noise, que literalmente significa: Más Ruido, un nombre poco adecuado para una empresa electrónica, ya que el ruido en electrónica suele ser muy indeseable y normalmente se asocia con malas interferencias). Utilizaron el nombre NM Electronics durante casi un año, antes de decidirse a llamar a su compañía Integrated Electronics (en español Electrónica Integrada), abreviado "Intel".7 Pero "Intel" estaba registrado por una cadena hotelera, por lo que tuvieron que comprar los derechos para poder utilizarlo.
1969   KENNETH THOMPSON Y DENNIS RITCHIE CREAN EL SISTEMA OPERATIVO UNIX, EN LOS LABORATORIOS AT&T.
Unix (registrado oficialmente como UNIX®) es un sistema operativoportable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc. Sólo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.
Historia
Ken Thompson y Dennis Ritchie, creadores de Unix.A finales de 1960, el Instituto Tecnológico de Massachusetts, los Laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Information and Computing System),3 desarrollado para ejecutarse en una computadora central (mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos.
Uno de los programadores de los laboratorios Bell, Ken Thompson, siguió trabajando para la computadora GE-635 y escribió un juego llamado Space Travel, (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida.
1971   IBM CREA EL DISQUETE DE 8 PULGADAS.
Orígenes, el disco de 8 pulgadas
Un lector de disquetes de 8 pulgadas con un disquete parcialmente insertado.En 1967, IBM encomendó a su centro de desarrollo de almacenamiento de San José (California) una nueva tarea: desarrollar un sistema sencillo y barato para cargar microcódigo en los System/370 de sus ordenadores centrales.
Uso en la actualidad
Esta unidad está quedando obsoleta y son muchos los computadores que no la incorporan, por la aparición de nuevos dispositivos de almacenamiento más manejables, que además disponen de mucha más memoria física, como por ejemplo las memorias USB. Una memoria USB de 1 GB (Gigabyte) de memoria equivale aproximadamente a 900 disquetes. Algunos países siguen utilizando estos medios de almacenamiento para presentaciones impositivas anuales, como por ejemplo, la Provincia de Santa Fe, Argentina.
No obstante, estos medios de almacenamiento siguen siendo de una gran utilidad como discos de arranque en caso de averías o emergencias en el sistema operativo principal o el disco duro, dado su carácter de estándar universal que en los IBM PC compatibles no necesita ningún tipo de controladora adicional para ser detectados en el proceso de carga por la BIOS y dado que, a diferencia del CD-ROM, es fácilmente escribible.
1972   APARECEN LOS DISQUETES DE 5.25 PULGADAS.
Podía almacenar una pequeña cantidad de datos comparados con lo que sacaron más adelante las disqueteras y disquetes de 5¼ pulgadas. Estas utilizaban la misma tecnología de base y se llegaron a fabricar en varias versiones, siendo las más populares las de Doble Cara/Doble Densidad DS/DD, con una capacidad de 360 kilobytes.
En este formato el tamaño máximo que llegó a fabricarse fue el de alta densidad HD, con una capacidad de 1,2 MB.Por regla general las disqueteras de 5¼ y 3½ las reconoce el sistema operativo sin problemas, ya que la BIOS trae incorporadas las rutinas de manejo (se acceden mediante la Int 13h). La BIOS viene configurada de fábrica para que primero arranque con la unidad A
1972   SEYMOUR CRAY CONSIDERA QUE EL SOFTWARE PODRÍA SER MÁS POTENTE EN ORDENADORES MONO PROCESADORES POR MEDIO DEL PROCESAMIENTO EN PARALELO. NACE ASÍ EL CRAY 1.
El Cray-1 fue un superordenador diseñado por un importante número de informáticos encabezados por Seymour Cray para Cray Research. El primer sistema Cray-1 fue instalado en el laboratorio nacional de Los Álamos en 1976. Es uno de los supercomputadores más conocidos y exitosos de la historia, y de los más potentes en su época.
Anunciado en 1975, desató una escalada de ofertas por parte del Laboratorio Nacional de Los Álamos y el Lawrence Livermore, ganando finalmente el primero. A lo largo de los años, la empresa Cray Research esperaba vender una docena de superordenadores Cray-1, a un precio de entre 5 y 8 millones de dólares, pero finalmente vendió más de ochenta. La máquina dio la fama a Seymour Cray y a Cray Research, siendo continuada en diversas versiones hasta los años 90.
Como características técnicas, la primera versión (Cray-1A) operaba con procesadores vectoriales a 80 MHz, era un sistema de 64-bits y pesaba 5,5 toneladas, incluyendo el sistema de refrigeración por freón; pese a su gran tamaño solo tenía 16 MB de RAM.
CUARTA GENERACIÓN
La denominada Cuarta Generación (1971 a la fecha) es el producto del micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.
(resumen- con microprocesador) Fase caracterizada por la integración de los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina.
1975   SE COMERCIALIZAN EL ALTAIR 8800, CONSIDERADO EL PRIMER ORDENADOR PERSONAL.
La Altair 8800 de MITS fue un microordenador diseñado en 1975, basado en la CPUIntel 8080A. Se vendía como un kit a través de la revista Popular Electronics, los diseñadores planearon vender solo unos pocos cientos de ejemplares a los aficionados, y se sorprendieron al vender diez veces esa cantidad solo en el primer mes. Hoy en día, la Altair es ampliamente reconocida como la chispa que condujo a la revolución del computador personal durante los años siguientes: El bus de computador diseñado para la Altair se convirtió en un estándar de facto conocido como el bus S-100. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por Bill Gates y Paul Allen, quienes inmediatamente después fundarían Microsoft.
El kit fue primero anunciado en la edición de enero de 1975 de la Popular Electronics. La coordinación parecía justo a tiempo. Los aficionados de la electrónica se trasladaban a las computadoras en la medida que más y más electrónica se volvía digital, pero ellos se veían frustrados por la baja potencia y flexibilidad de los pocos kits que ya estaban en el mercado. La Altair tenía suficiente fuerza para ser realmente útil, y fue diseñada alrededor de un sistema expandible que la abrió a toda clase de experimentos. La idea de MITS era salir de la bancarrota, y se contentaba con vender el primer año unos 200 de estos kits, por lo que publico un aviso en la revista Popular Electronics. El éxito fue tan grande, que vendieron más de 2000 el primer mes, incluyendo 200 en un solo día.
1975   BILL GATES Y PAUL ALLEN FUNDAN MICROSOFT.
Microsoft es una compañía multinacional dedicada a la tecnología informática. La Historia de Microsoft comienza el 4 de abril de 1975, cuando fue fundada por Bill Gates y Paul Allen en Albuquerque.1 Sus mejores productos actúales en venta son su sistema operativo Windows y su suite ofimática Microsoft Office.
En sus inicios en el año 1980, Microsoft formó una importante unión con IBM la cual permitió ligar el sistema operativo de Microsoft con los ordenadores de IBM, pagando a Microsoft los derechos de cada venta. En 1985, IBM solicito a Microsoft que hiciera un nuevo sistema operativo para sus ordenadores llamado OS/2. Microsoft hizo el sistema operativo, pero continuó vendiendo su propia versión en directa competición con el OS/2. La versión de Microsoft eclipsó al OS/2 en términos de ventas. Cuando Microsoft lanzó sus versiones de Windows en los años 90, ya había capturado el 90% de la cuota de mercado de los ordenadores personales del mundo.
A fecha de 2007, Microsoft tiene un crédito anual de 51, 12 millones de $ y casi 79.000 empleados en 102 países. Desarrolla, fabrica, licencia y apoya una amplia gama de productos de software y hardware para los dispositivos informáticos.
Después de leer el 1 de enero de 1975 que Popular Electronics había creado el Altair 8800, Bill Gates llamó a los creadores del nuevo microordenador, MITS, y ofreció demostrar la implementación del lenguaje de programaciónBASIC para el sistema.5 Después de desarrollarlo en las ocho semanas siguientes junto con Allen, el intérprete funciono en la versión parcial del programa y MITS acordó distribuir Altair BASIC. Gates dejó la Universidad Harvard y se trasladó a Albuquerque, Nuevo México donde se encontraba el MITS, y fundo Microsoft allí.
El nombre Microsoft (una palabra combinada de microordenador y software) fue usado por primera vez en una carta de Gates a Allen el 29 de noviembre de 1975 y el 26 de noviembre de 1976 se convirtió en marca registrada. La primera oficina internacional de la compañía fue fundada el 1 de noviembre de 1978 en Japón, llamada ASCII Microsoft (ahora llamado Microsoft Japón).
El 1 de enero de 1979 la compañía se trasladó de Albuquerque a Belleveu, Washington. Steve Ballmer inauguró la sede de la compañía el 11 de junio de 1980, este más adelante sustituiría a Gates como gerente. La compañía se reestructuró el 25 de junio de 1981 para convertirse en una compañía incorporada en el estado de Washington (de ahí cambio su nombre a “Microsoft Inc”). Como parte de la reestructuración, Bill Gates se convirtió en el presidente de la compañía y Paul Allen en vicepresidente ejecutivo.
1976   STEVE JOBS Y STEVE WOZNIAC FUNDAN LA APPLE COMPUTER, INC.
Steve Jobs y Steve Wozniak se conocieron en 1971, cuando un amigo mutuo, Bill Fernández, presentó a Wozniak, quien tenía 21 años de edad, a Jobs, entonces de 16 años. Steve Wozniak, a quien le gustaba que le llamaran Woz, siempre había sentido una gran atracción por la electrónica en general, diseñando desde que era pequeño circuitos en papel para después tratar de optimizarlos al máximo. Dada su afición por la electrónica, Woz "apadrinaba" a otros chicos a los que les gustase el tema, como Bill Fernández o el mismo Steve Jobs.Pronto Wozniak empezó a dedicar cada vez más y más tiempo a construir en papel su propia computadora. Tras intentos relativamente infructuosos, finalmente sus esfuerzos dieron como resultado lo que sería la Apple I. Tras la presentación de su computadora en el club informático Homebrew Computer Club y asombrar a sus participantes, Jobs rápidamente vio la oportunidad de negocio, por lo que empezó a promocionar la computadora entre otros aficionados de la informática del Homebrew Computer Club y otras tiendas de electrónica digital.


Al poco tiempo empezaron a recibir pequeños encargos de computadoras que construían ellos mismos con máquinas hechas a mano, llegando a vender unos 200 ejemplares de su máquina Apple I. Se les unieron más amigos, pero las prestaciones del Apple I eran limitadas, así que empezaron a buscar financiación. Finalmente, Jobs conoció a Mike Markkula, que accedió a invertir 250.000$ USD, creándose así el 1 de abril de 1976, Apple Computer, a través de un contrato firmado, el mismo, se subastó el 13 de diciembre de 2011 en Nueva York, que tuvo como base un valor inicial de entre 100 y 150 mil dólares, que alcanzó un valor de 1.594.500 dólares.
En total, se produjeron y se vendieron alrededor de doscientas unidades a 666.66$ USD la unidad, pero el éxito fue tal que no pudieron dar abasto a tanta demanda. Las características del Apple I eran limitadas por el poco dinero del que disponían Jobs y Wozniak. De hecho, para construir el prototipo, Jobs tuvo que vender su camioneta y Woz su calculadora programable HP.
1977   SE PRESENTA LA APPLE II, EL SEGUNDO ORDENADOR PERSONAL DE LA HISTORIA.
Con el dinero ganado gracias a la venta del Apple I, en Apple se pudo comenzar a pensar en una máquina bastante más ambiciosa: el Apple II. Para Wozniak, la Apple II iba a ser simplemente la computadora que hubiera querido construir si no hubiera tenido las limitaciones económicas que tuvo con el Apple I. Tuvo la idea de incluir en el equipo memoria de vídeo para administrar la visualización en color, del mismo modo que incluía numerosas tarjetas de expansión de modo que los usuarios pudieran ampliar las capacidades de la computadora según sus propias necesidades.
Con el diseño del primer prototipo del Apple II recién terminado, Apple decidió asistir al festival informático Personal Computing Festival, un nuevo certamen. Allí, la incipiente industria de la microinformática podía mostrar sus progresos y hacer negocio y contactos.
La gran mayoría de máquinas y empresas dedicadas a la microinformática en 1976, y por consiguiente prácticamente todas las que formaban el festival, eran en general jóvenes fanaticos de la informatica con kits que los usuarios debían montar y/o soldar para poder hacer funcionar, por lo tanto enfocadas sobre todo a los entusiastas de la electrónica. Sin embargo, Processor Technology ofrecía una imagen mucho más seria y profesional, y su Sol era una computadora que si bien estaba enfocado, al igual que los demás, como un kit que debía montarse, también se daba la posibilidad de adquirirla como computadora ya montada y lista para utilizar.
Fue entonces cuando Steve Jobs comprendió que el futuro no estaba en placas con componentes que los usuarios debieran montar y soldar ellos mismos, sino en computadoras como el Sol, ya montadas y preparadas para el uso y disfrute de los usuarios. Por lo tanto, el Apple II, el cual aún no había salido a la venta, debía incorporar la salida de vídeo, el teclado y todo aquello que necesitara en una caja de plástico para hacer que su uso fuera más sencillo.
Si bien Steve Wozniak era el diseñador de toda la lógica y la electrónica del Apple II, Steve Jobs era el creador del concepto y la visión de futuro de Apple, buscando al mismo tiempo la forma de crear un producto que pudiera satisfacer a todos los usuarios, y no sólo a los más técnicos. Aparte de la decisión de vender el Apple II como un conjunto perfectamente empaquetado, otras importantes decisiones suyas fueron la de invertir en mejores sistemas de alimentación eléctrica y control del calentamiento del equipo, siendo el Apple II una computadora completamente silenciosa gracias a que no necesitaba ventiladores para controlar su temperatura.
Pero concebir tal máquina suponía mucho dinero y personal cualificado, algo que no tenían. Ningún banco quería arriesgarse en tal proyecto, y menos en aquellos tiempos: una computadora utilizable por el gran público parecía absurdo en la época, puesto que los bienes posibles de los habitantes, eran escasos para comprar este tipo de tecnología. Ronald Wayne, que había ayudado a Jobs y Wozniak a concebir el Apple I, era escéptico sobre las oportunidades de éxito de tal proyecto y abandonó a la compañía. Jobs conoció finalmente a Mike Markkula en 1977, quien aportó su peritaje en asuntos y un cheque de $250.000.00 USD al capital de Apple. También proporcionó en esa ocasión su primer Presidente a Apple, Mike Scott.
QUINTA GENERACIÓNEl modelo final de Apple II se presentó al público en abril de 1977 convirtiéndose en el canon de lo que debía ser a partir de entonces una computadora personal. Por este motivo, Apple cambió su logotipo por el famoso logo de la manzana coloreada, que recordaba que el Apple II era uno de las primeras computadoras en disponer de monitor en color. A mediados de 1979, Apple presentó el Apple II+, una evolución del Apple II dotada, en particular, con más memoria (48 Kb ampliable a 64 Kb) y lenguaje de programación BASIC.




La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
Surge la PC tal y cual la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona en el sector informativo. En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
ü  Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
ü  Se desarrollan las supercomputadoras. Inteligencia artificial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora. Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas. Sistemas expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. Redes de comunicaciones: Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
1981   SE COMERCIALIZA EL IBM PC.
El 12 de agosto de 1981, IBM lanzó el IBM Personal Computer (IBM PC).El IBM PC usó el, entonces nuevo, procesador Intel 8088. Como otros CPU de 16 bits, podía accesar hasta 1 megabyte de RAM, pero usaba un bus de datos de 8 bit de ancho para la memoria y los periféricos. Este diseño permitió el uso de la familia grande, fácilmente disponible, y relativamente barata, de chips de soporte de 8 bits. IBM decidió usar el Intel 8088 después de primero considerar el Motorola 68000 y el Intel i8086, porque los otros dos eran considerados que eran demasiado poderosos para sus necesidades. La reputación de IBM en la computación de negocios, combinada con un rápido mercado de periféricos de terceros y de la introducción posterior de sistemas compatibles al IBM PC por parte de otros proveedores, permitió que la arquitectura del IBM PC tomara una substancial cuota del mercado de aplicaciones empresariales.
Muchas otras compañías de ese entonces también estaban haciendo "computadores personales de negocios" usando sus diseños propietarios, algunos todavía usando los microprocesadores de 8 bits. Los que usaron los procesadores Intel x86 con frecuencia usaban el sistema operativo MS-DOS o el CP/M-86, de la misma manera que los sistemas de 8 bits con un CPU compatible del Intel 8080 normalmente usaron el CP/M.
Sistemas lanzados poco después del IBM PC
Poco después de que el IBM PC fue lanzado, apareció una división obvia entre los sistemas que optaron usar un procesador compatible x86, y los que eligieron otra arquitectura. Casi todos los sistemas x86 proporcionaron una versión del MS-DOS. Los otros usaron diferentes sistemas operativos, aunque los sistemas basados en el Z80 típicamente ofrecieron una versión del CP/M. El uso común del MS-DOS unificó los sistemas basados en x86, promoviendo el crecimiento del "ecosistema" x86/MS-DOS.
A medida que murieron las arquitecturas no x86, y los sistemas x86 se estandarizaron en clones completamente compatibles con el IBM PC, un mercado lleno con docenas de diferentes sistemas compitiendo, fue reducido a una casi mono cultura de compatibles del IBM PC y del MS-DOS.
1981   MICROSOFT PRESENTA EL SISTEMA OPERATIVO MS-DOS (MICROSOFT DISK OPERATING SYSTEM).
MS-DOS (siglas de MicrosoftDisk Operating System, Sistema operativo de disco de Microsoft) es un sistema operativo para computadores basados en x86. Fue el miembro más popular de la familia de sistemas operativos DOS de Microsoft, y el principal sistema para computadoras personalescompatible con IBM PC en la década de 1980 y mediados de 1990, hasta que fue sustituida gradualmente por sistemas operativos que ofrecían una interfaz gráfica de usuario, en particular por varias generaciones de Microsoft Windows.
MS-DOS nació en 1981 al encargársele a Microsoft producir un sistema operativo para la gama de computadores personales IBM PC de IBM. En este momento, Microsoft compró los derechos de QDOS, también conocido como 86-DOS,1 de Seattle Computer Products, y comenzó a trabajar en las modificaciones para poder cumplir con los requerimientos de IBM. La primera edición, MS-DOS 1.0, fue presentada en 1982.2 La versión incluida en los PC's de IBM fue conocida como PC DOS. Aunque MS-DOS y PC-DOS fueron desarrollados por Microsoft e IBM en paralelo, los dos productos se separaron con el tiempo.
Historia
MS-DOS se desarrolló a partir de QDOS, Quick and Dirty Operating System, también conocido como 86-DOS. Su desarrollo se inició oficialmente en 1981 y fue lanzado en 1982 como MS-DOS 1.0. Tuvo ocho versiones principales y alcanzó gran difusión pero fue gradualmente reemplazado por sistemas operativos que ofrecían una interfaz gráfica de usuario (GUI), en particular, por varias generaciones del sistema operativo Microsoft Windows.
1981   SONY CREA DISQUETES DE 3.5 PULGADAS.
También fue usado en la industria de los videojuegos, cuando Nintendo hizo un formato propio de disquete, parecido al actual de 3 1/2, para usar con un periférico diseñado para la consola Famicom llamado Famicom Disk Drive. No obstante, sólo se lanzo en Japón. También se vendían disquetes en blanco, para grabar juegos en la calle, mediante máquinas automáticas instaladas en algunos lugares de Japón.
Las disqueteras de 3,5 pulgadas, inventadas por Sony, fueron utilizadas por primera vez en un equipo propietario fabricado por la compañía. Con la aparición del estándar MSX casi en ese mismo momento (año 1983), estos disquetes fueron introducidos en la norma como un estándar, convirtiéndola en el primer sistema informático comercial en utilizarlas; El primer modelo de disquetera MSX que se fabricó fue de simple cara, es decir, 360KB de capacidad, con lo que se configuraba el sistema básico de bajo coste. Pero este también podía utilizar los discos de 720KB de doble cara con un formato idéntico al IBM PC, por lo que la transferencia de información entre las dos plataformas se hacía de manera transparente.
1982   APARECE EL PRIMER CLÓNICO DEL IBM PC.
Se denomina Compatible IBM PC o IBM PC compatible a un tipo de ordenadores similares al IBM PC, IBM Personal Computer XT e IBM Personal Computer/AT. Estos ordenadores también llamados PC clones, IBM clones o clónicos, se denomina así porque casi duplican exactamente todas las características importantes de la arquitectura PC, hecho facilitado por la posibilidad de realizar legalmente ingeniería inversa de la BIOS mediante el diseño de sala limpia por parte de varias compañías. Columbia Data Products construyó el primer clon de un IBM PC mediante una implementación de sala limpia de la BIOS.
Muchos de los primeros compatibles IBM PC utilizan el mismo bus que los IBM PC e IBM AT originales. El bus compatible IBM AT es posteriormente llamado Bus ISA por los fabricantes de ordenadores compatibles.Los descendientes de los compatibles IBM PC constituyen la mayoría de las computadoras personales del mercado actual, pese a que la interoperabilidad con la estructura de bus y periféricos de la arquitectura PC original sea limitada o inexistente.
Los "clones" del IBM PC se crearon sin la participación o aprobación de IBM. Columbia imita estrechamente al IBM PC y produce el primer "compatible" PC (es decir, más o menos compatible con el estándar IBM PC) en junio de 1982, seguido al poco por Eagle Computer. COMPAQ Computer Corp. anuncia su primer compatible unos meses después en noviembre de 1982, el COMPAQ Portable. El COMPAQ fue el primer ordenador portable del tamaño de una máquina de coser que es esencialmente 100% compatible. La empresa no podía copiar directamente la BIOS, como resultado de la decisión judicial en el caso Apple v. Franklin, pero sí puede realizar ingeniería inversa de la BIOS de IBM y luego escribir su propia BIOS utilizando el diseño de sala limpia.
1982   FEYNMANN PROPONE LA MECÁNICA CUÁNTICA COMO HERRAMIENTA DE COMPUTACIÓN.
Este término está íntimamente ligado con la computación cuántica, ya que la de coherencia de los qubits representa un problema. Se basa en que los sistemas físicos no residen aislados sino que interactúan con otros, y esta interacción es la que provoca que se deshagan los estados de superposición de los qubits (mientras no interactúe, es un sistema coherente, es decir, se encuentra en una indefinida superposición de estados). A este intervalo de pérdida de coherencia se le asocia que lo que esencialmente es un sistema cuántico lo podamos describir por medio de variables clásicas.
1983   PRIMER ORDENADOR PERSONAL CON INTERFAZ GRÁFICO, LA LISA DE APPLE.
El Apple Lisa fue un revolucionario computador personal diseñado en Apple Computer durante el principio de los años 1980.El proyecto Lisa fue iniciado en Apple en 1978 y lentamente evolucionó para diseñar un poderoso computador personal con una interfaz gráfica de usuario (GUI). El computador Lisa iba a ser dirigido hacia clientes de negocios. Alrededor de 1982, Steve Jobs fue forzado fuera del proyecto Lisa, así que él se unió al proyecto Macintosh. Al contrario de la creencia popular, el Macintosh no es un descendiente directo de Lisa, aunque hay obvias semejanzas entre los sistemas, y la revisión final, Lisa 2/10, fue modificado y vendido como el Macintosh XL.
1984   Sony y Philips crean CD-Rom para los ordenadores.
Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory), es un prensado disco compacto que contiene los datos de acceso, pero sin permisos de escritura, un equipo de almacenamiento y reproducción de música, el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos.
La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada (CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.
Historia
El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshitada Doi, de Sony, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y revolucionario formato de grabación audio que posteriormente se extendería a otros sectores de la grabación de datos.
El sistema óptico fue desarrollado por Philips mientras que la Lectura y Codificación Digital corrió a cargo de Sony, fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las licencias correspondientes para la producción de reproductores y discos.
En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos compactos, los promovió durante el festival de Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados en discos compactos en Europa fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el pianista chileno Claudio Arrau y el álbum The Visitors de ABBA, en 1983 se produciría el primer disco compacto en los Estados Unidos por CBS (Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy Joel. La producción de discos compactos se centralizo por varios años en los Estados Unidos y Alemania de donde eran distribuidos a todo el Mundo, ya entrada la década de los noventas se instalaron fábricas en diversos países.
Capacidad
Un CD-ROM estándar puede albergar 650 o 700 (a veces 800) MB de datos. El CD-ROM es popular para la distribución de software, especialmente aplicaciones multimedia, y grandes bases de datos. Un CD pesa menos de 30 gramos.
Para poner la memoria del CD-ROM en contexto, una novela promedio contiene 60,000 palabras. Si se asume que una palabra promedio tiene 10 letras (de hecho es considerablemente menos de 10 de letras) y cada letra ocupa un byte, una novela por lo tanto ocuparía 600,000 bytes (600 KB). Un CD puede por lo tanto contener más de 1000 novelas. Si cada novela ocupa por lo menos un centímetro en un estante, entonces un CD puede contener el equivalente de más de 10 metros en el estante. Sin embargo, los datos textuales pueden ser comprimidos diez veces más, usando algoritmos compresores, por lo tanto un CD-ROM puede almacenar el equivalente a más de 100 metros de estante.
1985 MICROSOFT ANUNCIA WINDOWS 1.0.
Microsoft Windows 1.0 fue el primer intento de Microsoft de implementar un entorno operativo gráfico multitarea en la plataforma PC. Este producto se remonta a 1981, cuando Microsoft inició un proyecto que se llamó Interface Manager. Fue presentado al público el 10 de noviembre de 1983, de manera oficial y renombrado como Microsoft Windows. En la caja azul se anunciaba un PC con la interfaz gráfica de Windows, con varias ventanas pegadas unas a otras. La estrategia de venta de Microsoft para Windows era proporcionar un nuevo ambiente de desarrollo y un nuevo entorno de software en el que se utilizan imágenes de mapa de bits y un ratón, liberando así al usuario del "método MS-DOS de escribir comandos en el indicador del disco C (C:\)".
Windows 1.01 (fue la primera versión lanzada, ya que la 1.00 tuvo un fallo importante y fue rápidamente retirada) trajo incluido un administrador de archivos, calculadora, calendario, tarjetero de archivos, reloj, libreta de apuntes y emulador de terminal.
Distribución del producto
Windows 1.01 se distribuía en 5 diskettes de 5¼ de 360 KB:
Instalación/Estructura, Utilidades, Fuentes, Aplicativos de Escritorio y Disco del programa.
Tenía soporte para algunos dispositivos apuntadores, para videos CGA, Tarjetas Hércules y EGA, y soporte para alrededor de 19 modelos de impresoras. Aunque era "mejor" que MS-DOS, ya que era más simple y ofrecía menos complicaciones, Windows 1.01 no era de mucha utilidad. No había iconos para los ejecutables o grupos de programa, no tenía soporte real para multitarea, etc.
1988 W. H. SIM FUNDA CREATIVE LABS.
Creative Technology Limited es un fabricante de productos multimedia de computadora con sede en Singapur, donde la firma fue fundada por Sim Wong Hoo (nacido en 1955) el 1 de julio de 1981. Tiene más de 5.000 empleados alrededor del mundo. Sim sigue actuando como CEO de la compañía. La subsidiaria en Estados Unidos de la compañía es conocida como Creative Labs, Inc.
En 1987 Creative lanzó una tarjeta de sonido generadora de sonidos de 12 voces para la arquitectura IBM PC, el Creative Music System (C/MS), con dos chips Philips SAA 1099. Sim personalmente fue de Singapur a Silicon Valley y logró que la división RadioShack de Tandy lanzara al mercado su tarjeta. La tarjeta, sin embargo, no tuvo éxito y perdió la competencia contra la tarjeta AdLib que usaba el chip Yamaha YM3812 (también conocido como OPL2). Además de ser una tarjeta para juegos, la versión AdLib actuaba también como un correcto sintetizador de música, tarea que el C/MS no podía hacer.
1989 CREATIVE LABS PRESENTA LA TARJETA DE SONIDO SOUND BLASTER.
Más tarde, otro intento fue hecho con la Sound Blaster, una tarjeta con el mismo chip encontrado en la tarjeta AdLib y con capacidades adicionales para reproducir audio digital y grabar samples digitales. Creative utilizó una mercadotecnia agresiva, como llamar a la tarjeta como componente "stereo" aunque los componentes C/MS ofrecían stereo, o llamar el sonido producido como "DSP", esperando asociar al producto con un procesador de señal digital.
Esta tarjeta pronto se convirtió en el estándar de facto para las tarjetas de sonido en PC durante varios años, mayormente por el hecho de ser el primero en juntar lo que hoy en día es considerado como parte de las funcionalidades de una tarjeta de sonido: audio digital, sintetizador musical, interfaz MIDI y un puerto joystick.Últimamente, Creative Labs se ha diversificado considerablemente; sus productos incluyen largas líneas de reproductores MP3, sistemas de altavoces, cámaras web, tarjetas gráficas, componentes de redes y pantallas LCD.
Como corporación, Creative se ha encontrado últimamente con una dura competencia. En julio de 2005, las acciones de Creative Technology cayeron a su mínimo histórico de U$S 10,80 como resultado de las pobres ventas del último cuatrimestre del 2004 / primer cuatrimestre del 2005, pese a una fuerte campaña de U$S 100 millones para rivalizar con Apple y su altamente exitoso iPod. Esto representa un cambio significativo al valor de U$S 50 que tenían las acciones de Creative en el año 1998. En agosto de 2005, Creative anunció que las pérdidas para ese cuarto del año serían de U$S 31,9 millones, entrando la empresa en números rojos por primera vez en tres años.
1993 MICROSOFT LANZA AL MERCADO LA PRIMERA VERSIÓN DEL SISTEMA OPERATIVO MULTIUSUARIO DE 32 BITS (CLIENTE-SERVIDOR) WINDOWS NT.
1994 SHOR DESCRIBE UN ALGORITMO CUÁNTICO QUE PERMITIRÍA FACTORIZAR ENTEROS EN TIEMPO POLINOMIAL.
En computación cuántica, el algoritmo de Shor es un algoritmo cuántico para descomponer en factores un número N en tiempo O((log N)3) y espacio O(logN), así nombrado por Peter Shor.Muchas criptografías de clave pública, tales como RSA, llegarían a ser obsoletas si el algoritmo de Shor es implementado alguna vez en una computadora cuántica práctica. Un mensaje cifrado con RSA puede ser descifrado descomponiendo en factores la llave pública N, que es el producto de dos números primos. Los algoritmos clásicos conocidos no pueden hacer esto en tiempo O(Nk) para ningún k, así que llegan a ser rápidamente imprácticos a medida que se aumenta N. Por el contrario, el algoritmo de Shor puede romper RSA en tiempo polinómico. También se ha ampliado para atacar muchas otras criptografías públicas.
Como todos los algoritmos de computación cuántica, el algoritmo de Shor es probabilístico: da la respuesta correcta con alta probabilidad, y la probabilidad de fallo puede ser disminuida repitiendo el algoritmo.El algoritmo de Shor fue demostrado en 2001 por un grupo en IBM, que descompuso 15 en sus factores 3 y 5, usando una computadora cuántica con 7 qubits.
1995 SE SUPERA EL TERAFLOP EN COMPUTACIÓN EN PARALELO.
En informática, las operaciones de coma flotante por segundo son una medida del rendimiento de una computadora, especialmente en cálculos científicos que requieren un gran uso de operaciones de coma flotante. Es más conocido su acrónimo, FLOPS, por el inglés floating point operations per second. FLOPS, al ser un acrónimo, no debe nombrarse en singular como FLOP, ya que la S final alude a second (o segundo) y no al plural.
Las computadoras exhiben un amplio rango de rendimientos en coma flotante, por lo que a menudo se usan unidades mayores que el FLOPS. Los prefijos estándar del SI pueden ser usados para este propósito, dando como resultado megaFLOPS (MFLOPS, 10 FLOPS), gigaFLOPS (GFLOPS, 10 FLOPS), teraFLOPS (TFLOPS, 10 FLOPS), petaFLOPS (PFLOPS, 10 FLOPS), exaFLOPS (EFLOPS, 10 FLOPS).
1995 LANZAMIENTO DE WINDOWS 95 POR PARTE DE MICROSOFT.
Windows 95 es un sistema operativo con interfaz gráfica de usuario híbrido de entre 16 y 32 bits. Fue lanzado al mercado el 24 de agosto de 1995 por la empresa de softwareMicrosoft con notable éxito de ventas. Durante su desarrollo se conoció como Windows 4 o por el nombre Chicago.
Sustituyó a MS-DOS como sistema operativo y a Windows 3.x como entorno gráfico. Se encuadra dentro de la familia de sistemas operativos de Microsoft denominada Windows 9x. En la versión OSR2 (OEM Service Release 2) incorporó el sistema de archivosFAT32, además del primer atisbo del entonces novedoso USB.
1995 APARECE LA PRIMERA VERSIÓN DE MYSQL.
MySQL es un sistema de gestión de bases de datosrelacional, multihilo y multiusuario con más de seis millones de instalaciones.1MySQL AB —desde enero de 2008 una subsidiaria de Sun Microsystems y ésta a su vez de Oracle Corporation desde abril de 2009— desarrolla MySQL como software libre en un esquema de licenciamiento dual.Por un lado se ofrece bajo la GNU GPL para cualquier uso compatible con esta licencia, pero para aquellas empresas que quieran incorporarlo en productos privativos deben comprar a la empresa una licencia específica que les permita este uso. Está desarrollado en su mayor parte en ANSI C.
MySQL es muy utilizado en aplicaciones web, como Drupal o phpBB, en plataformas (Linux/Windows-Apache-MySQL-PHP/Perl/Python), y por herramientas de seguimiento de errores como Bugzilla. Su popularidad como aplicación web está muy ligada a PHP, que a menudo aparece en combinación con MySQL.
MySQL es una base de datos muy rápida en la lectura cuando utiliza el motor no transaccional MyISAM, pero puede provocar problemas de integridad en entornos de alta concurrencia en la modificación. En aplicaciones web hay baja concurrencia en la modificación de datos y en cambio el entorno es intensivo en lectura de datos, lo que hace a MySQL ideal para este tipo de aplicaciones. Sea cual sea el entorno en el que va a utilizar MySQL, es importante monitorizar de antemano el rendimiento para detectar y corregir errores tanto de SQL como de programación.
1996 SE CREA INTERNET2, MÁS VELOZ QUE LA INTERNET ORIGINAL.
Internet2 (I2) o UCAID (University Corporation for Advanced Internet Development) es un consorcio sin fines de lucro que desarrolla aplicaciones y tecnologías de redes avanzadas, la mayoría para transferir información a alta velocidad. Es una red telemática desarrollada principalmente por las universidadesestadounidenses, construida en fibra óptica y permite altas velocidades con una gran fiabilidad. Es llevado por 212 universidades de Estados Unidos y otras 60 compañías tecnológicas1 como Comcast, Microsoft, Intel, AMD, Sun Microsystems y Cisco Systems. Algunas de las tecnologías que han desarrollado han sido IPv6, IP Multicast y Calidad de Servicio (QoS).
1996 SABEER BHATIA Y JACK SMITH FUNDAN MSN HOTMAIL.
Windows Live Hotmail, anteriormente MSN Hotmail, más conocido como Hotmail, es un servicio gratuito de correo electrónico basado en la web operado por Microsoft y parte del grupo Windows Live. Fue fundado por Sabeer Bhatia y Jack Smith. Se puso en marcha en julio de 1996 como "HoTMaiL" financiado por la empresa de capital de riesgo Draper Fisher Jurvetson. Fue uno de los primeros servicios de correo electrónico basado en la web,2 y también uno de los primeros gratuitos. Las letras en mayúscula de su nombre original son una referencia al lenguaje de marcado HTML utilizado en la web. Posteriormente fue adquirido por Microsoft, en 1997, por unos 400 millones de dólares y rebautizado como "MSN Hotmail". La versión actual se anunció oficialmente en el 2005 y se lanzó en todo el mundo en el 2007.
1998 ES LANZADO AL MERCADO EL SISTEMA WINDOWS 98 POR PARTE DE MICROSOFT.
Windows 98 (cuyo nombre en clave es Memphis) es un sistema operativo gráfico publicado el 25 de junio de 1998 por Microsoft y el sucesor de Windows 95. Como su predecesor, es un producto monolítico híbrido de 16 y 32 bits.
La primera edición de Windows 98 fue designada por los números de versión internos 4.10.1998, o 4.10.1998A si había sido actualizado con el CD de seguridad de Microsoft. Windows 98 Segunda Edición está designado por los números de versión internos 4.10.2222A ó 4.10.2222B si había sido actualizado con el CD de seguridad de Microsoft. El sucesor de Windows 98 es Windows Me.
Google Inc. es la empresa propietaria de la marca Google, cuyo principal producto es el motor de búsqueda de contenido en Internet del mismo nombre.
Dicho motor es resultado de la tesis doctoral de Larry Page y Sergey Brin (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford) para mejorar las búsquedas en Internet. La coordinación y asesoramiento se debieron al mexicano Héctor García Molina, director por entonces del Laboratorio de Sistemas Computacionales de la misma Universidad de Stanford.3 El dominio "Google" fue registrado el 15 de septiembre de 1997.4 Partiendo del proyecto concluido, Page y Brin fundan, el 4 de septiembre de 1998, la compañía Google Inc.,5 que estrena en Internet su motor de búsqueda el 27 de septiembre siguiente (considerada la fecha de aniversario). Contaban con un servidor con 80 CPU, y dos routers HP.6 Este motor de búsqueda superó al otro más popular de la época, AltaVista, que había sido creado en 1995.
1999 SE PUBLICA LA PRIMERA VERSIÓN DE MSN MESSENGER.
MSN Messenger fue un programa de mensajería instantánea creado en 1999 y actualmente descontinuado. Fue diseñado para sistemas Windows por Microsoft, aunque después se lanzaría una versión disponible para Mac OS. A partir del año 2006, como parte de la creación de servicios web denominados Windows Live por Microsoft, se cambiaron de nombre muchos servicios y programas existentes de MSN, con lo que Messenger fue renombrado a "Windows Live Messenger" a partir de la versión 8.0.
SIGLO XXI

2000ES LANZADO EL SISTEMA OPERATIVO WINDOWS 2000 POR MICROSOFT.
Windows 2000 es un sistema operativo de Microsoft que se puso en circulación el 17 de febrero de 2000 con un cambio de nomenclatura para su sistema NT. Así, Windows NT 5.0 pasó a llamarse Windows 2000. Fue sucedido por Windows XP para equipos de escritorio en octubre de 2001 y Windows Server 2003 para servidores en abril de 2003.
Windows 2000 es un sistema operativo para empresas y es ideal para ejecutar servidores de red o los servidores de archivo. Dentro de las tareas que puede realizar se incluyen: crear cuentas de usuarios, asignar recursos y privilegios, actuar como servidor web, FTP, servidor de impresión, DNS o resolución de nombres de dominio, servidor DHCP, entre otros servicios básicos. Otra de las funciones que tiene, es como en todo sistema Windows la opción de utilizarlo como una estación de trabajo más de la red. Dicho sistema operativo es muy eficiente y su principal punto fuerte es el Active Directory (Directorio Activo), herramienta desde la cual se puede administrar toda la infraestructura de una organización.
2000 ES LANZADO EL SISTEMA OPERATIVO WINDOWS ME POR MICROSOFT.
Windows Millennium Edition o Windows Me es un sistema operativo gráfico híbrido de 16-bit/32-bit lanzado el 14 de septiembre de 2000 por Microsoft Corporation.
2000 LANZAMIENTO DE MAC OS X.
Mac OS X es un sistema operativo desarrollado y comercializado por Apple Inc. que ha sido incluido en su gama de computadoras Macintosh desde 2002. Es el sucesor del Mac OS 9 (la versión final del Mac OS Classic), el sistema operativo de Apple desde 1984. Está basado en UNIX, y se construyó sobre las tecnologías desarrolladas en NeXT entre la segunda mitad de los 80's y finales de 1996, cuando Apple adquirió esta compañía. Desde la versión Mac OS X 10.5 Leopard para procesadores Intel, el sistema tiene la certificación UNIX 03.
2001SE LANZA EL SISTEMA OPERATIVO WINDOWS XP POR PARTE DE MICROSOFT.
Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, a fecha de noviembre de 2011, tenía una cuota de mercado del 32.8%.4 Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).
Dispone de versiones para varios entornos informáticos, incluyendo para los PC domésticos o de negocios, además de equipos portátiles, "netbooks", "tablet PC" y "centros multimedia". Sucesor de Windows 2000 junto con Windows ME, y antecesor de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.
2002LANZAMIENTO DEL NAVEGADOR WEB MOZILLA FIREFOX, LLAMADO EN UN PRIMER MOMENTO PHOENIX.
Mozilla Firefox es un navegador weblibre y de código abierto descendiente de Mozilla Application Suite y desarrollado por la Fundación Mozilla. Con más de 450 millones de usuarios, es el segundo navegador más utilizado de Internet. Posee una cuota de mercado que se sitúa aproximadamente entre el 20% y 26% para finales de diciembre de 2011, dependiendo de la fuente de medición global, con particular éxito en Europa, especialmente en Alemania y Polonia donde es el más popular con aproximadamente un 51% y 45% de uso, respectivamente
2005LOS USUARIOS DE INTERNET CON CONEXIÓN DE BANDA ANCHA SUPERAN A LOS USUARIOS DE INTERNET CON CONEXIÓN VÍA MÓDEM EN LA MAYORÍA DE PAÍSES DESARROLLADOS.
2005 SE LANZA EL PROGRAMA GOOGLE EARTH.
Google Earth es un programa informático similar a un Sistema de Información Geográfica (SIG), creado por la empresa Keyhole Inc., que permite visualizar imágenes en 3D del planeta, combinando imágenes de satélite, mapas y el motor de búsqueda de Google que permite ver imágenes a escala de un lugar específico del planeta.
2005 CREACIÓN DE YOUTUBE.
YouTube (pronunciación AFI [ˈjuːtjuːb]) es un sitio web en el cual los usuarios pueden subir y compartir vídeos. Fue creado por tres antiguos empleados de PayPal en febrero de 2005.4 En octubre de 2006 fue adquirido por Google Inc. a cambio de 1.650 millones de dólares, y ahora opera como una de sus filiales.
YouTube usa un reproductor en línea basado en Adobe Flash (aunque también puede ser un reproductor HTML, que incorporó YouTube poco después de que la W3Cpresentara y el que los Navegadores web mas importantes soportaran el estándar HTML5) para servir su contenido. Es muy popular gracias a la posibilidad de alojar vídeos personales de manera sencilla. Aloja una variedad de clips de películas, programas de televisión y vídeos musicales. A pesar de las reglas de YouTube contra subir vídeos con derechos de autor, este material existe en abundancia, así como contenidos amateur como videoblogs. Los enlaces a vídeos de YouTube pueden ser también insertados en blogs y sitios electrónicos personales usando API o incrustando cierto código HTML.
2006Lanzamiento del sistema operativo de Microsoft Windows Vista
Windows Vista es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Ésta versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PC y equipos media center.
El proceso de desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue entregado a los fabricantes de hardware y software, clientes de negocios y canales de distribución. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft.
2007LA EMPRESA DELL LANZA AL MERCADO LA PRIMERA COMPUTADORA PORTÁTIL (LAPTOP) CON LA DISTRIBUCIÓN LINUX UBUNTU PREINSTALADA. COMPUTADORA PORTÁTIL U ORDENADOR PORTÁTIL O LAPTOP.
2008APPLE LANZA AL MERCADO LA MACBOOK AIR LA CUAL, AL PARECER, ES LA LAPTOP MÁS DELGADA DEL MUNDO EN ESE MOMENTO.
2008 APPLE LANZA EL MÓVIL MÁS REVOLUCIONARIO DE LA HISTORIA EN TODA EUROPA Y AMÉRICA, EL IPHONE 3G .
Que el nombre del iPhone 3G S sea prácticamente el mismo que el del modelo existente hasta ahora no es casualidad, puesto que no nos encontramos ante la siguiente generación del teléfono móvil de Apple, sino ante un modelo ligeramente renovado pero que mantiene la esencia del mismo.
Por ello, no veremos cambios externos en el diseño y, si no nos fijamos, tampoco los veremos al encenderlo, hasta que nos pongamos a bucear en algunas de sus características. Un año después del lanzamiento del iPhone 3G, Apple no ha querido dejar este de lado y simplemente ha actualizado algunas de sus características, las suficientes como para hacerlo sin subirle el precio.
2008 GOOGLE, CONTRARRESTA A APPLE LANZANDO EL G1 CON SU NUEVO SISTEMA ANDROID PARA MÓVILES.
Android es un sistema operativo móvil basado en Linux, que junto con aplicaciones middleware, está enfocado para ser utilizado en dispositivos móviles como teléfonos inteligentes y tablets. Es desarrollado por la Open Handset Alliance, la cual es liderada por Google.
Fue desarrollado inicialmente por Android Inc., una firma comprada por Google en 2005. Es el principal producto de la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio. Las unidades vendidas de teléfonos inteligentes con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de 43,6% en el tercer trimestre.
2008 LANZAMIENTO DEL NAVEGADOR GOOGLE CHROME.
2009EL 22 DE OCTUBRE SE LANZA EL SUCESOR DE WINDOWS VISTA, EL WINDOWS 7.
Windows 7 es la versión más reciente de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PC, netbooks y equipos media center.2 El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.
2010Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.
USB 3.0 es la segunda revisión importante de la Universal Serial Bus (USB) estándar para la conectividad informática. USB 3.0 tiene una velocidad de transmisión de hasta 5 Gbit/s, que es 10 veces más rápido que USB 2.0 (480 Mbit/s). USB 3.0 reduce significativamente el tiempo requerido para la transmisión de datos, reduce el consumo de energía, y es compatible con USB 2.0. El Grupo Promotor de USB 3.0 anunció el 17 de noviembre de 2008, que la especificaciones de la versión 3.0 se habían terminado e hicieron la transición al Foro de implementadores de USB (USB-IF), la entidad gestora de las especificaciones de USB.1 Este movimiento abre efectivamente la especificación para los desarrolladores de hardware para su aplicación en futuros productos.




No hay comentarios.:

Publicar un comentario