Las
computadoras no han nacido en los últimos años, en realidad el hombre siempre
buscó tener dispositivos que le ayudaran a efectuar cálculos precisos y
rápidos; una breve reseña histórica nos permitirá, comprender cómo llegamos a
las computadoras actuales.
Los
chinos hace más de 3000 años a. C. desarrollaron el ABACO, con éste realizaban
cálculos rápidos y complejos. Éste instrumento tenía un marco de madera cables
horizontales con bolas agujereadas que corrían de izquierda a derecha, como muestra
la figura.
En
el siglo X'VII, el creciente interés, en Europa, por las nuevas ciencias, tales
como la astronomía y la navegación, impulsó a las mentes creativas a
simplificar los cálculos. Habría costado años a los primeros científicos
calcular la vasta cantidad de datos numéricos cuyos patrones estaban intentando
descubrir. En 1614, el escocés John Napier anunció su descubrimiento de los
logaritmos, permitiendo que los resultados de complicadas multiplicaciones se
redujeran a un proceso de simple suma. Muy poco después, en los años 20 del
mismo siglo, se inventó la regla de cálculo, basada en los principios
matemáticos descubiertos por Napier.
PASCAL
en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros
que utilizan en la actualidad los automóviles. Pero ésta tenía algunos
problemas con las sumas largas; pero en 1671 LEIBNITZ le agregó la posibilidad
de: restar, sumar, multiplicar y dividir. Su máquina estaba formada Sobre
ruedas dentadas, cada una de estas ruedas tenía diez dientes, éstos
correspondían a los números de 0 al 9. Siendo el sistema de tal tipo que el
paso de 9 a 0 daba lugar a un salto de la rueda.
Los
conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras
exigían intervención del operador, ya que éste debía escribir cada resultado
parcial en una hoja de papel. Esto era sumamente largo y por lo tanto produce a
errores en los informes
Otra
evolución en esta historia fue la que realizó BABBAGE. Éste diseño y desarrollo
la primera computadora de uso general. Fue un genio pero la Época no lo ayudó
para poder terminar de construirla. Llamo a su descubrimiento "Máquina de
las diferencias". En 1833 concibió una segunda máquina que le Llevó 20
años. Esta era capaz de realizar una suma en segundos y necesitaba un mínimo
tiempo de atención del operador. A esta segunda máquina la llamó
"Analítica". Leibniz aplicó la lógica y la materializó en su exitosa
maquina de calcular.
En
1804, Joseph Jacquard empezó a utilizar un telar que se servía de tarjetas
perforadas para controlar la creación de complejos diseños textiles, (La misma
técnica se utilizaría posteriormente en pianolas y organillos, que
empleaban" Tarjetas perforadas para copiar música de piano, tanto clásica
como popular.
La
primera operación de procesamiento de datos fue Lograda en 1890 por HERNAN
HOLLERICH. Éste desarrolló un sistema mecánico para calcular y agrupar datos de
censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el
censo de población en Estados Unidos en donde se logró por primera vez, que los
resultados fueran conocidos a los dos años y medio, mientras que el censo
anterior se tardó siete años para conocer estos datos.
La
primera mujer programadora fue ADA AUGUSTA BYRON (1815 - 1852) se interesó por
los descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran
filosofía.
LA PREHISTORIA DE LA ERA DE LA COMPUTACION
El hombre primitivo y su contabilidad incipiente
Desde
que el hombre primitivo se convirtió en "homo sapiens sapiens" se
inclinó por las estadísticas y las expresó en la forma de artes gráficas,
creando una incipiente modalidad de cálculo. Graficaba la cantidad de animales
que había cerca a su coto de caza y los guerreros de otros grupos nómades
enemigos.
Una
muestra muy conocida y evidente la constituye los restos arqueológicos, de arte
rupestre, hallados en las famosas cuevas de Altamira en España, donde se
conservan prácticamente intactas, pinturas de bizontes y caballos, entre otras,
con una calidad artística digna de tiempos contemporáneos.
PRIMEROS AÑOS
3000 A.C.
Los primeros vestigios de cálculo realizado
por medios artesanalmente mecánicos, por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC).
Los
babilonios que habitaron en la antigua Mesopotamia, empleaban unas pequeñas
bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" y
que eran agrupadas en carriles de caña.
Más
aún, en 1800 AC un matemático
babilonio inventó los algoritmos que le permitieron resolver problemas de
cálculo numérico. El intercambio comercial y las conquistas bélicas entre los
pueblos del mundo antiguo, permitieron que el invento de los babilonios, se
transmitiesen a otros grupos culturales a través del tiempo, permitiendo de
este modo que con los aportes respectivos, se mejorasen sus diseños.
El matemático e
ingeniero persaMusa al-Juarismo(780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de
álgebra y cálculo numérico
mediante una lista bien definida, ordenada y finita de operaciones a fin de
hallar la solución al problema.
3500
A.C. SE INVENTA EL ABACO (EN BABILONIA), PRIMERA MAQUINA PARA REALIZAR CALCULOS
EL
ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado
que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la
prueba del tiempo.
Fueron
los egipcios quienes 500 años AC inventaron el primer dispositivo para
calcular, basado en bolillas atravesadas por alambres. Posteriormente, a
principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al
cual le agregaron un soporte tipo bandeja, poniéndole por nombre San-pan. El
Abaco permite realizar sumar, restar, multiplicar y dividir.
Un ábaco
es un objeto que sirve para facilitar cálculos sencillos (sumas, restas y
multiplicaciones) y operaciones aritméticas. También
es un cuadro de madera con barras paralelas por las que corren bolas movibles y
que sirve para enseñar el cálculo. Su origen se remonta a la zona de Asia
Menor, muchos años antes de nuestra era.
Etimología
El
término "ábaco" es una palabra existente en varios idiomas, con
diversos posibles orígenes etimológicos discutidos. En latín se empleaban los
términos abacus y el plural
respectivo, abaci. En la lengua
griega se usaba abax o abakon, que
significan "superficie plana" o "tabla". Otro probable
origen es la palabra semíticaAbaq que significa "polvo". En la lengua Tamazigt
(berber) aún hoy en algunos dialectos abaq
significa semilla.
Definición
Es
un instrumento de cálculo que utiliza cuentas que se deslizan a lo largo de una
serie de alambres o barras de metal o madera fijadas a un marco para
representar las unidades, decenas, centenas, unidades de millar, decenas de
millar, centenas de millar, etcétera. Fue inventado en Asia menor, y es
considerado el precursor de la calculadora digital moderna. Utilizado por
mercaderes en la Edad Media a través de toda Europa y el mundo árabe, fue
reemplazado en forma gradual por la aritmética basada en los números
indo-árabes. Aunque poco usado en Europa después del siglo XVIII, todavía se
emplea en Medio Oriente, Rusia, China, Japón y Corea.
1617JOHN
NAPIER INVENTA SUS VARILLAS DE NUMERACION(O HUESOS DE NAPIER)
Transcurrieron
1300 años antes de que se inventase algún dispositivo vinculado al cálculo y es
sólo entre los siglos XIV al XIX que se suceden una serie de eventos e
importantes aportes, tal como veremos a continuación.
En 1617 justo antes de morir, el matemático escocésJohn Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones
aritméticas manipulando barras, a las que llamó "huesos" ya que
estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su
naturaleza, se llamó al sistema "huesos de Napier" (ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco
años más tarde) y las máquinas calculadoras subsecuentes, que contaron con
logaritmos.
La numeración
con varillas (chino
tradicional: 籌, chino
simplificado: 筹, pinyin:
chóu) es el método de utilizar
varillas pequeñas, que típicamente miden 3 - 14 cm, para cálculos
en China,
Japón,
Corea
y Vietnam.
Son puestos horizontal o verticalmente para representar cualquier número y
fracción.
Historia
Las
varillas de numeración fueron utilizadas por los antiguos Chinos durante más de
2.000 años. En 1954, cerca de cuarenta varillas de numeración del
periodo de los Reinos Combatientes
fueron encontradas en la tumba Chǔ número 15 de
Zuǒjiāgōngshān en Changsha, Hunan.
El
uso de las varillas de numeración debe ser anterior a este. Laozi,
quien probablemente vivía durante el siglo IV a. C., dijo que «un
buen calculista no utiliza las varillas de numeración».Tras la aparición del ábaco,
se abandonó el uso de las varillas de contar excepto en Japón,
donde de la numeración con varillas se desarrolló una notación simbólica para
el álgebra.
1621
INVENCION DE LA REGLA DE CÁLCULO.
La regla
de cálculo es un instrumento de cálculo que dispone de varias escalas
numéricas, para facilitar la rápida y cómoda realización de operaciones
aritméticas complejas, como puedan ser multiplicaciones, divisiones, etc. A
cambio de ello, no ofrece más que una precisión limitada.
Su época de esplendor duró más de un siglo, el periodo comprendido entre la
segunda mitad del siglo XIX y el primer cuarto del XX, aunque había sido
inventada mucho antes. La regla de cálculo fue sustituida paulatinamente por
las calculadoras y los ordenadores
electrónicos conforme fueron avanzando los últimos decenios del siglo XX.
Las
reglas de cálculo cayeron en desuso con la popularización de la computadora
electrónica. En ingeniería, sucedió fundamentalmente con la aparición en el
mercado del modelo HP-35 de Hewlett-Packard en 1972. Hacia 1980 había cesado prácticamente
la producción de reglas de cálculo, aunque todavía siguen fabricándose
instrumentos de este tipo en pequeñas cantidades para usos muy específicos en
sectores industriales, de navegación marítima y aérea o para atender a un
minoritario mercado de aficionados y coleccionistas.
La
regla
La
regla de cálculo consta de 3 partes, como puede apreciarse en la imagen,
perteneciente a un modelo estudiantil corriente de finales del siglo XX.Hay en
primer lugar, un soporte básico o cuerpo, generalmente paralelepipédico, que
tiene una ranura longitudinal profunda en su parte central, lo que determina la
aparición de dos sub-unidades, a saber, una regleta superior y otra inferior,
más estrechas. En algunos modelos, como en el reproducido a la derecha, se trata
efectivamente de dos piezas independientes, vinculadas entre sí rígidamente por
abrazaderas situadas en sus extremos. Por la ranura central se desliza otra
pieza en forma de regleta de menor tamaño, también llamada corredera.
1624
WILHELM SCHICKARD CONSTRUYE LA PRIMERA CALCULADORA MECANICA.
La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamada "reloj calculador", la máquina
incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un reloj calculador
para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego
antes de que se terminara.
LA
PASCALINA el inventor y pintor Leonardo
Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el
filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y
construyó la primera sumadora mecánica.
Se
le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A
pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina,
resultó un desconsolador fallo financiero, pues para esos momentos, resultaba
más costosa que la labor humana para los cálculos aritméticos.
La primera regla deslizante fue
inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción")
era un juego de discos rotatorios que se calibraron con los logaritmos de
Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un
siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
La Pascalina
es una de las primeras calculadoras mecánicas, que funcionaba a
base de ruedas y engranajes. Fue inventada por Blaise Pascal tras tres años de trabajo
sobre la misma. Se fabricaron varias versiones y Pascal en persona construyó
unos cincuenta ejemplares.
El
primer uso de la Pascalina fue en la Hacienda francesa, debido a que Pascal
diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad.
Debido a ello la Pascalina estaba destinada básicamente a solucionar problemas
de aritmética comercial.En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz perfeccionó esta máquina e inventó una que también
podía multiplicar.
La
Pascalina se construyó en variedades decimales y no-decimales, que existen
actualmente en museos. El sistema de moneda francés contemporáneo era similar a
las libras imperiales ("livres"),
chelines ("sols") y
peniques ("deniers"),
que funcionaron en Gran Bretaña
hasta los años 70.
1666SAMUEL MORLAND INVENTA LA PRIMERA MÁQUINA DE MULTIPLICAR EN LA CORTE
DEL REY CARLOS II DE INGLATERRA. EL APARATO CONSTÓ DE UNA SERIE DE RUEDAS, CADA UNA DE
LAS CUALES REPRESENTABA DECENAS, CENTENAS, ETC. UN ALFILER DE ACERO MOVÍA LOS
DIALES PARA EJECUTAR LOS CÁLCULOS. A DIFERENCIA DE LA PASCALINA, ESTE APARATO
NO TENÍA AVANCE AUTOMÁTICO DE COLUMNAS.
En 1657, Morland contrajo matrimonio
con Suzanne de Milenilla, hija de un barón francés. Esto hizo que se
fortaleciera la unión de Morland con Francia. Fue allí donde se le considera un
experto en la construcción de dispositivos mecánicos. Sobre 1681 se le contrató
como consultor para el sistema de suministro de agua de Versalles. Se sabe que
era un espía del Rey Carlos II de Inglaterra, y que además llegó a salvarle la
vida denuncia algún plan para acabar con él. Es por ello que cuando Carlos II
retomó el poder, Morland fue un gran beneficiado ya que recibió muchos honores
y se le concedió una pensión por sus servicios. Es en este instante y cuando se
ve liberado de la necesidad de trabajar cuando, Morland, se dedica por completo
a inventar dispositivos mecánicos. Algunas de sus invenciones son máquinas de
cálculo, estufas portátiles de vapor o bombas para el agua.
Su máquina de múltiplicar, servía como
ayuda para la multiplicación y división. Basa su funcionamiento en los mismos
principios que lo hacen los huesos de John Napier.
Constaba de una placa de bronce plana con una compuerta articulada perforada y
varios puntos semi-circulares sobre los cuales podían colocarse discos planos.
Los discos eran simplemente una
versión circular de los huesos de Napier con los productos colocados alrededor
de su perímetro de tal forma que los dos dígitos de un número quedaban en los
extremos opuestos de una diagonal. La máquina venía con 30 discos para efectuar
multiplicaciones y 5 discos especiales adicionales (marcados con las letras
Q/QQ) que se usaban para calcular raíces cuadradas y cúbicas.
1673 GOTTFRIED WILHELM LEIBNIZ DISEÑA Y CONSTRUYE
UNA MÁQUINA MECÁNICA PARA REALIZAR CÁLCULOS ARITMÉTICOS. EL SISTEMA DISEÑADO
POR LEIBNIZ SE USÓ EN AÑOS POSTERIORES PARA FABRICAR CALCULADORAS MECÁNICAS.
El matemático alemán Gottfried Leibniz inventa la primera calculadora de propósito general. El
aparato era una partida de la Pascalina; mientras opera usa un cilindro de
dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el
aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de
fiabilidad que disminuyó su utilidad.
1777 CHARLES MAHON INVENTA LA PRIMERA MÁQUINA LÓGICA, EL "DEMOSTRADOR
LÓGICO". ERA UN APARATO DE BOLSILLO QUE RESOLVÍA SILOGISMOS TRADICIONALES
Y PREGUNTAS ELEMENTALES DE PROBABILIDAD. MAHON ES EL PRECURSOR DE LOS
COMPONENTES LÓGICOS EN COMPUTADORAS MODERNAS.
1800 TARJETAS PERFORADAS DE JACQUARD.
El francés Joseph Marie Jacquard, utilizó un mecanismo de
tarjetas perforadas para controlar el dibujo formado por los hilos de las telas
confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos
perforados permitían programar las puntadas del tejido, logrando obtener una
diversidad de tramas y figuras. Inspirado por instrumentos musicales que se
programaban usando papel agujereado, la máquina se parecía a una atadura del
telar que podría controlar automáticamente los dibujos usando una línea de
tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda,
estaba por formar la base de muchos aparatos de la informática e idiomas de la
programación.
La tarjeta
perforada es una cartulina con unas determinaciones al estar
perforadas, lo que supone un código binario.
Estos fueron los primeros medios utilizados para ingresar información e
instrucciones a un computador en los años 1960 y 1970.
Actualmente
las tarjetas perforadas han caído en el reemplazo por medios magnéticos y
ópticos de ingreso de información. Sin embargo, muchos de los dispositivos de
almacenamiento actuales, como por ejemplo el CD-ROM también se basa
en un método similar al usado por las tarjetas perforadas, aunque por supuesto
los tamaños, velocidades de acceso y capacidad de los medios actuales no
admiten comparación con las viejas tarjetas.
Historia
Las
tarjetas perforadas fueron usadas por primera vez alrededor de 1725 por Basile
Bouchon y Jean-Baptiste Falcon como una forma más robusta de los rollos de
papel perforados usados en ese entonces para controlar telares
textiles en Francia. Esta técnica fue enormemente mejorada por Joseph Marie Jacquard en su telar de Jacquard en 1801.
Charles Babbage lanzó la idea del uso de
las tarjetas perforadas como un modo de controlar una calculadora mecánica que
él mismo diseñó. Herman Hollerith
desarrolló la tecnología de procesamiento de tarjetas perforadas de datos para
el censo de los Estados Unidos de América de 1890 y fundó la compañía Tabulating Machine Company (1896) la
cual fue una de las tres compañías que se unieron para formar la Computing
Tabulating Recording Corporation (CTR), luego renombrada IBM.
1820 LA PRIMERA CALCULADORA DE PRODUCCIÓN MASIVA SE
DISTRIBUYÓ POR CHARLES THOMAS DE COLMAR. ORIGINALMENTE SE LES VENDIÓ A CASAS
DEL SEGURO PARISIENSES, EL ARITMÓMETRO DE COLMAR OPERABA USANDO UNA VARIACIÓN DE LA RUEDA DE
LEIBNIZ. MÁS DE MIL ARITMÓMETROS SE VENDIERON Y EVENTUALMENTE RECIBIÓ UNA
MEDALLA A LA EXHIBICIÓN INTERNACIONAL EN LONDRES EN 1862.
El aritmómetro
(Arithmometer en inglés) o calculadora
mecánica fue la evolución de la máquina calculadora construida por Leibniz
en el año 1694.Esta máquina, a diferencia de las anteriores, era capaz de
realizar las cuatro operaciones básicas (sumar, restar, multiplicar y dividir)
de manera sencilla y sobre todo sin
errores con resultados de hasta 12 cifras. Sus defectos eran que no
podía ser programada para efectuar cálculos en sucesión y no era capaz de
conservar en memoria un resultado parcial. Es importante puntualizar que estos
defectos fueron resueltos con sucesivas revisiones de la máquina a lo largo del
siglo XIX.
Es
recordada por ser la primera calculadora comercial construida con verdadero
éxito: fueron vendidos más de 1500 ejemplares (muchos para esa época) hasta
casi 1930. La máquina fue desarrollada de manera que podía ser construida en
serie con las nuevas técnicas mejoradas en la Revolución industrial, aunque el verdadero
proceso industrial no empezó hasta 1850.
El
aritmómetro fue un modelo a seguir en el siglo XIX; de hecho surgieron en ese
periodo muchas imitaciones que seguían manteniendo el nombre de “aritmómetro”,
que fue por tanto sinónimo de calculadora aritmética en esa época.Fue
construido en 1820 y patentado el 18 de noviembre
de ese mismo año (patente número 1420) por Charles
Xavier Thomas de Colmar.
1822 CHARLES BABBAGE PRESENTA SU PROYECTO DE LA
MÁQUINA EN DIFERENCIAS, PARA EVALUAR POLINOMIOS.
Charles Babbage completa su artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular
valores de funciones poli nómicas mediante el método de las diferencias. El artefacto de la diferencia era un ensamble complejo
de ruedas, engranajes, y remaches. Babbage diseñó su "artefacto
analítico", un aparato de propósito general que era capaz de ejecutar
cualquier tipo de cálculo matemático.
A
partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas
de calcular. Con la ayuda de la condesa Ada Byron, hija del poeta Lord Byron,
desarrolla el concepto de 2 calculadoras mecánicas o "máquinas de
números".
La
primera de ellas, llamada la Máquina Diferencial era un dispositivo de 6
dígitos que resolvía ecuaciones polinómicas por el método diferencial. La
segunda, denominada Máquina Analítica, que tampoco fue terminada, fue diseñada
como un dispositivo de cómputo general.
Ambos
equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas para poder
ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero
en la práctica las maquinarias y herramientas de fabricación de la época eran
imprecisas y no pudieron construir las piezas con la necesaria exactitud.
Una máquina diferencial es una calculadora
mecánica de propósito especial, diseñada para tabular funciones polinómicas. Puesto que las
funciones logarítmicas
y trigonométricas
pueden ser aproximadas por polinomios, esta máquina es más general de
lo que parece al principio.
Parte
de la máquina diferencial, montada por el hijo de Babbage con piezas
encontradas en el laboratorio de Babbage después de su muerte.Es un dispositivo
de naturaleza mecánica para calcular e imprimir tablas de funciones. Más
concretamente, calcula el valor numérico de una función polinómica sobre una progresión
aritmética obteniendo una tabla de valores que se aproxima a la
función real (basado en que cualquier función puede ser aproximada por polinomios).
1830 BABBAGE PRESENTA LAS BASES DE LA INFORMÁTICA
EN SU PROYECTO DE LA MÁQUINA ANALÍTICA, QUE NUNCA SE LLEGÓ A CONSTRUIR.
La máquina
analítica es el diseño de un computador moderno
de uso general realizado por el profesor británico de matemáticasCharles Babbage, que representó un paso
importante en la historia de
la computación. Fue inicialmente descrita en 1816,
aunque Babbage continuó refinando el diseño hasta su muerte en 1872.
La
máquina no pudo ser construida debido a razones de índole político, hubo
detractores por un posible uso de la máquina para fines bélicos. Computadores
que fueran lógicamente comparables a la máquina analítica sólo pudieron ser
construidos 100 años más tarde.
El
primer intento de Charles Babbage para diseñar una máquina fue la máquina diferencial, que fue un computador
diseñado específicamente para construir tablas de logaritmos
y de funciones
trigonométricas evaluando polinomios por
aproximación. Si bien este proyecto no vio la luz por razones económicas y
personales, Babbagecomprendió que parte de su trabajo podía ser aprovechado en
el diseño de un computador de propósito general, de manera que inició el diseño
de la máquina analítica.
La
máquina analítica debía funcionar con un motor a vapor y hubiera tenido 30 metros de
largo por 10 de ancho. Para la entrada de datos y programas había pensado
utilizar tarjetas perforadas, que era un mecanismo
ya utilizado en la época para dirigir diversos equipos mecánicos. La salida
debía producirse por una impresora, un equipo de dibujo y una campana. La
máquina debía también perforar tarjetas que podrían ser leídas posteriormente.
La máquina analítica trabajaba con una aritmética de coma fija en base 10,
poseía una memoria capaz de almacenar 1.000 números de 50 dígitos cada uno. Una
unidad aritmética estaría encargada de realizar las operaciones aritméticas.
1837 CHARLES BABBAGE DESCRIBE LA MÁQUINA ANALÍTICA. ES EL DISEÑO DE UN
COMPUTADOR MODERNO DE PROPÓSITO GENERAL. LA IDEA QUE TUVO CHARLES BABBAGE SOBRE
UN COMPUTADOR NACIÓ DEBIDO A QUE LA ELABORACIÓN DE LAS TABLAS MATEMÁTICAS ERA
UN PROCESO TEDIOSO Y MUY PROPENSO A ERRORES.
1843 ADA AUGUSTA LOVELACE SUGIRIÓ LA IDEA DE QUE LAS TARJETAS PERFORADAS SE ADAPTARAN DE MANERA QUE
CAUSARAN QUE EL MOTOR DE BABBAGE REPITIERA CIERTAS OPERACIONES. DEBIDO A ESTA
SUGERENCIA ALGUNOS CONSIDERAN A LADY LOVELACE LA PRIMERA PROGRAMADORA.
En
lo que respecta a Babbage y Ada Byron sus proyectos quedaron frustrados. Sin
embargo, los planos y modelos de ambas máquinas sirvieron como puntos referenciales
de muchos de los conceptos de computación aplicados hoy en día y para muchos,
Charles Babbage es considerado el padre de las computadoras.
A
pesar de sus muchos logros y aportes a la ciencia, a través de su vida, la
frustración de no poder llegar a construir exitosamente sus máquinas de
calcular, principalmente por la falta de apoyo del gobierno, convirtió a
Babagge en un hombre resentido y amargado hasta el dia de su muerte ocurrida en
Londres el 18 de Octubre de 1871. La condesa Ada Byron (1815-1851) La primera
programadora de la historia
Augusta
Ada Byron, también llamada Lady Lovelace, fue uno de los personajes más
pintorescos de la historia de la computación. Nació en Londres, el 10 de
Diciembre de 1815 siendo hija del ilustre poeta inglés Lord Byron. Apenas 5
semanas después de nacida su madre Lady Byron, se separó de su esposo y obtuvo
la custodia de su hija, encargándose de su crianza y educación por cuanto a
ella le aterrorizaba la idea de que su hija acabase convirtiéndose en un poeta
como su padre.
Lady
Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada
por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó
y se interesó sobre las ideas de Charles Babbage acerca de una nueva máquina de
calcular. Ella intuyó que un proyecto de esa envergadura podría convertirse en
una realidad y fue una de las pocas personas que creyó en la
"universabilidad de las ideas", preconizada por Charles Babbage y
decidió colaborar con él.
Ada
Byron, es considerada la primera programadora de la era de la computación, ya
que fue ella quien se hizo cargo del análisis y desarrollo de todo el trabajo
del inventor y la programación de los cálculos a procesarse.
1854 GEORGE BOOLE DESARROLLA EL ÁLGEBRA QUE LLEVA
SU NOMBRE: ÁLGEBRA BOOLEANA.
El lógico inglés George Boole publica su Álgebra de Boole. El sistema de Boole redujo a argumentos lógicos las
permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del
álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
Álgebra de Boole
(también llamada Retículas booleanas)
en informática y matemática,
es una estructura
algebraica que esquematiza
las operaciones lógicas Y, O , NO y Si (AND,OR,NOT,IF), así
como el conjunto de operaciones unión, intersección
y complemento.
Se
denomina así en honor a George Boole (2 de noviembre de 1815
a 8 de diciembre de 1864),
matemático inglés que fue el primero en definirla como parte de un sistema
lógico en el año 1854, en su tratado En
investigation of the laws of thought on which to found the mathematical
theories of logic and probabilities. El álgebra de Boole fue un intento
de utilizar las técnicas algebraicas para tratar
expresiones de la lógica proposicional. En la actualidad, el álgebra de Boole
se aplica de forma generalizada en el ámbito del diseño electrónico. Claude Shannon fue el primero en aplicarla
en el diseño de circuitos de conmutación eléctrica biestables, en 1948.
1869 LA PRIMERA MÁQUINA LÓGICA EN USAR EL ÁLGEBRA DE BOOLE PARA RESOLVER
PROBLEMAS MÁS RÁPIDO QUE HUMANOS, FUE INVENTADA POR WILLIAM STANLEY JEVONS. LA
MÁQUINA, LLAMADA EL PIANO LÓGICO, USÓ UN ALFABETO DE CUATRO TÉRMINOS LÓGICOS
PARA RESOLVER SILOGISMOS COMPLICADOS.
En 1866,
lo que consideraba como el gran principio universal de todo razonamiento,
amaneció sobre él y en 1869 publicó un esbozo de esa doctrina,
bajo el título “The Substitución of
Similar” (La Sustitución de Similares). Expresó el fundamento en su
forma más simple de la siguiente manera: “Lo que es cierto de una cosa, es cierto tal y como es”. Trabajó
en detalle sus diversas aplicaciones incluyendo el piano lógico, una computadora
mecánica que diseñó y construyó en 1869.
Descripción
El piano lógico, llamado así por su
parecido a los pianos verticales de la época, fue la
primera máquina lógica que podía manejar el álgebra de Boole
para la resolución de cuestiones lógicas. Fue creada por el científico William Stanley Jevons en 1869 y presentada
al año siguiente ante la Royal Society.1
Utilizaba
un alfabeto de cuatro términos para resolver un problema lógico con cierta
complejidad en menos tiempo que el empleado por el cerebro humano. En el frente
del piano estaban colocadas las letras que representan las 16 combinaciones
posibles de cuatro términos y sus negaciones correspondientes. El teclado
constaba de 21 teclas: ocho de ellas con letra desde el centro hacia la
izquierda y otras ocho hacia la derecha. Las otras cinco son: para la igualdad
(en el centro); para el punto final, para el punto y aparte; y dos para la
disyunción no exclusiva (la conjunción no tiene signo2
Jevons
consideraba que su máquina, si bien no tenía uso práctico, sí era valiosa
didácticamente para demostrar la naturaleza del análisis lógico, y también
proporcionaba una prueba convincente de la superioridad de la lógica booleana
sobre la aristotélica; pero la exigencia metodológica de transcribir proposiciones en forma de ecuaciones la hizo
innecesariamente complicada. A todo ello se le añade el hecho de que no hay
procedimiento eficiente para transcribir a la máquina las proposiciones
particulares (=algunos).
1878 RAMÓN VEREA, QUIEN VIVÍA EN LA CIUDAD DE NUEVA YORK, INVENTÓ UNA
CALCULADORA CON UNA TABLA INTERNA DE MULTIPLICACIÓN; ESTO FUE MUCHO MÁS RÁPIDO
QUE USAR ACARREOS U OTRO MÉTODO DIGITAL DE AQUEL TIEMPO. ÉL NO SE INTERESÓ EN
PONER SU OBRA EN PRODUCCIÓN, SÓLO QUISO MOSTRAR QUE UN ESPAÑOL PODÍA INVENTAR
TANTO COMO UN ESTADOUNIDENSE.
Este
sistema permitía multiplicar dos números directamente, y no mediante sumas
consecutivas. Aunque se denomine el sistema de León Bollée no fue este
realmente, el inventor de esta técnica para multiplicar directamente, pues ésta
se atribuye al escritor español Ramón Verea,
quien en 1878
desarrolló un cilindro metálico de 10 lados, cada uno de los cuales tenía una
columna de agujeros con 10 diámetros diferentes.
Este
mecanismo era, a su vez, una versión mejorada del desarrollado por Edmund D.
Barbour en 1872
para multiplicar productos parciales mediante la lectura de valores de una
tabla escrita en relieve, en un sistema similar al Braille.
1884 DORR FELT DESARROLLÓ SU COMPTÓMETRO, EL CUAL FUE LA PRIMERA
CALCULADORA QUE SE OPERABA CON SÓLO PRESIONAR TECLAS EN VEZ DE, POR EJEMPLO,
DESLIZAR RUEDAS.
Un comtometer
(comptómetro) es un tipo de máquina sumadora mecánica o
electromecánica. El comptómetro fue el primer dispositivo de adición que
funcionaba solamente por la acción de presionar teclas, que se disponían en un
arreglo de columnas verticales y filas horizontales.
El
término "comptometer" es, hablando estrictamente, un nombre comercial
de Felt and Tarrant Manufacturing
Company de Chicago, posteriormente Comptometer Corporation, pero fue usado extensamente como nombre
genérico para esta clase de dispositivo. El diseño original fue patentado en 1887
por Dorr Felt, un ciudadano estadounidense.
Aunque
estuvo diseñado sobre todo para sumar, también podían ser realizadas restas,
multiplicaciones y divisiones.
Comptómetros especiales con un variado arreglo de teclas, desde 30 hasta
bastante más de 100 teclas, fueron producidos para una diversidad de
propósitos, incluyendo cálculo de divisas, tiempo
y medidas imperiales de peso.
En
las manos de un operador experto, los comptómetros podían sumar números muy
rápidamente, puesto que todos los dígitos de un número se podrían entrar
simultáneamente usando tantos dedos como sea requerido, haciendo a los
comptómetros mucho más rápidos de usar que una calculadora
electrónica. Consecuentemente, en aplicaciones especializadas permanecieron en
uso en cantidades limitadas hasta entrados los años 1990, pero a excepción de un puñado de
máquinas, ahora todos han sido reemplazados por el uso de software
de computadora.
1885 HERMAN HOLLERITH CONSTRUYE LA MÁQUINA
CENSADORA O TABULADORA, QUE POR MEDIO DE TARJETAS PERFORADAS REDUCÍA EL TIEMPO
AL REALIZAR EL CENSO.
Tabuladora
es una de las primeras máquinas de aplicación en informática.En 1890 Herman Hollerith (1860-1929)
había desarrollado un sistema de tarjetas perforadas
eléctricas basado en la lógica deBoole, aplicándolo a una máquina
tabuladora de su invención. La máquina de Hollerith se usó para tabular el
censo de aquel año en los Estados Unidos,
durando el proceso total no más de dos años y medio. Así, en 1896, Hollerith
crea la Tabulating
Machine Company, con la que pretendía comercializar su máquina. La
fusión de esta empresa con otras dos, dio lugar, en 1924,
a la International Business Machines Corporation (IBM).
1893 LA PRIMERA MÁQUINA EXITOSA DE MULTIPLICACIÓN AUTOMÁTICA SE DESARROLLÓ
POR OTTO STEIGER. "EL MILLONARIO", COMO SE LE CONOCÍA, AUTOMATIZÓ LA
INVENCIÓN DE LEIBNIZ DE 1673, Y FUE FABRICADO POR HANS W. EGLI DE ZURICH.
ORIGINALMENTE HECHA PARA NEGOCIOS.
La ciencia halló inmediatamente un uso para el aparato, y varios miles de
ellos se vendieron en los cuarenta años que siguieron. Fue
creada para realizar rápidamente las cuatro operaciones fundamentales, siendo
un acontecimiento en el cálculo mecánico. Poseía una asombrosa velocidad al
realizar multiplicaciones y divisiones frente a otras calculadoras de la época,
ya que no las realiza mediante sumas sucesivas y restas sucesivas, cada dígito
del multiplicador o del cociente se procesa mediante una sola vuelta de
manivela que traslada automáticamente un espacio al mecanismo resultante.
Se
utilizó para los grandes negocios y en algunas aplicaciones de cálculo
científico. Esta máquina fue producida en serie entre 1895 y 1935 por el
ingeniero suizo Hans W. Egli. Algunos modelos de esta máquina llegaron a pesar
hasta 55 kg,
y se estima que se vendieron en total unas 4.700 unidades.
1894 LEONARDO TORRES QUEVEDO PRESENTA SUMÁQUINA
ALGEBRAICA.
1906: EL ESTADOUNIDENSE LEE DE FOREST INVENTA EL TUBO DE VACÍO. EL
"AUDION", COMO SE LLAMABA, TENÍA TRES ELEMENTOS DENTRO DE UNA
BOMBILLA DEL VIDRIO EVACUADA. LOS ELEMENTOS ERAN CAPACES DE HALLAR Y AMPLIFICAR
SEÑALES DE RADIO RECIBIDAS DE UNA ANTENA. EL TUBO AL VACÍO ENCONTRARÍA USO EN
VARIAS GENERACIONES TEMPRANAS DE 5 COMPUTADORAS, A COMIENZOS DE 1930.
El audión
es la primera válvula electrónica de tipo triodo. Con ella se
lograron las primeras amplificaciones electrónicas.El primer amplificador
electrónico fue construido en 1906 por el inventor estadounidenseLee De Forest con ayuda de la primera
versión de su invento: el audión. Pero fue en 1908 cuando De Forest
inventó el triodo, al intentar descubrir un método para amplificar las ondas y
al mismo tiempo, controlar el volumen del sonido. Dobló una fina tira de
alambre de platino, a la que denominó "rejilla", nombre que perduró
en las válvulas posteriores y la colocó entre el filamento y la placa. Después
encerró todo el aparato en una bombilla de cristal.
1919LOS INVENTORES ESTADOUNIDENSES W. H. ECCLES Y F. W.
JORDAN DESARROLLAN EL PRIMER CIRCUITO MULTIVIBRADOR O BIESTABLE (EN LÉXICO
ELECTRÓNICO FLIP-FLOP).
El flip-flop permitió diseñar circuitos electrónicos que podían tener dos
estados estables, alternativamente, pudiendo representar así el 0 como un
estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bitbinario, estructura que utilizan las actuales computadoras.
Un biestable
(flip-flop en inglés), es un multivibrador capaz de permanecer en uno de dos estados
posibles durante un tiempo indefinido en ausencia de perturbaciones. Esta
característica es ampliamente utilizada en electrónica digital para memorizar
información. El paso de un estado a otro se realiza variando sus entradas.
Dependiendo del tipo de dichas entradas los biestables se dividen en:
- Asíncronos: sólo tienen
entradas de control. El más empleado es el biestable RS.
- Síncronos: además de
las entradas de control posee una entrada de sincronismo o de reloj. Si
las entradas de control dependen de la de sincronismo se denominan
síncronas y en caso contrario asíncronas. Por lo general, las entradas de
control asíncronas prevalecen sobre las síncronas.
La
entrada de sincronismo puede ser activada por nivel (alto o bajo) o por flanco
(de subida o de bajada). Dentro de los biestables síncronos activados por nivel
están los tipos RS y D, y dentro de los activos por flancos los
tipos JK, T y D.Los biestables se crearon para eliminar
las deficiencias de los latches.
1930 VANNEVAR BUSH DISEÑA UNA MÁQUINA ANALÓGICA
QUE RESOLVÍA ECUACIONES DIFERENCIALES: EL ANALIZADOR DIFERENCIAL UNA MÁQUINA DIFERENCIAL
PARCIALMENTE ELECTRÓNICA, CAPAZ DE RESOLVER ECUACIONES DIFERENCIALES.
El Analizador
diferencial (en inglés, Differential analyser) fue un computador analógico mecánico diseñado para
solucionar ecuaciones
diferenciales por integración, usando
mecanismos de ruedas y discos para realizar la integración. Fue uno de los
primeros dispositivos de computación avanzados en ser usados operacionalmente.
El
analizador fue inventado en 1876 por James Thomson,
hermano de Lord Kelvin. Una versión práctica fue
primero construida por H. W. Nieman y Vannevar Bush
comenzando en 1927
en el MIT.
Ellos publicaron un informe detallado sobre el dispositivo en 1931. D. R.
Hartree, de la Universidad de
Mánchester, trajo el diseño a Inglaterra, donde
construyó su primer modelo (con su estudiante, Arthur Porter) en 1934. Durante
los cinco años siguientes fueron añadidos tres más: uno en la Universidad de
Cambridge, en la Queen's University de Belfast, y en la Royal
Aircraft Establishment en Farnborough.
En
los Estados Unidos, los analizadores diferenciales fueron construidos en la
base de la Fuerza Aérea Wright-Patterson y en el sótano la Escuela Moore de
Ingeniería Eléctrica en la Universidad
de Pennsylvania a principios de los años 1940; el último fue usado extensivamente
en la línea de montaje de las tablas de fuego de la artillería antes de la
invención del ENIAC, que, de muchas maneras, fue modelado
después del analizador diferencial. Algunos años más tarde, otro computador, el
UTEC, fue construido en la Universidad de
Toronto, pero aparece que vio poco o ningún de uso.
El
analizador diferencial fue utilizado en el desarrollo de la Bomba de rebote, usada para atacar las
represas hidroeléctricas alemanas durante la Segunda Guerra Mundial. Los analizadores
diferenciales también han sido usados en el cálculo de la erosión
del suelo por las autoridades de control de los ríos. Eventualmente se volvió
obsoleto por las computadoras electrónicas analógicas y posteriormente por computadores digitales.
Más
recientemente, la construcción de analizadores diferenciales usando piezas de Meccano
se ha convertido en un proyecto popular entre los aficionados serios al hobby
de Meccano. Un analizador diferencial es mostrado en operación en la película
de 1956La Tierra vs. Los platillos voladores,
y en la película de 1951Cuando
los mundos chocan.
Una máquina
de Turing (MT) es un modelo computacional
que realiza una lectura/escritura de manera
automática sobre una entrada llamada cinta, generando una salida
en esta misma.Este modelo está formado por un alfabeto de entrada y uno de
salida, un símbolo especial llamado blanco (normalmente b, o 0), un conjunto de estados finitos y un
conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una
función de transición, que recibe un estado inicial y una cadena de caracteres
(la cinta, la cual puede ser infinita) pertenecientes al alfabeto de entrada.
La
máquina va leyendo una celda de la cinta en cada paso, borrando el símbolo en el
que se encuentra posicionado su cabezal y escribiendo un nuevo símbolo
perteneciente al alfabeto de salida, para luego desplazar el cabezal a la
izquierda o a la derecha (solo una celda a la vez). Esto se repite según se
indique en la función de
transición, para finalmente detenerse en un estado final o de
aceptación, representando así la salida.
1937 INICIO DE LA TEORÍA DE LA COMPUTABILIDAD CON
LA DESCRIPCIÓN DE LA MÁQUINA DE TURING.
La Teoría
de la computabilidad es la parte de la computación
que estudia los problemas de
decisión que pueden ser resueltos con un algoritmo
o equivalentemente con una máquina de Turing.
La teoría de la computabilidad se interesa a cuatro preguntas:
- ¿Qué problemas puede
resolver una máquina de Turing?
- ¿Qué otros formalismos
equivalen a las máquinas de Turing?
- ¿Qué problemas
requieren máquinas más poderosas?
- ¿Qué problemas requieren
máquinas menos poderosas?
La teoría de la
complejidad computacional clasifica las funciones computables según
el uso que hacen de diversos recursos en diversos tipos de máquina.
La primera
generación de computadoras abarca desde el año 1945 hasta el año 1958,
época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en
términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.
En
esta etapa las computadoras funcionaban con válvulas y se utilizaban
exclusivamente en el ámbito científico o militar. La programación implicaba la
modificación directa de los valores de los circuitos de las
máquinas, con el consecuente gasto de tiempo y espacio.
Características:
- Estaban construidas con
electrónica de válvulas.
- Se programaban en
lenguaje de máquina.
Un
programa es un conjunto de instrucciones para que la máquina efectúe alguna
tarea, y el lenguaje más simple en el que puede especificarse un programa se
llama lenguaje de máquina (porque el programa debe escribirse mediante algún
conjunto de códigos binarios).La primera generación de computadoras y sus
antecesores, se describen en la siguiente lista de los principales modelos de
que constó:
1938 KONRAD ZUSE CONSTRUYE LA PRIMERA DE SUS
COMPUTADORAS: LA Z1.
La
Z1 es considerada una de las primeras máquinas programables del mundo. Fue creada por el
ingeniero alemán Konrad Zuse en 1938.
Historia
del computador
En
los años en la industria de la computación tan sólo se podían encontrar ciertas
calculadoras orientadas al comercio y muy primitivas. Matemáticos
e ingenieros
tenían que construir sus propias calculadoras. O más...
Zuse
trabajaba en la industria de los aviones. Para los diseños de aviones se
requerían constantes cálculos matemáticos que debían repetirse de acuerdo con
unas variables. De esta manera surgió la necesidad de crear una máquina que
repitiese los complejos cálculos y que los guardase en memoria para referencias futuras.
Entre
1936
y 1938,
Konrad Zuse intentó construir la primera computadora, una calculadora mecánica
basada en el sistema binario que operaba con
electricidad y con la posibilidad de poder programarla, aunque de forma
limitada. Hacía uso de relés eléctricos para automatizar los procesos. Sin
embargo, tan sólo consiguió realizar un prototipo que recibió el nombre del Z1
y que nunca llegó a funcionar de forma correcta debido a la falta de
perfeccionamiento en sus elementos mecánicos. Esta máquina fue financiada
completamente con dinero privado (principalmente de familiares y amigos de
Zuse, incluido él mismo) y fue creada en el apartamento de sus padres. El gobierno
nazi nunca confió demasiado en los trabajos de Zuse y por ello
obtuvo escaso apoyo.
La
Z1 fue la predecesora de los modelos Z2 y Z3, creados por el mismo Zuse y en las que
intentó subsanar los fallos que se encontraban en el modelo Z1. Ninguna de
estas máquinas sobrevivió a la Segunda Guerra Mundial, fueron destruidas en
el bombardeo de Berlín. Sin embargo, la obra de Zuse no se
perdió completamente ya que podemos encontrar una reconstrucción de la Z1 en el
Museo Técnico Alemán de Berlín (reconstruida por él mismo reutilizando piezas
de la original), además de la computadora Z4, que fue construida años más tarde en Austria.
1939 GEORGE R. STIBITZ EMPIEZA EL DESARROLLO DE LA
COMPLEX CALCULATOR.
En 1939,
para realizar cálculos aritméticos con números complejos necesarios en trabajos
de filtrado de señales, empezó la construcción de una máquina llamada
Calculadora de Números Complejos ("Complex Number Calculator"), que
completó el 8 de enero de 1940. En una demostración realizada en una
conferencia de la Mathematical Society, celebrada el 11 de septiembre de 1940
en el Dartmouth College, Stibitz envió comandos a la computadora a través de
una línea telefónica. Fue la primera vez en la historia que, de hecho, se usó
una máquina computadora de forma remota a través de una conexión telefónica.
Como
resultado de su actividad, se producen 4 calculadores que se designaron con los
nombres de MARK-1, MARK-2, MARK-3 y MARK-4, este último, construido en el año
de 1945,
incorporaba algunos componentes electrónicos (válvulas electrónicas), pero en
su mayor parte estaba construido a partir de elementos eléctricos (relevadores)
y mecánicos.
1939 NACE LA Z2 DE ZUSE.
La
computadora Z2, creada por Konrad Zuse
durante la etapa (1938-1939), fue diseñada a partir de la Z1,
ya que crear una máquina mecánica presentaba algunas dificultades, y a ésta se
le añadieron relés telefónicos.
Fue
ayudado por un amigo suyo Helmut Schreyer el cual trabajaba con relevadores
electrónicos, y le pidió que le diseñara los circuitos para realizar las tres
operaciones básicas, AND, OR y NOT, para así no diseñarse
desde cero. Schereyer resolvió este problema sin ningún inconveniente mientras
Zuse trabajaba en la parte lógica de los circuitos. Gracias a su trabajo en
grupo, se pensó lograr una velocidad mil veces superior a la que se obtenía
mediante máquinas de relevadores.
Características
principales
La
unidad numérica Z2 estaba construida con 800 relés, aunque todavía disponía de
componentes mecánicos. Disponía de la misma memoria que la Z1,
el mecanismo de control se basaba en un sistema de cinta de perforada y con la
unidad aritmética utilizando 200 relevadores electromecánicos. Tenía una
frecuencia de reloj de ~10 KHz y operaba con números de punto fijo.
Sus
características eran muy similares a la Z1, y para Zuse fue un modelo experimental
para probar el poder de la utilización de los relés telefónicos.y otro mecánico
1940 TESIS DE CLAUDE SHANNON SOBRE TEORÍA
MATEMÁTICA DE LA COMUNICACIÓN.
La teoría
de la información también conocida como teoría matemática de la comunicación(Mathematical Theory of Communication) o teoría matemática de la información, es una propuesta teórica
presentada por Claude E. Shannon y Warren Weaver a finales de la década de los
40. Esta teoría está relacionada con las leyes matemáticas que rigen la
transmisión y el procesamiento de la información y se ocupa de la medición de
la información y de la representación de la misma así como también de la
capacidad de los sistemas de comunicación para transmitir y procesar
información. La Teoría de la Información es una rama de la teoría matemática
y de las ciencias de
la computación que estudia la información y todo lo relacionado con ella:
canales,
compresión de datos,
criptografía y temas relacionados.
1941 PRIMERA COMPUTADORA FUNCIONAL DEL MUNDO
CONTROLADA POR PROGRAMAS, LA Z3 DE ZUSE.
La
computadora Z3, creada por Konrad Zuse en 1941,
fue la primera máquina programable y completamente automática, características
usadas para definir a un computador.El Z3, de tecnología electromecánica,
estaba construido con 2300 relés, tenía una frecuencia de reloj de ~5 Hz,
y una longitud de palabra de 22 bits. Los cálculos eran realizados con
aritmética en coma flotante puramente binaria.
La
máquina fue completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una
audiencia de científicos en Berlín). El Z3 original fue destruido en 1943
durante un bombardeo aliado de Berlín. Una réplica completamente funcional fue
construida durante los años 60 por la
compañía del creador Zuse KG y está en exposición permanente en el Deutsches Museum. En 1998 Raúl Rojas demostró que el Z3 es Turing completo.
EN 1967,
ZUSE KG HABÍA CONSTRUIDO UN
TOTAL DE 251 COMPUTADORAS. ESE MISMO AÑO ZUSE SUGIRIÓ QUE EL UNIVERSO
EN SÍ MISMO ES UNA RETÍCULA DE COMPUTADORAS (FÍSICA COMPUTACIONAL), PUBLICANDO ESTA
HIPÓTESIS EN 1969
EN SU LIBRO RECHNENDER RAUM.
1942 ATANASOFF DESARROLLA EL ABC, MÁQUINA
ELECTRÓNICA DIGITAL PARA LA RESOLUCIÓN DE SISTEMAS LINEALES.
El Atanasoff
Berry Computer (ABC) fue el primer computador electrónico y digital
automático. Fue construido por el Dr. John Vincent
Atanasoff con la ayuda de Clifford Edward Berry
entre 1937
y 1942
en la 'Iowa State University', que entonces recibía el nombre de 'Iowa State
College'.
Esta
máquina, decididamente revolucionaria, aportó diversas innovaciones en el campo
de la computación: un sistema binario
para la aritmética, memoria regenerativa y distinción entre la memoria y las
funciones de el primer computador moderno en utilizar aritmética en binario y
usar circuitos
electrónicos, que hoy en día se utilizan en todos los computadores.
En binario se utilizan dos símbolos, 0 y 1, para representar valores numéricos.
Más específicamente, el binario es una notación matemática en base dos. Debido
a su relación directa con los circuitos electrónicos, el sistema binario se usa
internamente en casi todos los ordenadores actuales. El computador fue el
primero en implementar tres conceptos claves presentes en los ordenadores
modernos:
- Uso del sistema binario para
representar todos los números y datos.
- Realizaba todas las operaciones
usando la electrónica en lugar de ruedas,
- La computación estaba separada
del sistema de almacenamiento o memoria.
Además
usaba memoria regenerativa, del mismo modo que la DRAM de los ordenadores
actuales. No era un computador de almacenamiento, lo que la distingue de las
máquinas más tardías y de uso general como el ENIAC (1949),
el EDVAC
(1949),
los diseños de la Universidad de Manchester o los que Alan Turing realizó en el 'National Physical
Laboratory'.
Esta
máquina, decididamente revolucionaria, aportó diversas innovaciones en el campo
de la computación: un sistema binario
para la aritmética, memoria regenerativa y distinción entre la memoria y las
funciones de el primer computador moderno en utilizar aritmética en binario y
usar circuitos
electrónicos, que hoy en día se utilizan en todos los computadores.
En binario se utilizan dos símbolos, 0 y 1, para representar valores numéricos.
Más específicamente, el binario es una notación matemática en base dos. Debido
a su relación directa con los circuitos electrónicos, el sistema binario se usa
internamente en casi todos los ordenadores actuales. El computador fue el
primero en implementar tres conceptos claves presentes en los ordenadores
modernos:
- Uso del sistema binario para
representar todos los números y datos.
- Realizaba todas las operaciones
usando la electrónica en lugar de ruedas,
- La computación estaba separada
del sistema de almacenamiento o memoria.
1943 UN EQUIPO DIRIGIDO POR ALAN TURING CONSTRUYE
EL COLOSSUS PARA DESCIFRAR LOS MENSAJES DEENIGMA.
Las
máquinas Colossus fueron los primeros dispositivos calculadores
electrónicos usados por los británicos para
leer las comunicaciones cifradasalemanas durante la Segunda Guerra Mundial. Colossus fue uno de
los primeros computadores digitales.
La
máquina Colossus fue diseñada originalmente por Tommy Flowers en la Post Office Research Station (Estación de Investigación de la
Oficina Postal), Dollis Hill. El prototipo, Colossus Mark I, entró en
funcionamiento en Bletchley Park
desde febrero de 1944. Una versión mejorada, el Colossus
Mark II se instaló en junio de 1944, y se llegaron a construir unos diez
Colossus hasta el final de la guerra.
Las
máquinas Colossus se usaron para descifrar los mensajes cifrados, que se
interceptaban de las comunicaciones de la Alemania Nazi, usando la máquina
Lorenz SZ40/42. Colossus comparaba dos flujos de datos, contando cada
coincidencia basada en una función programable booleana. El mensaje cifrado se leía a gran
velocidad a través de una cinta de papel. El otro flujo de datos era generado
internamente, y era una simulación electrónica de la máquina de Lorenz en
varias combinaciones. Si el número de coincidencias para una combinación era
superior a una cierta cantidad, la salida era escrita en una máquina de
escribir eléctrica.
Una
computadora Colossus Mark II. El panel inclinado de la izquierda se usaba para
establecer el número de patrones de pines de Lorenz. La cinta transportadora de
papel está en la derecha. Ubicación Gran Bretaña
Instalación 1944
1943 SE
EMPIEZA LA CONSTRUCCIÓN DEL ENIAC, POR JOHN W. MAUCHLY Y JOHN ECKERT.
ENIAC
es un acrónimo de Electronic Numerical Integrator
And Computer (Computador e Integrador Numérico
Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército
de los Estados Unidos.
Se
ha considerado a menudo la primera computadora electrónica de propósito
general, aunque este título pertenece en realidad a la computadora alemana Z3.
Además está relacionada con el Colossus, que se usó
para descifrar código alemán
durante la Segunda Guerra
Mundial y destruido tras su uso para evitar dejar pruebas, siendo
recientemente restaurada para un museo británico. Era totalmente digital, es
decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras
máquinas computadoras contemporáneas de procesos analógicos. Presentada en
público el 15 de febrero de 1946.
La
ENIAC fue construida en la Universidad
de Pennsylvania por John Presper Eckert
y John William Mauchly, ocupaba una
superficie de 167 m² y operaba
con un total de 17.468 válvulas electrónicas o tubos de vacío
que a su vez permitían realizar cerca de 5000 sumas y 300 multiplicaciones por
segundo. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de
cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de
soldaduras. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500
conmutadores electromagnéticos y relés; requería la operación manual de unos
6.000 interruptores, y su programa o software, cuando requería modificaciones,
demoraba semanas de instalación manual.
La
ENIAC elevaba la temperatura del local a 50 °C. Para efectuar las
diferentes operaciones era preciso cambiar, conectar y reconectar los cables
como se hacía, en esa época, en las centrales telefónicas, de allí el concepto.
Este trabajo podía demorar varios días dependiendo del cálculo a realizar.
1944 HOWARD HATHAWAY AIKEN TERMINA LA CONSTRUCCIÓN
DE LA HARVARD MARK I.
El IBM
Automatic Sequence Controlled
Calculator (ASCC), más conocido como Harvard Mark I o Mark I,
fue el primer ordenador electromecánico, construido en la
Universidad de
Harvard por Howard H. Aiken
en 1944,
con la subvención de IBM. Tenía 760.000 ruedas y 800 kilómetros
de cable y se basaba en la máquina analítica de Charles Babbage.El computador Mark I empleaba señales
electromagnéticas para mover las partes mecánicas. Esta máquina era lenta
(tomaba de 3 a 5 segundos por cálculo) e inflexible (la secuencia de cálculos
no se podía cambiar); pero ejecutaba operaciones matemáticas básicas y cálculos
complejos de ecuaciones sobre el movimiento parabólico de proyectiles.Funcionaba
con relés, se programaba con interruptores y leía los datos de cintas de papel
perforado.
Características
La Mark
I era una máquina digna de admirar, pues sus
longitudes eran grandiosas, medía unos 15,5 metros de largo, unos 2,40 metros
de alto y unos 60 centímetros de ancho, pesaba aproximadamente unas cinco
toneladas. Pero lo más impresionante fueron unas cubiertas de cristal que
dejaban que se admirara toda la maquinaria de su interior.
La Mark
I recibía sus secuencias de instrucciones
(programas) y sus datos a través de lectoras de cinta perforada de papel
y los números se transferían de un registro a otro por medio de señales
eléctricas. Tal vez por eso no deba sorprendernos que a pesar de medir sólo 15
metros de largo, el cableado interno de la Mark I tenía una longitud de más de
800 kilómetros, con más de tres millones de conexiones. Los resultados
producidos se imprimían usando máquinas de escribir eléctricas o
perforadoras de tarjetas, en la más pura tradición de IBM.
Aunque
tenía componentes electromecánicos era una máquina automática eléctrica. Era
capaz de realizar 5 operaciones aritméticas (suma, resta,
multiplicación, división
y referencia a resultados anteriores). Su interior estaba compuesto por 750.000
piezas de diferentes variedades (ruedas rotatorias para los registros,
relevadores...).
Estaba
compuesta de más de 1.400 interruptores rotatorios de diez posiciones en el
frente de la máquina para visualizar los valores de los registros constantes
que se le introducían. Pero además de los registros constantes la máquina
contenía 72 registros mecánicos. Cada unos de los registros mecánicos era capaz
de almacenar 23 dígitos, los dígitos que se usaban para el signo era un 0 para
signo positivo y un 9 para el signo negativo.
La
posición de la coma decimal estaba fija durante la solución de un problema,
pero podía ajustarse previamente de manera que estuviera entre dos dígitos
cualquiera. La máquina contaba también con mecanismos que permitían efectuar
cálculos de doble precisión (46 decimales), mediante la unión de dos registros,
en una forma análoga a la Máquina Analítica de Babbage.
1944 ZUSE TERMINA DE CONSTRUIR LA Z4.
La
computadora Z4, diseñando por el ingeniero alemánKonrad Zuse y construida por su compañía Zuse KG entre 1941
y 1945,
fue entregada a ETH Zürich en Suiza en septiembre de 1950.
Fue la primera computadora en el mundo en ser vendida, venciendo a la británicaFerranti Mark I
por cinco meses y a la UNIVAC I por diez meses.
Konrad
Zuse, este investigador creó numerosas computadoras a lo largo de su vida; se
dedicó plenamente a ello. Sus primeras máquinas fueron la Z1,
Z2,
Z3
y Z4. La Z4 fue terminada en 1944, aunque
posteriormente fue retocada en numerosas ocasiones añadiéndole una unidad de
lectura de tarjetas perforadas. Esta máquina era capaz de reproducir las tarjetas perforadas mediante instrucciones
de la propia Z4, con lo que no era demasiado complicado programarla. Esta era
una ventaja ya que era posible realizar copias de los programas para poder
hacer correcciones.
La
Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados
cálculos científicos. Era capaz de ejecutar 1000 instrucciones por hora. Estaba
formada aproximadamente por 2200 relés, era capaz de realizar unas 11
multiplicaciones por segundo y tenía una memoria de 500 palabras de 32 bits.
Pesaba unos 1000 kilogramos.
La
entrada de datos era a través de un teclado decimal o a través de tarjetas perforadas, y la salida era por
una máquina de escribir. Esta máquina fue utilizada hasta 1959
por multitud de instituciones. Actualmente se encuentra en el museo alemán de
Munich.
1945 PRIMER "BUG"
INFORMÁTICO.
Error
de software
Grace Murray Hopper, licenciada en Física
y destacada matemática que trabajó como programadora en
el Mark II, pegó el insecto con cinta adhesiva en la bitácora (imagen)
y se refirió a ella como "bicho" para describir la causa del
problema.
Este
incidente es erróneamente conocido por algunos como el origen de la utilización
del término inglés "bug" (bicho) para indicar un problema en un
aparato o sistema.12 En realidad, Thomas Alva Edison ya había utilizado
"bug" en algunas anotaciones relacionadas con interferencias y mal
funcionamiento. Grace lo asoció por primera vez a la informática, en este caso,
relacionado a un insecto real. No obstante, durante los años 50 del Siglo XX, Grace
también empleó el término "debug" al hablar de la depuración de
errores en los códigos de programación. Los programas que ayudan a
detección y eliminación de errores de programación de software son denominados depuradores
(debuggers)
1946 NACE UNA DE LAS PRIMERAS COMPUTADORAS NO DISEÑADAS
CON UN PROPÓSITO MILITAR: LA UNIVAC.
La UNIVAC
I (UNIVersal Automatic Computer I, Computadora Automática Universal I)
fue la primera computadora comercial fabricada en Estados Unidos. Fue diseñada principalmente
por J. Presper Eckert y John William Mauchly, también autores de la
segunda computadora electrónica estadounidense, la ENIAC.
Durante los años previos a la aparición de sus sucesoras, la máquina fue
simplemente conocida como "UNIVAC". Se donó a la universidad
de Harvard y Pensilvania. Fue la primera computadora fabricada para un
propósito no militar, desde el año 1951.
Historia
Las computadoras
UsextoI fueron construidas por la división UNIVAC de Remington Rand
(sucesora de la Eckert-Mauchly
Computer Corporation, comprada por Rand en 1951).
Su valor estaba entre 1 millón y 1 millón y medio de dólares, que actualizado
seria de 6 millones y medio a 9 millones. Era una computadora que pesaba 16.000
libras (7.250 kg
aproximadamente), estaba compuesta por 5000 tubos de vacío, y podía ejecutar
unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos
en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas
100000 por segundo. Funcionaba con un reloj interno con una frecuencia de 2,25
MHz, tenía memorias de mercurio. Estas memorias no permitían el acceso
inmediato a los datos, pero tenían más fiabilidad que los tubos de rayos
catódicos, que son los que se usaban normalmente.
El
primer UNIVAC fue entregado a la Oficina
de Censos de los Estados Unidos (United States Census Bureau) el 31 de marzo de 1951 (60 años) y fue
puesto en servicio el 14 de junio de
ese año. El quinto, construido para la Comisión de Energía Atómica (United States Atomic Energy Commission)
fue usado por la cadena de televisión CBS
para predecir la elección presidencial estadounidense de 1952.
Con una muestra de apenas el 1% de la población votante predijo correctamente
que Eisenhower
ganaría, algo que parecía imposible.
1947 NACE LA CIBERNÉTICA, VOCABLO DESIGNADO
PORNORBERT WIENER, UNO DE SUS PADRES.
La cibernética
es el estudio
interdisciplinario de la estructura de los sistemas reguladores. La
cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Tanto en sus orígenes
como en su evolución, en la segunda mitad del siglo XX, la cibernética es
igualmente aplicable a los sistemas físicos y sociales. Los sistemas complejos afectan y luego se
adaptan a su ambiente externo; en términos técnicos, se centra en funciones de control
y comunicación: ambos fenómenos externos e
internos del/al sistema. Esta capacidad es natural en los organismos vivos y se
ha imitado en máquinas y organizaciones. Especial atención se presta
a la retroalimentación y sus conceptos
derivados.
Historia
La
cibernética es una ciencia, nacida hacia 1942 e impulsada
inicialmente por Norbert Wiener,
que tiene como objeto “el control y comunicación en el animal y en la máquina”
o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema
del control y la comunicación en general”. En 1950, Ben Laposky, un
matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta
posibilidad de manipular ondas y de registrarlas electrónicamente como el
despertar de lo que habría de ser denominado computer graphics y, luego,
computer art e infoarte. La cibernética dio gran impulso a la teoría de la
información a mediados de los 60, la computadora
digital sustituyó la analógica en la elaboración de imágenes electrónicas.
En esos años aparecen la segunda generación de
computadoras (con transistores en 1960)
concretándose por entonces los 1° dibujos y gráficos de computadora, y la
tercera (con circuitos integrados,
en 1964)
así como los lenguajes de
programación. En 1965 tuvo lugar en Stuttgart la
exposición”Computer-graphik”. Pero la muestra que consagró la tendencia fue la
que tuvo lugar en 1968 bajo el título “Cybernetic
Serendipity” en el Instituto de Arte Contemporáneo de Londres.
También en ese año se destacó la exposición “Mindextenders” del Museum of
Contemporary Crafs de Londres.
1948 NACE EL PROYECTO DE LA MANCHESTER MARK I EN
DONDE ALAN TURING PARTICIPÓ ACTIVAMENTE.
La Manchester
Mark 1 fue en un principio una máquina experimental a pequeña escala
llamada "The baby", construida entre 1947 y 1948
en la Universidad de
Mánchester, como continuación del Manchester Small-Scale Experimental
Machine (SSEM), la primera computadora electrónica del mundo con
programa almacenado en la misma máquina. Su diseño se pensó para demostrar el
potencial que tendrían los programas almacenados en la computadora, por eso se
considera la primera computadora que funcionaba con memoria RAM.
Los trabajos comenzaron en agosto de 1948, y la primera versión entró en
funcionamiento en abril de 1949, cuando un programa escrito para buscar números primos
de Mersenne corrió durante nueve horas sin fallas en la noche del 16
al 17 de junio de 1949. El matemáticoAlan Turing se incorporó al proyecto en el año 1948,
realizando un lenguaje de
programación para la computadora.
Historia
En 1951,
fue remplazada por una versión conocida como Ferranti Mark I, que surgió de la
colaboración del equipo de la Universidad de Manchester y de los hermanos
Ferranti que tenían una fábrica. La Ferranti Mark I fue de las primeras
computadoras comerciales de la historia.
Características
Algunas
de sus características fueron: una memoria principal (RAM) de 256 palabras de
40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos de vacío;
una memoria que almacenaba 3750 palabras; realizaba una operación estándar,
como una suma, en 1.8 milisegundos y en cambio para realizar una multiplicación
era mucho más lento, añadiéndole al tiempo de una operación estándar 0.6
milisegundos por cada bit que tuviera el multiplicador. La
entrada era por medio de un sencillo teclado
para almacenar directamente la información al computador; la salida para las
comprobaciones era a través de un visualizador de tubos de rayos catódicos.
1948 LOS LABORATORIOS BELL CREAN EL MODEM.
Los Laboratorios Bell (en inglés: Bell Labs) son varios centros de investigación científica y
tecnológica ubicados en más de diez países y que pertenecen a la empresa estadounidenseLucent Technologies, denominada también como Bell Labs Innovations, una división de
(Alcatel-Lucent).
Sus orígenes se remontan a los Laboratorios Telefónicos Bell, los cuales
fueron fundados en el año de 1925 en el estado de Nueva Jersey por la empresa AT&T.
Durante
muchos años los laboratorios manejaron uno de los presupuestos más elevados en
el mundo de la investigación tecnológica a raíz del monopolio ejercido por AT&T
en la industria telefónica estadounidense. Entre sus patentes y descubrimientos
más importantes destacan la libreta de un
solo uso, el transistor, el láser,
la fibra óptica, la tecnología DSL,
la telefonía móvil, los satélites de
comunicaciones, el sistema operativoUnix
y el lenguaje de
programación C. Once de sus investigadores han ganado seis Premios Nobel.
En 1984,
a raíz de la reestructuración de AT&T, una parte de los laboratorios se
convirtió en la empresa Bellcore.
El resto pasó a formar parte de Lucent Technologies en 1996
y posteriormente sus empleados fueron divididos entre los departamentos de
investigación y desarrollo de las empresas AT&T Research y Lucent
Technologies en los que un elevado tanto por ciento siguen alli, desempeñando
su gran labor.
1949 LA COMPAÑÍA DE MAUCHLY Y ECKERT CONSTRUYE UNA
"PEQUEÑA" COMPUTADORA: LA BINAC.
La Binac ( Eckert
y Mauchly de la ECC Electronic Control Corporation con la Northrop Aircraft Company de Hawthorne en California, los
cuales estaban desarrollando un misil secreto, llamado Snark. Para ello necesitaban una pequeña computadora
que pudiese ser transportada en un avión, con la finalidad de guiar al misil Snark.
Características
Las
especificaciones de la computadora eran:
- Debía tener un volumen
de menos de 0.60 metros cúbicos.
- Debía pesar cuando
mucho 318 kilogramos.
- Debía operar con 117
volts, a 60 ó 400 ciclos.
La Binac cuyo costo se presupuestó en un
principio en 100.000 dólares. La Northrop
accedió pagar por adelantado 80.000 dólares, y se acordó que los 20.000 dólares
restantes se liquidarían el 15 de mayo de 1948, que era la fecha programada
para la entrega de la computadora. La Binac
era un modelo experimental que de funcionar de forma correcta daría lugar a
otra computadora aún más pequeña que se colocaría dentro del misil para
guiarlo.
Contaba
con dos procesadores de medidas 1.5 x 1.2 x 0.3
metros con 700 bulbos cada uno, con el fin de que estos se
verificarán entre sí. Las instrucciones se procesaban en ambos procesadores, y
luego se comparaban los resultados, si éstos eran iguales, se procedía a la
siguiente instrocción, si eran diferentes se paraba la ejecución. La capacidad
de memoria
de cada procesador (implementada mediante líneas de retardo) era de 512
palabras de 31 bits cada una, y usaban el sistema binario. Sus dos unidades de
potencia medían 0.45 × 0.45 × 1.2 metros cada una, y su consola para entrada de
datos medía 0.90 × 0.60 × 0.90 metros.
La Binac
podía efectuar 3.500 sumas o restas, o 1.000 multiplicaciones o divisiones por
segundo. La velocidad de su reloj era de 1 Megahertz y la lógica de la máquina
se implementó usando el entonces recientes diodos de germanio.
1950 ALAN TURING PUBLICA SU ARTÍCULO
"COMPUTING MACHINERY AND INTELIGENCE".
Computing machinery and intelligence,
escrito por Alan Turing y publicado en 1950,
es un artículo fundamental sobre el tema de la Inteligencia Artificial en el que fue
introducido el concepto que ahora es llamadoCel Test de Turing.Este texto, concluye con la siguiente idea:«We can
only see a short distance ahead, but we can see plenty there that needs to be
done. »Que podríamos traducir por: «No podemos ver
más que a corta distancia delante de nosotros, pero podemos ver claramente que
hay mucho que hacer».
La segunda
generación de los transistores reemplazó a las válvulas de vacío por los circuitos de las
computadoras. Las computadoras de la segunda generación ya no son de válvulas
de vacío, sino con transistores, son más pequeñas y consumen menos electricidad
que las anteriores, la forma de comunicación con estas nuevas computadoras es
mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el
nombre de "lenguajes de alto nivel" o lenguajes de programación. Las
características más relevantes de las computadoras de la segunda generación
son:
Las válvulas
fueron sustituidas por los transmisores y se inician los sistemas operativos,
es decir, las computadoras con una programación previa que interpretan las
instrucciones mediante comandos introducidos por el usuario en un lenguaje de
programación que las computadoras son capaces de traducir al lenguaje máquina.
1952 JOHN VON NEUMANN HACE REALIDAD SU SUEÑO: SE
PONE EN MARCHA EL EDVAC.
La EDVAC
(Electronic Discrete Variable Automatic Computer) por sus siglas en
inglés, fue una de las primeras computadoras
electrónicas. A diferencia de la ENIAC, no era decimal,
sino binaria
y tuvo el primer programa
diseñado para ser almacenado. Este diseño se convirtió en el estándar de
arquitectura para la mayoría de las computadoras modernas. El diseño de la
EDVAC es considerado un éxito en la historia de
la informática.
El
diseño de la EDVAC fue desarrollado aún antes de que la ENIAC fuera puesta en
marcha y tenía la intención de resolver muchos de los problemas encontrados en
el diseño de la ENIAC. Así como la ENIAC, la EDVAC fue construida por el
laboratorio de investigación de balística de Estados Unidos de la universidad
de Pensilvania. A los diseñadores de la ENIAC, J. Presper Eckert y John William Mauchly se les unió el gran
matemático John von Neumann.
Un contrato para construirla fue firmado en abril de 1946
con un presupuesto inicial de 100.000 USD y el contrato llamó al aparato el
Calculador Discreto Electrónico Automático Variable (Electronic Discrete
Variable Automatic Calculator en inglés).
El
costo de la EDVAC fue similar al de la ENIAC, justo por debajo de los 500.000
USD. La computadora fue diseñada para ser binaria con adición, sustracción y
multiplicación automática y división programada. También poseería un verificador
automático con capacidad para mil palabras (luego se estableció en 1.024).
Físicamente la computadora fue construida de los siguientes componentes: Un
lector-grabador de cinta magnética,
una unidad de control con osciloscopio, una
unidad para recibir instrucciones del control y la memoria y para dirigirlas a otras unidades,
una unidad computacional para realizar operaciones aritméticas en un par de
números a la vez y mandarlos a la memoria después de corroborarlo con otra
unidad idéntica, un cronómetro, y una unidad de memoria dual.
Una
preocupación importante en el diseño era balancear fiabilidad y economía. La
EDVAC poseía físicamente casi 6.000 tubos de vacío y 12.000 diodos.
Consumía 56 kilowatts de potencia. Cubría 45,5 m² de superficie y pesaba 7.850
kg. El personal operativo consistía de treinta personas para cada turno de ocho
horas.
La
EDVAC fue entregada al laboratorio militar en agosto de 1949
y después de varios ajustes, comenzó a operar hasta 1951.
En 1960
corría por más de 20 horas diarias con lapsos sin error de 8 horas, en
promedio. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de
entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor
magnético en 1954 y una unidad de aritmética de coma flotante en 1958.La EDVAC
corrió hasta 1961 cuando fue r reemplazada por BRLESC. En su vida, demostró ser
altamente confiable y productiva.
1952 EMPIEZA LA FABRICACIÓN INDUSTRIAL Y
COMERCIALIZACIÓN DE ORDENADORES.
1956 CONFERENCIA DE DARTMOUTH, EN DONDE NACE LA
INTELIGENCIA ARTIFICIAL.
En 1956
se dio el término "inteligencia artificial" en Dartmouth
durante una conferencia convocada por McCarthy, a la cual asistieron, entre
otros, Minsk y, Newell y Simón. En esta conferencia se hicieron
previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó
el abandono casi total de las investigaciones durante quince años.
Dartmouth
College es una universidad privada ubicada en Hanover,
Nuevo Hampshire (Estados Unidos). Pertenece a la Ivy
League y es una de las nueve universidades americanas fundadas por
los británicos antes de la Revolución
Americana. Además de su tradicional programa de Jodenbreestraatpregrado
en artes liberales, Dartmouth dispone de prestigiosas escuelas de posgrado
en medicina, ingeniería y administración y dirección de empresas, así como 19
programas de posgrado en artes, humanidades y ciencias. Con un total de 5,848
alumnos, Dartmouth es la más pequeña de las universidades de la Ivy
League.
Académicamente
está catalogada como una de las mejores universidades del mundo; e incluso hay
fuentes que la llegan a acreditar como la institución donde mejor se prepara a
los estudiantes para el mundo exterior en términos de pregrados. Entre sus
alumnos más reconocidos se encuentran los presidentes de compañías como Hasbro,
IBM y General Electric. Por último, algunos
estudios indican que las personas graduadas de Dartmouth College tienen un
salario promedio más alto que los egresados en cualquier
otra universidad de los Estados Unidos, incluidasHarvard, Stanford o Yale.
1960 Nace el primer lenguaje de programación de
inteligencia artificial: el LISP.
El Lisp
(o LISP) es una familia de lenguajes de
programación de computadora de tipo
multiparadigma
con una larga historia y una sintaxis completamente entre paréntesis.
Especificado originalmente en 1958 por John McCarthy y
sus colaboradores en el Instituto
Tecnológico de Massachusetts, el Lisp es el segundo más viejo lenguaje de
programación de alto nivel de extenso uso hoy en día; solamente el FORTRAN
es más viejo. Al igual que el FORTRAN, el Lisp ha cambiado mucho desde sus
comienzos, y han existido un número de dialectos en su historia. Hoy, los
dialectos Lisp de propósito general más ampliamente conocidos son el Common Lisp y el Scheme.
El
Lisp fue creado originalmente como una notación matemática práctica para los
programas de computadora, basada en el cálculo lambda de Alonzo Church. Se convirtió rápidamente en
el lenguaje de programación favorito en la investigación de la inteligencia artificial (AI). Como uno de
los primeros lenguajes de programación, el Lisp fue pionero en muchas ideas en ciencias de
la computación, incluyendo las estructuras de datos de árbol,
el manejo de
almacenamiento automático, tipos dinámicos,
y el compilador auto contenido.
El
Lisp fue inventado por John McCarthy
en 1958 mientras estaba en el Instituto
Tecnológico de Massachusetts (MIT). McCarthy publicó su diseño en
1960 en un artículo de Communications of the ACM titulado "funciones
recursivas de expresiones simbólicas y su cómputo por la máquina, parte I"1
(la "parte II" nunca fue publicada). Allí mostró que con algunos
operadores simples y una notación para las funciones, uno puede construir un
lenguaje turing completo para los algoritmos.
Desde
1955 ó 1956, el Information Processing Language fue el primer lenguaje de AI, y
ya había incluido muchos de los conceptos, tales como proceso por lista y recursión,
que vinieron a ser usados en el Lisp.
A
mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte
de Jack St. Claire Kilby y Robert Noyce.
Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A
finales de 1960, investigadores como George Gamow
notó que las secuencias de nucleótidos en el ADN formaban un código,
otra forma de codificar o programar.A partir de esta fecha, empezaron a
empaquetarse varios transistores diminutos y otros componentes
electrónicos en un solo chip o encapsulado, que contenía en su interior un
circuito completo: un amplificador, un oscilador,
o una puerta lógica. Naturalmente, con estos
chips (circuitos integrados) era mucho más fácil montar aparatos complicados:
receptores de radio
o televisión y computadoras.
Comienza
a utilizarse los circuitos integrados, lo cual permitió abaratar costos al
tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de
las máquinas. Comienza a investigarse también programas y aplicaciones que
facilitan las operaciones con las computadoras sin necesidad de conocer un lenguaje de
programación.
EN 1965,
IBM
ANUNCIÓ EL PRIMER GRUPO DE MÁQUINAS CONSTRUIDAS CON CIRCUITOS INTEGRADOS, QUE
RECIBIÓ EL NOMBRE DE SERIE EDGAR.
Estas
computadoras de tercera generación sustituyeron totalmente a los de segunda,
introduciendo una forma de programar que aún se mantiene en las grandes
computadoras actuales.Esto es lo que ocurrió en (1964-1971) que comprende de la
Tercera generación de computadoras:
- Menor consumo de energía
- Apreciable reducción del espacio
- Aumento de fiabilidad
- Teleproceso
- Multiprogramación
- Renovación de periféricos
- Minicomputadoras, no tan costosas
y con gran capacidad de procesamiento. Algunas de las más populares fueron
la PDP-8
y la PDP-11
- Se calculó π (Número Pi) con 500.000 decimales
1964 IBM EMPIEZA A COMERCIALIZAR LOS 360.
Consola del operador de un System/360
Model 65, con válvula de registro, lámparas y switches (mitad de la
fotografía), y arriba a la derecha, un interruptor de emergencia rojo.
El
360 fue el primero en usar microprogramación, y creó el concepto de
arquitectura de familia. La familia del 360 consistió en 6 ordenadores que
podían hacer uso del mismo software y los mismos periféricos. El
sistema también hizo popular la computación remota, con terminales
conectados a un servidor, por medio de una línea telefónica. Así mismo, es
célebre por contar con el primer procesador en implementar el algoritmo de Tomasulo en su unidad de punto
flotante.
El
IBM 360 es uno de los primeros ordenadores comerciales que usó circuitos
integrados, y podía realizar tanto análisis numéricos como administración o
procesamiento de archivos. Se considera que la tercera
generación de computadoras comenzó con su introducción. Fue el
primer computador en ser atacado con un virus en la historia de la informática;
y ese primer virus que atacó a esta máquina IBM Serie 360 (y reconocido como
tal), fue el Creeper, creado en 1972
Introducción
El
IBM S/360 (S/360) es un sistema de computación de la familia mainframe que IBM
anunció el 7 de abril de 1964. Fue la primera familia de ordenadores
diseñados para cubrir las aplicaciones independientemente de su tamaño o
ambiente (científico, comercial). En el diseño se hizo una clara distinción
entre la arquitectura e implementación, permitiendo a IBM sacar una serie de
modelos compatibles a precios diferentes. Los modelos S/360 anunciados en 1964
variaban en velocidad de 0,034 MIPS a 1,700 MIPS (50 veces la velocidad) y
entre 8 KB y 8 MB de memoria principal, aunque este último fue inusual. El 360
fue un gran éxito en el mercado, permitía a los clientes comprar un sistema más
pequeño sabiendo que siempre podrían migrar hacia un sistema de mayor
capacidad. Muchos consideran el diseño de este sistema como uno de los más
importantes en la historia, ya que ha influido en el diseño de los ordenadores
de años posteriores. El arquitecto jefe del S/360 fue Gene Amdahl.
1968 ROBERT
NOYCE Y GORDON MOORE FUNDAN INTEL CORPORATION.
Intel Corporation es
el mayor fabricante de circuitos integrados
del mundo, según su cifra de negocio anual. La compañía es la creadora de la
serie de procesadores x86, los procesadores más comúnmente
encontrados en la mayoría de las computadoras personales. Intel fue fundada el
18 de julio de 1968 como Integrated
Electronics Corporation (aunque
un error común es el de que "Intel" viene de la palabra intelligence) por los pioneros en
semiconductores Robert Noyce y Gordon Moore, y muchas veces asociados con
la dirección ejecutiva y la visión de Andrew Grove.
Intel
fue fundada en Mountain View
(California) en 1968 por Gordon E. Moore (químico
y físico,
famoso por su "Ley de Moore")
y Robert Noyce (físico y co-inventor del circuito integrado) cuando salieron de Fairchild Semiconductor. El tercer empleado
de Intel fue Andy Grove,un ingeniero químico, que
dirigió la compañía durante la mayor parte de los años 1980 y del período de
alto crecimiento de los 1990.
Moore
y Noyce inicialmente quisieron llamar a la compañía "Moore Noyce".,
pero sonaba mal (ya que en inglés suena como More Noise, que
literalmente significa: Más Ruido, un nombre poco adecuado para una empresa electrónica, ya que el ruido en
electrónica suele ser muy indeseable y normalmente se asocia con malas
interferencias). Utilizaron el nombre NM Electronics durante
casi un año, antes de decidirse a llamar a su compañía Integrated Electronics
(en español Electrónica Integrada), abreviado "Intel".7 Pero "Intel" estaba
registrado por una cadena hotelera, por lo que tuvieron que comprar los
derechos para poder utilizarlo.
1969 KENNETH THOMPSON Y DENNIS RITCHIE CREAN EL
SISTEMA OPERATIVO UNIX, EN LOS LABORATORIOS AT&T.
Unix
(registrado oficialmente como UNIX®) es un sistema operativoportable,
multitarea
y multiusuario; desarrollado, en principio,
en 1969
por un grupo de empleados de los laboratorios Bell
de AT&T,
entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hasta
2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de
normalización industrial. A partir de marzo de 2010 y tras una larga batalla
legal, esta ha pasado nuevamente a ser propiedad de Novell,
Inc. Sólo los sistemas totalmente compatibles y que se encuentran certificados
por la especificación Single UNIX
Specification pueden ser denominados "UNIX®" (otros
reciben la denominación "similar a un sistema Unix" o "similar a
Unix"). En ocasiones, suele usarse el término "Unix tradicional"
para referirse a Unix o a un sistema operativo que cuenta con las
características de UNIX Versión 7
o UNIX System V.
Historia
Ken Thompson y Dennis Ritchie, creadores de Unix.A finales
de 1960, el Instituto
Tecnológico de Massachusetts, los Laboratorios Bell de AT&T
y General Electric trabajaban en un sistema
operativo experimental llamado Multics (Multiplexed Information
and Computing System),3
desarrollado para ejecutarse en una computadora central (mainframe) modelo GE-645.
El objetivo del proyecto era desarrollar un gran sistema operativo interactivo
que contase con muchas innovaciones, entre ellas mejoras en las políticas de
seguridad. El proyecto consiguió dar a luz versiones para
producción, pero las primeras versiones contaban con un pobre rendimiento. Los
laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a
otros proyectos.
Uno
de los programadores de los laboratorios Bell, Ken Thompson, siguió trabajando
para la computadora GE-635 y escribió un juego llamado Space Travel,
(Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina
de General Electric y resultaba realmente
caro, algo así como 75 dólares de EE.UU. por cada partida.
1971 IBM CREA EL DISQUETE DE 8 PULGADAS.
Orígenes,
el disco de 8 pulgadas
Un
lector de disquetes de 8 pulgadas con un disquete parcialmente insertado.En 1967,
IBM
encomendó a su centro de desarrollo de almacenamiento de San José
(California) una nueva tarea: desarrollar un sistema sencillo y
barato para cargar microcódigo en los System/370 de sus ordenadores centrales.
Uso
en la actualidad
Esta
unidad está quedando obsoleta y son muchos los computadores que no la
incorporan, por la aparición de nuevos dispositivos de almacenamiento más
manejables, que además disponen de mucha más memoria física, como por ejemplo
las memorias USB.
Una memoria
USB de 1 GB (Gigabyte) de memoria equivale
aproximadamente a 900 disquetes. Algunos países siguen utilizando estos medios
de almacenamiento para presentaciones impositivas anuales, como por ejemplo, la
Provincia de Santa
Fe, Argentina.
No
obstante, estos medios de almacenamiento siguen siendo de una gran utilidad
como discos de arranque en caso de averías o emergencias en el sistema
operativo principal o el disco duro, dado
su carácter de estándar universal que en los IBM PC compatibles no necesita ningún tipo
de controladora adicional para ser detectados en el proceso de carga por la BIOS
y dado que, a diferencia del CD-ROM, es fácilmente escribible.
1972 APARECEN LOS DISQUETES DE 5.25 PULGADAS.
Podía
almacenar una pequeña cantidad de datos comparados con lo que sacaron más
adelante las disqueteras y disquetes de 5¼ pulgadas. Estas utilizaban la misma
tecnología de base y se llegaron a fabricar en varias versiones, siendo las más
populares las de Doble Cara/Doble Densidad DS/DD, con una capacidad de 360 kilobytes.
En
este formato el tamaño máximo que llegó a fabricarse fue el de alta densidad
HD, con una capacidad de 1,2 MB.Por regla general las disqueteras de 5¼ y 3½
las reconoce el sistema operativo
sin problemas, ya que la BIOS trae incorporadas las rutinas de
manejo (se acceden mediante la Int 13h). La BIOS
viene configurada de fábrica para que primero arranque con la unidad A
1972 SEYMOUR CRAY CONSIDERA QUE EL SOFTWARE PODRÍA
SER MÁS POTENTE EN ORDENADORES MONO PROCESADORES POR MEDIO DEL PROCESAMIENTO EN
PARALELO. NACE ASÍ EL CRAY 1.
El Cray-1
fue un superordenador diseñado por un importante
número de informáticos encabezados por Seymour Cray
para Cray Research. El primer sistema Cray-1 fue
instalado en el laboratorio
nacional de Los Álamos en 1976. Es uno de los supercomputadores más
conocidos y exitosos de la historia, y de los más potentes en su época.
Anunciado
en 1975,
desató una escalada de ofertas por parte del Laboratorio Nacional de Los Álamos
y el Lawrence
Livermore, ganando finalmente el primero. A lo largo de los años, la
empresa Cray Research esperaba vender una docena de superordenadores Cray-1, a
un precio de entre 5 y 8 millones de dólares, pero finalmente vendió más de
ochenta. La máquina dio la fama a Seymour Cray y a Cray Research, siendo continuada
en diversas versiones hasta los años 90.
Como
características técnicas, la primera versión (Cray-1A) operaba con procesadores vectoriales a 80 MHz, era un
sistema de 64-bits y pesaba 5,5 toneladas, incluyendo el sistema de
refrigeración por freón; pese a su gran tamaño solo tenía 16
MB de RAM.
La
denominada Cuarta Generación (1971 a la fecha) es el producto del micro
miniaturización de los circuitos electrónicos. El tamaño reducido del
microprocesador de chips hizo posible la creación de las computadoras
personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y
VLSI (integración a muy gran escala) permiten que cientos de miles de
componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante
puede hacer que una computadora pequeña rivalice con una computadora de la
primera generación que ocupaba un cuarto completo. Hicieron su gran debut las
microcomputadoras.
(resumen-
con microprocesador) Fase caracterizada por la integración de los componentes
electrónicos, lo que propició la aparición del microprocesador, es decir, un único
circuito integrado en el que se reúnen los elementos básicos de la máquina.
1975 SE COMERCIALIZAN EL ALTAIR 8800, CONSIDERADO
EL PRIMER ORDENADOR PERSONAL.
La Altair 8800 de MITS fue un microordenador
diseñado en 1975,
basado en la CPUIntel
8080A. Se vendía como un kit a través de la revista Popular Electronics, los diseñadores
planearon vender solo unos pocos cientos de ejemplares a los aficionados, y se
sorprendieron al vender diez veces esa cantidad solo en el primer mes. Hoy en
día, la Altair es ampliamente reconocida como la chispa que condujo a la
revolución del computador personal
durante los años siguientes: El bus de computador diseñado para la Altair
se convirtió en un estándar de facto conocido como el bus
S-100. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por Bill
Gates y Paul Allen, quienes inmediatamente después
fundarían Microsoft.
El
kit fue primero anunciado en la edición de enero de 1975
de la Popular Electronics. La coordinación
parecía justo a tiempo. Los aficionados de la electrónica se trasladaban a las
computadoras en la medida que más y más electrónica se volvía digital, pero
ellos se veían frustrados por la baja potencia y flexibilidad de los pocos kits
que ya estaban en el mercado. La Altair tenía suficiente fuerza para ser
realmente útil, y fue diseñada alrededor de un sistema expandible que la abrió
a toda clase de experimentos. La idea de MITS era salir de la bancarrota, y se
contentaba con vender el primer año unos 200 de estos kits, por lo que publico
un aviso en la revista Popular Electronics. El éxito fue tan grande, que
vendieron más de 2000 el primer mes, incluyendo 200 en un solo día.
1975 BILL GATES
Y PAUL ALLEN FUNDAN MICROSOFT.
Microsoft
es una compañía multinacional dedicada a la tecnología informática. La Historia
de Microsoft comienza el 4 de abril de 1975,
cuando fue fundada por Bill Gates y Paul
Allen en Albuquerque.1 Sus mejores productos actúales en
venta son su sistema operativo Windows y su suite ofimática Microsoft Office.
En
sus inicios en el año 1980, Microsoft formó una importante unión
con IBM
la cual permitió ligar el sistema operativo de Microsoft con los ordenadores de
IBM, pagando a Microsoft los derechos de cada venta. En 1985,
IBM solicito a Microsoft que hiciera un nuevo sistema operativo para sus
ordenadores llamado OS/2. Microsoft hizo el sistema operativo,
pero continuó vendiendo su propia versión en directa competición con el OS/2.
La versión de Microsoft eclipsó al OS/2 en términos de ventas. Cuando Microsoft
lanzó sus versiones de Windows en los años 90, ya había capturado el 90% de la
cuota de mercado de los ordenadores personales del mundo.
A
fecha de 2007,
Microsoft tiene un crédito anual de 51, 12 millones de $ y casi 79.000
empleados en 102 países. Desarrolla, fabrica, licencia y apoya una amplia gama
de productos de software y hardware para los
dispositivos informáticos.
Después
de leer el 1 de enero de 1975 que Popular Electronics había creado el Altair 8800, Bill Gates llamó a los creadores del nuevo
microordenador, MITS, y ofreció demostrar la implementación
del lenguaje de
programaciónBASIC para el sistema.5 Después de desarrollarlo en las
ocho semanas siguientes junto con Allen, el
intérprete funciono en la versión parcial del programa y MITS acordó distribuir
Altair BASIC. Gates dejó la Universidad Harvard y se trasladó a
Albuquerque, Nuevo México donde se encontraba el MITS, y
fundo Microsoft allí.
El
nombre Microsoft (una palabra combinada de microordenador y software) fue usado
por primera vez en una carta de Gates a Allen el 29 de noviembre de 1975
y el 26 de noviembre de 1976
se convirtió en marca registrada. La primera oficina internacional de la
compañía fue fundada el 1 de noviembre
de 1978
en Japón,
llamada ASCII Microsoft (ahora llamado Microsoft Japón).
El 1 de enero de 1979 la compañía se trasladó de Albuquerque
a Belleveu, Washington.
Steve Ballmer inauguró la sede de la
compañía el 11 de junio de 1980, este más adelante
sustituiría a Gates como gerente. La compañía se reestructuró el 25 de junio de 1981 para convertirse en
una compañía incorporada en el estado de Washington (de ahí cambio su nombre a
“Microsoft Inc”). Como parte de la reestructuración, Bill Gates se convirtió en
el presidente de la compañía y Paul Allen en vicepresidente ejecutivo.
1976 STEVE JOBS
Y STEVE WOZNIAC FUNDAN LA APPLE COMPUTER, INC.
Steve
Jobs y Steve Wozniak se conocieron en 1971, cuando
un amigo mutuo, Bill Fernández, presentó a Wozniak, quien tenía 21 años de
edad, a Jobs, entonces de 16 años. Steve Wozniak, a quien le gustaba que le
llamaran Woz, siempre había sentido una gran atracción por la
electrónica en general, diseñando desde que era pequeño circuitos en papel para
después tratar de optimizarlos al máximo. Dada su afición por la electrónica,
Woz "apadrinaba" a otros chicos a los que les gustase el tema, como
Bill Fernández o el mismo Steve Jobs.Pronto
Wozniak empezó a dedicar cada vez más y más tiempo a construir en papel su
propia computadora. Tras intentos relativamente infructuosos, finalmente sus
esfuerzos dieron como resultado lo que sería la Apple
I. Tras la presentación de su computadora en el club informático Homebrew Computer Club y asombrar a sus
participantes, Jobs rápidamente vio la oportunidad de negocio, por lo que
empezó a promocionar la computadora entre otros aficionados de la informática
del Homebrew Computer
Club y otras tiendas de electrónica digital.
Al
poco tiempo empezaron a recibir pequeños encargos de computadoras que
construían ellos mismos con máquinas hechas a mano, llegando a vender unos 200
ejemplares de su máquina Apple I. Se les unieron más amigos, pero
las prestaciones del Apple I eran limitadas, así que empezaron a buscar
financiación. Finalmente, Jobs conoció a Mike Markkula, que accedió a invertir
250.000$ USD, creándose así el 1 de abril de
1976, Apple Computer, a través de un contrato firmado, el
mismo, se subastó el 13 de diciembre de 2011 en Nueva York, que tuvo como base
un valor inicial de entre 100 y 150 mil dólares, que alcanzó un valor de
1.594.500 dólares.
En
total, se produjeron y se vendieron alrededor de doscientas unidades a 666.66$
USD la unidad, pero el éxito fue tal que no pudieron dar abasto a tanta
demanda. Las características del Apple I eran limitadas por el poco dinero del
que disponían Jobs y Wozniak. De hecho, para construir el prototipo, Jobs tuvo
que vender su camioneta y Woz su calculadora programable HP.
1977 SE PRESENTA LA APPLE II, EL SEGUNDO ORDENADOR
PERSONAL DE LA HISTORIA.
Con
el dinero ganado gracias a la venta del Apple I, en Apple se pudo comenzar a
pensar en una máquina bastante más ambiciosa: el Apple
II. Para Wozniak, la Apple II iba a ser
simplemente la computadora que hubiera querido construir si no hubiera tenido
las limitaciones económicas que tuvo con el Apple I. Tuvo la idea
de incluir en el equipo memoria de vídeo para administrar la visualización en
color, del mismo modo que incluía numerosas tarjetas de expansión de modo que
los usuarios pudieran ampliar las capacidades de la computadora según sus
propias necesidades.
Con
el diseño del primer prototipo del Apple II recién
terminado, Apple decidió asistir al festival informático Personal Computing
Festival, un nuevo certamen. Allí, la incipiente industria de la
microinformática podía mostrar sus progresos y hacer negocio y contactos.
La
gran mayoría de máquinas y empresas dedicadas a la microinformática en 1976, y
por consiguiente prácticamente todas las que formaban el festival, eran en
general jóvenes fanaticos de la informatica con kits que los usuarios debían
montar y/o soldar para poder hacer funcionar, por lo tanto enfocadas sobre todo
a los entusiastas de la electrónica. Sin embargo, Processor Technology ofrecía
una imagen mucho más seria y profesional, y su Sol era una computadora que si
bien estaba enfocado, al igual que los demás, como un kit que debía montarse,
también se daba la posibilidad de adquirirla como computadora ya montada y
lista para utilizar.
Fue
entonces cuando Steve Jobs comprendió que el futuro no
estaba en placas con componentes que los usuarios debieran montar y soldar
ellos mismos, sino en computadoras como el Sol, ya montadas y preparadas para
el uso y disfrute de los usuarios. Por lo tanto, el Apple
II, el cual aún no había salido a la venta, debía incorporar la
salida de vídeo, el teclado y todo aquello que necesitara en una caja de
plástico para hacer que su uso fuera más sencillo.
Si
bien Steve Wozniak era el diseñador de toda la
lógica y la electrónica del Apple II, Steve
Jobs era el creador del concepto y la visión de futuro de Apple,
buscando al mismo tiempo la forma de crear un producto que pudiera satisfacer a
todos los usuarios, y no sólo a los más técnicos. Aparte de la decisión de
vender el Apple II como un conjunto perfectamente
empaquetado, otras importantes decisiones suyas fueron la de invertir en
mejores sistemas de alimentación eléctrica y control del calentamiento del
equipo, siendo el Apple II una computadora completamente
silenciosa gracias a que no necesitaba ventiladores para controlar su
temperatura.
Pero
concebir tal máquina suponía mucho dinero y personal cualificado, algo que no
tenían. Ningún banco quería arriesgarse en tal proyecto, y menos en aquellos
tiempos: una computadora utilizable por el gran público parecía absurdo en la
época, puesto que los bienes posibles de los habitantes, eran escasos para
comprar este tipo de tecnología. Ronald Wayne,
que había ayudado a Jobs y Wozniak a concebir el Apple
I, era escéptico sobre las oportunidades de éxito de tal proyecto y
abandonó a la compañía. Jobs conoció finalmente a Mike Markkula en 1977,
quien aportó su peritaje en asuntos y un cheque de $250.000.00 USD al capital
de Apple. También proporcionó en esa ocasión su primer Presidente a Apple, Mike Scott.
El
modelo final de Apple II se presentó al público en abril de
1977
convirtiéndose en el canon de lo que debía ser a partir de entonces una
computadora personal. Por este motivo, Apple cambió su logotipo por el famoso
logo de la manzana coloreada, que recordaba que el Apple II era uno de las
primeras computadoras en disponer de monitor en color. A mediados de 1979,
Apple presentó el Apple II+, una evolución del Apple
II dotada, en particular, con más memoria (48 Kb ampliable a 64 Kb) y lenguaje de
programación BASIC.
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como
unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba
la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar
durante la ejecución de las distintas tareas programadas. Para su desarrollo se
emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale
Integration).
Surge
la PC
tal y cual la conocemos en la actualidad. IBM presenta su primera computadora
personal y revoluciona en el sector informativo. En vista de la acelerada
marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de
poner también a esa altura el desarrollo del software y los sistemas con que se
manejan las computadoras. Surge la competencia internacional por el dominio del
mercado de la computación, en la que se perfilan dos líderes que, sin embargo,
no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con
la computadora en un lenguaje más cotidiano y no a través de códigos o
lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa
de la quinta generación de computadoras", con los objetivos explícitos de
producir máquinas con innovaciones reales en los criterios mencionados. Y en
los Estados Unidos ya está en actividad un programa en desarrollo que persigue
objetivos semejantes, que pueden resumirse de la siguiente manera:
ü Se
desarrollan las microcomputadoras, o sea, computadoras personales o PC.
ü Se
desarrollan las supercomputadoras. Inteligencia artificial: La inteligencia
artificial es el campo de estudio que trata de aplicar los procesos del
pensamiento humano usados en la solución de problemas a la computadora.
Robótica: La robótica es el arte y ciencia de la creación y empleo de robots.
Un robot es un sistema de computación híbrido independiente que realiza
actividades físicas y de cálculo. Están siendo diseñados con inteligencia
artificial, para que puedan responder de manera más efectiva a situaciones no
estructuradas. Sistemas expertos: Un sistema experto es una aplicación de
inteligencia artificial que usa una base de conocimiento de la experiencia
humana para ayudar a la resolución de problemas. Redes de comunicaciones: Los
canales de comunicaciones que interconectan terminales y computadoras se
conocen como redes de comunicaciones; todo el "hardware" que soporta
las interconexiones y todo el "software" que administra la
transmisión
El
proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras
actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible
llevar a cabo una paralelización
del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el
peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro
que para realizar un programa paralelo debemos, para empezar, identificar
dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores.
Además, es importante señalar que un programa que se ejecuta de manera
secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado
de manera paralela, es decir, primero sería interesante estudiar si realmente
el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de
la tarea después de paralelizarla.
1981 SE COMERCIALIZA EL IBM PC.
El
12 de agosto de 1981, IBM lanzó el IBM Personal Computer (IBM PC).El IBM PC
usó el, entonces nuevo, procesador Intel 8088. Como
otros CPU de 16 bits, podía accesar hasta 1 megabyte de RAM,
pero usaba un bus de datos de 8 bit de ancho para la memoria y los periféricos.
Este diseño permitió el uso de la familia grande, fácilmente disponible, y
relativamente barata, de chips de soporte de 8 bits. IBM decidió usar el Intel
8088 después de primero considerar el Motorola 68000
y el Intel i8086, porque los otros dos eran considerados que eran demasiado
poderosos para sus necesidades. La reputación de IBM en la computación de
negocios, combinada con un rápido mercado de periféricos de terceros y de la
introducción posterior de sistemas compatibles al IBM PC por parte de otros
proveedores, permitió que la arquitectura del IBM PC tomara una substancial
cuota del mercado de aplicaciones empresariales.
Muchas
otras compañías de ese entonces también estaban haciendo "computadores
personales de negocios" usando sus diseños propietarios, algunos todavía
usando los microprocesadores de 8 bits. Los que usaron los procesadores Intel x86
con frecuencia usaban el sistema operativo MS-DOS o el CP/M-86,
de la misma manera que los sistemas de 8 bits con un CPU compatible del Intel
8080 normalmente usaron el CP/M.
Sistemas
lanzados poco después del IBM PC
Poco
después de que el IBM PC fue lanzado, apareció una división obvia entre los
sistemas que optaron usar un procesador compatible x86, y los que eligieron
otra arquitectura. Casi todos los sistemas x86 proporcionaron una versión del
MS-DOS. Los otros usaron diferentes sistemas operativos, aunque los sistemas
basados en el Z80 típicamente ofrecieron una versión del CP/M.
El uso común del MS-DOS unificó los sistemas basados en x86, promoviendo el
crecimiento del "ecosistema" x86/MS-DOS.
A
medida que murieron las arquitecturas no x86, y los sistemas x86 se estandarizaron
en clones completamente compatibles con el IBM PC, un mercado lleno con docenas
de diferentes sistemas compitiendo, fue reducido a una casi mono cultura de
compatibles del IBM PC y del MS-DOS.
1981 MICROSOFT PRESENTA EL SISTEMA OPERATIVO
MS-DOS (MICROSOFT DISK OPERATING SYSTEM).
MS-DOS
(siglas de MicrosoftDisk Operating System,
Sistema operativo de disco de Microsoft) es un sistema operativo para computadores
basados en x86.
Fue el miembro más popular de la familia de sistemas operativos DOS
de Microsoft,
y el principal sistema para computadoras
personalescompatible
con IBM
PC en la década de 1980 y mediados de 1990, hasta que fue sustituida gradualmente
por sistemas operativos que ofrecían una interfaz
gráfica de usuario, en particular por varias generaciones de Microsoft Windows.
MS-DOS
nació en 1981 al encargársele a Microsoft producir un
sistema operativo para la gama de computadores personales IBM
PC de IBM. En este momento, Microsoft compró los derechos de QDOS,
también conocido como 86-DOS,1
de Seattle
Computer Products, y comenzó a trabajar en las modificaciones para
poder cumplir con los requerimientos de IBM. La primera edición, MS-DOS 1.0,
fue presentada en 1982.2 La versión incluida en los PC's de
IBM fue conocida como PC DOS. Aunque MS-DOS y PC-DOS fueron desarrollados
por Microsoft e IBM en paralelo, los dos productos se separaron con el tiempo.
Historia
MS-DOS
se desarrolló a partir de QDOS, Quick and Dirty Operating System,
también conocido como 86-DOS. Su desarrollo se inició oficialmente en 1981 y
fue lanzado en 1982 como MS-DOS 1.0. Tuvo ocho versiones principales y alcanzó
gran difusión pero fue gradualmente reemplazado por sistemas operativos que
ofrecían una interfaz gráfica de usuario (GUI), en particular, por varias
generaciones del sistema operativo Microsoft Windows.
1981 SONY CREA DISQUETES DE 3.5 PULGADAS.
También
fue usado en la industria de los videojuegos, cuando Nintendo
hizo un formato propio de disquete, parecido al actual de 3 1/2, para usar con
un periférico diseñado para la consola Famicom llamado Famicom Disk Drive. No obstante, sólo se
lanzo en Japón. También se vendían disquetes en
blanco, para grabar juegos en la calle, mediante máquinas automáticas
instaladas en algunos lugares de Japón.
Las
disqueteras de 3,5 pulgadas, inventadas por Sony, fueron utilizadas
por primera vez en un equipo propietario fabricado por la compañía. Con la
aparición del estándar MSX casi en ese mismo momento (año 1983), estos
disquetes fueron introducidos en la norma como un estándar, convirtiéndola en
el primer sistema informático comercial en utilizarlas; El primer modelo de
disquetera MSX que se fabricó fue de simple cara, es decir, 360KB de capacidad,
con lo que se configuraba el sistema básico de bajo coste. Pero este también
podía utilizar los discos de 720KB de doble cara con un formato idéntico al IBM
PC, por lo que la transferencia de información entre las dos plataformas se
hacía de manera transparente.
1982 APARECE EL PRIMER CLÓNICO DEL IBM PC.
Se
denomina Compatible IBM PC o IBM PC compatible a un tipo de
ordenadores similares al IBM PC, IBM Personal
Computer XT e IBM Personal
Computer/AT. Estos ordenadores también llamados PC clones, IBM
clones o clónicos, se denomina así porque casi duplican exactamente
todas las características importantes de la arquitectura PC, hecho facilitado
por la posibilidad de realizar legalmente ingeniería inversa de la BIOS
mediante el diseño de sala limpia por parte de varias compañías. Columbia Data
Products construyó el primer clon de un IBM PC mediante una implementación de
sala limpia de la BIOS.
Muchos
de los primeros compatibles IBM PC utilizan el mismo bus que los IBM
PC e IBM AT
originales. El bus compatible IBM AT es posteriormente llamado Bus
ISA por los fabricantes de ordenadores compatibles.Los descendientes
de los compatibles IBM PC constituyen la mayoría de las computadoras personales del mercado actual,
pese a que la interoperabilidad con la estructura de bus y periféricos de la
arquitectura PC original sea limitada o inexistente.
Los
"clones" del IBM PC se crearon sin la participación o aprobación de
IBM. Columbia imita estrechamente al IBM PC y produce el primer
"compatible" PC (es decir, más o menos compatible con el estándar IBM
PC) en junio de 1982, seguido al poco por Eagle Computer. COMPAQ
Computer Corp. anuncia su primer compatible unos meses después en
noviembre de 1982, el COMPAQ Portable.
El COMPAQ fue el primer ordenador portable
del tamaño de una máquina de coser
que es esencialmente 100% compatible. La empresa no podía copiar directamente
la BIOS, como resultado de la decisión judicial en el caso Apple v. Franklin,
pero sí puede realizar ingeniería inversa de la BIOS de IBM y luego escribir su
propia BIOS utilizando el diseño de sala limpia.
1982 FEYNMANN PROPONE LA MECÁNICA CUÁNTICA COMO
HERRAMIENTA DE COMPUTACIÓN.
Este
término está íntimamente ligado con la computación
cuántica, ya que la de coherencia de los qubits
representa un problema. Se basa en que los sistemas físicos no residen aislados
sino que interactúan con otros, y esta interacción es la que provoca que se
deshagan los estados de superposición de los qubits (mientras no interactúe, es
un sistema coherente, es decir, se encuentra en una indefinida superposición de
estados). A este intervalo de pérdida de coherencia se le asocia que lo que
esencialmente es un sistema cuántico lo podamos describir por medio de
variables clásicas.
1983 PRIMER ORDENADOR PERSONAL CON INTERFAZ
GRÁFICO, LA LISA DE APPLE.
El Apple
Lisa fue un revolucionario computador personal
diseñado en Apple Computer durante el principio de los
años 1980.El proyecto Lisa fue iniciado en Apple
en 1978
y lentamente evolucionó para diseñar un poderoso computador personal con una interfaz
gráfica de usuario (GUI). El computador Lisa iba a ser dirigido
hacia clientes de negocios. Alrededor de 1982, Steve
Jobs fue forzado fuera del proyecto Lisa, así que él se unió al
proyecto Macintosh. Al contrario de la creencia
popular, el Macintosh no es un descendiente directo de Lisa, aunque hay obvias
semejanzas entre los sistemas, y la revisión final, Lisa 2/10, fue modificado y
vendido como el Macintosh XL.
1984 Sony y Philips crean CD-Rom para los
ordenadores.
Un CD-ROM
(siglas del inglés Compact Disc - Read Only
Memory), es un prensado disco compacto que contiene los datos de
acceso, pero sin permisos de escritura, un equipo de almacenamiento y
reproducción de música, el CD-ROM estándar fue establecido en 1985
por Sony
y Philips.
Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las
especificaciones técnicas para todos los formatos de discos compactos.
La
Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se
ensamble o se construya actualmente, porque la mayoría del software se
distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los
discos compactos de una sola grabada (CD-RW). Estas unidades se llaman
quemadores, ya que funcionan con un láser que "quema" la superficie
del disco para grabar la información.
Historia
El
disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés
Toshitada Doi, de Sony, en 1979. Al año siguiente, Sony
y Philips,
que habían desarrollado el sistema de audio digital Compact Disc,
comenzaron a distribuir discos compactos, pero las ventas no tuvieron éxito por
la depresión económica de aquella época. Entonces decidieron abarcar el mercado
de la música clásica, de mayor calidad. Comenzaba el lanzamiento del nuevo y
revolucionario formato de grabación audio que posteriormente se extendería a
otros sectores de la grabación de datos.
El
sistema óptico fue desarrollado por Philips mientras que la Lectura y
Codificación Digital corrió a cargo de Sony, fue presentado en junio de 1980
a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo
mediante la obtención de las licencias correspondientes para la producción de
reproductores y discos.
En
1981, el director de orquesta Herbert von Karajan
convencido del valor de los discos compactos, los promovió durante el festival
de Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados
en discos compactos en Europa fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el
pianista chileno Claudio Arrau y el álbum The Visitors
de ABBA,
en 1983 se produciría el primer disco compacto en los Estados Unidos por CBS
(Hoy Sony Music) siendo el primer título en el mercado un álbum de Billy
Joel. La producción de discos compactos se centralizo por varios
años en los Estados Unidos y Alemania de donde eran distribuidos a todo el
Mundo, ya entrada la década de los noventas se instalaron fábricas en diversos
países.
Capacidad
Un
CD-ROM estándar puede albergar 650 o 700 (a veces 800) MB
de datos. El CD-ROM es popular para la distribución de software,
especialmente aplicaciones multimedia, y grandes bases de datos. Un CD pesa
menos de 30 gramos.
Para
poner la memoria del CD-ROM en contexto, una novela promedio contiene 60,000
palabras. Si se asume que una palabra promedio tiene 10 letras (de hecho es
considerablemente menos de 10 de letras) y cada letra ocupa un byte,
una novela por lo tanto ocuparía 600,000 bytes (600 KB). Un CD puede por lo
tanto contener más de 1000 novelas. Si cada novela ocupa por lo menos un
centímetro en un estante, entonces un CD puede contener el equivalente de más
de 10 metros en el estante. Sin embargo, los datos textuales pueden ser
comprimidos diez veces más, usando algoritmos compresores, por lo tanto un
CD-ROM puede almacenar el equivalente a más de 100 metros de estante.
1985 MICROSOFT
ANUNCIA WINDOWS 1.0.
Microsoft Windows 1.0 fue el primer intento de
Microsoft de implementar un entorno operativo gráfico multitarea en la
plataforma PC. Este producto se remonta a 1981, cuando Microsoft inició un proyecto que se llamó Interface
Manager. Fue presentado al público el 10 de
noviembre de 1983, de manera oficial y renombrado
como Microsoft Windows. En la caja azul se anunciaba un
PC con la interfaz gráfica de Windows, con varias ventanas pegadas unas a
otras. La estrategia de venta de Microsoft para Windows era proporcionar un
nuevo ambiente de desarrollo y un nuevo entorno de software en el que se
utilizan imágenes de mapa de bits y un ratón, liberando así al usuario del
"método MS-DOS de escribir comandos en el
indicador del disco C (C:\)".
Windows 1.01 (fue la primera versión
lanzada, ya que la 1.00 tuvo un fallo importante y fue rápidamente retirada)
trajo incluido un administrador de archivos, calculadora, calendario, tarjetero
de archivos, reloj, libreta de apuntes y emulador de terminal.
Distribución del producto
Instalación/Estructura, Utilidades, Fuentes,
Aplicativos de Escritorio y Disco del programa.
Tenía soporte para algunos
dispositivos apuntadores, para videos CGA, Tarjetas Hércules y EGA, y soporte para alrededor de 19 modelos de impresoras. Aunque era "mejor" que
MS-DOS, ya que era más simple y ofrecía
menos complicaciones, Windows 1.01 no era de mucha utilidad. No
había iconos para los ejecutables o grupos de programa, no tenía soporte real
para multitarea, etc.
1988 W. H. SIM FUNDA CREATIVE
LABS.
Creative
Technology Limited es un fabricante de productos multimedia de computadora con sede en Singapur, donde la firma fue fundada por
Sim Wong Hoo (nacido en 1955) el 1 de julio de 1981. Tiene más de 5.000 empleados
alrededor del mundo. Sim sigue actuando como CEO de la compañía. La subsidiaria en Estados Unidos de la
compañía es conocida como Creative
Labs, Inc.
En 1987 Creative lanzó una tarjeta de
sonido generadora de sonidos de 12 voces para la arquitectura IBM PC, el Creative Music System
(C/MS), con dos chips Philips
SAA 1099. Sim personalmente fue de Singapur a Silicon
Valley y logró que la división RadioShack de Tandy lanzara al mercado su tarjeta. La
tarjeta, sin embargo, no tuvo éxito y perdió la competencia contra la tarjeta AdLib que usaba el chip Yamaha
YM3812 (también conocido como OPL2). Además de ser una tarjeta para
juegos, la versión AdLib actuaba también como un correcto sintetizador de
música, tarea que el C/MS no podía hacer.
1989 CREATIVE LABS PRESENTA LA
TARJETA DE SONIDO SOUND BLASTER.
Más tarde, otro intento fue hecho
con la Sound Blaster, una tarjeta con el mismo chip
encontrado en la tarjeta AdLib y con capacidades adicionales para reproducir
audio digital y grabar samples digitales. Creative utilizó una mercadotecnia
agresiva, como llamar a la tarjeta como componente "stereo" aunque
los componentes C/MS ofrecían stereo, o llamar el sonido producido como
"DSP", esperando asociar al producto con un procesador de señal digital.
Esta tarjeta pronto se convirtió
en el estándar de facto para las tarjetas de sonido en PC durante varios años,
mayormente por el hecho de ser el primero en juntar lo que hoy en día es
considerado como parte de las funcionalidades de una tarjeta de sonido: audio
digital, sintetizador musical, interfaz MIDI y un puerto joystick.Últimamente,
Creative Labs se ha diversificado considerablemente; sus productos incluyen
largas líneas de reproductores
MP3,
sistemas de altavoces, cámaras
web,
tarjetas gráficas, componentes de redes y pantallas LCD.
Como corporación, Creative se ha
encontrado últimamente con una dura competencia. En julio de 2005, las acciones
de Creative Technology cayeron a su mínimo histórico de U$S 10,80 como
resultado de las pobres ventas del último cuatrimestre del 2004 / primer
cuatrimestre del 2005, pese a una fuerte campaña de U$S 100 millones para
rivalizar con Apple y su altamente exitoso iPod. Esto representa un cambio
significativo al valor de U$S 50 que tenían las acciones de Creative en el año
1998. En agosto de 2005, Creative anunció que las pérdidas para ese cuarto del
año serían de U$S 31,9 millones, entrando la empresa en números rojos por
primera vez en tres años.
1993
MICROSOFT LANZA AL MERCADO LA PRIMERA
VERSIÓN DEL SISTEMA OPERATIVO MULTIUSUARIO DE 32 BITS (CLIENTE-SERVIDOR) WINDOWS NT.
1994 SHOR DESCRIBE UN ALGORITMO
CUÁNTICO QUE PERMITIRÍA FACTORIZAR ENTEROS EN TIEMPO POLINOMIAL.
En computación cuántica, el algoritmo de Shor es un algoritmo
cuántico para descomponer en factores un número N en tiempo O((log N)3) y espacio O(logN), así
nombrado por Peter Shor.Muchas criptografías de clave pública, tales como RSA, llegarían a ser obsoletas si el algoritmo de Shor es
implementado alguna vez en una computadora cuántica práctica. Un mensaje cifrado con
RSA puede ser descifrado descomponiendo en factores la llave pública N,
que es el producto de dos números primos. Los algoritmos clásicos conocidos no
pueden hacer esto en tiempo O(Nk) para ningún k, así
que llegan a ser rápidamente imprácticos a medida que se aumenta N. Por
el contrario, el algoritmo de Shor puede romper RSA en tiempo
polinómico. También se ha ampliado para atacar muchas otras
criptografías públicas.
Como todos los algoritmos de
computación cuántica, el algoritmo de Shor es probabilístico: da la respuesta
correcta con alta probabilidad, y la probabilidad de fallo puede ser disminuida
repitiendo el algoritmo.El algoritmo de Shor fue demostrado en 2001 por un grupo en IBM, que descompuso 15 en sus factores 3 y 5, usando una
computadora cuántica con 7 qubits.
1995 SE SUPERA EL TERAFLOP EN
COMPUTACIÓN EN PARALELO.
En informática, las operaciones de coma flotante por segundo son una medida del rendimiento de una computadora, especialmente
en cálculos científicos que requieren un gran uso de operaciones de coma flotante. Es más conocido su acrónimo, FLOPS, por el inglés floating point operations per second. FLOPS, al
ser un acrónimo, no debe nombrarse en singular como FLOP, ya que la S
final alude a second (o segundo) y no al plural.
Las computadoras exhiben un amplio
rango de rendimientos en coma flotante, por lo que a menudo se usan unidades
mayores que el FLOPS. Los prefijos estándar del SI pueden ser usados para este
propósito, dando como resultado megaFLOPS (MFLOPS, 10 FLOPS), gigaFLOPS
(GFLOPS, 10 FLOPS), teraFLOPS (TFLOPS, 10 FLOPS), petaFLOPS (PFLOPS, 10 FLOPS),
exaFLOPS (EFLOPS, 10 FLOPS).
Windows 95 es un sistema
operativo con interfaz gráfica de usuario híbrido de entre 16 y 32 bits. Fue lanzado al mercado el 24 de
agosto de 1995 por la empresa de softwareMicrosoft con notable éxito de ventas.
Durante su desarrollo se conoció como Windows 4 o por el nombre Chicago.
Sustituyó a MS-DOS como sistema operativo y a Windows 3.x como entorno
gráfico. Se encuadra dentro de la familia de sistemas operativos de Microsoft
denominada Windows 9x. En la versión OSR2
(OEM Service Release 2) incorporó el sistema de
archivosFAT32, además del primer atisbo del
entonces novedoso USB.
MySQL es un sistema de gestión de bases de
datosrelacional, multihilo y multiusuario con más de seis millones de
instalaciones.1MySQL AB —desde enero de 2008 una
subsidiaria de Sun
Microsystems y ésta a su vez de Oracle
Corporation desde abril de 2009— desarrolla MySQL como software
libre en un esquema de licenciamiento dual.Por un lado se ofrece bajo la GNU GPL para cualquier uso compatible con
esta licencia, pero para aquellas empresas que quieran incorporarlo en
productos privativos deben comprar a la empresa una
licencia específica que les permita este uso. Está desarrollado en su mayor
parte en ANSI C.
MySQL es muy utilizado en aplicaciones
web,
como Drupal o phpBB, en plataformas
(Linux/Windows-Apache-MySQL-PHP/Perl/Python), y por herramientas de seguimiento
de errores como Bugzilla. Su popularidad como aplicación web está muy ligada a PHP, que a menudo aparece en combinación con MySQL.
MySQL es una base de
datos muy rápida en la lectura cuando utiliza el motor no transaccional MyISAM, pero puede provocar problemas de
integridad en entornos de alta concurrencia en la modificación. En aplicaciones
web hay baja concurrencia en la modificación de datos y en cambio el entorno es
intensivo en lectura de datos, lo que hace a MySQL ideal para este tipo de
aplicaciones. Sea cual sea el entorno en el que va a utilizar MySQL, es importante
monitorizar de antemano el rendimiento para detectar y corregir errores tanto
de SQL como de programación.
Internet2 (I2) o UCAID (University Corporation for Advanced Internet
Development) es un consorcio sin fines de lucro que desarrolla
aplicaciones y tecnologías de redes avanzadas, la mayoría para
transferir información a alta velocidad. Es una red telemática desarrollada principalmente por
las universidadesestadounidenses, construida en fibra
óptica y permite altas velocidades con una gran fiabilidad. Es llevado por 212
universidades de Estados Unidos y otras 60 compañías tecnológicas1 como Comcast, Microsoft, Intel, AMD, Sun
Microsystems y Cisco
Systems. Algunas de las tecnologías que han desarrollado han sido IPv6, IP
Multicast y Calidad de
Servicio (QoS).
Windows Live Hotmail, anteriormente MSN Hotmail,
más conocido como Hotmail, es un servicio gratuito de correo electrónico basado en la
web
operado por Microsoft y parte del grupo Windows
Live. Fue fundado por Sabeer
Bhatia y Jack Smith. Se puso en marcha en julio de 1996 como "HoTMaiL"
financiado por la empresa de capital de riesgo Draper Fisher Jurvetson.
Fue uno de los primeros servicios de correo electrónico basado en la web,2 y también uno de los primeros
gratuitos. Las letras en mayúscula de su nombre original son una referencia al
lenguaje de marcado HTML utilizado en la web. Posteriormente fue adquirido por
Microsoft, en 1997, por unos 400 millones de dólares
y rebautizado como "MSN Hotmail". La versión actual se anunció
oficialmente en el 2005 y se lanzó en todo el mundo en el 2007.
Windows 98 (cuyo nombre en clave es Memphis)
es un sistema operativo gráfico publicado el 25 de
junio de 1998 por Microsoft y el sucesor de Windows 95. Como su predecesor, es un
producto monolítico híbrido de 16 y 32 bits.
La primera edición de Windows 98
fue designada por los números de versión internos 4.10.1998, o 4.10.1998A si
había sido actualizado con el CD de seguridad de Microsoft. Windows 98 Segunda
Edición está designado por los números de versión internos 4.10.2222A ó
4.10.2222B si había sido actualizado con el CD de seguridad de Microsoft. El
sucesor de Windows 98 es Windows Me.
Google Inc. es la empresa propietaria de la
marca Google, cuyo principal producto es el motor de
búsqueda de contenido en Internet del mismo nombre.
Dicho motor es resultado de la
tesis doctoral de Larry Page y Sergey Brin (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford) para mejorar las búsquedas en
Internet. La coordinación y asesoramiento se debieron al mexicano Héctor García Molina, director por entonces del
Laboratorio de Sistemas Computacionales de la misma Universidad de Stanford.3 El dominio "Google" fue
registrado el 15 de septiembre de 1997.4 Partiendo del proyecto concluido,
Page y Brin fundan, el 4 de septiembre de 1998, la compañía Google Inc.,5 que estrena en Internet su motor
de búsqueda el 27 de
septiembre siguiente (considerada la fecha de aniversario). Contaban
con un servidor con 80 CPU, y dos routers HP.6 Este motor de búsqueda superó al
otro más popular de la época, AltaVista, que había sido creado en 1995.
MSN Messenger fue un programa de mensajería instantánea creado en 1999 y actualmente descontinuado. Fue
diseñado para sistemas Windows por Microsoft, aunque después se lanzaría una
versión disponible para Mac OS. A partir del año 2006, como parte de la creación de
servicios web denominados Windows
Live por Microsoft, se cambiaron de nombre muchos servicios y programas
existentes de MSN, con lo que Messenger fue renombrado a "Windows
Live Messenger" a partir de la versión 8.0.
Windows
2000
es un sistema operativo de Microsoft que se puso en circulación el 17 de
febrero de 2000 con un cambio de nomenclatura
para su sistema NT. Así, Windows NT 5.0 pasó a llamarse Windows 2000.
Fue sucedido por Windows XP para equipos de escritorio en
octubre de 2001 y Windows
Server 2003 para servidores en abril de 2003.
Windows 2000 es un sistema
operativo para empresas y es ideal para ejecutar servidores de red o los
servidores de archivo. Dentro de las tareas que puede realizar se incluyen:
crear cuentas de usuarios, asignar recursos y privilegios, actuar como servidor web, FTP, servidor de impresión, DNS o resolución de nombres de dominio, servidor DHCP, entre otros servicios básicos.
Otra de las funciones que tiene, es como en todo sistema Windows la opción de utilizarlo como una
estación de trabajo más de la red. Dicho sistema operativo es muy eficiente y
su principal punto fuerte es el Active
Directory (Directorio Activo), herramienta desde la cual se puede administrar toda
la infraestructura de una organización.
Windows
Millennium Edition o Windows Me es un sistema
operativo gráfico híbrido de 16-bit/32-bit lanzado el 14 de
septiembre de 2000 por Microsoft Corporation.
Mac OS X es un sistema
operativo desarrollado y comercializado por Apple Inc. que ha sido incluido en su gama
de computadoras Macintosh desde 2002. Es el sucesor del Mac OS 9 (la versión final del Mac OS
Classic), el sistema operativo de Apple desde 1984. Está basado en UNIX, y se construyó sobre las
tecnologías desarrolladas en NeXT entre la segunda mitad de los 80's y finales de 1996, cuando Apple adquirió esta
compañía. Desde la versión Mac OS X
10.5 Leopard para procesadores Intel, el sistema tiene la
certificación UNIX 03.
Windows XP (cuyo nombre en clave inicial fue
Whistler) es una versión de Microsoft
Windows, línea de sistemas
operativos desarrollado por Microsoft. Lanzado al mercado el 25 de
octubre de 2001, a fecha de noviembre de 2011,
tenía una cuota de mercado del 32.8%.4 Las letras "XP"
provienen de la palabra eXPeriencia (eXPerience en
inglés).
Dispone de versiones para varios
entornos informáticos, incluyendo para los PC domésticos o de negocios, además
de equipos portátiles, "netbooks", "tablet PC" y "centros
multimedia". Sucesor de Windows
2000 junto con Windows ME, y antecesor de Windows
Vista, es el primer sistema operativo de Microsoft orientado al consumidor que
se construye con un núcleo y arquitectura de Windows NT disponible en versiones para
plataformas de 32 y 64 bits.
Mozilla Firefox es un navegador
weblibre y de código abierto descendiente de Mozilla Application Suite y desarrollado por la Fundación
Mozilla. Con más de 450 millones de usuarios, es el segundo navegador más
utilizado de Internet. Posee una cuota de mercado que se sitúa aproximadamente
entre el 20% y 26% para finales de diciembre de 2011, dependiendo de la fuente
de medición global, con particular éxito en Europa, especialmente en Alemania y Polonia donde es el más popular con
aproximadamente un 51% y 45% de uso, respectivamente
2005LOS USUARIOS DE INTERNET CON
CONEXIÓN DE BANDA
ANCHA SUPERAN A LOS USUARIOS DE INTERNET CON CONEXIÓN VÍA MÓDEM EN LA MAYORÍA DE PAÍSES DESARROLLADOS.
Google Earth es un programa informático
similar a un Sistema de Información Geográfica (SIG), creado por la empresa Keyhole Inc., que permite visualizar
imágenes en 3D del planeta, combinando imágenes de satélite, mapas y el motor
de búsqueda de Google que permite ver imágenes a escala de un lugar
específico del planeta.
YouTube (pronunciación AFI [ˈjuːtjuːb]) es un sitio web en el cual los usuarios pueden
subir y compartir vídeos. Fue creado por tres antiguos empleados de PayPal en febrero de 2005.4 En octubre de 2006 fue adquirido por Google Inc. a cambio de 1.650 millones de dólares, y ahora opera como una de sus filiales.
YouTube usa un reproductor en
línea basado en Adobe Flash (aunque también puede ser un
reproductor HTML, que incorporó YouTube poco
después de que la W3Cpresentara y el que los Navegadores
web
mas importantes soportaran el estándar HTML5) para servir su contenido. Es muy
popular gracias a la posibilidad de alojar vídeos personales de manera
sencilla. Aloja una variedad de clips de películas, programas de televisión y vídeos
musicales. A pesar de las reglas de YouTube contra subir vídeos con derechos
de autor, este material existe en abundancia, así como contenidos amateur
como videoblogs. Los enlaces a vídeos de YouTube
pueden ser también insertados en blogs y sitios electrónicos personales usando API o incrustando cierto código HTML.
Windows Vista es una versión de Microsoft
Windows, línea de sistemas
operativos desarrollada por Microsoft. Ésta versión se enfoca para ser
utilizada en equipos de escritorio en hogares y oficinas, equipos
portátiles, tablet PC y equipos media
center.
El proceso de desarrollo terminó
el 8 de noviembre de 2006 y en los siguientes tres meses
fue entregado a los fabricantes de hardware y software, clientes de negocios y
canales de distribución. El 30 de
enero de 2007 fue lanzado mundialmente y fue
puesto a disposición para ser comprado y descargado desde el sitio web de
Microsoft.
2007LA EMPRESA DELL LANZA AL MERCADO LA PRIMERA
COMPUTADORA PORTÁTIL (LAPTOP) CON LA DISTRIBUCIÓN LINUX UBUNTU PREINSTALADA. COMPUTADORA
PORTÁTIL U ORDENADOR PORTÁTIL O LAPTOP.
2008APPLE LANZA AL MERCADO LA MACBOOK
AIR LA
CUAL, AL PARECER, ES LA LAPTOP MÁS DELGADA DEL MUNDO EN ESE MOMENTO.
2008 APPLE LANZA EL MÓVIL MÁS
REVOLUCIONARIO DE LA HISTORIA EN TODA EUROPA Y AMÉRICA, EL IPHONE 3G .
Que el nombre del iPhone 3G S sea
prácticamente el mismo que el del modelo existente hasta ahora no es
casualidad, puesto que no nos encontramos ante la siguiente generación del teléfono
móvil de Apple, sino ante un modelo ligeramente renovado pero que mantiene la
esencia del mismo.
Por ello, no veremos cambios
externos en el diseño y, si no nos fijamos, tampoco los veremos al encenderlo,
hasta que nos pongamos a bucear en algunas de sus características. Un año
después del lanzamiento del iPhone 3G, Apple no ha querido dejar este de lado y
simplemente ha actualizado algunas de sus características, las suficientes como
para hacerlo sin subirle el precio.
Android es un sistema operativo móvil basado en Linux, que junto con aplicaciones middleware, está enfocado para ser utilizado
en dispositivos móviles como teléfonos
inteligentes y tablets. Es desarrollado por la Open
Handset Alliance, la cual es liderada por Google.
Fue desarrollado inicialmente por Android
Inc., una firma comprada por Google en 2005. Es el principal producto de la Open
Handset Alliance, un conglomerado de fabricantes y desarrolladores de
hardware, software y operadores de servicio. Las unidades vendidas de teléfonos
inteligentes con Android se ubican en el primer puesto en los Estados
Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de
43,6% en el tercer trimestre.
2008 LANZAMIENTO DEL NAVEGADOR
GOOGLE CHROME.
Windows 7 es la versión más reciente de Microsoft
Windows, línea de sistemas
operativos producida por Microsoft
Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos
portátiles, tablet PC, netbooks y equipos media
center.2 El desarrollo de Windows 7 se
completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta
oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.
2010Se espera el lanzamiento de USB
versión 3.0, que representaría un avance en la velocidad de transmisión
de datos entre el dispositivo conectado y la computadora.
USB 3.0 es la segunda revisión importante
de la Universal Serial Bus (USB) estándar para la conectividad informática. USB
3.0 tiene una velocidad de transmisión de hasta 5 Gbit/s, que es 10 veces más
rápido que USB 2.0 (480 Mbit/s). USB 3.0 reduce significativamente el
tiempo requerido para la transmisión de datos, reduce el consumo de energía, y
es compatible con USB 2.0. El Grupo Promotor de USB 3.0 anunció el 17 de
noviembre de 2008, que la especificaciones de la versión 3.0 se habían
terminado e hicieron la transición al Foro de
implementadores de USB (USB-IF), la entidad gestora de las especificaciones
de USB.1 Este movimiento abre
efectivamente la especificación para los desarrolladores de hardware para su
aplicación en futuros productos.
No hay comentarios.:
Publicar un comentario