Introducción
En la actualidad no nos podemos imaginar casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadoras han invadido la mayoría de las labores del ser humano; hoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso de las computadoras, como en oficinas bancarias, centros de enseñanza, oficinas de ventas, clínicas médicas u hospitales, fabricas y almacenes industriales, organismos de gobierno y oficinas administrativas, laboratorios, entre muchos otros.
La revolución producida por la computadora en el saber humano proviene de la concentración de conocimientos que puede memorizar, la elaboración que de ellos pueden hacer, y de la complejidad de los estudios y tareas que puede realizar mediante instrucciones programadas.
Haciendo un esbozo historiográfico, durante la segunda guerra mundial, se desarrollo una imponente maquina calculadora en la universidad de Pennsylvania, bautizada con el nombre de ENIAC (Electronic Numerical Integrator and Calculator), pesaba 30 toneladas y ocupaba una superficie de mas de 200 m2. Su existencia se debió a la necesidad de calcular las tablas de disparos de los proyectiles que implicaban una enorme cantidad de operaciones aritméticas.La evolución de las computadoras se tiende a dividir en generaciones, teniendo en cuenta adelantos y desarrollos tecnológicos que las hacen más eficaces, en cuanto a su velocidad y cantidad de operaciones a realizar, mas cómoda por su tamaño y sencillez en su utilización y más inteligentes, con relación a las tareas que puedan llegar a cumplir
Estas máquinas maravillosas inventadas por el hombre, tal como ahora las concebimos, son el resultado de una gran secuencia de eventos.
Primera generación (1951 - 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Estas computadoras estaban constituidas por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta, eran grandes y pesadas. Generaban un alto consumo de energía, el voltaje de los tubos era de 300 V y la posibilidad de fundirse era grande
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la primera generación formando una compañía privada y construyendo UNIVAC I, la cual se utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas, sin embargo no había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en EE.UU. De hecho la IBM instaló 1000 computadoras. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías Privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
Segunda generación (1959 - 1964)
El invento del transistor (dispositivo electrónico que sirve como amplificador de señal) hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. No obstante el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Mejoraron los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas. Los programas de computadoras también avanzaron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la primera generación estaba ya disponible comercialmente; fue uno de los primeros programas que se pudieron ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper, quien en 1952 había inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), la misma se encargo de desarrollar el proyecto COBOL, el escribir un programa ya no requería entender plenamente el hardwarede la computación.
Las computadoras de la segunda generación eran más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
La marina de EE.UU. utilizó las computadoras de la segunda generación para crear el primer simulador de vuelo. Para ese entonces HoneyWell se había colocado como el primer competidor durante la segunda generación de computadoras. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, Control Data Corporation con su conocidomodelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento.
Tercera generación (1964 - 1971)
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados, en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (chip) por el ingeniero Jack S. Kilbry de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semiconductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes de la llegada de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas.
Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. Se instalan terminales remotas, que puedan acceder a la computadora central para realizar operaciones, extraer o introducir información en Bancos de Datos, etc. Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta. Se generalizan los lenguajes deprogramación de alto nivel.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology), fue una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000.
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero los lectores de tarjetas ya alcanzan velocidades respetables.
Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Con la introducción del modelo 360, IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron un gran auge entre 1960 y 1970.
Cuarta generación (1971 - 1982)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un chip, producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales.
En 1971, Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o chip de 4 bits, que en un espacio de aproximadamente 4 X 5 mm contenía 2250 transistores. Este primer microprocesador fue bautizado como el 4004.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer, asimismo se incluye un sistema operativoestandarizado, el MS-DOS (MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruction Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a grandes velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón sobre uno de los iconos o menús.
Quinta generación (1982 - actualidad)
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos señalar algunas fechas y características de lo que es la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación, se dice que en la década de los ochenta se establecieron los cimientos de lo que se puede conocer como la quinta generación de computadoras.
Hay que mencionar uno de los importantes avances tecnológicos: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores, aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes, también tienen la capacidad de comunicarse con un lenguaje natural. El almacenamiento de información se realiza en dispositivos magneto-ópticos con capacidades de decenas de gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría.
Uno de los pronósticos que se han venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con la llegada de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
Sexta generación (futuro)
Como supuestamente la sexta generación de computadoras está por venir, en un futuro no muy lejano, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo/Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolladas o están en ese proceso. Algunas de ellas son:inteligencia artificial distribuida, teoría del caos, sistemas difusos, holografía, transistores ópticos, etc.
Quinta Generación
La quinta generación inicia a principios de los años ochenta, teniendo como característica principal la evolución de las comunicaciones a la par de la tecnología.
La computación paralela sigue avanzando al grado de que los sistemas paralelos empiezan a competir con los sistemas vectoriales en términos de poder total de cómputo.
La miniaturización de componentes y su consecuente reducción en costo y necesidades técnicas ayudan a obtener sistemas de muy alta capacidad en donde las estaciones de trabajo compiten y superan en capacidad a las supercomputadoras de las generaciones anteriores.
Dentro de los eventos que forjaron el inicio de este período están:
- La actualización de la especificación IEEE 802.3, para incluir cableado de par de cobre trenzado con 10 Base T.
- Tim Berners-Lee trabaja en una interfaz gráfica de usuario navegador y editor de hipertexto utilizando el ambiente de desarrollo de NeXTStep, bautizando "World Wide Web" al programa y al proyecto.
- Motorola presenta el concepto del Sistema Iridium para comunicación personal global, complementando los sistemas de comunicación alámbrica e inalámbrica terrestre.
- Formalmente se cierra ARPAnet, que es reemplazada por la NSFnet y las redes interconectadas, dando origen a la participación pública en el desarrollo de lo que se convertiría en la red de redes, Internet, y la formación del grupo de trabajo para redes inalámbricas IEEE802.11 (Wireless LAN Working Group IEEE 802.11).
La implementación de redes de datos digitales se vuelve un asunto cotidiano, no solo alcanzando altas velocidades, sino además creando esquemas jerárquicos de transmisión de datos permitiendo la integración de servicios de video de alta calidad con movimiento total, voz y otros datos digitales multimedia en tiempo real.
El siguiente paso tecnológico consistió en la integración de computadoras en red para trabajo simultáneo o computación distribuida, en donde un proceso en una computadora en red puede encontrar tiempo de procesador en otra de la misma red para realizar trabajos en paralelo.
Otros avances fundamentados en las tecnologías de comunicación son:
- Funcionamiento de computadoras en modo agrupado, también conocido como "cluster", en donde varias computadoras se comportan como una misma, dando un grado tal de tolerancia a fallas, que inclusive puede fallar una computadora sin que la funcionalidad se afecte.
- Dispositivos inteligentes, yendo desde tostadoras y hornos de microondas, hasta casas y edificios conectados en red para su administración, supervisión y control remoto a través de las redes.
Internet hace entrada en el mundo doméstico abriendo nuevas alternativas para negocios, comercios y empresas creando lo que se conocería como el "bum del punto com", en donde aparecen y desaparecen servidores de Internet en un grado vertiginoso, todos ellos de empresas que buscan un posicionamiento global.
Con las computadoras de nivel elemental de esta época y la caída en los costos de las comunicaciones se llegan a crear negocios virtuales cuya única sucursal puede estar en un servidor doméstico y tener presencia mundial.
Sexta Generación
Cada vez se hace mucho más difícil la identificación de las generaciones de las computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la quinta generación ha terminado (la ubican entre los años 1984 a 1990) y que la sexta generación está en desarrollo desde los años noventa hasta la actualidad; por otro lado, expertos en la informática y la computación afirman que la quinta generación no ha culminado (se viene desarrollando desde los años ochenta hasta la actualidad) y que la sexta generación es el futuro (la relacionan con la robótica y la inteligencia artificial).
Guiándonos en base a lo investigado y en nuestros propios conocimientos, consideramos que la sexta generación es el futuro y parte de la actualidad.
Computadora
La computadora1 2 (del inglés: computer; y este del latín: computare,3 'calcular'), también denominada computador4 1 u ordenador5 6 (del francés: ordinateur; y éste del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil que posteriormente se envían a las unidades de salida. Un ordenador está formado físicamente por numerosos circuitos integrados y muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa (software).
Dos partes esenciales la constituyen, el hardware, (hard = duro) que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etc.).
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, esto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de «la computadora» se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.
En la Segunda Guerra mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales (PC).7 Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio.
Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletas, netbooks, notebooks, ultrabooks, pueden ser alimentadas por pequeñas baterías. Las computadoras personales en sus diversas formas son iconos de la Era de la información y son lo que la mayoría de la gente considera como «ordenador». Sin embargo, los ordenadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4; teléfonos celulares; aviones de combate, y, desde juguetes hasta robot industriales.
Historia
Lejos de ser un invento de alguien en particular, el ordenador es el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.
Cronología
A continuación, se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
- 2700 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
- Hacia 830: el matemático e ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
- 1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
- 1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
- 1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
- 1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
- 1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
- 1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
- 1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
- 1890: el norteamericano Hermann Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de EEUU. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
- 1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
- 1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
- 1938: El ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
- 1944: En Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en EEUU.
- 1944: En Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
- 1947: En la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
- 1947: en los Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
- 1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
- 1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Los ordenadores con transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación de computadoras.
- 1957: Jack S. Kilby construye el primer circuito integrado.
- 1964: La aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
- 1971: Nicolette Instruments Corp. lanza al mercado la Nicolette 1080, una computadora de uso científico basada en registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida de Fourier le brinda gran aceptación en el campo de la Resonancia magnética nuclear.
- 1971: Intel presenta el primer procesador comercial y a la vez el primer chip Microprocesador, el Intel 4004.
- 1975: Paul Alen y Bill Gates fundan Microsoft.
- 1976: Steve Jobs, Steve Wozniak, Mike Markkula y otros amigos mas fundan Apple.
- 1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak.
- 1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
- 1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
- 1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
- 1983: Richard Stallman anuncia públicamente el proyecto GNU.
- 1985: Microsoft presenta el sistema operativo Windows 1.0.
- 1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
- 1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
- 2000: aparecen a comienzos del siglo XXI los ordenadores de bolsillo, primeras PDAs
- 2007: Presentación del primer iPhone, por la empresa Apple, un teléfono inteligente o smartphone.
Componentes
Las tecnologías utilizadas en computadoras digitales han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann, publicada por John von Neumann a principios de esa década, que otros autores atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe una computadora con cuatro (4) secciones principales: la unidad aritmético lógica, la unidad de control, la memoria primaria, principal o central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses.
Unidad central de procesamiento
La unidad central de procesamiento (CPU, por sus siglas del inglés: Central Processing Unit) consta de manera básica de los siguientes tres elementos:
- La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
- La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
- Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general, de propósito específico.
Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de coma flotante.
Memoria primaria
La memoria principal (MP), conocida como memoria de acceso aleatorio (RAM, por sus siglas del inglés: Random-Access Memory), es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip se subdividen en memoria estática (SRAM) con seis transistores por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor y un condensador por bit. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
Periféricos de Entrada, de Salida o de Entrada/Salida
Véanse también: Periférico (informática), Periférico de entrada y Periférico de Entrada/Salida.
Los dispositivos de Entrada/Salida (E/S) sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.
Buses
Las tres unidades básicas en una computadora: la CPU, la MP y el subsistema de E/S, están comunicadas entre sí por buses o canales de comunicación:
- Bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
- Bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y desarrollar
- Bus de datos, por donde circulan los datos.
Otros conceptos
En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene con computadoras de más de un CPU, lo que da origen al multiprocesamiento.
El sistema operativo es una especie de caja de herramientas llena de utilerías que sirven para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes se utilizan (memoria o dispositivos E/S). El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
A 2015 se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores
Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.
Al mismo tiempo, los pequeños computadores fueron casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo XXI, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.
Hacia finales de siglo XX y comienzos del XXI, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores todavía sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation.[cita requerida]
Etimología de la palabra ordenador
La palabra española «ordenador» proviene del término francés ordinateur, en referencia a Dios que pone orden en el mundo (Dieu qui met de l'ordre dans le monde).9 En parte por cuestiones de marketing, puesto que la descripción realizada por IBM para su introducción en Francia en 1954 situaba las capacidades de actuación de la máquina cerca de la omnipotencia, idea equivocada que perdura hoy en día al considerar que la máquina universal de Turing es capaz de computar absolutamente todo.10 En 1984, académicos franceses reconocieron, en el debate Les jeunes, la technique et nous, que el uso de este sustantivo es incorrecto, porque la función de un computador es procesar datos, no dar órdenes.11 Mientras que otros, como el catedrático de filología latina Jacques Perret, conocedores del origen religioso del término, lo consideran más correcto que las alternativas.9
El uso de la palabra ordinateur se ha exportado a los idiomas de España: el aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. En el español que se habla en América, así como los demás idiomas europeos, como el portugués, el alemán y el neerlandés, se utilizan términos derivados del latín computare «calcular».
Intel Core i7 es una familia de procesadores 4 núcleos de la arquitectura Intel x86-64, lanzados al comercio en 2008. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. El identificador Core i7 se aplica a la familia inicial de procesadores1 2 con el nombre clave Bloomfield.3
El pseudónimo Core i7 no tiene un significado concreto, pero continúa con el uso de la etiqueta Core. Estos procesadores, primero ensamblados en Costa Rica, fueron comercializados el 17 de noviembre de 2008, y actualmente es manufacturado en las plantas de fabricación que posee Intel en Arizona, Nuevo México y Oregón.
Las memorias y placas base aptas para Core i7 serán vendidos antes del lanzamiento por algunos proveedores. Los procesadores podían ser reservados en los principales proveedores en línea.4
Intel reveló los precios oficiales el 3 de noviembre de 2008.5 Las pruebas de rendimiento pueden consultarse en diversas
Características de Core i7
Nehalem representa el cambio de arquitectura más grande en la familia de procesadores Intel x86 desde el Pentium Pro en 1995. La arquitectura Nehalem tiene muchas nuevas características. La primera representa un cambio significativo desde el Core 2:
- FSB es reemplazado por la interfaz QuickPath en i7 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminando el NorthBrige e implementando puertos PCI Express (16 líneas en total) directamente, debido a que es más complejo y caro. Las placas base deben utilizar un chipset que soporte QuickPath. De momento solo está disponible para placas base de Asrock, Asus, DFI, EVGA, GigaByte, Intel, MSI y XFX y Dell
- El controlador de memoria se encuentra integrado en el mismo procesador.
- Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMM deben ser instaladas en grupos de tres, no dos.
- Soporte para DDR3 únicamente.
- Turbo Boost: Permite a los distintos núcleos acelerarse "inteligentemente" por sí mismos cada 133 MHz por encima de su velocidad oficial, mientras que los requerimientos térmicos y eléctricos de la CPU no sobrepasen los predeterminados.
- Dispositivo Single-die: Los cuatro núcleos, el controlador de memoria, y la caché se encuentran dentro del mismo encapsulado.
- HyperThreading reimplementado. Cada uno de los cuatro núcleos puede procesar dos tareas simultáneamente, por tanto el procesador aparece como ocho CPU desde el sistema operativo. Esta característica estaba presente en la antigua microarquitectura Netburst introducida en los Pentium 4 HT.
- Solo una interfaz QuickPath: No concebida para placas base multiprocesador.
- Tecnología de proceso de 45 nm o 32 nm.
- 731 millones de transistores (1.170 millones en el Core i7 980x, con 6 núcleos y 12 MiB de memoria caché).
- Sofisticada administración de energía, puede colocar un núcleo no utilizado en modo sin energía.
- Capacidad de overclocking muy elevada (se puede acelerar sin problemas hasta los 4-4,1 GHz).
Desventajas
- El Core i7, o por lo menos, las placas base para el Core i7 comercializadas a partir del 22 de noviembre de 2008, no son compatibles con ECC (Error checking and correction) de memoria. Algunos expertos, como por ejemplo, Angel Raspa,7 recomiendan que sistemas sin soporte ECC no se usen para la computación científica, y en general tampoco a menos que al usuario no le importen los errores en los datos críticos.
- El Core i7 presenta un consumo máximo de 160W, con el consiguiente problema térmico y exigencia de potencia en la fuente de alimentación (aunque tiene un TDP de 130 W). Como desventaja adicional, resulta más difícil llevar este rendimiento a los ordenadores portátiles, enfrentándose así a únicamente 2 o 3 horas de batería.
Procesadores
- Las velocidades de reloj listadas aquí son en modo normal. La velocidad en un solo núcleo puede ser incrementada hasta 400 MHz cuando los otros están desactivados.
- El multiplicador del microprocesador aumenta automáticamente cuando las condiciones lo permiten, en los i7 920 pasa de 20 a 21, si está habilitado el modo turbo.
- El 965 XE tiene multiplicadores separados para la memoria y los núcleos.
- Las velocidades de memoria de DDR3-2000 son posibles, pero no soportadas por Intel.
- Se han informado de velocidades de reloj de hasta unos 4 GHz, pero aún no están soportadas por Intel.8
- El procesador tiene un Thermal Design Power de 130 W y se ralentizará a sí mismo si es excedido. Esta característica puede ser deshabilitada.9
- Los modelos Core i7 920, 940 y 965 Extreme, que aparecieron en el mercado el mes de noviembre del 2008 en lotes de 1.000 unidades con unos precios de 284, 562 y 999 dólares respectivamente.10
Rendimiento
Se ha utilizado un Core i7 940 a 2,93GHz en un benchmark en 3DMark Vantage dando una puntuación de CPU de 17.966.14 El Core i7 920 a 2,66GHz da una puntuación de 16.294. En la anterior generación de procesadores Core, un Core 2 Quad Q9450 a 2,66GHz, se obtiene una puntuación de 11.131.15
AnandTech ha probado el Intel QuickPath Interconnect (versión de 4,8 GT/s) y encontró que el ancho de banda de copia usando triple-channel 1066 MHz DDR3 era de 12,0 GB/s. Un sistema Core 2 Quad a 3,0 GHz usando dual-channel DDR3 a 1066 MHz logra 6,9 GB/s.16
La técnica del overclocking será posible con la serie 900 y una placa base equipada con el chipset X58. En octubre de 2008, surgieron informes de que no será posible utilizar el "rendimiento" DIMM DDR3 que requieren voltajes superiores a 1,65V porque el controlador de memoria integrado en el núcleo i7 podría dañarse.17 Algunas pruebas, sin embargo, han demostrado que el límite de voltaje no es aplicado, como en una placa MSI, y los fabricantes pueden escoger enlazar el voltaje de la CPU a la memoria o no. Hacia el final de ese mes, los vendedores de memoria de alto desempeño han anunciado kits de memoria DDR3 1,65V con velocidades de hasta 2 GHz.
Algunos viejos artículos han sugerido que el diseño del i7 no es ideal para el desempeño en juegos. En un test hecho en hardware filtrado, un Core i7 940 comparado a un QX9770 mostraba que el Core i7 es más lento que el Yorkfield ciclo a ciclo en 2 juegos mientras que fue más rápido en otros dos. La diferencia en todos los casos es pequeña.18 Sin embargo, pruebas más recientes hechas en todas las velocidades del hardware oficial con controladores finales y revisiones de BIOS muestran que el Core i7 mínimamente vence al Yorkfield ciclo a ciclo de reloj, y en muchos casos lo excede en un promedio del 17%.19
En una prueba del Super PI 1 M monotarea, un Core i7 920 corriendo a 2,66 Ghz finalizó la prueba en 15,36 segundos, mientras que un QX9770 (3,2 Ghz) la finalizó en 14,42 segundos,20 entonces el Core i7 ha ejecutado 15,5% menos instrucciones en esta prueba.
El Core i7 posee tres canales de memoria, y la velocidad de los mismos puede ser escogida configurando el multiplicador de memoria. Sin embargo, en antiguos benchmarks, cuando la velocidad es establecida más allá del umbral (1333 para un 965XE) el procesador solo accederá a dos canales de memoria simultáneamente. Un 965XE tiene mejor procesamiento de memoria con 3 módulos DDR3-1333 que con 3 DDR3-1600, y 2 módulos DDR3-1600 tienen casi el mismo rendimiento que 3 DDR3-1600.8
Puesto que el Core i7 es un procesador de cuatro núcleos, la tecnología HyperThreading no produce ninguna mejora en la ejecución de cargas de trabajo con menos de cinco tareas simultáneas cuando todos los núcleos están encendidos, y algunas aplicaciones sufren una bajada en el rendimiento cuando HyperThreading está activado.21 Esta tecnología ofrece su mejor rendimiento cuando la carga de trabajo es de ocho o más tareas simultáneas.
No hay comentarios.:
Publicar un comentario