23 Ene
Definiciones de Ordenador y Computadora
ORDENADOR, RA.
adj. Que ordena. Ú. t. c. s. Máquina electrónica dotada de una memoria de gran capacidad y de métodos de tratamiento de la información, capaz de resolver problemas aritméticos y lógicos gracias a la utilización automática de programas registrados en ella.
COMPUTADOR, RA.
adj. Que computa o calcula. Ú. t. c. s. || m. y f. Calculador o calculadora, aparato o máquina de calcular. || analógico. Aparato computador cuyos componentes se ajustan de modo que sus leyes físicas de funcionamiento sean análogas a las leyes matemáticas de proceso que se trata de estudiar. || digital. Aquel en que todas las magnitudes se traducen en números, con los cuales opera para realizar los cálculos. || electrónico, ca. Aparato electrónico que realiza operaciones matemáticas y lógicas con gran rapidez. || híbrido. El compuesto de una parte analógica y otra digital y que aprovecha ópticamente las características de ambas.
Desarrollo Histórico de los Ordenadores
Desde muy antiguo el hombre ha utilizado elementos de ayuda para realizar los cálculos que ha necesitado. Según ha ido evolucionando la complejidad de procesos y los conocimientos se han ido desarrollando dispositivos cada vez más avanzados.
Para almacenar información labró piedras, pintó, escribió sobre pieles de animales e inventó la imprenta.
En lo que se refiere al cálculo se ayudó de piedras (calculus en latín) y en oriente, hace unos 2.500 años, los chinos idearon el ábaco, que son ristras de cuentas ensartadas en varillas, que se mueven de derecha a izquierda. Aún hoy se sigue usando en oriente.
Suele mencionarse siempre al prehistórico ábaco como el primer eslabón en la historia de los ordenadores. Pero desde éste hasta el siglo XVII no se desarrolló ningún nuevo artilugio para efectuar cálculos numéricos. Hacia 1620, el alemán Wilhelm Schickar diseñó una máquina que podía restar y sumar automáticamente y multiplicar y dividir semiautomáticamente, mediante engranajes. El siguiente paso lo dio Pascal, hacia 1642, con su rodillo sumatorio (que también podía hacer restas), basado en relaciones de engranajes. A finales de ese siglo, 1694, Leibniz (que fue el primero en plantear el sistema binario) diseña una máquina ampliando los estudios de Pascal. Esta máquina, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología de esa época la difusión de esta máquina fue escasa.
En los primeros años del siglo XIX, el francés Jacquard desarrolló un sistema de tarjetas perforadas para controlar el dibujo en la fabricación de telas. Por aquella época, Charles Babbage, considerado el padre del cálculo digital moderno, trabajaba en Inglaterra sobre lo que más tarde serían varias ideas revolucionarias. En 1832 inventó la máquina de las diferencias para generar tablas astronómicas y logarítmicas de seis posiciones. Usó un grupo de máquinas de sumar conectadas, capaces de calcular valores sucesivos de funciones algebraicas, para lo que utilizó la técnica del cálculo de diferencias sucesivas. De ahí el nombre de máquina de las diferencias. Pero sus diseños iban más allá de las posibilidades mecánicas de la época.
Sin embargo, a él se debe el que se considera segundo paso en la historia del cálculo mecanizado: el concepto de que se puede programar un instrumento de cálculo, de tal manera que realice una larga serie de operaciones aritméticas y de decisiones sin intervención humana. Hasta ese momento, las máquinas sólo podían hacer un cálculo cada vez.
En 1822 establece los principios de funcionamiento de los ordenadores en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos y en 1833 presenta un nuevo proyecto, la «máquina analítica», que puede considerarse un antecedente directo de los ordenadores electrónicos. No pudo construirse debido a las limitaciones constructivas en la precisión de los elementos mecánicos.
En 1845 George Boole, que era un matemático plantea en una obra «las leyes del pensamiento».
El siguiente paso se debe al norteamericano Hollerith, quien, a finales del siglo XIX, y motivado por la necesidad de completar el censo norteamericano de 1890, desarrolló una máquina de tabular sencilla, que integraba muchas de las ideas de los inventos más primitivos, especialmente el telar de Jacquard y las tarjetas perforadas usadas por los ferrocarriles.
Konrad Zuse, que nació en 1910, hacia finales de los años 30 inventó el primer ordenador de la historia, basado en relés, llamado Z1, al que siguieron Z2, Z3 y Z4. La Segunda Guerra Mundial le impidió desarrollar sus trabajos de forma adecuada.
Casi al mismo tiempo, Howard Aiken, de la Universidad de Harvard, diseñó una máquina electromecánica de cálculo automático para resolver ecuaciones diferenciales, a la que se llamó MARK.
El primer ordenador electrónico digital fue el ENIAC (1939-1944), que no tenía partes mecánicas, contadores ni engranajes. Contaba con 70.000 resistencias, 10.000 condensadores y 18.000 válvulas termoiónicas. Consumía muchísima energía eléctrica y despedía un enorme calor. Además, era necesaria una tediosa secuencia de contactos eléctricos para cada operación que el ordenador tuviese que ejecutar.
A la máquina había que programarla y la dificultad estaba en hacerla pasar de un programa a otro. El cambio de programa era muy difícil. Se podría intentar un nuevo sistema que permitiese programarla con mayor rapidez (mediante cintas perforadas, por ejemplo), pero fue entonces, nos narra Evans, cuando surgió la chispa en el cerebro de von Neumann: lo que debía hacerse era almacenar los diversos programas en el interior del mismo ordenador. Con ello, la máquina puede pasar de un programa a otro en una fracción de segundo, en lugar de depender de la lentitud de un programador humano. En segundo lugar (y éste es el punto más importante, con mucha diferencia sobre todos los demás) esto significaba que los distintos programas integrados en el interior del sistema podían entrelazarse e interactuar unos con otros. Cada programa -si los necesitaba- podría utilizar los demás programas. A partir de ese momento, las computadoras dejaron de ser talleres rápidos, pero aptos para realizar un único tipo de trabajo, para convertirse en sistemas dinámicos y flexibles, capaces de procesar datos y de realizar, con gran rapidez, multitud de tareas diversas.
Fue un salto conceptual, en el cual la capacidad real de las computadoras pasó de lo finito a disponer de una capacidad potencialmente infinita. Es decir, lo fundamental en un ordenador no es la velocidad ni la capacidad, sino la facultad de hacer cosas distintas, lo que resulta posible, precisamente, por la capacidad que tiene de ser programado.
Con ello, los ordenadores dejan de ser máquinas limitadas a realizar trabajos de cálculo rutinario y se convierten en suministradores de información. Al mismo tiempo, esto supone que el ordenador contiene en sí la semilla de su propio crecimiento y de su progreso tecnológico.
Generaciones de los Ordenadores
A partir de este momento se habla de generaciones, lo que permite establecer la idea de evolución, aunque pueda ser un tanto artificial, ya que los avances no han coincidido con las decenas de años, tal como se plantea a continuación.
Primera Generación (Años 50)
- Ordenadores a válvulas.
- Programación en código máquina.
Segunda Generación (Años 60)
- Ordenadores con transistores.
- Algunas rutinas de ayuda en las tareas de entrada/salida y de almacenamiento (IOCS: Input Output Control System).
Tercera Generación (Años 70)
- Ordenadores con circuitos integrados de bajo nivel de integración.
- Aparece el concepto de Sistema Operativo, siendo uno de los más conocidos el sistema IBM 360. Se incorporan los primeros compiladores. Primeras versiones de UNIX (1971) y a partir de 1973 ligado a C.
Cuarta Generación (Años 80)
- Ordenadores con circuitos integrados de alta densidad de integración.
- Aparición del PC (finales del año 1980).
- Diversos tipos de ordenadores y diversos tipos de sistemas operativos. Se utilizan el CP/M y el MS-DOS en ordenadores pequeños. Sistemas operativos ligados a marcas: p.e. VAX de DIGITAL. Versiones depuradas de UNIX (con adecuaciones como XENIX).
Quinta Generación (Años 90)
- Ordenadores con circuitos integrados más densos y avances muy importantes en el soporte lógico como en los sistemas operativos basados en gráficos (WINDOWS95 y WINDOWS98) y lenguajes de alto nivel con manejo de multimedia.
- Interconexión de los ordenadores mediante redes.
- «Explosión» de Internet.
- Inteligencia artificial.
Definiciones Clave en Informática
Para fijar algunas cuestiones previas se procede a dar algunas definiciones que serán útiles.
Señal Analógica y Señal Digital
Se utilizarán como dos términos opuestos:
Señal analógica:
Es aquella que puede tomar cualquier valor dentro de un rango determinado. (Mantiene una analogía con su origen)
Señal digital:
Es aquella que solamente puede tomar unos determinados valores dentro de un rango concreto.
Existe una señal especial dentro de las digitales que es aquella que puede tomar solamente dos valores. Se denomina señal digital binaria.
Bit, Byte y Unidades de Información
Bit:
Un bit es un dígito binario. Aparece del inglés de BInary digiT.
Es la unidad de información.
Byte: Son ocho bits.
Sistema Binario y Hexadecimal
El sistema binario es el sistema de numeración en base 2. Esto hace que todas las cifras estén compuestas únicamente por ceros y por unos. Como en los ordenadores vamos a disponer de elementos que puedan tomar dos valores, el sistema binario es el adecuado para el trabajo dentro del ordenador.
El sistema hexadecimal tiene como base 16. Su utilidad radica en que permite una conversión muy simple y rápida con el sistema binario y simplifica enormemente la escritura de cifras binarias.
Resumen de agrupaciones de bits:
- Bit : partícula elemental. Puede valer 0 ó 1.
- Nibble : 4 bits. Cada una de las dos mitades de un byte.
- Byte (Octeto) : 8 bits.
- Palabra (Word) : 2 bytes : 16 bits.
- Doble palabra (Double): 4 bytes. 32 bits.
- Cuádruple palabra (Quad) : 8 bytes : 64 bits.
- Kilo (K): 1.024 = 210
- Mega (M): 1.024 x 1.024 = 220
- Giga (G): 1.024 x 1.024 x 1.024= 210 x 210 x 210 = 230
- Tera (T): 1.024 x 1.024 x 1.024 x 1.024 = 210 x 210 x 210 x 210 = 240
Códigos
Un código es una relación biunívoca entre dos conjuntos.
Para convertir la información tal como la usan las personas en binario, se hace necesario la utilización de códigos. Los códigos más utilizados en los sistemas informáticos son:
- ASCII (American Standard Code for Information Interchange)
- EBCDIC (Extended Binary Coded Decimal Interchange Code)
Código Máquina
Es el código binario que utiliza internamente la máquina para cada instrucción que debe ejecutar.
Hardware y Software
Los sistemas informáticos están constituidos por dos elementos trabajando en conjunto:
- Hardware (HW) = Soporte físico: comprende todo aquello que tiene consistencia física (componentes, circuitos, etc.)
- Software (SW) = Soporte lógico: es aquello que pone a trabajar a la parte física. Se suele concretar en los sistemas operativos y en los programas de aplicación.
Sistema Informático
Conjunto de elementos que permite procesar información cuya finalidad es obtener una nueva información a partir de la existente (resolver un problema).
Estructurado en niveles:
- Hardware
- Rutinas en firmware (incluye parte del sistema operativo)
- Sistema operativo (resto)
- Programas de aplicación
- Usuario.
Deja un comentario