Microprocesador: qué es y para qué sirve el cerebro del ordenador

Microprocesador: qué es y para qué sirve el cerebro del ordenador

microprocesadorHubo un tiempo en que solo había engranajes que podían coincidir, alinearse y producir resultados a través de una combinación de rotaciones simples. Una época de relojeros.Luego vino el electromagnetismo y las mismas funciones podían ser reproducidas por una serie ordenada de placas magnéticas. La posibilidad de calibrar el voltaje eléctrico transformó lo analógico en digital. Así llegó la edad de oro para los transistores, que es cuando comienza la historia del microprocesador.

El microprocesador es un circuito electrónico, formado por uno o más circuitos integrados, que realiza cualquier tarea en función de un conjunto de instrucciones software. El circuito integrado es un circuito electrónico miniaturizado en el que los diversos transistores (amplificadores de la señal eléctrica) se producen al mismo tiempo mediante un proceso físico-químico. El componente principal de un circuito es el silicio, que posee la particular propiedad (llamada semiconductora) de dejar pasar la corriente solo desde una dirección.

La potencia de un microprocesador se mide en Gigahertz (GHZ) o en Megahertz (MHZ), y puede definirse como el cerebro de un ordenador. Pero también de smartphones, tabletas y cualquier otro dispositivo electrónico. Los campos de aplicación del microprocesador son múltiples. Por ejemplo, realizar una gran cantidad de cálculos matemáticos para resolver un problema de física. Llevar a cabo las maniobras que el piloto automático de un avión debe cumplir de acuerdo con las condiciones de vuelo. Controlar la velocidad en un coche eléctrico. Elaborar la gráfica de los videojuegos.

microprocesador

El invento del microprocesador

La gran innovación del circuito integrado es la de hospedar en el mismo espacio los componentes (transistores) que realizan los cálculos y los conductores (circuitos) que transfieren la corriente de un componente a otro. Antes de la invención del circuito integrado (también llamado microchip), las computadoras electrónicas ocupaban habitaciones enteras, necesarias para contener los transistores y los miles de cables eléctricos que los conectaban. Con el microchip, la potencia de un procesador ahora cabe en la palma de nuestra mano, dentro de un smartphone.

No es posible identificar un momento preciso en la historia que condujo a la invención del microprocesador. «No fue una verdadera invención, en el sentido tecnológico del término», dijo Gordon Moore, inventor de la ley que lleva su nombre y que rige la evolución tecnológica. «El descubrimiento fundamental fue la conciencia de que finalmente era posible realizar lo que todos decían que algún día haríamos». A principios de 1969, el microprocesador cruzó la frontera que existía entre la teoría y la factibilidad real.

Aunque probablemente ya existieran algunos prototipos militares, el nacimiento oficial del microprocesador se remonta a principios de la década de 1970. Por mano del físico italiano Federico Faggin y su equipo de trabajo en Intel. En 1968, el científico descubrió que el silicio era un mejor soporte que el germanio para la producción de circuitos basados ​​en semiconductores de óxido metálico (los llamados MOS). Faggin se dio cuenta de que, a través de un complicado proceso físico-químico, era posible obtener rejillas de óxido de metal, de unos pocos nanómetros, capaces de autoalinearse en placas de silicio-germanio.

microprocesador

La evolución de los microprocesadores

A partir de este trabajo, en 1971, nació el Intel 4004, que pasó a la historia como el primer microprocesador comercial del mundo. El 4004 integraba en un solo chip una potencia de cálculo superior a la del Eniac, la primera computadora electrónica del mundo. Intel lo anunció triunfalmente como “un ordenador programable de un solo chip que abría una nueva era de la electrónica».

En realidad, el Intel 4004 no podía hacer mucho. Solo sumaba y restaba a cuatro bits. Aprovechando y perfeccionando la tecnología del 4004, se llegó al primer microchip de ocho bits: el 8008. En 1973, la compañía Computer Terminals Corporation (Datapoint), en Texas, contactó a Intel para comprar un circuito integrado en la que estaba trabajando. Finalmente, la compañía texana no lo usó e Intel lo puso en el mercado como el 8008. Así se abría el mercado de los microprocesadores.

En 1974, vio la luz el 8080, el primer microprocesador que se insertó en un PC. Pero el modelo que realmente triunfó en el mercado fue el famoso 8088 que, introducido en 1979 por Intel, fue instalado en millones de ordenadores IBM. En los años siguientes, el desarrollo de los microprocesadores fue increíble y llegaron otros modelos firmados por Intel: 80286, 80386, 80486, Pentium, Pentium II, Pentium III y Pentium IV. Todos estos siguen usando el diseño original del 8088, incluso si realizan operaciones a una velocidad de 5.000 veces superior.

La Ley de Moore

En los últimos 50 años, hemos asistido a una increíble reducción del tamaño de todo tipo de tecnología electrónica. Esto ha sido posible gracias a la colocación de múltiples transistores en un solo circuito integrado. La evolución de los microprocesadores en estos años se ha basado sustancialmente en la Ley de Moore. Desarrollada en 1965 por Gordon Moore, se ha convertido en la metáfora definitiva de la tecnología moderna. Su enunciado es: «La complejidad de un microcircuito, medido, por ejemplo, por el número de transistores por chip, se duplica cada 18 meses (y, por lo tanto, se cuadruplica cada tres años)”.

El aumento en la potencia de procesamiento predicho por Moore en 1965 explica cómo un smartphone se haya vuelto tan poderoso como lo era un entero conjunto de dispositivos electrónicos hace solo una generación. El crecimiento exponencial de la potencia del microprocesador permite teorizar que un ordenador pueda alcanzar la capacidad de procesamiento de un cerebro humano. Un hecho al que probablemente asistiremos en los próximos años. Y esto podría abrir la puerta a la singularidad tecnológica: para 2045, un solo ordenador podría tener una capacidad de procesamiento igual a la de toda la humanidad.

Dada la asombrosa velocidad del cambio tecnológico en los últimos 50 años, se ha intentado explicar el proceso en términos comprensibles incluso para los no expertos. Intel, en 2014, explicó que si la población humana hubiera crecido en el último medio siglo con una tendencia similar a la identificada por Moore para los transistores, en 2029 la Tierra estaría invadida por unos mil billones de personas. Definitivamente es mejor que no sea así.

En Nobbot | La placa base, la ‘madre’ de todo ordenador

Imágenes | Flickr/Jakub T. Jankiewicz, Wikimedia Commons/Thomas Nguyen, Wikimedia Commons/Dickylon

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *