miércoles, 25 de abril de 2012

HARDWARE Y SOFTWARE Y SU DIFERENCIA


EL HARDWARE: Componentes físicos del ordenador, es decir, todo lo que se puede ver y tocar. Clasificaremos el hardware en dos tipos:
- El que se encuentra dentro de la torre o CPU, y que por lo tanto no podemos ver a simple vista.
- El que se encuentra alrededor de la torre o CPU, y que por lo tanto, si que vemos a simple vista, y que denominamos periféricos.

EL SOFTWARE: Son las instrucciones que el ordenador necesita para funcionar, no existen físicamente, o lo que es igual, no se pueden ver ni tocar. También tenemos de dos tipos:
- Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma eficiente, además de permitir su comunicación con el usuario. Para saber más de los sistemas operativos pincha en el enlace
- Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretar del usuario, como por ejemplo: escribir, dibujar, escuchar música,...


domingo, 22 de abril de 2012

DISCO DURO: DEFINICIÓN, ESTRUCTURA FÍSICA Y LÓGICA, CARACTERÍSTICAS Y NUEVA GENERACIÓN

DEFINICIÓN


En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.


ESTRUCTURA FÍSICA


Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamadosplatos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).


File:Festplatte.JPG


ESTRUCTURA LÓGICA


La estructura lógica de un disco duro esta formado por:
  • Sector de arranque.
  • Espacio particionado.
  • Espacio sin particionar.
Espacio particionado: Es el espacio del disco que ha sido asignado a alguna partición.
Espacio sin particionar: Es el espacio del disco que no ha sido asignado a ninguna partición.

Sector de arranque: Es el primer sector de un disco duro en él se almacena la tabla de particiones y un programa pequeño llamado Master Boot. Este programa se encarga de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa, en caso de que no existiese partición activa mostraría un mensaje de error.

  • A su vez la estructura lógica de los discos duros internamente se pueden dividir en varios volúmenes homogéneos dentro de cada volumen se encuentran una estructura que bajo el sistema operativo MS-DOS es el siguiente:



Sector de arranque (BOOT).
Tabla de asignación de ficheros (FAT)
Una o más copias de la FAT
Directorio raíz.
Zona de datos para archivos y subdirectorios.


Cada zona del volumen acoge estructuras de datos del sistema de archivos y también los diferentes archivos y subdirectorios. No es posible decir el tamaño de las diferentes estructuras ya que se adaptan al tamaño del volumen correspondiente.
A continuación vamos a definir cada una de las estructuras mostrada en el cuadro.
1.-Sector de arranque (BOOT): En el sector de arranque se encuentra la información hacerca de la estructura de volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. Al formatear un volumen el BOOT se crea siempre como primer sector del volumen para que sea fácil su localización por el DOS.
2.-Tabla de asignación de ficheros (FAT): La FAT se encarga de informar al DOS que sectores del volumen quedan libres, esto es por si el DOS quiere crear nuevos archivos o ampliar archivos que ya existen. Cada entrada a la tabla se corresponde con un número determinado de sectores que son adyacentes lógicamente en el volumen.
3.-Uno o más copias de la FAT: El DOS permite a los programas que hacen el formateo crear una o varias copias idénticas de la FAT, esto va a ofrecer la ventaja de que se pueda sustituir la FAT primaria en caso de que una de sus copias este defectuosa y así poder evitar la perdida de datos.
4.-Directorio Raíz: El directorio raíz representa una estructura de datos estática, es decir, no crece aún si se guardan más archivos o subdirectorios. El tamaño del directorio raíz esta en relación al volumen, es por eso que la cantidad máxima de entradas se limita por el tamaño del directorio raíz que se fija en el sector de arranque.
5.-Zona de datos para archivos y subdirectorios: Es la parte del disco duro donde se almacenan los datos de un archivo. Esta zona depende casi en su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.


CARACTERÍSTICAS


Los fabricantes de discos duros miden la velocidad en términos de tiempo de búsqueda, tiempo de acceso, latencia y tasa de transferencia de datos:

1.-Capacidad de almacenamiento: Se refiere a la cantidad de información que se pueda almacenar o grabar en un disco duro. Su medida en la actualidad en GB aunque también en TB.

2.-Velocidad de rotación: Es la velocidad a la que giran los platos del disco cuya regla es que a mayor velocidad de rotación mayor será la transferencia de datos, pero a su vez será mayor ruido y también mayor calor generado por el disco. La velocidad de rotación se mide en revoluciones por minuto (RPM).3.-Tiempo de acceso: Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos. Es la suma de varias velocidades:
  • El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.
  • El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una en otra.
  • El tiempo que tarda la cabeza en buscar el sector correcto en la pista.
Por lo tanto el tiempo de acceso es la combinación de tres factores.3.1.-Tiempo de búsqueda: Es el intervalo tiempo que el toma a las cabezas de lectura/escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda varía en cada búsqueda.Un tiempo de búsqueda bajo es algo muy importante para un buen rendimiento del disco duro.3.2.-Latencia: Cada pista de un disco duro contiene múltiples sectores, una vez que la cabeza de lectura/escritura encuentra la pista correcta las cabezas permanece en el lugar inactivas hasta que el sector pasa por debajo de ellas, este tiempo de espera se llama latencia. La latencia promedio es el tiempo para que el disco una vez que esta en la pista correcta encuentre el sector deseado, es decir, es el tiempo que tarda el disco en dar media vuelta.3.3.-Command Overhead: Es el tiempo que le toma a la controladora procesar un requerimiento de datos.4.-Tasa de transferencia de datos: Esta medida indica la cantidad de datos que un disco puede leer o escribir en la parte más exterior del disco en un periodo de un segundo.5.-Memoria Caché: Es una memoria que va incluida en la controladora del disco duro, de modo que todos los datos que se leen y escriben en el disco duro se almacenan primeramente en esta memoria.


NUEVA GENERACIÓN


Presente y futuro

Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía.

EVOLUCIÓN DEL MICROPROCESADOR: AMD








2009

AMD se une a GLOBALFOUNDRIES para abrir camino instalando una fábrica de semiconductores de última generación en el estado de Nueva York, completando así la visión de muchos años de AMD,  trayendo a los Estados Unidos una fábrica con diseño avanzado.AMD completa la entrega de 500 millones de procesadores x86 desde su fundación en 1969.
  • GLOBAL FOUNDRIES, una nueva empresa de fabricación de semiconductores avanzados, es formada por una sociedad de participación entre AMD y Advanced Technology Investment Company (ATIC).
  • AMD presenta la plataforma para notebooks ultradelgadas llamada "Yukon", que permite diseños de OEM extremadamente delgados y livianos con ricas capacidades para entretenimiento y a precios accesibles. La plataforma está basada en los nuevos procesadores AMD Athlon™ Neo, la tarjeta gráfica integrada ATI Radeon™ X1250 y la tarjeta gráfica independiente opcional ATI Mobility Radeon HD 3410. Ofrece un verdadero entretenimiento en alta definición en una nueva categoría de notebooks con estilo.
  • AMD presenta la plataforma AMD de tecnología llamada "Dragon" para PCs de escritorio, que ofrece el poder de hacerlo todo a través de la combinación de procesador de alto rendimiento, AMD Phenom™ II X4, con la reconocida tarjeta gráfica ATI Radeon™ HD 4800 y los chipsets AMD serie 7.
  • AMD lanza el procesador AMD Opteron™:con mayor el ahorro de energía hasta la fecha: el procesador de AMD Opteron EE de cuatro núcleos. La nueva tecnología no sólo ofrece más opciones para los clientes TI que requieren una solución para el ahorro extremo de energía, si no también apunta a las necesidades únidas de plataformas cloud computing.
  • AMD llega a entregar 50 millones de unidades del procesador gráfico ATI 'Hollywood' para la consola de juegos Wii de Nintendo, haciendo que 'Hollywood' sea el chip con tecnología AMD para consolas de juegos más exitoso hasta la fecha en términos de unidades vendidas.
  • AMD lanza un plan para revolucionar la implementación, desarrollo y entrega de contenido en alta definición a través del 'AMD Fusion Render Cloud,' una super computadora masivamente paralela.
  • El AMD Lone Star campus en Austin, TX logra una certificación de oro según el sistema para calificar Edificios Ecológicos del U.S. Green Building Council Leadership in Energy and Environmental Design (LEED). Basado en los actuales proyectos de certificación, este es el edificio comercial más grande en Texas certificado con el oro por LEED®.

2008
  • TACC, basado en los servidores Sun con procesadores AMD Opteron, se convierte en el centro dedicado a investigaciones más grande del mundo.
  • Se lanza el AMD LIVE!™ Explorer, permitiendo una entretenimiento envolvente en alta definición para las PC hogareñas.
  • Lanzamiento del AMD Changing the Game, un programa sin fines de lucro destinado a mejorar las habilidades técnicas y de la vida de chicos, enseñándoles a desarrollar juegos digitales con contenido social.
  • AMD presenta la Experiencia Cinema 2.0, creando una "barrera sensorial" que separa el cine de los juegos. 
  • Dirk Meyer sucede a Hector Ruiz como CEO de AMD.
2007
  • AMD lanza la familia de procesadores gráficos ATI Radeon™ HD 2000 que ofrecen la mejor experiencia visual (The Ultimate Visual Experience™) en gráficos para PCs de escritorio y plataformas móviles.
2006
  • AMD presenta una plataforma informática acelerada que rompe con la barrera del rendimiento en teraflops.
  • AMD adquiere ATI para crear una nueva e innovadora central de procesamiento.
  • Se lanza la plataforma para juegos CrossFire™ para múltiples procesadores gráficos.
  • Se lanza el centro de entretenimiento AMD LIVE!™
  • Dell Inc. anuncia que ofrecerá equipos basados en procesadores AMD.
  • AMD comienza a generar ingresos de procesadores desde su planta Fab 36.
  • El Centro AMD de Investigaciones y Desarrollo de Shanghai (SRDC) propone el foco en el desarrollo de la nueva generación de plataformas móviles AMD.
  • AMD lanza el primer procesador nativo de cuatro núcleos x86 para servidores.
  • AMD es un miembro fundador de The Green Grid, una organización abierta y global diseñada para disminuir el uso de energía en TI.
2005
  • AMD presenta la tecnología AMD Turion™ 64 mobile para notebooks y el procesador de doble núcleo AMD Athlon™ 64 X2 para PCs de escritorio.
  • AMD presenta el procesador con más alto rendimiento del mundo para servidores y estaciones de trabajo 1-8P x86.
  • AMD comienza el litigio antimonopolio contra Intel por abusar ilegalmente de su monopolio, excluyendo y limitando la competencia.
  • Spansion™ comienza a cotizar en bolsa.
  • AMD anuncia la gran inauguración de Fab 36 en Dresden, Germany.
  • El procesador gráfico ATI GPU aparece dentro de la Microsoft Xbox 360, revolucionando el juego en alta definición.
2004
  • AMD muestra el primer procesador x86 de doble núcleo del mundo.
  • AMD anuncia la Iniciativa 50x15 con el objetivo de acelerar el acceso a Internet y a una informática básica al 50 porciento de la población mundial en 2015.
  • Se establece la sede de Beijing de Advanced Micro Devices (China) Co., Ltd.
  • ATI aparece en la lista NASDAQ 100.
  • ATI presenta el primer GPU de 110nm(ATI Radeon™ X800 XL).
2003
  • AMD e IBM firman un acuerdo para la fabricación y desarrollo conjunto de tecnologías de próxima generación.
  • Se lanzan los procesadores AMD Opteron™ y AMD Athlon™ 64.
  • Con Fujitsu, AMD forma FASL, LLC, y una nueva compañía: Spansion™.
  • AMD forma una alianza estratégica con Sun Microsystems y adquiere el negocio x86 de National Semiconductor.
  • ATI presenta ATI Radeon™ 9600 XT: los primeros chips del mundo low-k 0.13um de gran volumen.
2002
  • AMD adquiere Alchemy Semiconductor para obtener la tecnología para procesadores integrados de baja potencia.
  • Se introduce la tecnología AMD Cool'n'Quiet™ junto con la familia Athlon™: ayudando a reducir el consumo de energía, permitiendo equipos silenciosos, y ofreciendo un rendimiento bajo demanda para maximizar la experiencia informática de los usuarios. 
  • ATI lanza ATI Radeon™ 9700 Pro: el primer procesador gráfico compatible con DirectX 9.
2001
  • Se lanza el procesador AMD Athlon™ MP: la primera plataforma para multiprocesamiento de la compañía.
  • La tecnología AMD HyperTransport™ es adoptada por importantes empresas como Agilent, Apple Computer, Broadcom, Cisco Systems, IBM, nVidia, Sun, y Texas Instruments.
2000
  • AMD inicia un logro histórico con el procesador AMD Athlon™, presentando el primer procesador que rompe con la mítica barrera de 1GHz (mil millones de ciclos de reloj por segundo).
  • AMD lanza la tecnología AMD PowerNow!™ con los procesadores Mobile AMD-K6®-2+.
  • Se presenta la tecnología para gráficos ATI Radeon™: un producto lídera para juegos de alta gama y estaciones de trabajo 3D.
  • ATI adquiere ArtX, Inc., una empresa de chipsets gráficos.
1999
  • Se lanza la primera generación del procesador AMD Athlon™.
  • Vantis, la empresa de lógica programable de AMD, es vendida a Lattice Semiconductor.
1998
  • ATI es la primera empresa en presentar un diseño completo de un decodificador de TV.
  • ATI llega a vender diez millones de chips AGP.
1997
  • AMD presenta el microprocesador AMD-K6®: ayuda a bajar por primera vez los precios de las PC por debajo de U$S 1,000, dando acceso a una PC a los consumidores medios.
  • ATI es la primera compañía de gráficos en proporcionar soporte de harware para la aceleración de DVD y pantallas.
  • ATI es la primera compañía de gráficos en lanzar productos compatibles con AGP (Accelerated Graphics Port), el nuevo estándar de la industria.
1996
  • AMD adquiere NexGen, una compañía de microprocesadores.
  • ATI lanza el primer chip gráfico 3D de la industria, la primera placa que combina gráficos y sintonizador de TV, y el primer chip que muestra gráficos de computadora en un televisor.
  • ATI entra en el mercado de las notebooks con el primer acelerador gráfico 3D de la industria.
  • ATI establece ATI Irlanda.
1995
  • AMD presenta el microprocesador AMD-K5®: el primer microprocesador diseñado independientemente con la arquitectura x86.
  • ATI es la primera empresa de gráficos en ofrecer placas gráficas compatibles con Mac.
1994
  • AMD y Compaq Computer Corp. forman una alianza de largo plazo para producir computadoras Compaq con microprocesadores Am486.
  • ATI introduces Mach64™: first ATI graphics boards to accelerate motion video.
1993
  • AMD introduce la familia de microprocesadores Am486®.
  • AMD establece una sociedad en participación con Fujitsu para producir productos de memoria Flash.
  • ATI comienza a cotizar en bolsa; las acciones cotizan en NASDAQ y en la bolsa de Toronto.
1992
  • ATI presenta Mach32™: el primer controlador y acelerador gráfico ATI en un sólo chip.
  • ATI lanza los productos VESA Local Bus (VLB), seguidos de los peripheral component interconnect (PCI_).
  • ATI establece ATI GmbH en Munich, Germany.
1991
  • AMD lanza la familia de microprocesadores Am386®.
  • ATI presenta el chip y placas Mach8™: los primeros productos ATI que procesan gráficos independientemente de la CPU.
1989
  • ATI colabora en el establecimiento de la norma VESA para la industria gráfica.
1988
  • Comienzan los trabajos en el AMD Submicron Development Center.
1987
  • AMD adquiere Monolithic Memories, Inc., entrando de este modo al negocio de las lógicas programables.
  • ATI lanza EGA Wonder™ y VGA Wonder™.
1986
  • ATI obtiene un importante contracto con Commodore Business Machines para suministrar 7000 chips por semana.
1985
  • AMD es reconocida por primera vez por la reconocida revista Fortune 500.
  • Se constituye ATI.
  • ATI desarrolla su primer controlador gráfico y su primera placa gráfica.
1984
  • AMD es nombrada como una de las "100 Mejores Compañías para Trabajar en Norteamérica".
1982
  • A pedido de IBM, AMD firma un acuerdo como segundo proveedor de procesadores para las computadoras IBM.
1979
  • AMD comienza a cotizar en la bolsa de Nueva York (NYSE).
  • Se incia la producción en la nueva fábrica AMD en Austin.
1972
  • AMD comienza a cotizar en bolsa.
1970
  • AMD presenta su primer dispositivo propietario: el Am2501 logic counter.
1969
  • AMD se constituye con U$S 100,000; establece su sede en Sunnyvale, California.
















EVOLUCIÓN DEL MICROPROCESADOR: INTEL


Historia de Intel


Intel, la primera compañía de microprocesadores del mundo. Fue fundada en1968 por Gordon E. Moore y Robert Noyce, quienes inicialmente quisieron llamar a la empresa Moore Noyce, pero sonaba mal, por lo que eligieron como nombre las siglas de Integrated Electronic, en español Electrónica Integrada.Nada más nacer tuvo problemas de marca ya que la marca pertenecía a una cadena hotelera, asunto que fue arreglado con la compra de la misma.La compañía comenzó fabricando memorias antes de dar el salto a losmicroprocesadores. Hasta los años 70 fueron lideres gracias al competitivo mercado de las memorias DRAM, SRAM y ROM.El 15 de Noviembre de 1971 lanzaron su primer microprocesador: el Intel 4004 para facilitar el diseño de una calculadora. En lugar de tener que diseñar varios circuitos integrados para cada parte de la calculadora, diseñaron uno que según un programa almacenado en memoria podía hacer unas acciones u otras, es decir, un microprocesador.Poco tiempo después, el 1 de Abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, y su principal ventaja contra otros modelos, como el Intel 4004 fue poder acceder a más memoria y procesar 8 bits. La velocidad de su reloj alcanzaba los 740KHz.En Abril del 1974 lanzaron el Intel 8080, su velocidad de reloj alcanzaba los 2 Mhz, permitiendo direccionamiento de 16 bits, un bus de datos de 8 bits y acceso fácil a 64k de memoria.Después Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 Mhz de velocidad, con una memoria de 64kb.Sin embargo, el ordenador personal no pasó a ser tal hasta la aparición deIBM, en el mercado. Algo que sucedió en dos ocasiones en los meses dejunio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores.El éxito fue tal, que Intel fue nombrada por "Fortune" como uno de los mejores negocios de los años setenta.De los dos procesadores, el más potente era el 8086, con un bus de 16 bits, velocidades de reloj de 5, 8 y 10 Mhz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de 16, siendo más barato y obteniendo mejor respaldo en el mercado.Cabe mencionar que el procesador 8086 es un microprocesador tan conocido y probado, que incluso en el 2002 la NASA ha estado adquiriendomicroprocesadores 8086 de segunda mano.El 1 de Febrero de 1982, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286 (el famoso "286") con una velocidad entre 6 y 25 Mhz y un diseño mucho más cercano a los actuales microprocesadores.Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. El 286 tiene el honor de ser el primer microprocesador usado para crearordenadores clónicos en masa y gracias al sistema de "licencias cruzadas"apareció el primer fabricante de clónicos "IBM compatible": Compaq, el cual utilizando dicho microprocesador empezó a fabricar equipos de escritorio en 1985 y a utilizar los microprocesadores que Intel/IBM sacaban al mercado.En 1986 apareció el Intel 80386 conocido por 386, velocidad de reloj entre 16 y 40 Mhz y destacó principalmente por ser un microprocesador con arquitectura de 32 bits.Cabe destacar también que la producción de microprocesadores "80386" ha continuado hasta ahora e Intel afirmó en el 2006 que terminaría finalmente de producirlos en Septiembre del 2007. Parece ser que actualmente éste microprocesador todavía se usa bastante para sistemas empotrados.En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios.El 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesadormatemático.Luego de ello sacaron hasta dos versiones más de DX: en 1992 el i486 DX2a 50 y 66 MHz y en 1994 el i486 DX4 a 75-100 MHz enfocado a procesadores de gama alta.En 1989 lanzaron el 486 que alcanzó velocidades entre 16 y 100 MHz y una curiosidad: según la Wikipedia fue nombrado "i486" por fallo judicial que prohibió el uso de marcas con números**.Por ello el siguiente microprocesador en ser lanzado, en Mayo del 1993, fue conocido como "Pentium". Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes. Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio.El 27 de Marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transitores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 Mhz.Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. El Pentium II es el procesador más rápido de cuantos ha comercializado Intel.Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 Ghz.La tec



FUTURO DE LOS MICROPROCESADORES



En los últimos 40 años, el poder de procesamiento del chip de silicio ha ido creciendo según la predicción que hiciera en 1965 el cofundador de Intel, Gordon Moore .

La llamada Ley de Moore establece que el número de

transistores que pueden colocarse en un chip, sin aumentar el costo de su producción, se duplicará aproximadamente cada dos años. De forma habitual, esas duplicaciones se han logrado mediante la reducción de los transistores, la unidad básica de procesamiento del chip de silicio.Pero se da por sentado que, en algún momento, la ley de Moore no podrá seguir cumpliéndose, porque los transistores no podrán hacerse más pequeños.


AYUDA DE LA NANOLOGÍA


En todo el mundo, académicos, investigadores y estudiantes buscan las maneras para que la nanotecnología supere las ya infinitesimales dimensiones de los chip actuales.Pero las técnicas que funcionan en los laboratorios no sirven aún para cubrir la demanda de la producción industrial de chips."Pueden hacerlo en los laboratorios y obtener resultados, pero esto también tiene otro lado", dijo el profesor Mike Kelly, del Centro de Fotónica y Electrónica Avanzada de la Universidad de Cambridge, en el Reino Unido.El problema radica en que estos micro componentes están hechos de un pequeñísimo número de átomos. Y el húmero de átomos en una estructura es el que determina sus propiedades eléctricas.Los trabajos de Kelly sugieren que si tan solo uno o dos átomos faltaran tendría un efecto muy grande en la confiabilidad del componente.Generalmente los fabricantes de chips se esfuerzan por lograr lo que se conoce como el grado de "Confiabilidad Sigma Seis", es decir, que el chip debe responder correctamente 99,99966% de las veces.Los últimos chips de Intel serán construidos con componentes de sólo 22 nanómetros de diámetro, pero hay planes para llegar hasta los 14 nm y luego 11 nm. Para tener una referencia, un cabello humano es de 60.000 nm.







Una vista del procesador Core i7 de segunda generación en la feria CES de Las Vegas, en enero de 2011. Foto: AFP

EL PROBLEMA DEL TAMAÑO

"La gran pregunta es en qué punto uno o dos átomos hacen la diferencia", dice Kelly, quien afirma que la historia de la ingeniería da lecciones a los fabricantes de chip deseosos de mantener vigente la Ley de Moore.Durante la Segunda Guerra Mundial las técnicas para la fabricación de hélices fueron llevadas al extremo, en el empeño de hacerlas cada vez más grandes.Pero eventualmente las hélices grandes resultaron ser mucho menos eficientes porque los ejes sobre los que giraban se hundían por su propio peso.El profesor Kelly teme que los fabricantes de chip estén dirigiéndose hacia una crisis similar.La fabricación de un chip implica dibujar una plantilla del circuito, grabándolo sobre una lámina de silicio y poniendo luego los componentes capa por capa, pero como asegura Kelly: "más allá de 12nm eso se va aponer muy, muy difícil".El director de investigación de componente de Intel, Mike Mayberry,está de acuerdo con que las técnicas de fabricación tienen sus límites y que la única opción es cambiarlas."Estamos mezclando métodos y vamos a ser capaces de construir cosas que no habíamos podido hacer", explicó Mayberry.


NUEVOS SISTEMAS


Un método que algunos fabricantes han adoptado es la colocación de varias capas del espesor de un átomo de un material que ayude a hacer los componentes individuales mas confiables.Mayberry dice que su compañía está investigando otras maneras, además de la reducción de componentes, para hacer los procesadores más poderosos y más útiles.La arquitectura interna podría ser cambiada para ayudar a un mayor flujo de datos. Sensores y transmisores inalámbricos pueden integrase más dentro del chip."Habrá avances en todas las partes de arquitectura. Será para hacerlos más útiles, consumir menos energía y ocupar menos espacio".Mientras tanto, será complicado diseñar una ruta para permitir que siga funcionando la Ley de Moore, dijo Mayberry.