El transistor bipolar se inventó en 1947. A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, dando lugar a la «segunda generación» de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión de silicio eran mucho más fiables que los tubos de vacío y tenían una vida útil más larga. Las computadoras transistorizadas podrían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Los transistores redujeron en gran medida el tamaño, el costo inicial y el costo operativo de las computadoras . Normalmente, las computadoras de segunda generación estaban compuestas por una gran cantidad de placas de circuito impreso como el Sistema Modular Estándar de IBM, cada uno con una a cuatro puertas lógicas o flip-flops .
En la Universidad de Manchester, un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de válvulas. Inicialmente, los únicos dispositivos
disponibles eran los transistores de contacto puntual de germanio, menos confiables que las válvulas que reemplazaron pero que consumían mucha menos energía. Su primera computadora transistorizada y la primera en el mundo, estaba operativa en 1953 y una segunda versión se completó allí en abril de 1955. La versión de 1955 usó 200 transistores, 1300 diodos de estado sólido, y tenía un consumo de energía de 150 vatios. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético, por lo que no fue la primera computadora completamente transistorizada.
Esa distinción corresponde al Harwell CADET de 1955, [130] construido por la división de electrónica del Atomic Energy Research Establishment en Harwell. El diseño presentaba un almacén de memoria de tambor magnético de 64 kilobytes con múltiples cabezales móviles que había sido diseñado en el Laboratorio Nacional de Física, Reino Unido. En 1953, este equipo tenía circuitos de transistores operando para leer y escribir en un tambor magnético más pequeño del Royal Radar Establishment. La máquina usó una velocidad de reloj baja de solo 58 kHz para evitar tener que usar válvulas para generar las formas de onda del reloj.
CADET utilizó transistores de 324 puntos de contacto proporcionados por la empresa británica Standard Telephones and Cables; Se utilizaron 76 transistores de unión para los amplificadores de primera etapa para la lectura de datos del tambor, ya que los transistores de contacto puntual eran demasiado ruidosos. Desde agosto de 1956 CADET estaba ofreciendo un servicio informático regular, durante el cual a menudo ejecutaba corridas informáticas continuas de 80 horas o más. Los problemas con la confiabilidad de los primeros lotes de transistores de unión de puntos de contacto y aleados significaron que el tiempo medio de la máquina entre fallas fue de aproximadamente 90 minutos, pero esto mejoró una vez que los transistores de unión bipolar más confiables estuvieron disponibles.
El diseño de la computadora de transistores de la Universidad de Manchester fue adoptado por la empresa de ingeniería local Metropolitan-Vickers en su Metrovick 950, la primera computadora de transistores comercial del mundo. Se construyeron seis Metrovick 950, el primero terminado en 1956. Se desplegaron con éxito en varios departamentos de la empresa y estuvieron en uso durante unos cinco años. Una computadora de segunda generación, la IBM 1401 , capturó aproximadamente un tercio del mercado mundial. IBM instaló más de diez mil 1401 entre 1960 y 1964.
La electrónica transistorizada mejoró no solo la CPU (Unidad Central de Procesamiento), sino también los dispositivos periféricos. Las unidades de almacenamiento de datos en disco de segunda generación pudieron almacenar decenas de millones de letras y dígitos. Junto a las unidades de almacenamiento en disco fijo, conectadas a la CPU mediante transmisión de datos de alta velocidad, se encontraban unidades de almacenamiento de datos en disco extraíble. Un paquete de disco extraíble se puede intercambiar fácilmente con otro paquete en unos segundos. Incluso si la capacidad de los discos extraíbles es menor que la de los discos fijos, su intercambiabilidad garantiza una cantidad casi ilimitada de datos al alcance de la mano. La cinta magnética proporcionó capacidad de archivo para estos datos, a un costo menor que el del disco.
Muchas CPU de segunda generación delegaron las comunicaciones de los dispositivos periféricos a un procesador secundario. Por ejemplo, mientras el procesador de comunicaciones controlaba la lectura y la perforación de la tarjeta, la CPU principal ejecutaba cálculos e instrucciones binarias de derivación. Un bus de datos llevaría datos entre la CPU principal y la memoria del núcleo a la tasa de ciclo de búsqueda y ejecución de la CPU, y otros buses de datos normalmente servirían a los dispositivos periféricos. En el PDP-1 , el tiempo de ciclo de la memoria central era de 5 microsegundos; en consecuencia, la mayoría de las instrucciones aritméticas tomaron 10 microsegundos (100,000 operaciones por segundo) porque la mayoría de las operaciones tomaron al menos dos ciclos de memoria; uno para la instrucción, uno para el operando recuperación de datos.
Durante la segunda generación, las unidades terminales remotas (a menudo en forma de teleimpresores como un Friden Flexowriter ) vieron un uso mucho mayor. Las conexiones telefónicas proporcionaron suficiente velocidad para las primeras terminales remotas y permitieron una separación de cientos de kilómetros entre las terminales remotas y el centro de computación. Con el tiempo, estas redes informáticas independientes se generalizarían en una red de redes interconectadas: Internet.
A principios de la década de 1960 se produjo el advenimiento de la supercomputación. El Atlas fue un desarrollo conjunto entre la Universidad de Manchester, Ferranti y Plessey , y se instaló por primera vez en la Universidad de Manchester y se encargó oficialmente en 1962 como una de las primeras supercomputadoras del mundo, considerada la computadora más poderosa del mundo en ese momento. Se dijo que cada vez que Atlas se desconectaba, se perdía la mitad de la capacidad informática del Reino Unido. Era una máquina de segunda generación que usaba transistores de germanio discretos. Atlas también fue pionero en Atlas Supervisor, «considerado por muchos como el primer sistema operativo moderno reconocible «.
En los EE. UU., Seymour Cray diseñó una serie de computadoras en Control Data Corporation (CDC) para utilizar diseños innovadores y paralelismo para lograr un rendimiento máximo computacional superior. El CDC 6600, lanzado en 1964, generalmente se considera el primer superordenador. La CDC 6600 superó a su predecesora, la IBM 7030 Stretch, en aproximadamente un factor de 3. Con un rendimiento de aproximadamente 1 mega FLOP, la CDC 6600 fue la computadora más rápida del mundo entre 1964 y 1969, cuando renunció a ese estatus. a su sucesor, el CDC 7600.
La «tercera generación» de computadoras electrónicas digitales usaba chips de circuitos integrados (IC) como base de su lógica. La idea de un circuito integrado fue concebida por un científico de radar que trabaja para el Establecimiento de Radar Real del Ministerio de Defensa, Geoffrey WA Dummer.
Los primeros circuitos integrados funcionales fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor. Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. La invención de Kilby fue un circuito integrado híbrido (CI híbrido). Tenía conexiones de cables externos, lo que dificultaba la producción en masa.
A Noyce se le ocurrió su propia idea de un circuito integrado medio año después de Kilby. La invención de Noyce fue un chip de circuito integrado (IC) monolítico. Su chip resolvió muchos problemas prácticos que el de Kilby no había resuelto. Producido en Fairchild Semiconductor, estaba hecho de silicio, mientras que el chip de Kilby estaba hecho de germanio. La base del CI monolítico de Noyce fue el proceso plano de Fairchild, que permitió diseñar circuitos integrados utilizando los mismos principios que los de los circuitos impresos. El proceso planar fue desarrollado por el colega de Noyce, Jean Hoerni.a principios de 1959, basado en el trabajo de Atalla sobre pasivación de superficies de semiconductores por dióxido de silicona en Bell Labs a finales de la década de 1950.
Las computadoras de tercera generación (circuito integrado) aparecieron por primera vez a principios de la década de 1960 en computadoras desarrolladas para propósitos gubernamentales, y luego en computadoras comerciales a partir de mediados de la década de 1960.
Durante los años 1960 había un considerable solapamiento entre las tecnologías de la segunda y la tercera generación. Tan tarde como en 1975, Sperry Univac continuaba la fabricación de máquinas de segunda generación como el UNIVAC 494.
El microprocesador condujo al desarrollo del microcomputador, computadores pequeños, de bajo costo, que podía ser poseído por individuos y pequeñas empresas. Los primeros microcomputadores aparecieron en los años 1970, y llegaron a ser ubicuos en los años 1980 y más allá. Steve Wozniak, cofundador de Apple Computer, es acreditado por desarrollar el primer computador casero comercializado masivamente. Sin embargo, su primera computadora, el Apple I, vino algún tiempo después del KIM-1 y el Altair 8800, y la primera computadora de Apple con capacidades de gráficos y de sonidos salió bien después del Commodore PET. La computación se ha desarrollado con arquitecturas de microcomputador, con características añadidas de sus hermanos más grandes, ahora dominantes en la mayoría de los segmentos de mercado.
Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el artículo seminal de Burks, Goldstein, von Neuman, documentado en la revista Datamation de septiembre-octubre de 1962, que fue escrito, como versión preliminar 15 años más temprano. (ver las referencias abajo). Para el momento en que cualquier persona tuviera tiempo para escribir cualquier cosa, ya era obsoleto.
El MOSFET (transistor de efecto de campo semiconductor de óxido metálico, o transistor MOS) fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. Además del procesamiento de datos, el MOSFET permitió el uso práctico de MOS transistores como elementos de almacenamiento de celdas de memoria, una función que anteriormente cumplían los núcleos magnéticos. La memoria semiconductora , también conocida como memoria MOS, era más barata y consumía menos energía que la memoria de núcleo magnético. Memoria de acceso aleatorio (RAM) MOS, en forma de RAM estática (SRAM), fue desarrollado por John Schmidt en Fairchild Semiconductor en 1964. En 1966, Robert Dennard en IBM Thomas J. Watson Research Center desarrolló MOS Dynamic RAM (DRAM). En 1967, Dawon Kahng y Simon Sze en Bell Labs desarrollaron el MOSFET de puerta flotante, la base para la memoria no volátil MOS como EPROM, EEPROM y memoria flash.