sábado, 5 de abril de 2014

Modelo OSI
(Open systems interconnection)

Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones de hardware y software diferentes.
Como resultado, muchas de las redes eran incompatibles y se volvió muy difícil para las redes que utilizaban especificaciones distintas poder comunicarse entre sí. Para solucionar este problema, la Organización Internacional para la Normalización (ISO) realizó varias investigaciones acerca de los esquemas de red. La ISO reconoció que era necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a implementar redes que pudieran comunicarse y trabajar en conjunto (interoperabilidad) y por lo tanto, elaboraron el modelo de referencia OSI en 1984.

CAPAS DEL MODELO OSI

1.-CAPA FÍSICA

 Se encarga de la transmisión de bits a lo largo de un canal de comunicación. Debe asegurarse en esta capa que si se envía un bit por el canal, se debe recibir el mismo bit en el destino. Es aquí donde se debe decidir con cuántos voltios se representará un bit con valor 1 ó 0, cuánto dura un bit, la forma de establecer la conexión inicial y cómo interrumpirla. Se consideran los aspectos mecánicos, eléctricos y del medio de transmisión física. En esta capa se ubican los repetidores, amplificadores, estrellas pasivas, multiplexores, concentradores, modems, codecs, CSUs, DSUs, transceivers, transductores, cables, conectores, NICs, etc. En esta capa se utilizan los siguientes dispositivos: Cables, tarjetas y repetidores (hub). Se utilizan los protocolos RS-232, X.21.



2.-CAPA DE ENLACE

La tarea primordial de esta capa es la de corrección de errores. Hace que el emisor trocee la entrada de datos en tramas, las transmita en forma secuencial y procese las tramas de asentimiento devueltas por el receptor. Es esta capa la que debe reconocer los límites de las tramas. Si la trama es modificada por una ráfaga de ruido, el software de la capa de enlace de la máquina emisora debe hacer una retransmisión de la trama. Es también en esta capa donde se debe evitar que un transmisor muy rápido sature con datos a un receptor lento. En esta capa se ubican los bridges y switches. Protocolos utilizados: HDLC y LLC.


3.- DE SESIÓN
La capa de sesión del modelo OSI permite a las sesiones de comunicación que se establecerá entre los procesos o aplicaciones que se ejecutan en dos equipos diferentes.

Un proceso es una tarea específica que está asociada con una aplicación particular.  Las solicitudes pueden ejecutar simultáneamente varios procesos.

La capa de sesión utiliza los circuitos virtuales creados por la capa de transporte para establecer sesiones de comunicación.

Las importantes funciones que realiza en la capa de sesión para establecer, mantener y finalizar sesiones de comunicación se resumen a continuación:

Establece, termina, y los monitores de las sesiones de comunicación entre las aplicaciones
Búsqueda de nombre y funciones de seguridad.
La colocación de la información de encabezado en un paquete que determina el punto donde se inicia un mensaje y el punto donde termina un mensaje.
Sincronización de datos.

La capa realiza la sincronización entre la capa de sesión del transmisor de datos y la capa de sesión del receptor de los datos.
Controla si la comunicación o mensajes que se intercambian en un período de sesiones se transmiten como mensajes de full duplex o half duplex

Full duplex: La información se transmite de forma simultánea, y en ambas direcciones.
Half duplex: La información se transmite en ambos sentidos, y las corrientes en una dirección en un momento.

4.- CAPA DE TRANSPORTE

La capa de transporte es responsable del transporte de datos de forma secuencial, y sin perdida de datos.

La capa de transporte divide los mensajes grandes en pequeños paquetes de datos para que pueda ser transmitida a la computadora de destino.

También ensambla los paquetes en los mensajes para que pueda ser presentado a la capa de red.

Las importantes funciones que realiza en la capa de transporte para permitir la comunicación de red se enumeran a continuación:

La resolución de nombres
El control de flujo
La detección de errores
La recuperación de errores
La capa de transporte en cada computadora verifica que la solicitud de transmisión de los datos es realmente permitido el acceso a la red. También verifica que cada extremo de la conexión de red puede iniciar el proceso de transferencia de datos.
Los protocolos de transporte comunes utilizados en esta capa son:

Transmission Control Protocol (TCP): TCP es un protocolo orientado a conexión que ofrece una mayor fiabilidad cuando se trata de transporte de datos que lo UDP.
User Datagram Protocol ( UDP ): UDP es un protocolo de conexión que no proporciona datos fiables de transporte. No se retransmiten acuses de recibo.



5. SESIÓN.
La capa de sesión permite el establecimiento de sesiones entre procesos que se ejecutan en diferentes estaciones. Proporciona:

Establecimiento, mantenimiento y finalización de sesiones: permite que dos procesos de aplicación en diferentes equipos establezcan, utilicen y finalicen una conexión, que se denomina sesión.

Soporte de sesión: realiza las funciones que permiten a estos procesos comunicarse a través de una red, ejecutando la seguridad, el reconocimiento de nombres, el registro, etc.

6.-PRESENTACIÓN.
La capa de presentación puede considerarse el traductor del modelo OSI. Esta capa toma los paquetes de la capa de aplicación y los convierte a un formato genérico que pueden leer todas las computadoras. Par ejemplo, los datos escritos en caracteres ASCII se traducirán a un formato más básico y genérico.
También se encarga de cifrar los datos así como de comprimirlos para reducir su tamaño. El paquete que crea la capa de presentación contiene los datos prácticamente con el formato con el que viajaran por las restantes capas de la pila OSI (aunque las capas siguientes Irán añadiendo elementos al paquete.

7.- APLICACIÓN.
Es la capa más cercana a nosotros: es la que funciona cuando interactuamos con aplicaciones de software como, por ejemplo, enviar y recibir en electrónico través de una red.

viernes, 7 de febrero de 2014

Redes de intercambio

Se conoce como red de datos a la infraestructura cuyo diseño posibilita la transmisión de información a través del intercambio de datos. Cada una de estas redes ha sido diseñada específicamente para satisfacer sus objetivos, con una arquitectura determinada para facilitar el intercambio de los contenidos.

Por lo general, estas redes se basan en la conmutación de paquetes. Pueden clasificarse de distintas maneras de acuerdo a la arquitectura física, el tamaño y la distancia cubierta.
De acuerdo a su alcance, una red de datos puede ser considerada como una red de área personal (Personal Area Network o PAN), red de área local (LAN), red de área metropolitana (MAN) o una red de área amplia (WAN), entre otros tipos.

Aquí  unos ejemplos

Una red PAN es aquella red que interconecta computadoras situadas cerca de una persona, mientras que una red LAN favorece el intercambio de datos en una zona pequeña (como una oficina o un edificio).
La red MAN, por su parte, brinda una cobertura en un área geográfica extensa y la red WAN, en un área geográfica aún más extensa. Esto quiere decir que una red de datos WAN permitirá compartir datos en una superficie de gran extensión.

Historia

Los archivos fueron primero intercambiados mediante medios extraíbles. Las computadoras podían acceder a archivos remotos usando montajes de sistema de archivos, Bulletin Board System (1978), Usenet (1980), y servidores FTP (1985). Internet Relay Chat (1988) y Hotline (1997) permitían a los usuarios comunicarse remotamente mediante chat e intercambiar archivos. El códec MP3, el cual se estandarizó en 1991 y que redujo sustancialmente el tamaño de los archivos de audio, alcanzó un uso a finales de la década de 1990. En 1998, MP3.com y Audiogalaxy fueron creados, la Digital Millennium Copyright Act (DMCA) fue aprobada de manera unánime, y los primeros dispositivos reproductores de MP3 fueron lanzados. MP3.com ofrecía música de artistas sin firmar, y creció hasta servir 4 millones de descargas de audio por día.

El software P2P "puro" como Usenet no cumple con este requisito y por lo tanto no puede ser clausurado. Napster proveía un servicio en el cual se indexaba y almacenaba la información de los archivos que los usuarios de Napster ponían a disposición en sus computadoras para que otros usuarios los descargaran, y los archivos eran transferidos directamente entre el usuario servidor y el usuario cliente por Napster luego de la correspondiente autorización. Poco después de haber perdido el juicio conocido como A&M Records, Inc. v. Napster, Inc., Napster bloqueó todo el contenido bajo derechos de autor e impidió su descarga.

Gnutella, eDonkey2000 y Freenet fueron lanzadas en 2000, mientras MP3.com y Napster enfrentaban sus respectivos juicios. Gnutella, lanzada en marzo de ese año, fue la primera red de intercambio de archivos descentralizada. En la red Gnutella, todo el software conectado era considerado igual, por lo tanto la red no tenía un punto central de falla. En julio, Freenet fue lanzada y se convirtió en la primera red anónima. En septiembre fueron lanzados los programas cliente y servidor de eDonkey2000.

Desde 2002 hasta 2003, un número de servicios BitTorrent de gran popularidad fueron creados, incluyendo Suprnova.org, isoHunt, TorrentSpy, y The Pirate Bay. En 2002, la RIAA comenzó a demandar a los usuarios de Kazaa. Como resultado de estas demandas, muchos universitarios añadieron regulaciones al intercambio de archivos en sus códigos administrativos de escuela. Con la terminación del cliente eDonkey en 2005, eMule paso a ser el cliente dominante de la red eDonkey. En 2006, allanamientos policiales inhabilitaron el servidor de eDonkey Razorback2 y también inhabilitaron temporalmente The Pirate Bay. Manifestaciones a favor del intercambio de archivos tomaron lugar en Suecia en respuesta al allanamiento de The Pirate Bay. En 2009, el juicio a The Pirate Bay desembocó finalmente en un veredicto de culpabilidad para los fundadores principales del tracker.

En 2009, la red Gnutella mediante el cliente LimeWire, la red eDonkey vía eMule, y BitTorrent vía μTorrent y Vuze y los trackers y sitios web de indexado son las redes más populares. Servicios como iTunes cuentan con la mayoría de las ventas de música legal, y otros sitios como YouTube y varios proveedores de alojamiento inmediato permiten el intercambio de archivos mediante subidas a sus servidores.

Acerca de P2P

Las redes P2P (peer to peer o red de pares) son redes en las que, a través de una serie de nodos que se comportan como iguales entre sí, actúan como clientes o servidores indistintamente, y podemos descargar archivos que han puesto a nuestra disposición otros usuarios.
Esto quiere decir que nuestro ordenador está “bajando” archivos de otros ordenadores conectados a la red pero también los está ofreciendo para su descarga a otras personas.

La rapidez en la descarga a través de las redes P2P se basa en que son capaces de dividir un archivo muy grande en trozos pequeños y descargar cada uno de estos pequeños fragmentos de un cliente (un ordenador) conectado distinto, procediendo a unirlos cuando se han descargado todos los archivos pequeños, no es una descarga lineal sino que está descargando , a la vez el principio y el fin de un archivo de video.

Historia sobre P2P

La primera aplicación P2P (Peer-to-peer, o entre pares) fue Hotline Connect, desarrollada en 1996 para el sistema operativo Mac OS por el joven programador australiano Adam Hinkley [cita requerida]. Hotline Connect, distribuido por Hotline Communications, pretendía ser una plataforma de distribución de archivos destinada a empresas y universidades, pero no tardó en servir de intercambio de archivos de casi todo tipo, especialmente de contenido ilegal y muchos de contenido pornográfico. Sin embargo, también se podían compartir archivos de contenido libre de distribución. El sistema Hotline Connect estaba descentralizado, puesto que no utilizaba servidores centrales, sino completamente autónomos: los archivos se almacenaban en los ordenadores de los usuarios que deseaban funcionar como servidores, y permitían, restringían o condicionaban la entrada al resto de usuarios, los clientes. En caso de que un servidor se cerrase, no existía ningún otro lugar del cual seguir descargando ese mismo archivo, y no quedaba más remedio que cancelar la descarga y empezar de cero en otro servidor.
 
Este sistema,bien planteado en el que cada usuario dependía de un único servidor, no tardó en quedar obsoleto. Por otra parte, al ser una aplicación desarrollada fundamentalmente para una plataforma minoritaria como Mac OS, no atrajo la atención de la prensa generalista. Esto cambió con el nacimiento de Napster en 1999[cita requerida], a quien erróneamente se atribuye la invención del P2P. Aunque las transferencias de los archivos tenían lugar directamente entre dos equipos, Napster utilizaba servidores centrales para almacenar la lista de equipos y los archivos que proporcionaba cada uno, con lo que no era una aplicación perfectamente P2P. Aunque ya existían aplicaciones que permitían el intercambio de archivos entre los usuarios, como IRC y Usenet, Napster se presentó como la primera aplicación para PC especializada en los archivos de música mp3.

El resultado fue un sistema que presentaba una gran selección de música para descargar de forma gratuita. El hecho de que Napster fuera un servicio centralizado resultó su perdición. En diciembre de 1999, varias discográficas estadounidenses demandaron a Napster, y también músicos reconocidos como Lars Ulrich, batería del grupo Metallica, reclamaron su cierre. La demanda, lejos de asustar a los usuarios, dio publicidad al servicio, de forma que en febrero de 2001 Napster había llegado a su cima con 13,6 millones de usuarios en todo el mundo.

Después se estableció como líder P2P Audiogalaxy, otra aplicación centralizada de intercambio de música, que acabó también por orden judicial. Por otra parte, la RIAA (la asociación estadounidense de discográficas) tomó estas resoluciones judiciales como victorias importantes encaminadas a acabar con la llamada "piratería".

Y napster que fue? Qué es?

Napster fue un servicio de distribución de archivos de música (en formato MP3). Fue la primera gran red P2P de intercambio creado por Sean Parker y Shawn Fanning. Su popularidad comenzó durante el año 2000. Su tecnología permitía a los aficionados a la música compartir sus colecciones de MP3 fácilmente con otros usuarios, lo que originó las protestas de las instituciones de protección de derechos de autor.

El servicio fue llamado Napster ("siestero") por el seudónimo de Fanning (se dice que solía dormir mucho la siesta).

La primera versión de Napster fue publicada a finales de 1999. Fue el primero de los sistemas de distribución de archivos entre pares de popularidad masiva, y era una red centralizada, ya que utilizaba un servidor principal para mantener la lista de usuarios conectados y archivos compartidos por cada uno de ellos. Las transferencias de archivos, sin embargo, eran realizadas entre los usuarios sin intermediarios.

En diciembre de 1999, varias empresas discográficas iniciaron un juicio en contra de Napster. Esto trajo a Napster una enorme popularidad y varios millones de nuevos usuarios. Napster alcanzó su pico con 26,4 millones de usuarios en febrero del año 2001.


El 19 de mayo de 2008 Napster anunció el lanzamiento de la tienda más grande y más detallada de MP3 del mundo, con 6 millones de canciones, en free.napster.com. El aviso también indicó que todas las ventas de descargas en Estados Unidos hechas con Napster ahora estarán en formato MP3.
El 1 de diciembre de 2011 Napster se fusionó con Rhapsody y empezó a operar en diversos países de América y Europa como un nuevo servicio de pago.

ARCHIVOS TORRENT

Un archivo torrent almacena metadatos usados por BitTorrent. Está definido en la especificación de BitTorrent. Simplemente, un torrent es información acerca de un archivo de destino, aunque no contiene información acerca del contenido del archivo. La única información que contiene el torrent es la localización de diferentes piezas del archivo de destino. Los torrents funcionan dividiendo el archivo de destino en pequeños fragmentos de información, localizados en un número ilimitado de hosts diferentes. Por medio de este método, los torrents son capaces de descargar archivos grandes rápidamente. Cuando un cliente (el receptor del archivo de destino) ha iniciado una descarga por torrent, los fragmentos del archivo de destino que son necesitados pueden ser encontrados fácilmente, basados en la información del torrent. Una vez que todos los fragmentos son descargados, el cliente puede ensamblarlos en una forma utilizable. Nota: la descarga debe ser completada antes de que pueda ensamblarse en una forma utilizable.

Un archivo torrent contiene las URLs de muchos trackers y la integridad de los metadatos de todos los fragmentos. También puede contener metadatos adicionales definidos en extensiones de la especificación de BitTorrent. Estos son conocidos como "Propuestas de Mejora BitTorrent".

BitTorrent es un protocolo diseñado para el intercambio de archivos peer-to-peer en Internet. Es uno de los protocolos más comunes para la transferencia de archivos grandes.
El programador Bram Cohen diseñó el protocolo en abril de 2001 y publicó su primera implementación el 2 de julio de 2001. Actualmente es mantenido por la empresa de Cohen, BitTorrent, Inc. Existen numerosos clientes BitTorrent disponibles para varios sistemas operativos.
En enero de 2012, BitTorrent tenía 150 millones de usuarios activos de acuerdo con BitTorrent, Inc., basándose en esto, estimaban que el número total de usuarios mensuales de BitTorrent era mayor de 250 millones. En cualquier instante de tiempo BitTorrent tiene, en promedio, más usuarios activos que YouTube y Facebook juntos (en un instante de tiempo, no en número total de usuarios únicos específicamente de BitTorrent). Por otro lado, tras el cierre de la web Megaupload, el uso de esta plataforma se ha incrementado considerablemente.

Bibliografía
http://es.wikipedia.org/wiki/Intercambio_de_archivos

http://es.wikipedia.org/wiki/Napster

http://es.wikipedia.org/wiki/Archivo_Torrent


http://es.wikipedia.org/wiki/BitTorrent

martes, 12 de noviembre de 2013


 SUPERCOMPUTADORA
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan más de 200 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.

Características principales de una supercomputadora

Las principales son:

Velocidad de procesacion
Miles de millones de instrucciones de coma flotante por segundo.
Usuarios a la vez
Hasta miles, en entorno de redes amplias.
Tamaño
Requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso
Solo para especialistas.


Clientes usuales
Grandes centros de investigación.
Penetración social
Prácticamente nula.
Impacto social
Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
Parques instalados
Menos de un millar en todo el mundo.
Hardware
Principal funcionamiento operativo
   Costo
Hasta decenas de millones cada una.
  Facilidad de uso
Solo para especialistas.



Principales usos
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:

Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .

Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.

Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.

Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.


EN LA ACTUALIDAD
Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:

- La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.

- El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.

- La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.

- Cuasi-Supercómputo: Recientemente, con la popularización de la Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan

El proyecto TOP500 es un ranking de las 500 supercomputadoras más poderosas del mundo. Esta lista está recopilada por:
Hans Meuer, Universidad de Mannheim (Alemania)
Jack Dongarra, Universidad de Tennessee (Knoxville)
Erich Strohmaier, NERSC/Lawrence Berkeley National Laboratory
Horst Simon, NERSC/Lawrence Berkeley National Laboratory
El proyecto se inicia en 1993 y publica una lista actualizada cada seis meses. Para medir la potencia de los sistemas se utiliza el benchmark HPL, una versión portable del benchmark Linpack para ordenadores de memoria distribuida.

Máquinas que han ocupado el número 1
NUDT Tianhe
(Bandera de la República Popular China China, Junio de 2013 - Presente).

Cray Titan
(Flag of the United States.svg Estados Unidos, Noviembre de 2012 - Junio de 2013).

IBM Sequoia
(Flag of the United States.svg Estados Unidos, Junio de 2012 – Noviembre de 2012).

Fujitsu K computer
(Bandera de Japón Japón, Junio de 2011 – Junio de 2012)

NUDT Tianhe-IA
(Bandera de la República Popular China China, Noviembre de 2010 - Junio de 2011)

Cray Jaguar
(Flag of the United States.svg Estados Unidos, Noviembre de 2009 - Noviembre de 2010)

IBM RoadRunner
(Flag of the United States.svg Estados Unidos, Junio de 2008 - Noviembre de 2009)

IBM Blue Gene/L
(Flag of the United States.svg Estados Unidos, Noviembre de 2004 - Junio de 2008)

NEC Earth Simulator
(Bandera de Japón Japón, Junio de 2002 - Noviembre de 2004)

IBM ASCI White
(Flag of the United States.svg Estados Unidos, Noviembre de 2000 - Junio de 2002)

Intel ASCI Red
(Flag of the United States.svg Estados Unidos, Junio de 1997 - Noviembre de 2000)

Hitachi CP-PACS
(Bandera de Japón Japón, Noviembre de 1996 - Junio de 1997)

Hitachi SR2201
(Bandera de Japón Japón, Junio de 1996 - Noviembre de 1996)

Fujitsu Numerical Wind Tunnel
(Bandera de Japón Japón, Noviembre de 1994 - Junio de 1996)

Intel Paragon XP/S140
(Flag of the United States.svg Estados Unidos, Junio de 1994 - Noviembre de 1994)

Fujitsu Numerical Wind Tunnel
(Bandera de Japón Japón, Noviembre de 1993 - Junio de 1994)

TMC CM-5
(Flag of the United States.svg Estados Unidos, Junio de 1993 - Noviembre de 1993)




La siguiente tabla muestra las 10 primeras posiciones del la 41a. Lista TOP500, de junio de 2013.

Pos.
Rmax
Rpeak
(Pflops)
Nombre
Computadora
tipo de procesador, interconexión
Vendedor
Sitio
País, año
Sistema Operativo
1
33,86
54,90
Tianhe-2
NUDT
Intel Xeon
IBM
National Supercomputing Center en Guangzhou
Bandera de la República Popular China China, 2013
GNU/Linux
2
17,6
24,8
Titan
Cray XK7
Opteron 6274 + Tesla K20
Cray
Oak Ridge National Laboratory
 Flag of the United States.svg Estados GNU/LinuxUnidos, 2012
GNU/Linux (CLE)
3
16,3
20,1
Sequoia

IBM
Lawrence Livermore National Laboratory
 Flag of the United States.svg Estados Unidos, 2011
GNU/Linux (RHEL y CNL)
4
10,5
11,3
Computadora K
Blue Gene/Q
PowerPC A2, propio
Fujitsu
RIKEN
 Bandera de Japón Japón, 2011
GNU/Linux
5
8,2
10,1
Mira
RIKEN
SPARC64 VIIIfx, Tofu
IBM
Argonne National Laboratory
 Flag of the United States.svg Estados Unidos, 2012
GNU/Linux
6
4,1
5,0
JuQUEEN
Blue Gene/Q
PowerPC A2, propio
IBM
Forschungszentrum Jülich
 Flag of Germany.svg Alemania, 2012
GNU/Linux
7
2,9
3,2
SuperMUC
iDataPlex DX360M4
Xeon E5–2680, Infiniband
IBM
Leibniz-Rechenzentrum
 Flag of Germany.svg Alemania, 2012
GNU/Linux
8
2,6
3,9
Stampede
Dell PowerEdge
Intel E5-2680
Dell
Texas Advanced Computing Center/Univ. of Texas
 Flag of the United States.svg Estados Unidos, 2012
GNU/Linux
9
2,5
4,7
Tianhe-1A
NUDT YH Cluster
Xeon 5670 + Tesla 2050, Arch7
NUDT
National Supercomputing Center of Tianjin
 Bandera de la República Popular China China, 2010
GNU/Linux
10
1,7
2,1
Fermi
Blue Gene/Q
PowerPC A2, Custom
IBM
CINECA
 Flag of Italy.svg Italia, 2012
GNU/Linux



TUTORIAL
Ranking
Posición en el ranking Top500. En la tabla TOP500, los equipos están ordenados primero por su valor Rmax. En el caso de prestaciones equivalentes (valor Rmax) para equipos diferentes, hemos optado por ordenar por Rpeak. Para los sitios que tienen el mismo equipo, el orden es por el tamaño de la memoria y, a continuación en orden alfabético.

Rmax
La más alta puntuación medida usando el benchmark Linpack. Este es el número que se utiliza para clasificar a las computadoras. Se mide en billones de operaciones de punto de flotante por segundo, es decir, Teraflops.

Rpeak
Este es el rendimiento máximo teórico del sistema. Medido en TFLOPS.

Nombre
 Algunos supercomputadoras son únicos, al menos en su ubicación, y por lo tanto bautizado por su propietario.

Computadora
 La plataforma de la computadora que se comercializa.

Núcleos de procesador
El número de núcleos activos utilizados activamente ejecutando Linpack. Después de este dato se menciona la arquitectura del procesador. Si la interconexión entre los nodos de cálculo es de interés, también se incluye aquí.

Vendedor
El fabricante de la plataforma y el hardware.

Sitio
El nombre de la instalación de la supercomputadora de funcionamiento.

País
El país donde tenga su sede el equipo.

Año
El año de instalación /última actualización importante.

Sistema Operativo
El sistema operativo que utiliza el equipo.



UN POCO DE HISTORIA
-          MANCHESTER MARK (1948)


El primer supercomputador británico sentó las bases de muchos conceptos todavía usados hoy en día.

En términos modernos tenía una RAM (memoria de acceso aleatorio) de sólo 32 posiciones o 'palabras'. Cada palabra constaba de 32 bits (dígitos binarios), lo que quiere decir que la máquina tenía una cantidad total de 1024 bits de memoria.

La RAM se basó en la tecnología del tubo de rayos catódicos (CRT). Los CRTs fueron usados para almacenar bits de datos como áreas cargadas sobre el fósforo de la pantalla, mostrándose como una serie de puntos incandescentes sobre ella. El haz de electrones del CRT podría controlar esta carga y eficientemente escribir un 1 o 0 y leerlo posteriormente según se solicitase.

LOS SISTEMAS FERRANTI ATLAS (DéCADA DE LOS 60)
A mediados de 1950 Inglaterra fue por detrás de los Estados Unidos en la producción de computadores de alto rendimiento. En otoño de 1956 Tom Kilburn (co-diseñador del Manchester Mark I) había iniciado un intento conocido como el computador MUSE (microsegundo) .
          Las especificaciones de diseño incluían el deseo de una velocidad de instrucción próxima a una orden por microsegundo y la necesidad de agregar un gran número de periféricos de varios tipos. También requerían que hubiera una capacidad de almacenamiento de acceso inmediato superior a cualquiera de las que entonces había disponible.
Las técnicas especiales que fueron empleadas eventualmente incluyeron las que actualmente son conocidas como: multiprogramación; planificación de tareas; spooling; interrupciones; pipelining; almacenamiento intercalado; unidades de transferencia autónomas; paginación y almacenamiento virtual, técnicas todavía no creadas.
 En 1959 el computador había sido renombrado como el Atlas y fue después desarrollado como una unión entre Universidad de Manchester y la empresa Ferranti de Tom Kilburn. Atlas fue inaugurado el 7 de Diciembre de 1962. Se consideró que iba a ser el más potente computador del mundo. Era 80 veces mas potente que Meg/Mercury y 2400 veces más potente que el Mark 1.

     IBM y NAS (1960-1980)
Computadores IBM 1800, 360/50, 360/65, 370/165 y NAS/700

El primer computador IBM en Daresbury, un IBM 1800, llegó en Junio de 1966 y actuó como un computador de control y transferencia de datos para el sincrotón NINA, entonces el principal servicio experimental. Fue rápidamente seguido por el primer computador central IBM en Daresbury, el IBM 360/50 el cual inició el servicio en Julio de 1966. Este fue sustituido por un IBM 360/65 en Noviembre de 1968.

Durante los primeros años la principal tarea fue proporcionar poder computacional a los grupos de Física de Alta Energía que trabajaban en el Laboratorio. La informática era muy diferente en esos días. El modo habitual de decirle al computador que trabajo hacer era por tarjetas perforadas (aunque algunos incondicionales todavía insistían con la cinta de papel de 5 agujeros). Típicamente uno preparaba un trabajo en tarjetas perforadas y las situaba en una corredera elevada. Más tarde un operador tomaría la carga previa de tarjetas perforadas de la corredera y la salida de la impresora de línea que se había producido.

El tiempo de carga y descarga se midió lo menos en decenas de minutos. El tiempo medio entre fallos hacia el final de los 60 era de un día. Sin embargo estos fracasos del computador fueron 'ignorados' por los usuarios que estaban esperando por la corredera para reaparecer, y sólo anotaban un ligero retardo de velocidad en las operaciones. El NAS/7000 (un IBM 'clonico') fue instalado en Junio de 1981.
Este ofreció un enorme aumento en potencia y exactitud frente a sistemas previos.

-       CRAY (DéCADA DE LOS 70)


El Cray 1 fue el primer supercomputador "moderno".
Una de las razones por las que el Cray-1 tuvo un éxito tal fue que podía realizar más de cien millones de operaciones aritméticas por segundo (100 Mflop/s).

Si hoy, siguiendo un proceso convencional, intentaramos encontrar un computador de la misma velocidad usando PCs, necesitariamos conectar 200 de ellos, o también podriamos simplemente comprar 33 Sun4s.

INTEL


El Intel iPSC/860 tiene 64 nodos llamados RX. Cada nodo tiene un reloj de 40 MHz y 16 Mbytes de memoria. El hardware de conexión directa permite transferencias de datos nodo a nodo de 2.8 Mbytes/second. Hay 12 Gbytes de disco unido localmente y conexiones Ethernet a una estación de trabajo Sun-670MP para acceso de usuario.

 Un rendimiento de nodo máximo individual de 40 Mflops ofrece un total de más de 2.5 Gflops para la máquina completa. El software para hacer la programación más fácil incluye: Fortran y C a través de compiladores.
En 1995         

Conjunto de 26 "estaciones de trabajo" corriendo bajo el sistema UNIX y capaz de ejecutar independientemente programas o trabajar conjuntamente con transferencia de datos sobre un interruptor de alta velocidad.

Conclusión
Superordenador con capacidades de cálculo muy superiores a aquellas comunes para la misma época de fabricación.
Son muy costosas, por eso su uso está limitado a organismos militares, gubernamentales y empresas. Generalmente tienen aplicaciones científicas, especialmente simulaciones de la vida real.
Algunas supercomputadoras conocidas son Blue Gene, Seymour Cray, Deep Blue, Earth Simulator, MareNostrum, etc.
Las supercomputadoras suelen planificarse siguiendo algunos de los siguientes cuatro modelos:
* Registros vectoriales.
* Sistema M.P.P. o Massively Parallel Processors (Procesadores Masivamente Paralelos)
* Tecnología de computación distribuida.
* Cuasi-Supercómputo.

URLS: