viernes, 7 de febrero de 2014

Redes de intercambio

Se conoce como red de datos a la infraestructura cuyo diseño posibilita la transmisión de información a través del intercambio de datos. Cada una de estas redes ha sido diseñada específicamente para satisfacer sus objetivos, con una arquitectura determinada para facilitar el intercambio de los contenidos.

Por lo general, estas redes se basan en la conmutación de paquetes. Pueden clasificarse de distintas maneras de acuerdo a la arquitectura física, el tamaño y la distancia cubierta.
De acuerdo a su alcance, una red de datos puede ser considerada como una red de área personal (Personal Area Network o PAN), red de área local (LAN), red de área metropolitana (MAN) o una red de área amplia (WAN), entre otros tipos.

Aquí  unos ejemplos

Una red PAN es aquella red que interconecta computadoras situadas cerca de una persona, mientras que una red LAN favorece el intercambio de datos en una zona pequeña (como una oficina o un edificio).
La red MAN, por su parte, brinda una cobertura en un área geográfica extensa y la red WAN, en un área geográfica aún más extensa. Esto quiere decir que una red de datos WAN permitirá compartir datos en una superficie de gran extensión.

Historia

Los archivos fueron primero intercambiados mediante medios extraíbles. Las computadoras podían acceder a archivos remotos usando montajes de sistema de archivos, Bulletin Board System (1978), Usenet (1980), y servidores FTP (1985). Internet Relay Chat (1988) y Hotline (1997) permitían a los usuarios comunicarse remotamente mediante chat e intercambiar archivos. El códec MP3, el cual se estandarizó en 1991 y que redujo sustancialmente el tamaño de los archivos de audio, alcanzó un uso a finales de la década de 1990. En 1998, MP3.com y Audiogalaxy fueron creados, la Digital Millennium Copyright Act (DMCA) fue aprobada de manera unánime, y los primeros dispositivos reproductores de MP3 fueron lanzados. MP3.com ofrecía música de artistas sin firmar, y creció hasta servir 4 millones de descargas de audio por día.

El software P2P "puro" como Usenet no cumple con este requisito y por lo tanto no puede ser clausurado. Napster proveía un servicio en el cual se indexaba y almacenaba la información de los archivos que los usuarios de Napster ponían a disposición en sus computadoras para que otros usuarios los descargaran, y los archivos eran transferidos directamente entre el usuario servidor y el usuario cliente por Napster luego de la correspondiente autorización. Poco después de haber perdido el juicio conocido como A&M Records, Inc. v. Napster, Inc., Napster bloqueó todo el contenido bajo derechos de autor e impidió su descarga.

Gnutella, eDonkey2000 y Freenet fueron lanzadas en 2000, mientras MP3.com y Napster enfrentaban sus respectivos juicios. Gnutella, lanzada en marzo de ese año, fue la primera red de intercambio de archivos descentralizada. En la red Gnutella, todo el software conectado era considerado igual, por lo tanto la red no tenía un punto central de falla. En julio, Freenet fue lanzada y se convirtió en la primera red anónima. En septiembre fueron lanzados los programas cliente y servidor de eDonkey2000.

Desde 2002 hasta 2003, un número de servicios BitTorrent de gran popularidad fueron creados, incluyendo Suprnova.org, isoHunt, TorrentSpy, y The Pirate Bay. En 2002, la RIAA comenzó a demandar a los usuarios de Kazaa. Como resultado de estas demandas, muchos universitarios añadieron regulaciones al intercambio de archivos en sus códigos administrativos de escuela. Con la terminación del cliente eDonkey en 2005, eMule paso a ser el cliente dominante de la red eDonkey. En 2006, allanamientos policiales inhabilitaron el servidor de eDonkey Razorback2 y también inhabilitaron temporalmente The Pirate Bay. Manifestaciones a favor del intercambio de archivos tomaron lugar en Suecia en respuesta al allanamiento de The Pirate Bay. En 2009, el juicio a The Pirate Bay desembocó finalmente en un veredicto de culpabilidad para los fundadores principales del tracker.

En 2009, la red Gnutella mediante el cliente LimeWire, la red eDonkey vía eMule, y BitTorrent vía μTorrent y Vuze y los trackers y sitios web de indexado son las redes más populares. Servicios como iTunes cuentan con la mayoría de las ventas de música legal, y otros sitios como YouTube y varios proveedores de alojamiento inmediato permiten el intercambio de archivos mediante subidas a sus servidores.

Acerca de P2P

Las redes P2P (peer to peer o red de pares) son redes en las que, a través de una serie de nodos que se comportan como iguales entre sí, actúan como clientes o servidores indistintamente, y podemos descargar archivos que han puesto a nuestra disposición otros usuarios.
Esto quiere decir que nuestro ordenador está “bajando” archivos de otros ordenadores conectados a la red pero también los está ofreciendo para su descarga a otras personas.

La rapidez en la descarga a través de las redes P2P se basa en que son capaces de dividir un archivo muy grande en trozos pequeños y descargar cada uno de estos pequeños fragmentos de un cliente (un ordenador) conectado distinto, procediendo a unirlos cuando se han descargado todos los archivos pequeños, no es una descarga lineal sino que está descargando , a la vez el principio y el fin de un archivo de video.

Historia sobre P2P

La primera aplicación P2P (Peer-to-peer, o entre pares) fue Hotline Connect, desarrollada en 1996 para el sistema operativo Mac OS por el joven programador australiano Adam Hinkley [cita requerida]. Hotline Connect, distribuido por Hotline Communications, pretendía ser una plataforma de distribución de archivos destinada a empresas y universidades, pero no tardó en servir de intercambio de archivos de casi todo tipo, especialmente de contenido ilegal y muchos de contenido pornográfico. Sin embargo, también se podían compartir archivos de contenido libre de distribución. El sistema Hotline Connect estaba descentralizado, puesto que no utilizaba servidores centrales, sino completamente autónomos: los archivos se almacenaban en los ordenadores de los usuarios que deseaban funcionar como servidores, y permitían, restringían o condicionaban la entrada al resto de usuarios, los clientes. En caso de que un servidor se cerrase, no existía ningún otro lugar del cual seguir descargando ese mismo archivo, y no quedaba más remedio que cancelar la descarga y empezar de cero en otro servidor.
 
Este sistema,bien planteado en el que cada usuario dependía de un único servidor, no tardó en quedar obsoleto. Por otra parte, al ser una aplicación desarrollada fundamentalmente para una plataforma minoritaria como Mac OS, no atrajo la atención de la prensa generalista. Esto cambió con el nacimiento de Napster en 1999[cita requerida], a quien erróneamente se atribuye la invención del P2P. Aunque las transferencias de los archivos tenían lugar directamente entre dos equipos, Napster utilizaba servidores centrales para almacenar la lista de equipos y los archivos que proporcionaba cada uno, con lo que no era una aplicación perfectamente P2P. Aunque ya existían aplicaciones que permitían el intercambio de archivos entre los usuarios, como IRC y Usenet, Napster se presentó como la primera aplicación para PC especializada en los archivos de música mp3.

El resultado fue un sistema que presentaba una gran selección de música para descargar de forma gratuita. El hecho de que Napster fuera un servicio centralizado resultó su perdición. En diciembre de 1999, varias discográficas estadounidenses demandaron a Napster, y también músicos reconocidos como Lars Ulrich, batería del grupo Metallica, reclamaron su cierre. La demanda, lejos de asustar a los usuarios, dio publicidad al servicio, de forma que en febrero de 2001 Napster había llegado a su cima con 13,6 millones de usuarios en todo el mundo.

Después se estableció como líder P2P Audiogalaxy, otra aplicación centralizada de intercambio de música, que acabó también por orden judicial. Por otra parte, la RIAA (la asociación estadounidense de discográficas) tomó estas resoluciones judiciales como victorias importantes encaminadas a acabar con la llamada "piratería".

Y napster que fue? Qué es?

Napster fue un servicio de distribución de archivos de música (en formato MP3). Fue la primera gran red P2P de intercambio creado por Sean Parker y Shawn Fanning. Su popularidad comenzó durante el año 2000. Su tecnología permitía a los aficionados a la música compartir sus colecciones de MP3 fácilmente con otros usuarios, lo que originó las protestas de las instituciones de protección de derechos de autor.

El servicio fue llamado Napster ("siestero") por el seudónimo de Fanning (se dice que solía dormir mucho la siesta).

La primera versión de Napster fue publicada a finales de 1999. Fue el primero de los sistemas de distribución de archivos entre pares de popularidad masiva, y era una red centralizada, ya que utilizaba un servidor principal para mantener la lista de usuarios conectados y archivos compartidos por cada uno de ellos. Las transferencias de archivos, sin embargo, eran realizadas entre los usuarios sin intermediarios.

En diciembre de 1999, varias empresas discográficas iniciaron un juicio en contra de Napster. Esto trajo a Napster una enorme popularidad y varios millones de nuevos usuarios. Napster alcanzó su pico con 26,4 millones de usuarios en febrero del año 2001.


El 19 de mayo de 2008 Napster anunció el lanzamiento de la tienda más grande y más detallada de MP3 del mundo, con 6 millones de canciones, en free.napster.com. El aviso también indicó que todas las ventas de descargas en Estados Unidos hechas con Napster ahora estarán en formato MP3.
El 1 de diciembre de 2011 Napster se fusionó con Rhapsody y empezó a operar en diversos países de América y Europa como un nuevo servicio de pago.

ARCHIVOS TORRENT

Un archivo torrent almacena metadatos usados por BitTorrent. Está definido en la especificación de BitTorrent. Simplemente, un torrent es información acerca de un archivo de destino, aunque no contiene información acerca del contenido del archivo. La única información que contiene el torrent es la localización de diferentes piezas del archivo de destino. Los torrents funcionan dividiendo el archivo de destino en pequeños fragmentos de información, localizados en un número ilimitado de hosts diferentes. Por medio de este método, los torrents son capaces de descargar archivos grandes rápidamente. Cuando un cliente (el receptor del archivo de destino) ha iniciado una descarga por torrent, los fragmentos del archivo de destino que son necesitados pueden ser encontrados fácilmente, basados en la información del torrent. Una vez que todos los fragmentos son descargados, el cliente puede ensamblarlos en una forma utilizable. Nota: la descarga debe ser completada antes de que pueda ensamblarse en una forma utilizable.

Un archivo torrent contiene las URLs de muchos trackers y la integridad de los metadatos de todos los fragmentos. También puede contener metadatos adicionales definidos en extensiones de la especificación de BitTorrent. Estos son conocidos como "Propuestas de Mejora BitTorrent".

BitTorrent es un protocolo diseñado para el intercambio de archivos peer-to-peer en Internet. Es uno de los protocolos más comunes para la transferencia de archivos grandes.
El programador Bram Cohen diseñó el protocolo en abril de 2001 y publicó su primera implementación el 2 de julio de 2001. Actualmente es mantenido por la empresa de Cohen, BitTorrent, Inc. Existen numerosos clientes BitTorrent disponibles para varios sistemas operativos.
En enero de 2012, BitTorrent tenía 150 millones de usuarios activos de acuerdo con BitTorrent, Inc., basándose en esto, estimaban que el número total de usuarios mensuales de BitTorrent era mayor de 250 millones. En cualquier instante de tiempo BitTorrent tiene, en promedio, más usuarios activos que YouTube y Facebook juntos (en un instante de tiempo, no en número total de usuarios únicos específicamente de BitTorrent). Por otro lado, tras el cierre de la web Megaupload, el uso de esta plataforma se ha incrementado considerablemente.

Bibliografía
http://es.wikipedia.org/wiki/Intercambio_de_archivos

http://es.wikipedia.org/wiki/Napster

http://es.wikipedia.org/wiki/Archivo_Torrent


http://es.wikipedia.org/wiki/BitTorrent

martes, 12 de noviembre de 2013


 SUPERCOMPUTADORA
Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son usadas con fines específicos. Hoy día los términos de supercomputadora y superordenador están siendo reemplazados por computadora de alto desempeño y ambiente de cómputo de alto desempeño, ya que las supercomputadoras son un conjunto de poderosos ordenadores unidos entre sí para aumentar su potencia de trabajo y desempeño. Al año 2011, los superordenadores más rápidos funcionaban en aproximadamente más de 200 teraflops (que en la jerga de la computación significa que realizan más de 200 billones de operaciones por segundo). La lista de supercomputadoras se encuentra en la lista TOP500.

Características principales de una supercomputadora

Las principales son:

Velocidad de procesacion
Miles de millones de instrucciones de coma flotante por segundo.
Usuarios a la vez
Hasta miles, en entorno de redes amplias.
Tamaño
Requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso
Solo para especialistas.


Clientes usuales
Grandes centros de investigación.
Penetración social
Prácticamente nula.
Impacto social
Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número π, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
Parques instalados
Menos de un millar en todo el mundo.
Hardware
Principal funcionamiento operativo
   Costo
Hasta decenas de millones cada una.
  Facilidad de uso
Solo para especialistas.



Principales usos
Las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes. A continuación damos algunos ejemplos:

Mediante el uso de supercomputadoras, los investigadores modelan el clima pasado y el clima actual y predicen el clima futuro .

Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar el Sol y el clima espacial.

Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.

Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
Las supercomputadoras se utilizan para probar la aerodinámica de los más recientes aviones militares.


EN LA ACTUALIDAD
Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:

- La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.

- El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.

- La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.

- Cuasi-Supercómputo: Recientemente, con la popularización de la Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan

El proyecto TOP500 es un ranking de las 500 supercomputadoras más poderosas del mundo. Esta lista está recopilada por:
Hans Meuer, Universidad de Mannheim (Alemania)
Jack Dongarra, Universidad de Tennessee (Knoxville)
Erich Strohmaier, NERSC/Lawrence Berkeley National Laboratory
Horst Simon, NERSC/Lawrence Berkeley National Laboratory
El proyecto se inicia en 1993 y publica una lista actualizada cada seis meses. Para medir la potencia de los sistemas se utiliza el benchmark HPL, una versión portable del benchmark Linpack para ordenadores de memoria distribuida.

Máquinas que han ocupado el número 1
NUDT Tianhe
(Bandera de la República Popular China China, Junio de 2013 - Presente).

Cray Titan
(Flag of the United States.svg Estados Unidos, Noviembre de 2012 - Junio de 2013).

IBM Sequoia
(Flag of the United States.svg Estados Unidos, Junio de 2012 – Noviembre de 2012).

Fujitsu K computer
(Bandera de Japón Japón, Junio de 2011 – Junio de 2012)

NUDT Tianhe-IA
(Bandera de la República Popular China China, Noviembre de 2010 - Junio de 2011)

Cray Jaguar
(Flag of the United States.svg Estados Unidos, Noviembre de 2009 - Noviembre de 2010)

IBM RoadRunner
(Flag of the United States.svg Estados Unidos, Junio de 2008 - Noviembre de 2009)

IBM Blue Gene/L
(Flag of the United States.svg Estados Unidos, Noviembre de 2004 - Junio de 2008)

NEC Earth Simulator
(Bandera de Japón Japón, Junio de 2002 - Noviembre de 2004)

IBM ASCI White
(Flag of the United States.svg Estados Unidos, Noviembre de 2000 - Junio de 2002)

Intel ASCI Red
(Flag of the United States.svg Estados Unidos, Junio de 1997 - Noviembre de 2000)

Hitachi CP-PACS
(Bandera de Japón Japón, Noviembre de 1996 - Junio de 1997)

Hitachi SR2201
(Bandera de Japón Japón, Junio de 1996 - Noviembre de 1996)

Fujitsu Numerical Wind Tunnel
(Bandera de Japón Japón, Noviembre de 1994 - Junio de 1996)

Intel Paragon XP/S140
(Flag of the United States.svg Estados Unidos, Junio de 1994 - Noviembre de 1994)

Fujitsu Numerical Wind Tunnel
(Bandera de Japón Japón, Noviembre de 1993 - Junio de 1994)

TMC CM-5
(Flag of the United States.svg Estados Unidos, Junio de 1993 - Noviembre de 1993)




La siguiente tabla muestra las 10 primeras posiciones del la 41a. Lista TOP500, de junio de 2013.

Pos.
Rmax
Rpeak
(Pflops)
Nombre
Computadora
tipo de procesador, interconexión
Vendedor
Sitio
País, año
Sistema Operativo
1
33,86
54,90
Tianhe-2
NUDT
Intel Xeon
IBM
National Supercomputing Center en Guangzhou
Bandera de la República Popular China China, 2013
GNU/Linux
2
17,6
24,8
Titan
Cray XK7
Opteron 6274 + Tesla K20
Cray
Oak Ridge National Laboratory
 Flag of the United States.svg Estados GNU/LinuxUnidos, 2012
GNU/Linux (CLE)
3
16,3
20,1
Sequoia

IBM
Lawrence Livermore National Laboratory
 Flag of the United States.svg Estados Unidos, 2011
GNU/Linux (RHEL y CNL)
4
10,5
11,3
Computadora K
Blue Gene/Q
PowerPC A2, propio
Fujitsu
RIKEN
 Bandera de Japón Japón, 2011
GNU/Linux
5
8,2
10,1
Mira
RIKEN
SPARC64 VIIIfx, Tofu
IBM
Argonne National Laboratory
 Flag of the United States.svg Estados Unidos, 2012
GNU/Linux
6
4,1
5,0
JuQUEEN
Blue Gene/Q
PowerPC A2, propio
IBM
Forschungszentrum Jülich
 Flag of Germany.svg Alemania, 2012
GNU/Linux
7
2,9
3,2
SuperMUC
iDataPlex DX360M4
Xeon E5–2680, Infiniband
IBM
Leibniz-Rechenzentrum
 Flag of Germany.svg Alemania, 2012
GNU/Linux
8
2,6
3,9
Stampede
Dell PowerEdge
Intel E5-2680
Dell
Texas Advanced Computing Center/Univ. of Texas
 Flag of the United States.svg Estados Unidos, 2012
GNU/Linux
9
2,5
4,7
Tianhe-1A
NUDT YH Cluster
Xeon 5670 + Tesla 2050, Arch7
NUDT
National Supercomputing Center of Tianjin
 Bandera de la República Popular China China, 2010
GNU/Linux
10
1,7
2,1
Fermi
Blue Gene/Q
PowerPC A2, Custom
IBM
CINECA
 Flag of Italy.svg Italia, 2012
GNU/Linux



TUTORIAL
Ranking
Posición en el ranking Top500. En la tabla TOP500, los equipos están ordenados primero por su valor Rmax. En el caso de prestaciones equivalentes (valor Rmax) para equipos diferentes, hemos optado por ordenar por Rpeak. Para los sitios que tienen el mismo equipo, el orden es por el tamaño de la memoria y, a continuación en orden alfabético.

Rmax
La más alta puntuación medida usando el benchmark Linpack. Este es el número que se utiliza para clasificar a las computadoras. Se mide en billones de operaciones de punto de flotante por segundo, es decir, Teraflops.

Rpeak
Este es el rendimiento máximo teórico del sistema. Medido en TFLOPS.

Nombre
 Algunos supercomputadoras son únicos, al menos en su ubicación, y por lo tanto bautizado por su propietario.

Computadora
 La plataforma de la computadora que se comercializa.

Núcleos de procesador
El número de núcleos activos utilizados activamente ejecutando Linpack. Después de este dato se menciona la arquitectura del procesador. Si la interconexión entre los nodos de cálculo es de interés, también se incluye aquí.

Vendedor
El fabricante de la plataforma y el hardware.

Sitio
El nombre de la instalación de la supercomputadora de funcionamiento.

País
El país donde tenga su sede el equipo.

Año
El año de instalación /última actualización importante.

Sistema Operativo
El sistema operativo que utiliza el equipo.



UN POCO DE HISTORIA
-          MANCHESTER MARK (1948)


El primer supercomputador británico sentó las bases de muchos conceptos todavía usados hoy en día.

En términos modernos tenía una RAM (memoria de acceso aleatorio) de sólo 32 posiciones o 'palabras'. Cada palabra constaba de 32 bits (dígitos binarios), lo que quiere decir que la máquina tenía una cantidad total de 1024 bits de memoria.

La RAM se basó en la tecnología del tubo de rayos catódicos (CRT). Los CRTs fueron usados para almacenar bits de datos como áreas cargadas sobre el fósforo de la pantalla, mostrándose como una serie de puntos incandescentes sobre ella. El haz de electrones del CRT podría controlar esta carga y eficientemente escribir un 1 o 0 y leerlo posteriormente según se solicitase.

LOS SISTEMAS FERRANTI ATLAS (DéCADA DE LOS 60)
A mediados de 1950 Inglaterra fue por detrás de los Estados Unidos en la producción de computadores de alto rendimiento. En otoño de 1956 Tom Kilburn (co-diseñador del Manchester Mark I) había iniciado un intento conocido como el computador MUSE (microsegundo) .
          Las especificaciones de diseño incluían el deseo de una velocidad de instrucción próxima a una orden por microsegundo y la necesidad de agregar un gran número de periféricos de varios tipos. También requerían que hubiera una capacidad de almacenamiento de acceso inmediato superior a cualquiera de las que entonces había disponible.
Las técnicas especiales que fueron empleadas eventualmente incluyeron las que actualmente son conocidas como: multiprogramación; planificación de tareas; spooling; interrupciones; pipelining; almacenamiento intercalado; unidades de transferencia autónomas; paginación y almacenamiento virtual, técnicas todavía no creadas.
 En 1959 el computador había sido renombrado como el Atlas y fue después desarrollado como una unión entre Universidad de Manchester y la empresa Ferranti de Tom Kilburn. Atlas fue inaugurado el 7 de Diciembre de 1962. Se consideró que iba a ser el más potente computador del mundo. Era 80 veces mas potente que Meg/Mercury y 2400 veces más potente que el Mark 1.

     IBM y NAS (1960-1980)
Computadores IBM 1800, 360/50, 360/65, 370/165 y NAS/700

El primer computador IBM en Daresbury, un IBM 1800, llegó en Junio de 1966 y actuó como un computador de control y transferencia de datos para el sincrotón NINA, entonces el principal servicio experimental. Fue rápidamente seguido por el primer computador central IBM en Daresbury, el IBM 360/50 el cual inició el servicio en Julio de 1966. Este fue sustituido por un IBM 360/65 en Noviembre de 1968.

Durante los primeros años la principal tarea fue proporcionar poder computacional a los grupos de Física de Alta Energía que trabajaban en el Laboratorio. La informática era muy diferente en esos días. El modo habitual de decirle al computador que trabajo hacer era por tarjetas perforadas (aunque algunos incondicionales todavía insistían con la cinta de papel de 5 agujeros). Típicamente uno preparaba un trabajo en tarjetas perforadas y las situaba en una corredera elevada. Más tarde un operador tomaría la carga previa de tarjetas perforadas de la corredera y la salida de la impresora de línea que se había producido.

El tiempo de carga y descarga se midió lo menos en decenas de minutos. El tiempo medio entre fallos hacia el final de los 60 era de un día. Sin embargo estos fracasos del computador fueron 'ignorados' por los usuarios que estaban esperando por la corredera para reaparecer, y sólo anotaban un ligero retardo de velocidad en las operaciones. El NAS/7000 (un IBM 'clonico') fue instalado en Junio de 1981.
Este ofreció un enorme aumento en potencia y exactitud frente a sistemas previos.

-       CRAY (DéCADA DE LOS 70)


El Cray 1 fue el primer supercomputador "moderno".
Una de las razones por las que el Cray-1 tuvo un éxito tal fue que podía realizar más de cien millones de operaciones aritméticas por segundo (100 Mflop/s).

Si hoy, siguiendo un proceso convencional, intentaramos encontrar un computador de la misma velocidad usando PCs, necesitariamos conectar 200 de ellos, o también podriamos simplemente comprar 33 Sun4s.

INTEL


El Intel iPSC/860 tiene 64 nodos llamados RX. Cada nodo tiene un reloj de 40 MHz y 16 Mbytes de memoria. El hardware de conexión directa permite transferencias de datos nodo a nodo de 2.8 Mbytes/second. Hay 12 Gbytes de disco unido localmente y conexiones Ethernet a una estación de trabajo Sun-670MP para acceso de usuario.

 Un rendimiento de nodo máximo individual de 40 Mflops ofrece un total de más de 2.5 Gflops para la máquina completa. El software para hacer la programación más fácil incluye: Fortran y C a través de compiladores.
En 1995         

Conjunto de 26 "estaciones de trabajo" corriendo bajo el sistema UNIX y capaz de ejecutar independientemente programas o trabajar conjuntamente con transferencia de datos sobre un interruptor de alta velocidad.

Conclusión
Superordenador con capacidades de cálculo muy superiores a aquellas comunes para la misma época de fabricación.
Son muy costosas, por eso su uso está limitado a organismos militares, gubernamentales y empresas. Generalmente tienen aplicaciones científicas, especialmente simulaciones de la vida real.
Algunas supercomputadoras conocidas son Blue Gene, Seymour Cray, Deep Blue, Earth Simulator, MareNostrum, etc.
Las supercomputadoras suelen planificarse siguiendo algunos de los siguientes cuatro modelos:
* Registros vectoriales.
* Sistema M.P.P. o Massively Parallel Processors (Procesadores Masivamente Paralelos)
* Tecnología de computación distribuida.
* Cuasi-Supercómputo.

URLS:




martes, 5 de noviembre de 2013

Kevin David Mitnick

Nacimiento
6 de agosto de 1963 (50 años)
En Estados Unidos

Nacionalidad
Estadounidense

Otros nombres
Cóndor

Ocupación
Informático

Algo sobre el (Biografía):
Es uno de los Hackers y phreakers estadounidense más famosos, su apodo fue Cóndor.

Esta es su historia: Kevin David Mitnik, alias “El Cóndor”, nació el 6 de agosto de 1963 enVan Nuys, un pequeño pueblo al sur de California. Hace 41 años. Kevin no tuvo una infancia fácil. Sus padres se divorciaron, y el entorno en el que creció supuso una de las causas que le llevaron a encerrarse en casa y permanecer en soledad, momento (1970s) en el que fue seducido por las mieles de la informática; en concreto, por el poder que entrevio que podía obtener a través de las redes telefónicas. De hecho, a pesar de que Kevin ha recibido calificativos tan diversos como hacker, cracker, pirata informático y otras palabras nada agradables que eludo mencionar, lo cierto es que en esencia, Mitnik siempre ha sido un Phreaker; el mejor phreaker de la historia, según muchos.


La carrera de Kevin Mitnick comenzó a los 16 años, cuando obsesionado por las redes de ordenadores rompió la seguridad del sistema administrativo de su colegio, pero no para alterar sus notas; lo hizo "solo para mirar".

Desde muy joven sintió curiosidad por los sistemas de comunicación electrónica, cultivando y desarrollando un deseo cuasi obsesivo por investigar, aprender y lograr objetivos aparentemente imposibles. En la adolescencia Mitnick ya se había convertido en todo un fenómeno. A los 16 años marca su primera línea tras la barrera del “lado oscuro”, del que ya nunca se separaría: se saltó la seguridad del sistema administrativo de su colegio; sin embargo, no lo hizo para alterar las calificaciones escolares, como podría pensarse, sino “solo para mirar”.


Su último arresto fue el 15 de febrero de 1995, tras ser acusado de entrar en algunos de los ordenadores más seguros de los Estados Unidos. Ya había sido procesado judicialmente en 1981, 1983 y 1987 por diversos delitos electrónicos.

El caso de Kevin Mitnick (su último encarcelamiento) alcanzó una gran popularidad entre los medios estadounidenses por la lentitud del proceso (hasta la celebración del juicio pasaron más de dos años), y las estrictas condiciones de encarcelamiento a las que estaba sometido (se le aisló del resto de los presos y se le prohibió realizar llamadas telefónicas durante un tiempo por su supuesta peligrosidad).

Tras su puesta en libertad que fue en el año 2002, Kevin Mitnick se dedica a la consultoría y el asesoramiento en materia de seguridad, a través de su compañía Mitnick Security (anteriormente llamada Defensive Thinking), considera que más allá de las técnicas de hardware y software que se pueden implementar en las redes, el factor determinante de la seguridad de las mismas es la capacidad de los usuarios de interpretar correctamente las políticas de seguridad y hacerlas cumplir.

La vida de Kevin Mitnick y, en especial, la persecución que condujo a su captura en 1995, han dado lugar a multitud de libros y otro material de ficción. De entre todos destaca la novela Takedown, en el que relata su último arresto, y de la cual han sacado una película con el mismo título, Takedown, en el año 2000, les recomiendo que la vean

En la actualidad, Mitnick es consultor de seguridad, se dedica a dar conferencias sobre protección de redes informáticas, ingeniería social, etc, a lo largo y ancho del mundo, a seguir escribiendo libros, y... recaudando bastantes millones de dólares con ello es respetable ante el mundo.