Computer Services GRID . Art. Edgar Guerra .2016 -2024TRAB. DOCTORADO UPNA

(AWS) GRID COMPUTING

AWS S3 | LOS GRID COMPUTING

COMO FUNCIONA AWS  SEGUN UN  USUARIO


L. Simson Garfinkel es Profesor Asociado en la
Escuela Naval de Posgraduados, becario en el Centro de Investigaciones de la Sociedad de Computación  en la Universidad de Harvard.Es un científico de consultoría en la Base Technology Corp, que desarrolla software para la extracción de Texto  inteligente no estructurado, y uno de los fundadores de empresas de Software , una  empresa de seguridad  en computadoras ,que desarrolla avanzadas herramientas  para realizar auditoría de sistemas de Equipo forense,  utilizadas por las empresas y los gobiernos.

 

En las  ofertas , para  comprar un servidor  de  10-20
TB de almacenamiento solicite la misma , para seguir mi propia investigación en Informática forense.

 

En lugar de  ir  adelante con la compra, decidí evaluarla y  no he podido utilizar La oferta para este mundo real ya que  es un problema para mi estudio.

 Mi Conclusión es que la oferta en Amazon es lo suficientemente buena para mi investigación y probablemente me salvará decenas de miles de dólares, pero el sistema aún no está listo para acoger la  gravedad  del comercio electrónico de los clientes.

Amazon Simple Storage Service (S3) y Elastic ,Compute Cloud (EC2)  disponen  de una impresionante infraestructura celular que la empresa puede paulatinamente alquilar a cualquier persona o empresa que requiere del comercio electrónico con un  alto rendimiento.


Al igual que Google y Yahoo, Amazon ha construido clusters de computación en todo el mundo, cada uno de ellos con decenas de miles de sistemas de computadoras.


La teoría detrás de estos servicios es que las economías a  escala de  Amazon,  permitirá  correr y alquilar estos
Servicios a las empresas a un precio más barato  al que las mismas empresas podrían ueden gestionar de sus propios servicios.

 

Amazon S3 anunció en marzo de 2006 y dijo  que el servicio permite que cualquier persona con una tarjeta de crédito pueda  almacenar Información en la  Amazonía en forma redundante y reproducirla con el  almacenamiento de red.

Los costes de almacenamiento son 15 centavos por Gigabyte por mes, la transferencia de datos es de 20 centavos por Gigabyte. Puede almacenar una cantidad ilimitada de Información, y no hay cuota fija.

La mejor forma de pensar sobre S3 es como el mundo disponible y  distribuido en una tabla hash con alto nivel de Control de acceso.

Se puede almacenar datos como una serie de nombre / Pares de valor. Nombres para ver en  UNIX los nombres de archivo; El valor puede ser cualquier objeto en serie entre 0  Y 5 GB. También puede almacenar hasta 4K de metadatos con cada objeto.
Todos los objetos en la Amazonía S3 debe caber en el mismo  paquete global. El  nombre consiste en un "cubo nombre" y un "objeto nombre". Cazo o Nombre están disponibles en Amazon por orden de llegada, en primer lugar serviran  de base. Usted no puede tener "foo" porque si ya se han tomado, pero se podrían conseguir probablemente un cubo de agua con su nombre, apellido, y luego, con su apellido seguido Por un número al azar de siete dígitos. Archivos con nombres son razonablemente Seguros : Puede crear una lista de los nombres al cubo en su cuenta,Pero no se pueden enumerar los segmentos que pertenecen a otras personas. Sólo puede llegar hasta  100 del  cubo por tener una  cuenta,es para  volverse loco con ellos.

El Control de acceso se basa en estos cubos. Usted puede hacer su lectura de  hasta 100   ID  en Amazon Web Service,  de la "cuenta " y de   "lectura / escritura"   de hasta otros 100 identificaciones.

También puede hacer un  mundo legible, aunque esto es muy parecido a la entrega de  un cheque en blanco al mundo , ya que el costo  para hacer descargas es de 20 centavos por gigabyte.

Se puede enviar datos a S3 utilizando una sencilla técnica , que ha tomado en el nombre "DESCANSO", abreviatura de representación del Estado de  transferencia basada en comandos SOAP API o Con crudos HTTP "PUT"  (). Los datos pueden ser recuperados
Utilizando SOAP, HTTP, o BitTorrent.

En el caso de BitTorrent, el sistema de S3 Opera como un tracker .

También existe un programa JungleDisk  es el que pide  que le permita  utilizar el almacenamiento S3 como si fuera un archivo  de Sistema remoto ; JungleDisk funciona en Linux, Mac OS y Windows.


Después de profundizar en la innecesaria complejidad de SOAP, me entregó y decidió  A la pura utilización de HTTP / API REST. S3.

Se usa  para almacenar imágenes de Unidades de disco  duro  que han adquirido o desarrollado durante el curso de mi investigación  en informática forense. Con REST, puedo almacenar datos en bruto, sin tener que  codificarlo primero en base-64  .

 También encontré algo que es mucho más fácil para un simple código S3,  RESTO una aplicación que puede  hacer frente a todos los gastos generales requeridos por cliente SOAP .

En S3 el rendimiento y la seguridad son importantes y he probado con el rendimiento de la API REST de redes en el MIT, Harvard,Y en  mi casa.En ambas universidades se tiene  conexiones rápidas a Internet  para  transportistas múltiples .

A pesar de esta velocidad, tanto mi carga y descarga tienen velocidades promedio de entre 1 y 2 MB por segundo, dependiendo de la  La hora del día, hasta  unos  30 Megabit por segundo de Verizon FiOS conexión.

En base a la retroalimentación en el desarrollador Amazon  de los foros, estas son las cifras de rendimiento en el extremo superior  de lo que otros están viendo.

Han informado  que un   desarrollador de Alemania   había visto entre 10 y 100 kilobytes por segundo, dependiendo de la hora del día.
Aunque esta velocidad es simplemente no lo suficientemente rápido para hacer cómputo serio, Es lo suficientemente bueno para las copias de seguridad y para el uso de S3 para entregar objetos de la web.
Es evidente, sin embargo, el rendimiento es un área que necesita de trabajo para todos los usuarios de S3.

La seguridad es otra parte importante de cualquier sistema de almacenamiento. Amazonia ha S3 da un impresionante apoyo de la privacidad, la integridad, y la disponibilidad a corto plazo.

La Disponibilidad a largo plazo del servicio se  desconoce, ya que en última instancia depende de los compromisos internos de Amazonas.

 

INCONVENIENTES 

Sorprendentemente, la Parte más débil de S3 es el servicio de autenticación de la arquitectura que trataremos  
 proximamente cada una de estos cuestionamientos.

La privacidad de los datos se logra mediante el uso de cifrado y  control de acceso. Si desea que sus datos sean encriptados, la codificación se debe hacer  antes de que los datos se envían a S3.

Se puede proteger a los nombres de los objetos y Otros metadatos  con una  comunicación e con los servidores de la Web de Amazon usando SSL 8; LO G I N: L VO. 3 2, N O. 1  con HTTPS en el puerto 443.

En mis pruebas con un 2-GHz Intel Core Duo MacBook MIT en la red, la descarga de datos de más de SSL tomó  aproximadamente 10% más largo en S3 que la descarga de los mismos datos en bruto sobre HTTP.


Menores gastos generales, se demuestra que el coste computacional de la encriptación de datos estos días es menor en comparación con otros gastos, sin embargo el  Cifrado aún no es libre.

La integridad de los datos almacenados se realiza con un fin-a-fin al comprobar el uso El hash MD5 criptográficos como un checksum.

Cuando  se almacena un objeto a S3, el sistema calcula en la Amazonía el MD5 de ese objeto y  espera que los retornos  Hash den  su respuesta.

Amazon S3 compara la aplicación computarizada Hash con un hash que computa a nivel local para ver si coinciden, los paquetes de  datos  enviados de la aplicación.

 

Aunque la aplicación enviará Objetos de cualquier tamaño, el  código nunca envía objetos mayores de 16 MB.

La Disponibilidad a corto plazo es un reflejo de conectividad del Amazonas, sobre la carga, debido a Su red  tejida de servidores , e incluso la fiabilidad de su código.

Se ha encontrado pruebas de que en algún lugar entre el 0,1% y el 1% de todas las entradas y se vuelven a retroalimentar  de nuevo si la entrada  no concluyó con éxito.

Normalmente PUTs  se logran en el segundo reintento, pero a veces se  necesita  volver a intentarlo tres o cuatro Veces,uno de los desarrolladores de los foros recomienda  la aplicación de un back-off Exponencial, pero los reintentos de una  aplicación falla  en el momento de recibir un mensaje de error. Después de escribir más de un terabyte de S3, nunca se ha  experimentado un fracaso que exige Más de cuatro reintentos.


La disponibilidad a largo plazo es una cuestión más grande, por desgracia, una vez que los datos son  realmente almacenados en el S3, Amazon tiene la responsabilidad de garantizar que sigan siendo disponibles durante todo el tiempo que el cliente paga las facturas.

 

Amazon afirma que la Los datos se almacenan en múltiples discos duros en múltiples centros de datos.

 

Lamentablemente,Amazon no respaldar esta afirmación con ningún tipo de Nivel de Servicio de acuerdo con  (SLA). Además, no existe ninguna copia de seguridad o de servicio de recuperación en caso  de que se han  borrado algunos datos importantes.

Como resultado de ello, es importante  mantener una copia de seguridad  de los datos almacenados S3.

La autenticación de la estrategia de Amazon Web Services (AWS) parece bastante Sólido a la primera lamentablemente, es en realidad un búnker de acero construido sobre la base  de arenas movedizas.
AWS apoya una simple estrategia de autenticación basado en el HMAC-SHA1  Algoritmo.

En AWS Cada cuenta tiene una clave de acceso y un ID de acceso Secreto Clave. La clave de acceso es un ID de 20 digitos en cadena de caracteres que se utiliza exclusivamente para Identificar su cuenta, la clave secreta de acceso es hasta de 41 digitos en  la cadena de caracteres.
Utilizado para firmar digitalmente solicitudes SOAP y REST. Para firmar una petición, simplemente HMAC calcular los parámetros de la petición utilizando la Clave secreta, como la clave para el HMAC que es HMAC enviada junto con la solicitud.
Los servidores de Amazon, que conoce su clave secreta de acceso, calcular la misma HMAC. Si los dos HMAC coinciden, entonces la petición es autorizada. Pide que se  Incluya la fecha para impedir ataques de repetición.


El HMAC es un enfoque rápido, eficiente, seguro y bonito. La subyacente debilidad es que las credenciales se descargan desde el sitio Web de AWS.


Esto significa que cualquier persona que conozca su nombre de usuario y contraseña Amazonas Puede descargar su clave secreta de acceso.

Desde Amazon se permite que la contraseña se ponga  a cero y si no se puede recordar , simplemente haciendo clic en un vínculo, se envían a la cuenta de la dirección de correo electrónico registrada, cualquier persona que tenga el control de su  Sistema de correo electrónico pueden eliminar de manera efectiva toda la información que ha almacenado en  S3.

Amazonas tendrá que replantearse esta arquitectura de autenticación antes de que  las organizaciones puedan desconfiar  con la información en caso de  misión crítica.
; LOGIN: FEBRERO DE 2007 LOS 9 GRID COMPUTING


El otro problema real con S3 es la estructura de costos: Actualmente cuesta Casi tanto como cargar y descargar una pieza de información, ya que los costos  para almacenar datos de la misma durante tres meses. aunque esto puede ser una dramática demostración de que el costo de almacenamiento está cayendo mucho más rápido que el Costo de ancho de banda, ancho de banda de S3 simplemente inasequibles para muchos proyectos.

Lamentablemente, Amazonas ha  hecho que  la fijación de precios del servicio S3 Completamente sea  inservible para mí hasta que la empresa presentó su segundo gridcomputing
- Que ofrecen un alto rendimiento de la  utilidad.


El elástico Compute Cloud
Amazonia Elastic Compute Cloud (EC2) S3  tiene  la estrategia de precios  más fácil de gestionar y eliminar los gastos de ancho de banda para mover datos  Entre el almacenamiento y la computación.
Como su nombre indica, te permite EC2,  período de alquiler sobre una "nube" de las computadoras.


Estos ordenadores son el equivalente de 1,7 GHz a 1,25 Xenon servidores GB de RAM y 160 GB de disco local. El coste de estas máquinas es de 10  Centavos de dólar por CPU por hora.

Como en el S3, que cuesta 20 centavos por gigabyte para   colocar y avanzar Datos entre en Internet y EC2. Sin embargo, no hay cargo Para moverse entre los EC2 y S3.

 

Según Amazon, cada máquina virtual Cuenta con 250 megabits por segundo de ancho de banda, aunque la forma en que se traduce  EC2 a velocidad entre S3 y depende de una variedad de factores.
Las "máquinas" que ofrece  Amazon EC2 son en realidad máquinas virtuales,  que hacen uso de la plataforma de Xen.

Se ha creado una máquina  virtual  mediante el almacenamiento de una imagen de disco dentro S3 utilizando herramientas especiales que Amazon Proporciona y, a continuación, se ejecuta un programa Java que inicia la máquina  virtual. 

 Un segundo programa Java le permite supervisar los progresos de la Máquina de la creación; cuando esté listo, el script muestra el equipo Nombre de host. Obviamente, la imagen que debe tener una instancia, permite la cuenta que le permite acceder a la máquina.
EC2 se basa en Xen, y se usa en cualquier distribución de Linux como Así como NetBSD, FreeBSD, Plan 9, y otros sistemas operativos.

En la práctica, sin embargo, EC2 se basa en gran medida en la RedHat Fedora Core sistema operativo, Aunque hay instrucciones en la Internet para usarlo con distribuciones Ubuntu .

Creo que este es decepcionante, porque FreeBSD y Darwin, seguidos  Por Ubuntu, son de alta preferencia por los  sistemas operativos.
Amazon todabía no da la fiabilidad a los ordenadores EC2:
Cada máquina puede chocar en cualquier momento, y no disponen de  copias de segurida`.Por experiencia de estos accidentes de las  máquinas , que hacen  Fracasar. Si desea  almacenamiento fiable , se puede ejecutar dos o más máquinas EC2 como un grupo.

Un mejor enfoque, sin embargo, es que la tienda de máquinas EC2 de información en S3, para tener máquinas fiables.


¿Cuál es realmente lo puro sobre EC2 es que se puede construir un sistema  pequeño y luego se  amplia, ya que se hace más popular, simplemente por la  variedad  de los ordenadores virtual. De hecho, incluso puede llevar hasta máquinas virtuales los jueves Y viernes, en caso de los que son sus días de gran afluencia, y los que cierran las máquinas durante el resto de la semana.

EC2 El modelo de seguridad es similar a la de S3, salvo que los comandos son X.509 firmado con una clave privada. Por desgracia, que descarga una  Clave  privada de la AWS sitio Web, por lo que la seguridad sigue siendo fundamentalmente y depende de  AWS de el nombre de usuario y contraseña.

Que la clave privada se puede utilizar y poner en marcha las máquinas, cerrar sus negocios, y configurar el "firewall" que Protege las  máquinas virtuales sobre la infraestructura EC2.

 El firewall  Permite controlar que las direcciones IP y los puertos en Internet puedan controlar las  máquinas virtuales, por defecto, todos los puertos están cerrados;

Probablemente usted desea abrir el firewall para permitir que el puerto 22 (ssh) al menos,permitan que las funcionen los servidores Web, probablemente debería tener el puerto 80 Abierto. y, por supuesto, probablemente querrá configurar el firewall de manera Que sus máquinas virtuales pueden comunicarse entre sí, por lo menos en Algunos puertos.
Amazon tuvo un problema de seguridad con los principios de EC2: La empresa se Descuidaba y no a limpiaba el ordenador virtual de las unidades de disco antes de cambiar de un cliente a otro.

Este problema ha sido corregido con la aplicación de S3_glue: A C + +  la API REST S3 .Como ya he dicho, he estado usando S3 y EC2 para mi investigación en
Informática forense.

Como parte de mi investigación he creado un sistema de código abierto  para obtener imágenes de los discos duros y el almacenamiento de los resultados en muy comprimido  Pero de acceso aleatorio imágenes de disco [2]. Este mes de octubre he añadido soporte para a S3 con la  biblioteca a fin de que las imágenes puedan  residir en el ordenador local o en Amazon S3.
Amazon proporciona ejemplos de código para S3 en C #, Java, JavaScript, Perl, Python, Y Ruby. Aunque estos ejemplos son instructivas, mi disco de sistema de procesamiento de imágenes está escrito en C + + por razones de rendimiento.

 

Para hacer utilizable el código Para que otros me distinguirse en la base de la aplicación S3 código que  Es específico de mi biblioteca forense. La aplicación se puede descargar
De http://www.simson.net/s3/. Utiliza libcurl [3] para HTTP.S3, recordar que todos los objetos son objeto que se han  dado nombres, y que estos objetos son A su vez colocadas en cubos. La API REST vuelve objeto y el cubo de nombres  En la URL de la forma
http://s3.amazonws.com/bucket-name/object-name.

Los datos son descargados con un HTTP GET y cargado con un HTTP PUT.

También se ha previsto la creación de una máquina virtual (por ejemplo, http://bucket.s3
.amazonws.com / Objeto-nombre), que le hace un poco más fácil tener S3 Servir directamente el contenido de la Web a los navegadores. 
 Las solicitudes a  S3 son autenticados a través de otros términos que se añaden a la consulta o a  la sección de la URL. La "Firma =" término incluye el HMAC como una cabeceras de las solicitudes representado en una forma canónica y del usuario AWS da la clave  Secreta de acceso. El "TERMINA =" plazo le permite especificar cuando el Consulta vencerá.

Por último, el "AWSAccessKeyId =" especifica el plazo Solicitante. Recuerde, no es necesaria la autenticación de cubos que se  Por todo el mundo o todo el mundo puede escribir.
1,1 HTTP permite a un cliente a solicitar una serie de bytes; S3 implementa este Parte del protocolo, lo que le permite pedir unos pocos bytes de un gran
Objeto. S3 límites de un objeto global a 5 GB, aunque un error en la Amazonía Balanceadores de carga significa que los objetos sean efectivamente limitado a 2 GB de tamaño. I Almacenar imágenes de disco de más de 16 MB como varias páginas, cada una de las cuales es de 16
MB de longitud antes de ser comprimido, por lo que la limitación no era 2GB  Problema para mí.

Mi S3 aplicación sencilla y eficaz dispone de C + + para la inclusión de funciones a todos los segmentos que pertenecen a un usuario, lo que da un nuevo cubo, la supresión de una  Cubo, de manera selectiva lista el contenido de un cubo de agua, el obtener un objeto, el ahorro de un objeto, y la eliminación de un objeto.

 El código arbitrario apoya nombre / valor Pares de metadatos sobre un objeto. Este metadatos tiene que ser almacenado con un  Objeto, pero puede ser recuperada independiente.
; LOGIN: FEBRERO DE 2007 LOS 11 GRID COMPUTING

S3 es bastante potente en la medida de lo que va, pero hay mucho de la funcionalidad Desaparecidos. No hay manera de cambiar el nombre de un objeto, por ejemplo. No hay  Forma de buscar-no puedes ni siquiera búsqueda de objetos de una determinada duración o  que tienen un especial campo de metadatos en sus cabeceras.

De esta manera, el S3 es mucho Berkeley DB como Python o el "diccionario" estructuras de datos: Puede almacenar  Datos, obtener de nuevo, y iterar. Todo lo demás depende de usted. Debido a los objetos Pueden ser recuperados y los que figuran en el léxico orden de clasificación, que espero que muchas aplicaciones  Se codificar una gran cantidad de información en el interior del nombre de archivo. Eso es lo que  Hizo.
Además de mi aplicación S3 , he creado también una línea de comandos como utilidad llamada "s3." Este programa es principalmente para la realización de pruebas de la  biblioteca S3 Mantenimiento del sistema de S3. También ejecuta los comandos UNIX que para la inclusión  el contenido de un cubo de agua, copia el contenido de un objeto a nivel Producción, la supresión de un objeto, la supresión de un conjunto de objetos, y la gestión de cubos.
Este programa también está disponible a partir de mi sitio Web.
Cálculo los Números En mi investigación me permite  usar programas que toman literalmente un mes  para correr en una estación de trabajo con disco duro de un terabyte.

Con la Amazonía EC2  S3 yo  puedo dividir la tarea de creación y gestión de lo virtual,  en 30 de los ordenadores en el transcurso de un día, por cerca de $ 72. o puedo ejecutarlo en 60 computadoras virtuales  durante 12 horas, de nuevo por un valor de $ 72.

 

Este simple ejemplo demuestra las  grandes ventajas del  tiempo alquiler  sobre otra organización más de la construcción de su red Propia. A menos que tenga suficiente trabajo para ocupar su grilla el 100% del tiempo, Cada hora que un ordenador no es una hora de trabajo es que te pagan, pero Recibido nada a cambio.


Hay otras alternativas a la oferta de Amazon. Dreamhost, un proveedor de servicios de Internet que yo El uso de algunos de mis trabajos personales, sólo reduce drásticamente el coste de su - Planes de alojamiento web. Por sólo $ 9.95/month usted puede tener 200 GB de almacenamiento (Automáticamente por 1 GB cada vez más a la semana) y 2 TB de ancho de banda por mes.
Amazon se cobran $ 30 para almacenamiento de la misma, pero un tremendo número de 400 dólares para que gran parte del ancho de banda. Lamentablemente, tenía una participación importante en Dreamhost
Problemas de fiabilidad durante el verano pasado. Pair.com, una prima-empresa de alojamiento web en el otro extremo de la relación coste /
Espectro de rendimiento, cobra $ 9.95/month para una web-hosting
Cuenta con 500 MB de almacenamiento en disco y 40 GB de ancho de banda por mes  Amazon cobraría 7,5 centavos para el almacenamiento y $ 8 para el mismo ancho de banda.
Pair.com alquilará una dedicada Celeron 2,8 GHz con ordenador
512 MB de RAM y 80 GB de disco duro con 600 GB de tráfico por mes
Por $ 249/month. Amazon EC2 de máquinas son más rápidas, tienen el doble de la memoria RAM Y dos veces el disco local, y el costo de sólo $ 72/month, a pesar de que 600 GB De ancho de banda por mes le costará otros $ 120. Por otro lado, Par 24/7/365 servidor proporcionará la supervisión y apoyo, mientras que la Amazon servidores pueden accidente y no hay el apoyo que no sea lo que está disponible
En los foros para desarrolladores. Pero Pair no le dejará llevar hasta 50 máquinas Después del almuerzo y luego cerrar sus negocios cuando vuelve a su casa para la cena.
Considerando que la Amazonia EC2 es un sistema automatizado para la provisión virtual Máquinas, otro enfoque que se lleva a cabo por 3Tera, una pequeña empresa en Aliso Viejo, California. 3Tera ha desarrollado un sistema operativo de red Computación que permite que una única solicitud que se desplegarán a través de múltiples Máquinas de forma automatizada. A partir de este escrito ha licenciado su 3Tera
UtilityServe a la tecnología, que se prolongará AppLogic basada en las solicitudes de Entre 75 y 99 centavos por hora-GB de RAM; ancho de banda es de $ 1,49 a $ 1,99 12; LO G I N: L VO. 3 2, N O. 1
Por GB, la compañía incluye entre 100 4000 GB de almacenamiento en su
Base de paquetes, y vende almacenamiento adicional de $ 99 por 50 GB.
Conclusiones S3 y EC2 son, evidentemente, los dos jóvenes inmaduros y servicios: Son Tentadora en lo que prometen, pero Amazon necesidades para abordar las cuestiones De la autenticación, la disponibilidad y la estabilidad a largo plazo antes de las empresas  Debe basarse en serio esta oferta. Yo no confiar en mi empresa o para S3 EC2 sin un contrato firmado en el lugar que se indica claramente las obligaciones del Amazonas Y mi recurso contra la Amazonia si esas obligaciones no se cumplieron.
Al mismo tiempo, creo que el S3 y EC2 son una muestra de los tipos de ordenador Utilidad de los servicios que estarán disponibles en el no tan lejano futuro.
Alta calidad de almacenamiento, cálculo, y el ancho de banda estará disponible en Precios de los productos básicos. Con suerte otras empresas reimplementar la Del lado del servidor de las API de Amazon, que permite pasar fácilmente de un servicio De un proveedor a otro. Con este tipo de servicios, me puede pasar a mi  Tiempo utilizando una computadora de utilidad, en lugar de construir uno de los servidores blade  RAID y cajas. Entonces puedo dedicar mi tiempo a preocuparse por los algoritmos  En lugar de espacio de rack, facturas de electricidad, y la refrigeración.
Debido a que se está ejecutando tantas computadoras, Amazon puede ejecutar un lote Más barato que lo que pueda. Suponiendo que la empresa puede hacer valer su  Implícita la disponibilidad de ancho de banda y compromisos, este va a ser un muy Obligar a ofrecer.
REFERENCIAS
[1] http://developer.amazonwebservices.com/connect/thread.jspa
? MessageID = 46813.
[2] http://www.afflib.org/.
[3] http://curl.haxx.se/.
; LOGIN: FEBRERO DE 2007 LOS 13 GRID COMPUTING


Computer Services GRID . Art. Edgar Guerra .2016 TRAB. DOCTORADO

EDGAR GUERRA